Taylor Swift soll bedroht sein, Microsoft wegen rassistischem Twitter-Bot zu verklagen


Microsoft Tay Chatbot Version 1458914121 ai

Als aus einem künstlich intelligenten Chatbot, der mithilfe von Twitter lernte, wie man ohne Überraschung spricht, ein Bigot-Bot wurde, drohte Taylor Swift Berichten zufolge mit rechtlichen Schritten, da der Name des Bots Tay war. Microsoft würde wahrscheinlich lieber das Experiment vergessen, bei dem Twitter-Trolle die Chatbot-Programmierung ausnutzten und 2016 lehrten, rassistisch zu sein. In einem neuen Buch werden jedoch unveröffentlichte Details veröffentlicht, die zeigen, dass Microsoft mehr zu befürchten hatte als nur die rassistischen Äußerungen des Bots.

Tay war ein Social-Media-Chatbot für Jugendliche, der zum ersten Mal in China gestartet wurde, bevor der Dreibuchstabenname bei einem Umzug in die USA angepasst wurde. Der Bot war jedoch darauf programmiert, anhand von Twitter-Gesprächen das Sprechen zu erlernen. In weniger als einem Tag hatten die automatischen Antworten, die der Chatbot getwittert hatte, Tay auf Hitlers Seite, förderten den Völkermord und hassten im Allgemeinen alle. Microsoft hat das Konto sofort entfernt und sich entschuldigt.

Als der Bot neu programmiert wurde, wurde Tay als Zo neu gestartet. Aber im Buch Werkzeuge und Waffen Von Microsoft-Präsident Brad Smith und Carol Ann Browne, der Kommunikationsdirektorin von Microsoft, haben die Führungskräfte endlich den Grund dafür verraten – einen weiteren Tay, Taylor Swift.

Laut The Guardian drohte der Anwalt des Sängers mit einer gerichtlichen Klage wegen des Namens des Chatbots, bevor der Bot in die Brüche ging. Der Sänger behauptete, der Name verstoße sowohl gegen Bundes- als auch gegen Landesgesetze. Anstatt mit dem Sänger in einen Rechtsstreit zu geraten, begann das Unternehmen, neue Namen in Betracht zu ziehen, schreibt Smith.

Als der Chatbot rassistische Tweets verschickte, gab der Sänger noch mehr Anlass zur Sorge. Microsoft hat den Bot entfernt. Aber als der Chatbot wieder auftauchte, war Tay nicht länger TayTweets, sondern Zo, mit einem neuen Programm, das den Bot daran hindert, Politik, Rasse und Religion als Themen zu thematisieren. Der überarbeitete Chatbot, den Messenger und andere zusammen mit Twitter zur Verfügung stellten, wurde später dafür kritisiert, dass er einem stereotypen Teenager-Mädchen zu sehr ähnelte.

Der verkürzte Moniker ist nicht das Einzige, worauf die Sängerin Anspruch hat – sie hat auch 1989, das Jahr ihrer Geburt und den Titel eines ihrer Songs eingetragen. Die Sängerin hat auch mehrere Zeilen aus ihren Texten registriert.

In dem am 10. September veröffentlichten Buch wird weiterhin diskutiert, wie Smith den Vorfall als Lektion in A.I. Sicherheitsvorkehrungen.

Empfehlungen der Redaktion