Taylor Swift wollte Microsoft wegen rassistischen Chatbots verklagen

Chatbot, Tay, Microsoft Chatbot, Tay.ai Bildquelle: Twitter
Microsoft kam 2016 mit einem KI-basierten Bot in die Schlagzeilen, der auf Twitter chattende "Taybot" fiel nämlich mit beleidigenden und ras­sis­ti­schen Tweets auf. Doch mit Taybot gab es bereits zuvor Probleme, denn Taylor Swifts Anwälte störten sich am Namen. Viele, die mit aktueller Popmusik nicht ganz so viel anfangen können, werden vermutlich nicht wissen, dass Superstar Taylor Swift einen Spitznamen hat, nämlich TayTay. Das wusste auch Brad Smith nicht, der Microsoft-Präsident und Chefjurist des Redmonder Konzerns. Smith verriet nun in seinem neuen Buch "Tools and Weapons: The Promise and the Peril of the Digital Age", dass er vor dem Start von Microsofts Taybot eine Mail eines nicht näher genannten Anwalts aus Beverly Hills bekommen hat.

Smith schreibt dazu: "Ich war auf Urlaub, als ich den Fehler gemacht habe, während des Abendessens auf mein Phone zu schauen. Denn es kam eine E-Mail von einem Beverly-Hills-Anwalt. Dieser stellte sich vor, indem er mir schrieb: 'Wir repräsentieren Taylor Swift und wenden uns in ihrem Namen an sie'."



Taylor "TayTay" Swift

Der Microsoft-Manager weiter: "Er fuhr fort und teilte mir mit, dass 'der Name Tay, wie Sie sicherlich wissen, eng mit unserer Klientin verbunden ist.'Das wusste ich genau genommen nicht, die E-Mail hat aber dennoch meine Aufmerksamkeit bekommen'." Der Anwalt erklärte dem Microsoft-Mann, dass der Name Tay eine "irreführende Verbindung zwischen der populären Sängerin und unserem Chatbot wecke", so Smith, das sei ein Verstoß gegen Bundesgesetze sowie jene des Staats Kalifornien.

Die Anwälte von Taylor Swift drohten mit Klage, wie der Guardian berichtet. Es blieb bei der Drohung, denn die Geschichte erledigte sich in gewisser Weise von selbst. Denn der Taybot startete zwar, Microsoft musste aber nach knapp 18 Stunden von sich aus den Stecker ziehen.

Grund war, dass es Nutzern (organisiert via 4chan) gelungen ist, Taybot rassistische und beleidigende Antworten zu entlocken. Denn Tay sollte eigentlich aus Konversationen mit Nutzern lernen, diese brachten dem Bot aber Ansichten bei, die nationalsozialistisch, frauenfeindlich und auf sonstige Weise inakzeptabel waren. Ganz unrecht hatten die Anwälte Swifts mit ihren Bedenken also doch nicht.

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay
Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

Chatbot, Tay, Microsoft Chatbot, Tay.ai Chatbot, Tay, Microsoft Chatbot, Tay.ai Twitter
Diese Nachricht empfehlen
Kommentieren7
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 15:55 Uhr MECO ELEVERDE USB Verteiler Aluminium USB 3.0 Hub mit Netzteil-5V3A Datenhub SuperSpeed bis zu 5Gbp USB Leiste für Apple MacBook, MacBook Pro, iMac, Notebook, Windows Laptops und Ultrabooks uswMECO ELEVERDE USB Verteiler Aluminium USB 3.0 Hub mit Netzteil-5V3A Datenhub SuperSpeed bis zu 5Gbp USB Leiste für Apple MacBook, MacBook Pro, iMac, Notebook, Windows Laptops und Ultrabooks usw
Original Amazon-Preis
28,98
Im Preisvergleich ab
26,99
Blitzangebot-Preis
19,98
Ersparnis zu Amazon 31% oder 9
Im WinFuture Preisvergleich

Tipp einsenden