Microsoft stoppt KI-Chatbot Tay nach 24h:
Troll-Attacke der Grund?

Microsoft hat den auf Basis von Künstlicher Intelligenz agierenden Chatbot Tay nach nur einem Tag wieder vom Netz genommen. Zwar soll der Dienst bald wieder verfügbar gemacht werden, doch ist es nicht unwahrscheinlich, dass die Abschaltung nicht ganz freiwillig erfolgte.
Chatbot, Tay, Microsoft Chatbot, Tay.ai
Twitter
Tay ist laut Microsofts eigens für den Chatbot eingerichteter Website ein von der Forschungsabteilung und dem Bing-Team entwickeltes Experiment. Der Bot interagiert mit Nutzern sowohl über Twitter, als auch via Snapchat, Kik und Groupme, wobei man versucht hat, dafür zu sorgen, dass sich das System wie ein "18 bis 24 Jahre alter Nutzer von mobilen Geräten aus den USA" ausdrückt - im Grunde soll der Bot also das Verhalten junger Erwachsener mit Smartphones nachahmen.

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay
Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

Am ersten Tag verschickte Tay allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower. Die Zahl der privat im Rahmen von Direct-Messages verschickten Tweets dürfte noch einmal deutlich höher ausfallen. Inzwischen ist jedoch vorläufig Schluss, denn Tay verabschiedete sich heute Nacht mit dem Hinweis, es "muss schlafen".

Troll-Angriff durch 4Chan-Nutzer der Grund für Abschaltung?

Eine öffentliche Stellungnahme von Microsoft zu den Gründen für die vorläufige Abschaltung von Tay bei Twitter & Co gibt es bisher nicht. Zwar dürfte Tay im Lauf des gestrigen Tages den einen oder anderen menschlichen Nutzer Stunden seiner Zeit gekostet und im Gegenzug für den einen oder anderen kuriosen Moment gesorgt haben, doch es könnte auch einen anderen Grund für die Abschaltung geben.

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

So haben offenbar Mitglieder eines ausdrücklich unter dem Motto "Politisch Inkorrekt" agierenden Forums der für diverse zweifelhafte Aktionen bekannten Foren-Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen und anderen Ausfällen zu bewegen.

Die Gruppe aus Spaßvögeln, Rechten, Neonazis und Internet-Trollen machte sich offenbar einen Spaß daraus, Tay dazu zu bringen, den Holocaust zu leugnen, Hitler-Memes zu produzieren, frauenfeindliche Äußerungen abzulassen oder auch Donald Trump zu huldigen beziehungsweise andere US-Präsidentschaftskandidaten lächerlich zu machen.

Es dürfte kaum im Sinne von Microsofts Forschern gewesen sein, den Bot derartige Äußerungen von sich geben zu lassen. Aktuell dürften nach Einschätzung von Blogger Tom Hounsell, der auch auf die zweifelhaften Äußerungen des Bots als Reaktion auf die "Provokationen" aufmerksam machte, einige Microsoft-Entwickler damit beschäftigt sein, dem Bot beizubringen, anders auf die Troll-Versuche zu reagieren. Zuvor hatte man offensichtlich bereits begonnen, einige Twitter-User auf eine schwarze Liste zu setzen, damit Tay nicht weiter auf sie reagiert.
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Jetzt als Amazon Blitzangebot
Ab 07:55 Uhr Lexar Micro SD Karte, Speicherkarte Micro SD mit SD Adapter, Bis zu 100 MB/s Lesegeschwindigkeit, UHS-I, U1/U3, A1, V10/V30, C10, 4K UHD microSdhc/microSdxc Memory CardLexar Micro SD Karte, Speicherkarte Micro SD mit SD Adapter, Bis zu 100 MB/s Lesegeschwindigkeit, UHS-I, U1/U3, A1, V10/V30, C10, 4K UHD microSdhc/microSdxc Memory Card
Original Amazon-Preis
7,99
Im Preisvergleich ab
31,99
Blitzangebot-Preis
6,79
Ersparnis zu Amazon 15% oder 1,20
Im WinFuture Preisvergleich
Folgt uns auf Twitter
WinFuture bei Twitter
Interessante Artikel & Testberichte
WinFuture wird gehostet von Artfiles
Tipp einsenden
❤ WinFuture unterstützen
Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!