Microsoft stoppt KI-Chatbot Tay nach 24h: Troll-Attacke der Grund?

Chatbot, Tay, Tay.ai, Microsoft Chatbot Bildquelle: Twitter
Microsoft hat den auf Basis von Künstlicher Intelligenz agierenden Chatbot Tay nach nur einem Tag wieder vom Netz genommen. Zwar soll der Dienst bald wieder verfügbar gemacht werden, doch ist es nicht unwahrscheinlich, dass die Abschaltung nicht ganz freiwillig erfolgte.
Tay ist laut Microsofts eigens für den Chatbot eingerichteter Website ein von der Forschungsabteilung und dem Bing-Team entwickeltes Experiment. Der Bot interagiert mit Nutzern sowohl über Twitter, als auch via Snapchat, Kik und Groupme, wobei man versucht hat, dafür zu sorgen, dass sich das System wie ein "18 bis 24 Jahre alter Nutzer von mobilen Geräten aus den USA" ausdrückt - im Grunde soll der Bot also das Verhalten junger Erwachsener mit Smartphones nachahmen.

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay
Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

Am ersten Tag verschickte Tay allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower. Die Zahl der privat im Rahmen von Direct-Messages verschickten Tweets dürfte noch einmal deutlich höher ausfallen. Inzwischen ist jedoch vorläufig Schluss, denn Tay verabschiedete sich heute Nacht mit dem Hinweis, es "muss schlafen".

Troll-Angriff durch 4Chan-Nutzer der Grund für Abschaltung?

Eine öffentliche Stellungnahme von Microsoft zu den Gründen für die vorläufige Abschaltung von Tay bei Twitter & Co gibt es bisher nicht. Zwar dürfte Tay im Lauf des gestrigen Tages den einen oder anderen menschlichen Nutzer Stunden seiner Zeit gekostet und im Gegenzug für den einen oder anderen kuriosen Moment gesorgt haben, doch es könnte auch einen anderen Grund für die Abschaltung geben.

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

So haben offenbar Mitglieder eines ausdrücklich unter dem Motto "Politisch Inkorrekt" agierenden Forums der für diverse zweifelhafte Aktionen bekannten Foren-Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen und anderen Ausfällen zu bewegen.

Die Gruppe aus Spaßvögeln, Rechten, Neonazis und Internet-Trollen machte sich offenbar einen Spaß daraus, Tay dazu zu bringen, den Holocaust zu leugnen, Hitler-Memes zu produzieren, frauenfeindliche Äußerungen abzulassen oder auch Donald Trump zu huldigen beziehungsweise andere US-Präsidentschaftskandidaten lächerlich zu machen.

Es dürfte kaum im Sinne von Microsofts Forschern gewesen sein, den Bot derartige Äußerungen von sich geben zu lassen. Aktuell dürften nach Einschätzung von Blogger Tom Hounsell, der auch auf die zweifelhaften Äußerungen des Bots als Reaktion auf die "Provokationen" aufmerksam machte, einige Microsoft-Entwickler damit beschäftigt sein, dem Bot beizubringen, anders auf die Troll-Versuche zu reagieren. Zuvor hatte man offensichtlich bereits begonnen, einige Twitter-User auf eine schwarze Liste zu setzen, damit Tay nicht weiter auf sie reagiert. Chatbot, Tay, Tay.ai, Microsoft Chatbot Chatbot, Tay, Tay.ai, Microsoft Chatbot Twitter
Mehr zum Thema: Microsoft Research
Diese Nachricht empfehlen
Kommentieren112
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!

Jetzt als Amazon Blitzangebot

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

Tipp einsenden