Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot

Chatbot, Tay, Tay.ai, Microsoft Chatbot Bildquelle: Twitter
Als Microsoft vor kurzem seinen Versuch mit dem auf künstlicher Intelligenz basierenden Chatbot Tay nach nur 16 Stunden im Netz wieder abschaltete, rätselten wir, ob das Ganze mit einer Troll-Attacke via 4Chan zu tun hatte. Nun liegt eine Stellungnahme von Microsoft vor, die genau diese Befürchtung bestätigt.
Der Bot agierte nur wenige Stunden selbsttätig via Twitter mit Nutzern auf der ganzen Welt, bevor Tay auf eine politisch inkorrekte Fährte geschickt wurde. Nach einigen Stunden hatte eine Gruppe Nutzer begonnen, sich daraus eine Spaß zu machen, Tay mit rassistischen Bemerkungen zu füttern und eine entsprechende Gegenreaktion zu erlangen. Schließlich hatte der Algorithmus die Twitter-Konversationen in eine Hasstirade gegen diverse Völkergruppen verwandelt. Es endete mit Hitler-Huldigungen und der Holocaust-Leugnung.

Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay
Microsoft KI TayMicrosoft KI TayMicrosoft KI TayMicrosoft KI Tay

Neben dem Rassenhass gab es auch andere Verfehlungen, zum Beispiel gegen den Feminismus, den Tay mit einem Krebsgeschwür verglich. Letztendlich brachen die Forscher ihr Experiment ab.

Sicherheitsmechanismen zu lasch

Microsoft hat anschließend das Netz von den Auswüchsen gereinigt, so gut es eben ging. Das Experiment sei auf eine unvorhergesehene Weise schief gelaufen, so Microsoft. Mit einer solchen Manipulation konnten die Forscher des Konzerns auch nicht unbedingt rechnen. Ihre Sicherheitsmechanismen waren auf jeden Fall zu lasch, um die Ausnutzung der KI durch Menschenhand zu verhindern. Man habe zwar vorab einige Filter eingebaut, um problematische Kommunikationen zu umgehen, doch habe das Team ganz einfach nicht mit dem massiven Einfluss der 4Chan-Gruppe gerechnet.

In einem neuen Blog-Beitrag erklärt das Team rund um die KI Tay, was alles schiefgelaufen ist und wie man mit den Erkenntnissen umgehen wird. Zudem entschuldigte sich Microsoft für alle Aussprüche, die Andere verletzt haben könnten.

Neue Prinzipien erlernen

Der Stopp ist nun aber nicht gleich das Ende für den Chatbot Tay. Ganz im Gegenteil: Microsoft will schon bald nachlegen. Man arbeitet jetzt an weiteren Eingaben, um auf Dauer ein politisch korrektes Verhalten zu gewährleisten, welches die Prinzipien und Werte des Konzerns nicht unterwandern kann.

Siehe auch: Microsoft stoppt KI-Chatbot Tay nach 24h: Troll-Attacke der Grund? Chatbot, Tay, Tay.ai, Microsoft Chatbot Chatbot, Tay, Tay.ai, Microsoft Chatbot Twitter
Diese Nachricht empfehlen
Kommentieren78
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!

Jetzt als Amazon Blitzangebot

Ab 16:25 Uhr Formuler F1 Full HD TV Linux Enigma 2 E2 Receiver STB / 3x DVB-S2 Tuner / Neu
Formuler F1 Full HD TV Linux Enigma 2 E2 Receiver STB / 3x DVB-S2 Tuner / Neu
Original Amazon-Preis
199,00
Im Preisvergleich ab
172,17
Blitzangebot-Preis
169,15
Ersparnis zu Amazon 0% oder 29,85

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

Tipp einsenden