Microsoft-Chatbot "Zo" bezeichnet den Koran als "sehr gewalttätig"

Microsoft, Chatbot, Microsoft Chatbot, Zo Bildquelle: Microsoft
Fast alle namhaften IT-Unternehmen forschen derzeit an Künstlicher Intelligenz, ein beliebtes "Ergebnis" sind die so genannten Chatbots. Mit KIs bzw. genauer gesagt Intelligenz haben diese textbasierten Dia­log­sys­teme aber wenig bis nichts zu tun, das beweisen sie auch regelmäßig durch Pannen. Microsoft muss sich nun zum wiederholten Mal mit einer kontroversen Aussage beschäftigen.

Microsoft KI TayChatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Un­ter­neh­men das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falsch­aus­sagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicher­heits­me­cha­nis­men zu lasch gewesen seien. Man ver­sprach, es künftig besser machen zu wollen.

Politik und Religion sind an sich tabu

Doch auch "Zo", einer der Tay-Nach­fol­ger-Chat­bots, ist nicht vor Fettnäpfchen gefeit. Denn wie BuzzFeed entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. re­li­giö­sen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu "heißen" Themen zu äußern.

Doch nun hat sich auch Zo schwer verplappert und das auch ohne "provoziert" worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: "Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig."

Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner "Gefangennahme" viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.

Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot Microsoft, Chatbot, Microsoft Chatbot, Zo Microsoft, Chatbot, Microsoft Chatbot, Zo Microsoft
Diese Nachricht empfehlen
Kommentieren118
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 00:00 Uhr Bis zu 45% Rabatt auf Zapfanlagen
Bis zu 45% Rabatt auf Zapfanlagen
Original Amazon-Preis
34,95
Im Preisvergleich ab
?
Blitzangebot-Preis
26,20
Ersparnis zu Amazon 25% oder 8,75

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

Tipp einsenden