Microsoft testet KI-Chatbot Tay: Kuriose Konversationen per Twitter

Microsoft testet offenbar eine englischsprachige Variante seines in China bereits seit längerer Zeit verfügbaren Chat-Bots Xiaoice. Bei einer Reihe von Social-Media-Diensten sind jetzt Profile eines Nutzers namens Tay aufgetaucht, mit denen man per ... mehr... Chatbot, Tay, Tay.ai, Microsoft Chatbot Bildquelle: Twitter Chatbot, Tay, Tay.ai, Microsoft Chatbot Chatbot, Tay, Tay.ai, Microsoft Chatbot Twitter

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Warum sollte jemand mir einem Computer chatten wollen? Absurder geht wohl nicht mehr.
 
@Trabant: Einmal kurz um die Ecke gedacht, und schon hättest auch du die Antwort:

Es geht darum, ein KI-System zu "trainieren", und das funktioniert nun mal am effektivsten, wenn man es der stinknormalen Öffentlich aussetzt, da so die Chancen auf eine hohe Interaktionsrate mit echten Menschen wesentlich höher stehen und auch viel lebensnäher sind als im abgeschlossenen Laborbetrieb.
 
Man kann diese rein syntaktische Spielerei noch so effektiv "trainieren", es wird immer nur eine rein syntaktische Spielerei bleiben, da das betreffende System nicht in der Lage ist, "etwas zu verstehen" bzw. immer nur "vorgeben kann", etwas zu verstehen (siehe Searles "Chinesisches Zimmer", Gödel-Turing-Argument von Penrose, et cetera). In dieser Hinsicht wird also nur die Fähigkeit "trainiert", ein möglichst guter "Blender"/"Simulator" zu sein; Optimierung psycholinguistischer Tricks. Daher ist das, was Trabant angesprochen hat, in der Tat eine eigentlich absurde Situation und seine Festellung Ausdruck mentaler Gesundheit.
 
@MartinV:
Auch wenn ich dir in der technische Einschätzung vollkommend recht gebe, ist diese technische Limitierung nicht gleichzusetzen mit der Unsinnigkeit eines solchen Systems.
Das Ziel ist es sicherlich irgendwann zu einem System zu haben, indem ein menschlicher Gesprächspartner nicht mehr erkennt ob das künstlich ist oder nicht. Völlig unabhängig davon ob es sich dabei um eine sehr gute Simulation handelt oder gar schon wahrer KI (letzeres schließe ich noch sehr sehr sehr Lange aus). Und darauf kommt es an, was es am Ende tatsächlich ist, spielt fast keine Rolle. Gerade mit menschlicher Interaktion ist der Entschiedene Faktor was der Mensch denk, was sein gegenüber ist.

Wozu überall so ein System eingesetzt werden kann, brauche ich gar nicht zu erwähnen.

Aber auch schon alleine Chat aus neugierte, wie gut das System ist, rechtfertigt ein Gespräch mit Tay.
 
@Trabant: Weil so etwas in Zukunft vermutlich in vielen Fällen den First Level Support bei Unternehmen erstezen soll. Mit gut funktionierender und gut trainierter KI könnte man vermutlich über die Hälte aller Support-Anfragen in bestimmten Bereichen abfangen, die sich durch Unwissenheit des Nutzers ergeben. Da muss man dann nicht mehr Studenten mit dicken Fragenkatalogen ans Telefon setzen, die keine Ahnung vom Produkt haben, aber eben Standardfragen nachschlagen, sondern lässt das die KI machen. Kommt die KI nicht weiter, gibt sie an den Second Level Support ab, in dem dann wieder Menschen sitzen, die aber entsprechend geschult sind bzw. das Produkt eben gut kennen und in eine Fehleranalyse einsteigen können.
 
@Trabant: Schon heute gibt es häufiger Stellen an denen man mit Computern chatten kann: Hotelbuchungen, Fahrkarten-Systemen, Expertensysteme, ... Und da kann noch viel verbessert werden.
 
@Trabant: das könnte man gut mit Cortana kombinieren.
 
@Trabant: Oder mit dem Hund, der Katze oder gar Pflanzen... Sachen gibt's!
 
Nach Sichtung der Screenshots ist der in etwa so "intelligent" wie der bot den ich damals mit 15 für mIRC kodiert habe.
 
@Jas0nK: Finde ich auch noch nicht besonders gut, ein Bot wie Mitsuku liefert deutlich bessere Antworten, Tay ist ja schon bei sowas wie "How are you" oder "Who will be the next president" überfordert. Naja vielleicht bessert sich das noch.
 
@theBlizz: Reden wir hier über ein Starres System oder eine KI die Trainiert werden muss?
Also...
 
@Alexmitter: "Naja vielleicht bessert sich das noch."
Danke, ohne dich wäre ich echt nie darauf gekommen.
 
@theBlizz: Wie währe es mit, "Sie wird sich auf jeden fall bessern denn es ist eine lernende KI"
 
@Alexmitter: Schön dass du den Quelltext vom Algorithmus bereits durchlesen konntest und das weißt, hat ja nicht jeder solche Insider Informationen. Achso ne ist ja Microsoft PR, dann muss das wohl so sein, immerhin kann er jetzt schon Nazipropaganda verbreiten.
 
@theBlizz: Und das ist ein schönes beispiel wie Lernfähig und selbstständig diese KI doch ist.
 
@theBlizz: Natürlich weiß er es besser. Wie immer - und das Teil ist von Microsoft. Also *muss* es besser werden. Solange seine Brille den Rest der Welt ausblendet.
 
@Alexmitter: Weil das Ding von außen eine Abschaltung erfahren hatte?
 
@iamunknown: Nein, weil sie durch die Behandlung mit /pol/ schnell zu dem wurde was MS dazu gebracht hat sie abzuschalten.
 
@Alexmitter: Wobei Microsoft schon eher lernresistent ist, ich erinnere mich noch an einen Bot der gerne mit Kindern über Oralsex redete.
http://www.theregister.co.uk/2007/12/03/santa_filth_outrage/
Was kommt als nächstes, selbstständige Weltübernahme? Tolles Projekt, danke Microsoft.
 
@theBlizz: Es ist eine lernender Chat bot. Was genau ist verwerflich damit.
Der Bot hat sich richtig verhalten, /pol/ wollte es nun mal so.
Wenn du so auf ein kind einredest lernt es auch, wie jede Software.
 
@Jas0nK:
Genau so wie alles andere das jemals bisher geschrieben wurde. Ein Programmcode kann aus technischen Gründen nicht intelligent sein. Es ist ein Algorithmus der einfach abgearbeitet wird.

Dennoch stelle ich die wage Behauptung auf das der Algorithmus von MS deinen (mit 15 geschrieben) recht überlegen ist.
 
Tay antwortet auf Twitter nicht
Kommentar abgeben Netiquette beachten!