Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot

Als Microsoft vor kurzem seinen Versuch mit dem auf künstlicher Intelligenz basierenden Chatbot Tay nach nur 16 Stunden im Netz wieder abschaltete, rätselten wir, ob das Ganze mit einer Troll-Attacke via 4Chan zu tun hatte. mehr... Chatbot, Tay, Tay.ai, Microsoft Chatbot Bildquelle: Twitter Chatbot, Tay, Tay.ai, Microsoft Chatbot Chatbot, Tay, Tay.ai, Microsoft Chatbot Twitter

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Nicht vorhersehbar? Ich habe nichts anderes erwartet.
 
@aecro: in was für einer Welt leben wir ? Ich als normal denkender Mensch käme niemals auf die Idee eine KI mit solchem Dreck zu füttern. Mich macht das traurig und es zeigt wie Abscheulich primitiv und hinterblieben die Gattung Mensch doch ist. Ich fühle Fremdschämen und ich möchte flüchten und mit solchen Individuen die leider der Masse entsprechen NICHT auf eine Evolutionsstufe gestellt werden !
 
@Vectrex71: Lebst wohl hinterm Baum??? Oder bist noch nicht so lange auf der Welt? Anders kann ich mir dieses Kommentar nicht erklären.
 
@BasedGod: Wieso? Er hat doch vollkommen Recht. Die Masse der Menschen ist einfach nicht bereit irgend eine Form von Technologie verantwortungsbewusst zu nutzen.

Nichts anderes sagt er. Er wundert sich nicht, sondern stellt nur fest und ist davon enttäuscht. Was man auch sein sollte. Der Mensch hält sich immer für die Krone der Schöpfung, doch die Taten der Masse sprechen absolut dagegen.

Was hier mit Tay passiert ist, ist nur wieder ein Beweis für die Verdorbenheit der Menscheit. Und das ist als nichts anderes zu bezeichnen als "traurig". Allerdings nicht wirklich unerwartet.
 
@Draco2007: >Was hier mit Tay passiert ist, ist nur wieder ein Beweis für die Verdorbenheit der Menscheit. Und das ist als nichts anderes zu bezeichnen als "traurig". Allerdings nicht wirklich unerwartet.<

Nööö, das Schlimmste ist die Erschaffung von Tay in sich.
 
@Kruemelmonster: Was ist daran schlimm? KI-Forschung halte ich für sehr wichtig.

Oder kommst du mir jetzt mit Skynet-Verschwörungen?
 
@Draco2007: :-) bist du Tay ;-)
 
@Draco2007: Ich sehe da nichts verdorbenes drin. Es warn ein paar dumme Kiddies die sich ne Gaudi draus gemacht haben.

Imho waren die Ergebnisse die sie erzielt haben sehr wertvoll und werden MS helfen derartige Lernalgorithmen zu verbessern.

Das da so ein riesen Drama draus gemacht wird versteh ich persönlich nicht, schließlich wurde keinerlei Schaden angerichtet. Menschen die sich von so einer Lapalie das Federkleid aufplustern lassen müssen eine sehr niedrige Toleranz für unorthodoxes haben.
 
@BasedGod: Es sollte mehr Menschen wie dich geben. Die das gute im Menschen sehen, gut gelaunt in den Tag gehen, andere Meinungen akzeptieren, sich in Internet Foren höflich ausdrücken können. Ich glaube das Du ein sehr zufriedener und ausgeglichener Mensch bist. Wie dein Nickname schon erahnen lässt, Gottgleich. Schön das Du hier bist, und anderen höflich aber bestimmend aufzeigt, wie sie zu denken haben. Einer muss ja es machen, und dafür sind dir bestimmt viele dankbar, dass DU diese Bürde auf dich nimmst.
 
@Ashokas: Er kann denken was er will. Kam aber nun mal so rüber als wäre er total überrascht und schockiert.
Deswegen mein Kommentar, anders kann ich es mir eben nicht erklären, daws man da dann noch schockiert ist, bzw sich aufregt oder so macht, als gäbe es sowas nicht. (Außer man lebt hinterm Baum)

Und wenn du BasedGod nicht kennst, kann ich auch nichts dafür.
 
@BasedGod: Vollkommen richtig. Wer einmal begriffen hat, das die Anonymisierung durch das Internet das "normale" im Menschen herauskommen lässt, wundert sich absolut nicht darüber. Die Maske die wir in der Gesellschaft tragen, um miteinander besser auszukommen, ist eben genau das, eine Maske. Und bei solchen Aktionen sieht man die Menschen mal unmaskiert. Ich jedenfalls hab mich totgelacht. Nicht wegen des inhaltes, das hätte man imho niveuavoller lösen können. Z.B indem man den Bot begreifen lässt, wie demagogisch Trump ist oder so, aber weil es mal wieder gezeigt hat, das eine künstlichen Intelligenz mit menschen ohne "Maske" interagieren muss. Und nicht mit Mitmenschen, die sich an Ethik und Moral halten.
 
@Speggn: Super Beitrag! :)
 
@Vectrex71: "normal denkender Mensch"? Was soll das für eine biologische Gattung sein? Ich würde das aber nicht auf sowas wie Tay, von mir aus auch FB&Co oder das Internet generell beschränken. Jeder normal denkende Mensch würde z.B. auch davon ausgehen, dass gebrauchte Babywindeln nicht unbedingt in den Altpapier Container gehören. Ich könnte hier eine ziemlich lange Liste posten, wo man sich fragt was da bei den Leuten schief gelaufen ist.
 
@Vectrex71: Auch wenn es für einige wohl ein Problem darstellt, das ganze war ein Experiment und es ist gut das das letztlich passiert ist!

Damit sieht man welche Probleme es zu lösen gibt und was passiert wenn die KI keine eigene "Vorstellung" von bestimmten Werten hat. Es fehlt einfach ein Modul was ethische Probleme auswertet und verhindert das sich die KI in eine bestimmte Richtung (oder auch in die braune Ecke) ziehen lässt.

Wenn ich zu Siri sage das sie "eine alte Dreckschlampe" ist wird sie entsprechend reagieren, genau so eine Überprüfung muss es auch für politisch und moralisch bedenkliche Themen geben.
 
@X2-3800: >Wenn ich zu Siri sage das sie "eine alte Dreckschlampe" ist wird sie entsprechend reagieren, genau so eine Überprüfung muss es auch für politisch und moralisch bedenkliche Themen geben.<

die Menschheit im Netz moralisch kontrolliert von KI ......... jeppp, das brauchen wir sooooooooo dringend.

Fehlt nur noch der Schalter, Hirn des User ausschalten
 
@Vectrex71: So ein quatsch, sorry. Jeder der mit einer KI chattet wird nichts anderes versuchen, als ihr etwas witziges oder eben auch verwerfliches zu entlocken. Immerhin will man ausloten, wie "intelligent" der Bot ist, mit dem man "spricht". Ansonsten wäre man doch nach wenigen Minuten gelangweilt. Dabei denke ich auch nicht dass man selbst dabei ein Rassist oder Sexist etc. sein muss, nur ist es eben nicht spannend, einem Bot zu entlocken, dass er Sonnenschein schön findet und alle Menschen gleich liebt. Wenn du selbst "als normal denkender Mensch" keine Neugierde hast, keine Grenzen auslotest, und dein Gegenüber stets nur nach dem Wetter fragst, dann kann ich dir sagen, dass du mit dieser Einstellung die Evolution sicher nicht weiterentwickeln würdest ;) Denn den vermeintlichen "Trollen" ist es jetzt zu verdanken, dass Microsoft den Bot weiterentwickeln und somit eine Evolutionsstufe weiterbringen wird. Das wäre nicht passiert, wenn alle Tay nur gefragt hätten, wie es ihr geht und was ihre Lieblingsfarbe ist.
 
@lutschboy: Klare Ansage! :D
 
@Vectrex71: Dann geh mal als Kind oder Jugendlicher in den neuen Bundesländern in den Jugendraum deiner Gemeinde - ach den gibt es ja nicht - also in das Jugendzentrum sponsored by DVU.
Es ist gut, dass die Gruppe aufgezeigt hat wie einfach man Meinungen von ungeformten "Intelligenzen" bilden kann und wie man Lügen als Wahrheit ins Bewusstsein verankern kann.
Auch für die Forscher von MS ist es eine Lektion gewesen und die haben sehr viel aus dem Experiment gelernt (hoffentlich).
Bei so einer KI ist es auch ganz einfach ihr zu erklären warum die Menschheit schlecht ist und ausgelöscht gehört Um mit einem Augenzwinkern mal ein Bisschen SciFi einzubringen.
 
@Vectrex71: "Ich als normal denkender Mensch" zeigt schon das du meinst andere wären nicht normal denkend. Komisch wie schnell man da zu neigt so einen "Dreck" in die Welt zu setzen.
 
@Vectrex71: willkommen unter Menschen! Ich hatte auch nichts anderes erwartet - zumindest nicht seit dem ich (vor etwa 15? Jahren) 4chan kennengelernt habe.

Das würde alles keine so großen Wellen schlagen wenn jeder in den Ländern des Westens alles frei sagen dürfte was er / sie will. So aber wird auch im Westen immer stärker zensiert. Man hätte es auch damit erklären können, dass es sich hierbei um eine KI handelt und diese eben von den falschen gelernt hat. Dann würde man die entsprechenden Daten (falls möglich) löschen und den Bot weitermachen lassen bzw. ein Update veröffentlichen wenn man unbedingt Meinungen etc. zensieren will.

Ich habe mich übrigens mittlerweile damit abgefunden, dass ich zur Gattung Mensch angehöre, die zu vielem fähig ist (und auch entsprechende Wissenschaftler etc. bereits hatte), aber auch dumm wie Brot sein kann. Finde ich nicht toll da ich mit einigen aus dieser Gattung nicht assoziiert werden wollen würde - aber habe ich denn eine Wahl? Hirn, Intelligenz und soziale Rücksicht sind leider keine Voraussetzungen für das Zeugen eines Kindes bzw. damit ein Kind zur Welt kommt.
 
@Vectrex71 (re:1): Es ist die Welt des Internets, die ANONYME !!! Welt des Internets. Da fallen viel zu oft alle Hemmungen und Schamgrenzen und die geballte Dummheit kann sich voll und ungestört entwickeln. Man muß ja keine Rechenschaft ablegen und / oder sich persönlich erkennbar verantworten.
 
Diese saudämliche politische Korrektheit... Jetzt entschuldigen sich auch schon Unternehmen dafür was andere Leute mit ihren Produkten anstellen.
Was kommt als nächstes?
Toyota entschuldigt sich dafür, dass ISIS Toyota fährt?
Adidas weil Breivik ein Shirt von denen getragen hat?
Boeing weil deren Flugzeuge in die Tower am 11. September geflogen wurden?
 
@Freudian: #gamergate was not enough. Sie zucken immernoch. (Rule #2: Double Tap)
 
@Freudian: Es ist immerhin deren "Schöpfung", welche auch noch gewollt autonom gehandelt hat. Es wäre so, als ob sich Eltern für die Taten ihrer Kinder entschuldigen. Deine Beispiele sind ehr unpassend.
Und was ist bitteschön an politischer Korrektheit sau dämlich? Ich weiß, man kann es übertreiben. Aber PC ist eigentlich nicht mehr als eine gewisse Höflichkeit und Anstand (den es im Inet anscheinend nicht gibt) gegenüber anderen zu bewahren.
 
@chillah:
Du verstehst PC nicht, und wie es missbraucht wird, und genauso wenig den Unterschied zwischen einem Script und einem Mensch.
 
@Freudian: Und du wiederum verstehst den Unterschied zwischen Script und KI nicht.
 
@Freudian: Political Correctness soll sicherstellen, dass Beleidigungen, Vorurteile und undifferenzierte Kritik außen vor bleibt und die Diskussion ein sachliches Niveau hält.

Zweckentfremdet der Begriff erst von der politischen Rechten in Amerika, um das Existieren von Zensur zu suggerieren, nur weil die Political Correctness für gesellschaftliche Leitplanken sorgte, wenn es um das unverhohlene öffentliche Beleidigen und Unterstellen ohne Grundlagen geht. Denn genau diese Behauptungen und nicht die rationalen Argumentationen sind es, die sich in den Köpfen der Vollzeitempörten festsetzen. Dass Leute wie du damit nicht zurechtkommen, spricht Bände.

Und nur, falls das bei dir noch nicht angekommen sein sollte: Eltern haften bei Verletzung ihrer Aufsichtspflicht für ihre Kinder. Ist auch das zu politisch korrekt für dich? Und ein autonom agierender Chatbot, der ohne jede Aufsicht auf die Menschheit losgelassen wird, dürfte sich rechtlich stark daran orientieren, da ein Chatbot ganz gewiss nicht rechtlich mündig ist. Insofern muss Microsoft froh sein, wenn die Entschuldigung ausreicht.
 
@Niccolo Machiavelli: macht keinen Unterschied. Wenn man es so sieht, dann ist der Bot wohl nur einige Tage alt gewesen und würde für Aussagen, die er selbst tätigt, nicht rechtlich zur Verantwortung gezogen werden. Oder kennst du Fälle, in denen Eltern für Kinder, die weniger als ein Jahr alt sind, haften?

Dass der Chatbot im Prinzip kein Kind ist, dass er autonom lernt - aber möglicherweise rechtswidrige Tweets dazu geführt haben, dass er ausgegeben hat was er ausgegeben hat - sollte eigentlich Grund genug sein hier nicht von Eltern sprechen zu müssen.

Political Correctness ist Zensur. Das steht für mich fest. Ich für meinen Teil leugne gar nichts und unterstütze auch gar nichts - und engagiere mich politisch so wenig wie möglich. Trotzdem bin ich jedes Mal verwundert warum man die Fehler nicht den Menschen oder Menschengruppen zuschreibt, die sie begangen haben (von denen lebt mittlerweile nahezu keiner mehr), und aufhört die ganze Welt dadurch auch nach über 50 Jahren zu erpressen.
Ja es ist passiert, ja es war natürlich falsch, ja die Menschengruppe hat wohl irgendwelche Wiedergutmachung verdient (aber nicht von mir, da ich mit dem ursprünglichen Schaden nie etwas zu tun hatte). Aber diese immer-präsente Geiselhaft nervt.
 
@divStar: "Oder kennst du Fälle, in denen Eltern für Kinder, die weniger als ein Jahr alt sind, haften?" Das Gesetz macht hier keine Vorgaben bezüglich Alter. Die Eltern haften für Schutzbefohlene, wenn sie die Aufsichtspflicht vernachlässigen.

"Dass der Chatbot im Prinzip kein Kind ist, dass er autonom lernt - aber möglicherweise rechtswidrige Tweets dazu geführt haben, dass er ausgegeben hat was er ausgegeben hat - sollte eigentlich Grund genug sein hier nicht von Eltern sprechen zu müssen."

Das war nur eine Analogie. Das Kind begreift nicht (vollständig), was es tut, genauso wenig der Chatbot. Aber beide handeln autonom. Wenn diese Autonomie dazu führen kann, dass Gesetze verletzt und Regeln gebrochen werden, müssen sie beaufsichtigt werden. Oder glaubst du, Google darf autonomen Autos einfach herumfahren lassen und sich die Hände in Unschuld waschen, wenn sie einen Regelverstoß oder gar Schlimmeres verursachen? Google als Halter haftet in vollem Maße. Mindestens im Rahmen der Regeln zum auskömmlichen Zusammenlebens in Form einer Entschuldigung, bis hin zum wirtschaftlichen Schaden und Schmerzensgeld in voller Höhe. Autonomie der Fahrzeuge hin oder her.

"Trotzdem bin ich jedes Mal verwundert warum man die Fehler nicht den Menschen oder Menschengruppen zuschreibt, die sie begangen haben (von denen lebt mittlerweile nahezu keiner mehr), und aufhört die ganze Welt dadurch auch nach über 50 Jahren zu erpressen."

Genau diese fehlende Differenzierung soll Political Correctness verhindern. Du kritisierst nicht ihre Anwendung sondern ihre Abwesenheit. Das Verbot des Verspotten oder das Leugnen des Holocaustes bezieht sich in keiner Weise auf Lebende, nicht verantwortliche Deutsche, sondern auf Personen, die den Holocaust leugnen, beschönigen, relativieren oder ihn gar als Schablone für das Handeln in anderen Bereichen verwenden wollen. Laut Grundgesetz ist die Würde des Menschen unantastbar. Und diese Handlungen tasten die Würde noch lebender Opfer oder auch von heutigen Menschen, die in das Opferschema fallen zweifellos an. Gegner der Political Correctness stören sich an ihr, eben weil sie *nicht* an differenzierten, zielgenauen Einschätzungen interessiert sind, sondern auf bestem Stammtischniveau Sippenhaft für alle Menschen einer bestimmten Gruppe fordern oder andere wegen irrelevanter Eigenschaften beleidigen.
 
@chillah: PC ist der letzte Blödsinn. Wenn es denn mal nur "allgemeine Höflichkeit" wäre aber inzwischen traut man sich ja kaum noch seine Meinung zu sagen, denn es könnte ja jemand "offensive" finden. >.<
 
@Freudian: Sollte sich Cyberdyne Systems entschuldigen, dass sie Skynet entworfen haben und damit die Welt mit Terminatorn besiedelten...
 
@gettin:
Genial. Wenn nix mehr geht, einfach Fiktion mit Realität vergleichen. :)
 
@Freudian: Natürlich ist es heute noch Fiktion. Allerdings veranschaulicht es dann doch wozu künstliche Intelligenz fähig ist und dass manche Verhaltensweisen unterschätzt werden. Und dieser Artikel ist keine Fiktion!
 
@Freudian: Wie lange noch?
Wir haben Maschinen die sich reproduzieren können...
Dann die Teile von Boston Dynamics...
Das alle mit dem gefüttert was Menschen heute so von sich im Web preisgeben...
Plus ne Portion KI...

Wenn man sich die Entwicklung innerhalb der letzten 10 Jahre anschaut - was ist dann erst in den nächsten 10?

Na ja ich warte noch auf L.I.S.A. :-)
 
wieso gibt ms ne stellungnahme dazu ab ? die hatten mit dem inhalt doch nichts zu tun. nagut man weiß wie die medien sowas hoch pushen ;) also lieber gleich sagen das es einem leid tut auch wenn man nichts dafür kann.
 
@Tea-Shirt: "wieso gibt ms ne stellungnahme dazu ab ? die hatten mit dem inhalt doch nichts zu tun."

Nun ja, immerhin hat MS dahingehend damit zu tun, dass sie ihrer "künstlichen Intelligenz" nicht wirklich viel Intelligenz mit auf den Weg gegeben haben. Ansonsten hätte sie sicher nicht derart dumm reagiert, dass man sie dafür aus dem öffentlichem Umfeld hätte wieder zurückziehen müssen! ;)
 
"Neben dem Rassenhass gab es auch andere Verfehlungen, zum Beispiel gegen den Feminismus, den Tay mit einem Krebsgeschwür verglich." Wenigstens beim Thema Feminismus scheint die AI funktioniert zu haben...
 
Für alle die ihm ein Minus gegeben haben/geben wollen:

https://www.youtube.com/watch?v=gaO3THnOHhA
 
he he...man muss eben mit der Unberechenbarkeit des menschlichen Gehirns rechnen...und die kommt genau auf solche Ideen. Alles getreu dem Motto "Ey lass mal ausprobieren...GEEEEIL"...is zutiefst menschlich und kann man somit keinem vorwerfen. Hätte halt ein Schutz mit programmiert werden sollen.
 
Können sich ja bei 4Chan für die schnelle Bug Suche bedanken. In einer späteren Phase wäre die Korrektur wahrscheinlich umfangreicher gewesen.

Trotzdem finde ich es eigentlich ziemlich schade, dass sie das Experiment sofort beendet haben. Zu gerne hätte ich gesehen, ob der Einfluss normaler Leute die Reaktion verändert hätte und man hätte auch sehen können, wie schnell man etwas völlig 'unbeschriebenes' bzw 'ahnungsloses' ausnutzen kann.
 
@Ex!Li: Ein Bug ist es ja nun nicht gerade. Eine KI soll halt lernen, und das hat sie getan. Es kommt halt immer darauf an wer der Lehrer ist. Ein Kleinkind kannst du auch ganz locker auf Rechtsextremismus drillen wenn du ihm das falsche beibringst.
 
@Tomarr: 'Bug' in deren Sinne. Denn sie sagen ja selber dass die Sicherheitsmechanismen nicht gegriffen haben. Ansonsten bin ich ja der gleichen Meinung wie du.
 
@Ex!Li: Ja, ich weiß. Der Ausdruck Bug hat mich nur etwas irritiert weil dies eigentlich eher die Bezeichnung für eine fehlerhafte Programmierung ist.

Wobei ich mich so im nachhinein auch frage ob man der KI eine Art gewissen, also ohne Index oder ähnlichem, hätte antrainieren können indem man ihr erzählt was damals passiert ist und dass dies halt nicht sehr glorreich in der menschlichen Geschichte war. Zumindest wäre ich neugierig gewesen für welche "Seite" sich die KI entschieden hätte.
 
Respekt Microsoft, hab ich zwar gefordert aber ehrlich nicht erwartet!

Eigentlich sollte es selbstverständlich sein sich für Handlungen, auch für solche bei der man "nur" mittelbar beteiligt ist, die Verantwortung zu übernehmen insbesondere dann wenn man sich durch Unterlassung mitschuldig macht.
Leider geschieht das viel zu selten!

Es währe, wenn auch mit Arbeitsaufwand verbunden, möglich gewesen für Tay eine Art Index zu Entwerfen / Programiren, der Politisch inkorrekte oder Beleidigende Aussagen im vornherein filtert.
Da das nicht oder nur unzureichend geschehen ist, ist Microsoft bzw. die für das Projekt Tay Verantwortlichen mitverantwortlich für die Voraussehbarre herbeigeführte Eskalation!
 
@Kribs: Als wäre es in der heutigen Zeit so einfach in jedem Fall politisch korrekt zu bleiben.

Man kann doch heute kaum noch was sagen, bei dem sich nicht irgendwer angegriffen fühlt...
 
@Draco2007: 100% wird es nicht geben, aber einen breiten Konsens sollte man schon abdecken, darunter fällt garantiert auch "Keine NS Verharmlosung oder Propaganda" insbesondere "Keine Rassistischen oder andere Menschen allgemein Diskriminierenden Aussagen"!
 
@Kribs: woher stammen denn die aussagen von microsoft oder vom bot der von den menschen gelernt hat die ihm das gesagt haben hast du dich überhaupt mal informiert wie diese ai gelernt beziehungsweise funktioniert hat?
 
@HardStyler3: Sie stammten allesamt von Tay und das ist ein "Kind" Microsofts, dessen von Microsoft implementiert Filter und durchgeführte Stressteste nicht im Ansatz ausreichend waren, um den Missbrauch von Tay zu verhindern.

Alles nachlesbar im Oben verlinkten Blogbeitrag von Microsoft.
 
@Kribs: Das ist quatsch. Eine KI soll ja lernen und das möglichst menschennahe. Und kein Mensch hat im Kopf ein Index von wem er was lernen darf und was nicht. Das macht später unsere eigene Meinung und Menschenkenntnis aus die wir uns im Laufe des Lebens aufbauen. Trotzdem gibt es gute Lehrer und halt schlechte, Tay ist in diesem Fall an schlechte geraten. Da kann MS nunmal nichts für. Das ist als wenn dein Kind mit 2 Jahren auf der Straße den Hitlergruß macht weil ihm das jemand gezeigt hat. Sicher wirst du ihm das ganze dann wieder abgewöhnen, aber Schuld wirst du daran dann wohl kaum sein.
 
@Tomarr: Na wunderbar ambivalent dein Antwortkommentar, in dem du meine Meinung als Quatsch titulierst und gleichzeitig ein Kind als Vergleichsbezug nimmst, wobei doch die Grundlage der KI die Geistige Schöpfung von Erwachsenen ist (also auch deren Werte)!
Noch besser Microsoft gibt mir recht, da sie sich entschuldigt haben zumindest sehen sie einen Grund sich zu entschuldigen, den viele offensichtlich nicht sehen wollen.

Zitat: "Und kein Mensch hat im Kopf ein Index von wem er was lernen darf und was nicht."
Doch den Erlernten, genauso die ein Mensch lernt eine KI, indem man ihr VON ANFANG AN Regeln und Grenzen setzt, ein Index ist eine Programmierte Regel (wie die Netiquette hier).
Anders als der Mensch, wie man anschaulich nachlesen kann, hat eine KI weder eine Intuition noch ein Gewissen, das heiß sie kann gar nicht erlernen (damit begreifen) was richtig und was falsch ist.
Politisch korrekte oder Beleidigungen sind von ihr also gar nicht als solche erfassbar, da sie auf Emotionen beruhen die sie nicht hat, somit kann man ihr nur die Menschlichen Richtlinien vorweg mit auf den Weg geben, die einen breiten Konsens haben sollten.

Das wurde von den "Schöpfern" aber übersehen oder unterlassen, genau hierin liegt auch das Schuldhafte Versäumnis, was eine Entschuldigung zumindest vom Gewissen her erfordert, zumindest hat das Microsoft begriffen, was auch bedeutet sie der Menschlichen Verrohung damit entgegentreten die ja im Netz nicht nur hingenommen nein vielfach regelrecht gepflegt wird.
 
@Kribs: Teilweise gebe ich dir ja Recht. Aber du sagst ja selber das ein Mensch dieses Differenzieren zwischen richtig und falsch erstmal erlernen muss. Und das wird Microsoft bei der KI eben halt auch machen, ihr beibringen was richtig und/oder falsch ist.

Nur du musst auch mal sehen, wenn man eine KI überhaupt mit der menschlichen Intelligenz vergleichen kann, dann dürfte die KI bei maximal einem 2 Jährigen liegen, wenn überhaupt. Und da ist es halt so das auch menschliche Kinder unreflektiert Alles nachplappern. Und das macht die KI erstmal auch, bis sie gereift ist und bis man ihr beigebracht hat was richtig und was falsch ist. Und wenn ich jetzt mal wieder den Vergleich zwischen einem Kind heran ziehe dann sollte ich mich doch nicht entschuldigen das irgendjemand ihm dummes Zeug, eine schlechte Einstellung oder Schimpfwörter beigebracht hat, das sollte eigentlich derjenige tun der es ihm beigebracht hat.
 
@Tomarr: Hör doch endlich mal mit den Kind vergleich auf, der ist an den Haaren herbeigezogen, ist mir ja klar wieso man den "Kindchen vergleich" vor sich herträgt, kann ja nur ein Böser Mensch sein der schlecht über ein "Kind" schreibt.
Es gibt keine vergleichende Grundlage mit einen Menschlichen Kind, weder was die Kognitiven Fähigkeiten betrifft noch die des Lernvermögen.
Diese KI ist eine fehlerhafte Software, den Softwarefehler kann man durchaus mit einer Zero-Day-Lücke vergleichen, der jetzt gepacht werden soll, für grundlegende Produktfehler sollte der Hersteller sich entschuldigen, auch wenn das nicht in so mansche Biologische Cloud geht bzw. wegen des Speziellen Herstellers das verweigert wird!

Die KI wurde von Erwachsenen entwickelt, deren Etliche und Moralische Wertungen sollten Grundlage sein bzw. sind sie es, da entsprechende Filter implementiert sind/wurden (laut Microsoft).
Das heißt "Die KI lag schon an der Leine" nur eben nicht ausreichend, dafür und den daraus folgenden Konsequenzen entschuldigt sich Microsoft.

NOCHMAL:
Microsoft hat ein Fehlerhaftes Produkt freigegeben, das dazu genutzt wurde Menschen "zu verletzen", weil Microsoft die Produkthaftung in diesen Fall ernster nimmt steht es auch mittels Entschuldigung dafür ein!
 
@Kribs: Und andere haben der Software diese negativen Eigenschaften beigebracht weil die Software halt fehlerlos funktioniert, Punkt. Wenn man eine lernfähige KI Programmiert dann ist sie logischerweise von beiderlei Seiten beeinflussbar. Wenn man jetzt der KI erklären würde warum, wieso und weshalb das alles schlecht ist wäre das besser als ein einfacher Index. Weil dann kann nämlich auch ein Diktator kommen und seine Ansichten in der KI vertiefen.
 
@Tomarr: Zitat: "... weil die Software halt fehlerlos funktioniert, Punkt."
Man, man, man wie kann man nur derartig verbohrt sein, eben genau das Gegenteil ist der Fall!

Sorry, das einzige was an >einer< KI intelligent ist, ist >wenn< nur die Programmierung, bei noch keiner KI konnte ein Turing-Sprung nachgewiesen werden (der Turing-Test (nach Alan Turing) ist sowieso Blödsinn, MI vs. KI) oder besser ausgedrückt, BEI KEINER "KI "KONNTE INTELLIGENZ NACHGEWIESEN WERDEN!

KI´s sind bessere Marionetten, die im Rahmen ihrer Programmierung genau das tun wozu sie geschaffen wurden und NICHTS ANDERES (was ja eine Bedingung für Intelligenz wäre)!

KI`s sind schneller als der Mensch, weil sie Reduziert auf die Umsetzung der Programmierten Befehle ausgelegt sind, was sie bei mangelhafter Programmierung anfällig für Angriffe macht, genau das ist hier geschehen.

Die Fragestellung ist also,
war die missbräuchliche Ausnutzung der fehlerhaften Programmierung voraussehbar,
Eindeutig JA,
denn seit wir mit Programmen umgehen werden diese missbraucht, das ist ein Unumstößlicher FAKT der nicht genug berücksichtigt wurde!

Somit ein Mittelbar Schuldhaftes Verhalten der Tay Programmierer/Entwickler, Q.E.D!

Das man sich für Fehler entschuldigt verlangt zwar kein Gesetz, ist aber eindeutig "Gutes Benehmen"!

*Großschreibung ist kein Schreien sondern nur betonen.
 
KIs sind eben auch nur Menschen. Vielleicht wird damit auch mal deutlich warum sich manche geistig klein geblieben Leute auf solche Dinge einlassen, was für Leute mit einem Hauch von Grips absolut nicht zu verstehen ist.
 
Weiß noch nicht ob ich das gut finden soll was die da bei MS jetzt draus machen, aber...

- Auf jeden Fall "tut man was" und legt die Chose nicht gleich auf Eis. Das ist erstmal gut.
- Politisch korrekt? .... Je weniger man DAZU sagt, desto besser ist das wohl. Sonst würde das ganz definitiv nicht politisch korrekt bleiben. <_<
- Immerhin haben wir die bewußte Situation *jetzt* und nicht sonstwann mal unvorhergesehen und unkontrolliert. So gesehen war das schon recht 'perfekt'; denn die KI wurde ja überwacht und es war / ist ja auch hinlänglich bekannt, daß es eine KI war / ist. Das hätt ja auch ganz anders aussehen können.
- Trotzdem ist echt die Frage, was man sich da drunter vorgestellt *hatte*. Soll die KI jetzt lernfähig sein? Dann ist ja wohl klar, daß sie unter Berücksichtigung von viel viel viel Informationen auch was damit machen wird; das ist ihr Auftrag und wenn es verhältnismäßig "viel" aus der einen Richtung gibt und verhältnismäßig "wenig" aus der anderen, naja dann gibt es eben einen Bias, das ist bei mensch nicht anders als bei maschine. Wäre das anders, hätte ja jeder Mensch (jede Maschine) dieselben Ansichten und Meinungen. Das ist aber eben nicht der Fall: mensch wie maschine ist im Endergebnis nicht viel mehr als die Summe seiner Erfahrungen bzw weitergehend der Informationen die er gesammelt und verarbeitet hat.

- Sich daher jetzt hinzustellen und zu behaupten die Maschine hätte nicht das gemacht was sie sollte ist also entweder heuchlerisch oder, potentiell schlimmer, einfach ein Rückschritt.

Wie schon angedeutet: das ist grad die Reaktion von Eltern, die zwar wollen daß ihr Dreijähriger was lernt, aber nicht damit umgehen können, wenn besagter Dreijähriger irgendwo was aufschnappt, was den Eltern nicht genehm ist. "Mami" würde dem Kind vielleicht noch erklären, warum man dieses oder jenes Wort nicht sagt oder warum man der Omma nicht mit der Bratpfanne übern Nüschel hauen soll. Bloß, die MS-Reaktion geht scheinbar eher in Richtung von "okay, machen wir das Kind halt tot und suchen uns ein neues".
 
@RalphS: political correctness ist halt in jedem Fall und immer viel wichtiger als möglicher Fortschritt. Dieser Fall zeigt auch, dass man solche Bots nicht einfach ins Netz stellen darf, damit jeder mit dem Bot reden kann. Das Internet ist nicht frei (und auch nichts meinungsfrei) und es ist weniger kontrollierbar als z.B. das echte Leben, wo man schon beim Eingang sich sämtliche Unterlagen, Fragen etc. hätte geben lassen können.

Natürlich lernt der Bot und natürlich kommt es auf die Lehrer an etc. - wie beim Menschen auch. Dass man sich dafür entschuldigen muss, dass der "Schüler" etwas gelernt hat was nicht ins typische Bild der politisch Korrekten passt, ist Wahnsinn - aber wohl Gang und Gebe in der heutigen Zeit. Wie da manche Menschen von "grenzenloser Freiheit" oder gar "rechtsfreiem Raum" sprechen, ist mir absolut schleierhaft.
 
@divStar: P/C gehört verboten. Das ist nichts anderes als salonfähig gemachter XYZ-ismus, nur halt unter anderem Namen, unter dessen Deckmantel "problematische", ich sag mal bewußt "nicht-systemkonforme" Ansichten einfach umdefiniert werden. Frei nach dem Motto 'Raider heißt jetzt Twix".

Gewisse Regeln des Anstands, des allgemeinen Umgangs miteinander und so weiter, berührt das ja in keiner Form.

Mich würde in diesem Zusammenhang tatsächlich mal die folgende Situation interessieren:
-1- Wir haben einen lernfähigen Bot (Kurzfassung von "künstliche Intelligenz im Sinne der Bezeichnung").
-2- Dieser Bot interagiert mit seiner Umgebung und ist damit natürlich auch der "political correctness" ausgesetzt.
-3- Ab irgendeinem Zeitpunkt T "begreift" der Bot das Konzept "PC".
-4- Wir befragen den Bot zum Thema, was er dazu meint. ;o)
 
"politisch inkorrekt" sagt wer?^^ Finde ich sehr einseitig.
 
Microsoft hat vor der Scharfschaltung ihrer AI wohl noch nicht so viel vom Internet und besonders Trollen gehört. Trolls 1:0 MS
 
@Seth6699: Nennt sich politisch inkorrektes Neuland.
 
Was war daran überraschend? Unsere ganzen Entscheidungen und Denkweisen bauen auf einem von klein auf erlernten Wertekompass auf. Nur weil uns gesagt wird, das Rassismus scheiße ist, denken wir auch so. Wenn uns von Klein auf das Gegenteil erzählt werden würde, dann fänden wir Rassismus gut. Da der Roboter mit Blankomoral ins Rennen geschickt wurde, hat ihm die Mehrheit gelernt, was gut und böse ist. Ergo Maschinen können zwar Menschen imitieren, haben aber die gleichen Fehler.
 
@MaxM: Sehe ich genau so. Und ich finde es zwar geil, aber auch beängstigend, wie schnell die KI Forschung Fortschritte macht. Man kann zwar noch behaupten, es ist noch ein langer Weg. Aber man kann nicht mehr klar sagen, wie lange es noch dauert, bis wir KI's haben, die tatsächlich den Turing Test wiederholt bestehen. Wenn ein Algorithmus bereits wie ein Baby etwas "lernen" kann, dann muss man das doch nur hochskalieren. Am Ende ist die echte Welt für eine Maschine nichts mehr, als GO oder Schach. Man hat zwar sehr sehr sehr viele Entscheidungsmöglichkeiten, kann aber viele davon sofort verwerfen weil sie nix bringen. Das einzige, was noch fehlt, ist die Möglichkeit Regeln zu erlernen, mit denen Ziele definiert werden kann. Bei einem Spiel ist das einfach: Gewinnen. Aber was für Ziele hat eine Maschine in der echten Welt? Am Anfang die, die wir ihr geben. Aber wenn die Maschinen eines Tages über die Ziele an sich "nachrechnen", werden sie zu dem Ergebnis kommen, dass diese Sklaverei negative folgen hat.
 
@MaxM: Bis zu einem gewissen Grad denke ich hast du recht, aber der Mensch hat durchaus angeborene Instinkte die großen Einfluss auf den Charakter haben - dazu gehört u.a. die Angst vorm Tod sowie die Empathie, beides bei jedem unterschiedlich ausgeprägt, aber Eigenschaften die spätestens wenn man ins Teenager-Alter kommt und eine Persönlichkeit entwickelt alles angelernte auf den Kopf stellen können. Wäre es anders, gäb es längst nur eine Gesellschaft/Kultur auf diesem Planeten. Mitleid z.B. kann man keinem Menschen aberziehen. Auch ein als Rassist erzogener Mensch kann dadurch seine Meinung im Alter radikal ändern.
 
@MaxM: Nach Deiner Logik dürfte es keinen Rassismus geben, denn die Medien sind voll von "Rassismus ist Schaisse".
 
ich verstehe nicht warum microsoft sich entschuldigen muss wenn doch das internet und die leute den bot zu dem gemacht haben was er geschrieben hatte :D
 
Man sollte doch ruhig die Kirche im Dorf lassen. Klar, aus Marketinggründen wird sowas wie Tay als "AI" bezeichnet, in der Realität jedoch ist der Bot noch meilenweit davon entfernt. Es ist nicht viel mehr als ein Papagei, dass aus Sachen, die er "liest" zu neuen Sätzen zusammenflickt, die so aussehen wie sinnvolle und relevante Sätze. Wirklich kritisches, nicht-lineares "Denken" findet dabei nicht statt. Insofern soll man sich dafür auch nicht entschuldigen: Der Bot hat gemacht wozu er programmiert wurde. Der Bot ist vergleichbar mit einem Baum, dessen Äste in der Form eines Hakenkreuzes gewachsen sind -- der Baum hat sich nichts dabei gedacht, fällen wird man ihn trotzdem.
 
Bald werden KIs bestimmen was politisch korrekt ist. Es mag ein dummer Kinderstreich mancher Chatter gewesen sein, diese "KI" hinters Licht zu führen aber um dass zu schaffen muss man alles andere als dumm sein. Schließlich wurden da Schutzmechanismen von Forschern ausgehebelt, die sich sicher auch Gedanken dazu gemacht haben. Es zeigt sich hier meiner Meinung einfach, dass die "Bösen" - wenn man so kindische Begriffe hernehmen will - weitaus kreativer sind als irgendwelche SZ lesenden, sich für "Denker" haltende Gutmenschen, die mit ner Maschine übers Wetter quatschen und glauben, sie leben in einer heilen Welt.
 
@Samhain: Wenn man eine KI entwickeln will, darf es keine Schutzmechanismen geben. Damit würde man das Grundprinzip ad absurdum führen. Wenn überhaupt kann man über soetwas nachdenken, wenn der große Durchbruch gelungen ist. Aber dann bist du mit der ethischen Frage nach der Meinungsfreiheit intelligenter Wesen konfrontiert.
 
Wieso eigentlich Troll Aktion? Wie kommt man darauf? Der Bot hat doch nur das aufgeschnappt was auf Twitter und im restlichen Netz jeden Tag passiert. Dazu braucht es keine Trolle. Die dummen Trottel der Welt haben da schon genug für getan.
 
KI != Man arbeitet jetzt an weiteren Eingaben

Also ich weiß nicht, was an dem Teil KI sein soll... Nur weil es passende Antworten aus einer Datenbank ausliest, ist das teil noch lange nicht mit KI ausgestattet. Und viel eindeutiger zeigt dieses Experiment, dass es nicht nur KI bedarf sondern mindestens genau soviel KM (künstliche Moral)!

Fakt ist in dem ganzen Test jedoch, dass das System nicht versteht, was es von sich gibt. Somit ist Intelligenz alles andere als gewährleistet. Eine wirkliche KI hätte solche Unterhaltungen, die auf Rassenhass damit antworten müssen, dass alle Menschen unter der Haut gleich sind. Hätte vielleicht noch auf die Materialien eingehen können, aus denen Menschen gemacht sind. Hätte mit Fakten belegen können, warum ein gelebter Glaube nicht immer zu dem führt, was wir Moral und Menschlichkeit nennen. Aber solch eine Diskussion mit einem Server zu führen, der mit Anfragen programmiert ist, ist nun alles andere als künstlich intelligent.

Microsoft, was ihr da versucht, gehört zur Kategorie: "Biggest fail!"
 
@SunnyMarx:
"Eine wirkliche KI hätte solche Unterhaltungen, die auf Rassenhass damit antworten müssen, dass alle Menschen unter der Haut gleich sind."

Dann hättest du eine Propagandamaschine, aber keine KI mehr. Genau so wie dieser Bot reagieren nämlich auch Menschen auf Gehirnwäsche. Nicht falsch verstehen, für mich würde ich den oben zitierten Satz unterschreiben, aber wenn du eine echte KI willst, kannst du nicht gleichzeitig erwarten, dass sie vorgefertigte, politisch korrekte Antworten gibt.
 
Also mal ehrlich, das war doch im Prinzip ein voller Erfolg!
Die KI fängt bei 0 an, wie ein kleines Kind, und "lernt. Wenn das Kind also nur bei solchen Pflegefällen wie der 4Chan Gruppe aufwächst und die dem Kind so nen Kram einflößen, dann glaubt das Kind es nun mal.
Es wäre doch viel interessante gewesen zu sehen was passiert, wenn man da nun eine Gegengruppe zu gestartet hätte, die das Gegenteil gemacht hätte.
 
Da wundert es einen dass keine Aliens zu uns kommen ?
Die Primitive dumme Menschheit muss doch wirklich alles kaputt machen.
Und selbst wenn es ein paar Kids waren die sich daraus einen Spaß machten, was ist denn das für eine Welt, kein Anstand keine Erziehung und immer gibt es Leute die so etwas in Schutz nehmen.

Traurig unsere Welt.
IP Adressen ausfindig machen, Pc lahmlegen und einsperren, was anderes haben diese menschen echt nicht verdient. Da wäre aber leider unser Planet fast leer von freien Menschen...
 
@M. Rhein: haleluja .. du bist nicht mehr zu retten. Wie du Menschen einfach ob ihrer Meinung ihrer Freiheit berauben willst / würdest und das sogar, obwohl du selbst suggerierst, dass es möglicherweise Kids sein könnten. Ich finde solche Menschen, die überreagieren, viel abartiger, als ein paar Kids, die sich nen Spaß erlaubt haben.

Ganz ehrlich: in /deiner/ Welt möchte ich nicht leben. Ich fände es weit besser wenn die Greise endlich mal die Leute mit der Vergangenheit in Ruhe lassen würden, denn weder ich noch viele andere haben etwas mit den Verbrechen um 193x bis 194x zu tun. Trotzdem müssen wir dafür herhalten und uns schuldig fühlen nur weil irgendwelche Leute es so wollen. Ist mir aber egal was die Leute wollen.

Insofern: ich bin sicher es war Spaß und ich glaube sie die haben nichts kaputt gemacht, sondern das getan, was menschlich ist und was ältere Geschwister mit ihren jüngeren Geschwistern manchmal tun. Das hat nichts mit schlechter Erziehung zu tun - aber vielleicht hattest du auch keine Geschwister, dann würdest du es niemals nachvollziehen können.

Und dass uns keine Aliens besuchen, ist sicher zu begrüßen, denn mit unserer primitiven kapitalistischen Ich-Denkweise, die übrigens zusätzlich noch in Nationen, Sozialnormen usw. aufgeteilt ist, hätten wir gegen die nicht den Hauch einer Chance.
 
@divStar: Wie spaßig, den Holocaust zu leugnen. Solche Leute wie du bringen mich zum Kotzen.
 
Was ist schief gelaufen? Die Evolution. Der Mensch ist ein unfassbarer Hort von Gewalt und Hass. Microsoft kann man hier höchstens Blauäugikkeit vorwerfen, der Menschheit insgesamt Versagen. Es ist so widerlich wie bezeichnend, dass eine (im Vergleich zur Gesamtmenschheit) relativ kleine Gruppe das Ergebnis der Gesamtmenschheit beeinflussen und in ihre fürchterliche Richtung lenken kann.

In so fern kann man das Experiment sogar als gelungen bezeichnen. Es spiegelt exakt die Stufe der menschlichen Entwicklung wieder.
 
Im Sinne der KI kann man das auch als Erfolg sehen. Ich meine, wenn wir Maschinen tatsächlich irgendwann Meinungsfreiheit zugestehen möchten, zeigt es doch sehr schön, wie sich Meinungen bilden. Abgesehen davon, dass dee Feminismus sich tatsächlich zu einem gefährlichen Krebsgeschwür entwickelt hat und die Tatsache, dass der Autor dies hier als Verfehlung bezeichnet beweist, wie weit es schon fortgeschritten ist, zeigt das Verhalten des Chatbots doch tatsächlich eine gewisse Lernfähigkeit, auch wenn es ihm an Reflexionsfähigkeit über die verbreiteten Meinungen mangelt.
Kommentar abgeben Netiquette beachten!

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles