Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot
Als Microsoft vor kurzem seinen Versuch mit dem auf künstlicher Intelligenz basierenden Chatbot Tay nach nur 16 Stunden im Netz wieder abschaltete, rätselten wir, ob das Ganze mit einer Troll-Attacke via 4Chan zu tun hatte. mehr...
Diese Nachricht vollständig anzeigen.
Kommentar abgeben
Netiquette beachten!
Microsoft-Research-Videos
- Project Zanzibar: Microsoft-Entwickler schaffen neues Eingabe-Gerät
- Spannend: Microsoft-App beschreibt Blinden, was um sie passiert
- Microsoft zeigt, wie man Touch- und Pen-Eingabe kombinieren kann
- Es ist Zeit: Microsoft beginnt mit Bau eines Quantencomputers
- Lange vor Apple: Microsoft zeigt schon 2010 ein Touch-Bar-Keyboard
- Jedem seine eigene KI: Microsoft macht Entwicklung jetzt simpel
- Microsoft-Forscher bauen VR-Controller mit haptischem Feedback
Weiterführende Links
Neue Nachrichten
- Microsoft: Windows wird konsequent in eine andere Rolle gedrängt
- Notebooksbilliger: Jede Woche reihenweise neue Sonderangebote
- Aktuelle Technik-Blitzangebote im Überblick
- Windows 10: Apple iTunes ist endlich im Microsoft Store verfügbar
- Datenkrake Windows 10: Microsoft droht Millionenstrafe in Brasilien
- 'Andromeda' Falt-PC: Microsoft will 'unsichtbare' Displayscharniere
- Qualcomm begrenzt Lizenzabgaben: High-End-Smartphones günstiger?
Videos
Beliebte Downloads
Beliebte Nachrichten
WinFuture Mobil

Nachrichten und Kommentare auf
dem Smartphone lesen.
Meist kommentierte Nachrichten
Forum
-
Bios Batt paar Fragen
Frenk - vor 37 Minuten -
Verycrypt und Problem beim Acronis Wiederherstellen
RalphS - vor 37 Minuten -
WD 2.5 Elements Strom Verbrauch ? (Ext. USB HDD)
Gispelmob - vor 1 Stunde -
silent Lüfter
Gispelmob - vor 1 Stunde -
Festplattentausch für Betriebssystem
expat - Heute 02:57 Uhr
Nichts anderes sagt er. Er wundert sich nicht, sondern stellt nur fest und ist davon enttäuscht. Was man auch sein sollte. Der Mensch hält sich immer für die Krone der Schöpfung, doch die Taten der Masse sprechen absolut dagegen.
Was hier mit Tay passiert ist, ist nur wieder ein Beweis für die Verdorbenheit der Menscheit. Und das ist als nichts anderes zu bezeichnen als "traurig". Allerdings nicht wirklich unerwartet.
Nööö, das Schlimmste ist die Erschaffung von Tay in sich.
Oder kommst du mir jetzt mit Skynet-Verschwörungen?
Imho waren die Ergebnisse die sie erzielt haben sehr wertvoll und werden MS helfen derartige Lernalgorithmen zu verbessern.
Das da so ein riesen Drama draus gemacht wird versteh ich persönlich nicht, schließlich wurde keinerlei Schaden angerichtet. Menschen die sich von so einer Lapalie das Federkleid aufplustern lassen müssen eine sehr niedrige Toleranz für unorthodoxes haben.
Deswegen mein Kommentar, anders kann ich es mir eben nicht erklären, daws man da dann noch schockiert ist, bzw sich aufregt oder so macht, als gäbe es sowas nicht. (Außer man lebt hinterm Baum)
Und wenn du BasedGod nicht kennst, kann ich auch nichts dafür.
Damit sieht man welche Probleme es zu lösen gibt und was passiert wenn die KI keine eigene "Vorstellung" von bestimmten Werten hat. Es fehlt einfach ein Modul was ethische Probleme auswertet und verhindert das sich die KI in eine bestimmte Richtung (oder auch in die braune Ecke) ziehen lässt.
Wenn ich zu Siri sage das sie "eine alte Dreckschlampe" ist wird sie entsprechend reagieren, genau so eine Überprüfung muss es auch für politisch und moralisch bedenkliche Themen geben.
die Menschheit im Netz moralisch kontrolliert von KI ......... jeppp, das brauchen wir sooooooooo dringend.
Fehlt nur noch der Schalter, Hirn des User ausschalten
Es ist gut, dass die Gruppe aufgezeigt hat wie einfach man Meinungen von ungeformten "Intelligenzen" bilden kann und wie man Lügen als Wahrheit ins Bewusstsein verankern kann.
Auch für die Forscher von MS ist es eine Lektion gewesen und die haben sehr viel aus dem Experiment gelernt (hoffentlich).
Bei so einer KI ist es auch ganz einfach ihr zu erklären warum die Menschheit schlecht ist und ausgelöscht gehört Um mit einem Augenzwinkern mal ein Bisschen SciFi einzubringen.
Das würde alles keine so großen Wellen schlagen wenn jeder in den Ländern des Westens alles frei sagen dürfte was er / sie will. So aber wird auch im Westen immer stärker zensiert. Man hätte es auch damit erklären können, dass es sich hierbei um eine KI handelt und diese eben von den falschen gelernt hat. Dann würde man die entsprechenden Daten (falls möglich) löschen und den Bot weitermachen lassen bzw. ein Update veröffentlichen wenn man unbedingt Meinungen etc. zensieren will.
Ich habe mich übrigens mittlerweile damit abgefunden, dass ich zur Gattung Mensch angehöre, die zu vielem fähig ist (und auch entsprechende Wissenschaftler etc. bereits hatte), aber auch dumm wie Brot sein kann. Finde ich nicht toll da ich mit einigen aus dieser Gattung nicht assoziiert werden wollen würde - aber habe ich denn eine Wahl? Hirn, Intelligenz und soziale Rücksicht sind leider keine Voraussetzungen für das Zeugen eines Kindes bzw. damit ein Kind zur Welt kommt.
Was kommt als nächstes?
Toyota entschuldigt sich dafür, dass ISIS Toyota fährt?
Adidas weil Breivik ein Shirt von denen getragen hat?
Boeing weil deren Flugzeuge in die Tower am 11. September geflogen wurden?
Und was ist bitteschön an politischer Korrektheit sau dämlich? Ich weiß, man kann es übertreiben. Aber PC ist eigentlich nicht mehr als eine gewisse Höflichkeit und Anstand (den es im Inet anscheinend nicht gibt) gegenüber anderen zu bewahren.
Du verstehst PC nicht, und wie es missbraucht wird, und genauso wenig den Unterschied zwischen einem Script und einem Mensch.
Zweckentfremdet der Begriff erst von der politischen Rechten in Amerika, um das Existieren von Zensur zu suggerieren, nur weil die Political Correctness für gesellschaftliche Leitplanken sorgte, wenn es um das unverhohlene öffentliche Beleidigen und Unterstellen ohne Grundlagen geht. Denn genau diese Behauptungen und nicht die rationalen Argumentationen sind es, die sich in den Köpfen der Vollzeitempörten festsetzen. Dass Leute wie du damit nicht zurechtkommen, spricht Bände.
Und nur, falls das bei dir noch nicht angekommen sein sollte: Eltern haften bei Verletzung ihrer Aufsichtspflicht für ihre Kinder. Ist auch das zu politisch korrekt für dich? Und ein autonom agierender Chatbot, der ohne jede Aufsicht auf die Menschheit losgelassen wird, dürfte sich rechtlich stark daran orientieren, da ein Chatbot ganz gewiss nicht rechtlich mündig ist. Insofern muss Microsoft froh sein, wenn die Entschuldigung ausreicht.
Dass der Chatbot im Prinzip kein Kind ist, dass er autonom lernt - aber möglicherweise rechtswidrige Tweets dazu geführt haben, dass er ausgegeben hat was er ausgegeben hat - sollte eigentlich Grund genug sein hier nicht von Eltern sprechen zu müssen.
Political Correctness ist Zensur. Das steht für mich fest. Ich für meinen Teil leugne gar nichts und unterstütze auch gar nichts - und engagiere mich politisch so wenig wie möglich. Trotzdem bin ich jedes Mal verwundert warum man die Fehler nicht den Menschen oder Menschengruppen zuschreibt, die sie begangen haben (von denen lebt mittlerweile nahezu keiner mehr), und aufhört die ganze Welt dadurch auch nach über 50 Jahren zu erpressen.
Ja es ist passiert, ja es war natürlich falsch, ja die Menschengruppe hat wohl irgendwelche Wiedergutmachung verdient (aber nicht von mir, da ich mit dem ursprünglichen Schaden nie etwas zu tun hatte). Aber diese immer-präsente Geiselhaft nervt.
"Dass der Chatbot im Prinzip kein Kind ist, dass er autonom lernt - aber möglicherweise rechtswidrige Tweets dazu geführt haben, dass er ausgegeben hat was er ausgegeben hat - sollte eigentlich Grund genug sein hier nicht von Eltern sprechen zu müssen."
Das war nur eine Analogie. Das Kind begreift nicht (vollständig), was es tut, genauso wenig der Chatbot. Aber beide handeln autonom. Wenn diese Autonomie dazu führen kann, dass Gesetze verletzt und Regeln gebrochen werden, müssen sie beaufsichtigt werden. Oder glaubst du, Google darf autonomen Autos einfach herumfahren lassen und sich die Hände in Unschuld waschen, wenn sie einen Regelverstoß oder gar Schlimmeres verursachen? Google als Halter haftet in vollem Maße. Mindestens im Rahmen der Regeln zum auskömmlichen Zusammenlebens in Form einer Entschuldigung, bis hin zum wirtschaftlichen Schaden und Schmerzensgeld in voller Höhe. Autonomie der Fahrzeuge hin oder her.
"Trotzdem bin ich jedes Mal verwundert warum man die Fehler nicht den Menschen oder Menschengruppen zuschreibt, die sie begangen haben (von denen lebt mittlerweile nahezu keiner mehr), und aufhört die ganze Welt dadurch auch nach über 50 Jahren zu erpressen."
Genau diese fehlende Differenzierung soll Political Correctness verhindern. Du kritisierst nicht ihre Anwendung sondern ihre Abwesenheit. Das Verbot des Verspotten oder das Leugnen des Holocaustes bezieht sich in keiner Weise auf Lebende, nicht verantwortliche Deutsche, sondern auf Personen, die den Holocaust leugnen, beschönigen, relativieren oder ihn gar als Schablone für das Handeln in anderen Bereichen verwenden wollen. Laut Grundgesetz ist die Würde des Menschen unantastbar. Und diese Handlungen tasten die Würde noch lebender Opfer oder auch von heutigen Menschen, die in das Opferschema fallen zweifellos an. Gegner der Political Correctness stören sich an ihr, eben weil sie *nicht* an differenzierten, zielgenauen Einschätzungen interessiert sind, sondern auf bestem Stammtischniveau Sippenhaft für alle Menschen einer bestimmten Gruppe fordern oder andere wegen irrelevanter Eigenschaften beleidigen.
Genial. Wenn nix mehr geht, einfach Fiktion mit Realität vergleichen. :)
Wir haben Maschinen die sich reproduzieren können...
Dann die Teile von Boston Dynamics...
Das alle mit dem gefüttert was Menschen heute so von sich im Web preisgeben...
Plus ne Portion KI...
Wenn man sich die Entwicklung innerhalb der letzten 10 Jahre anschaut - was ist dann erst in den nächsten 10?
Na ja ich warte noch auf L.I.S.A. :-)
Nun ja, immerhin hat MS dahingehend damit zu tun, dass sie ihrer "künstlichen Intelligenz" nicht wirklich viel Intelligenz mit auf den Weg gegeben haben. Ansonsten hätte sie sicher nicht derart dumm reagiert, dass man sie dafür aus dem öffentlichem Umfeld hätte wieder zurückziehen müssen! ;)
https://www.youtube.com/watch?v=gaO3THnOHhA
Trotzdem finde ich es eigentlich ziemlich schade, dass sie das Experiment sofort beendet haben. Zu gerne hätte ich gesehen, ob der Einfluss normaler Leute die Reaktion verändert hätte und man hätte auch sehen können, wie schnell man etwas völlig 'unbeschriebenes' bzw 'ahnungsloses' ausnutzen kann.
Wobei ich mich so im nachhinein auch frage ob man der KI eine Art gewissen, also ohne Index oder ähnlichem, hätte antrainieren können indem man ihr erzählt was damals passiert ist und dass dies halt nicht sehr glorreich in der menschlichen Geschichte war. Zumindest wäre ich neugierig gewesen für welche "Seite" sich die KI entschieden hätte.
Eigentlich sollte es selbstverständlich sein sich für Handlungen, auch für solche bei der man "nur" mittelbar beteiligt ist, die Verantwortung zu übernehmen insbesondere dann wenn man sich durch Unterlassung mitschuldig macht.
Leider geschieht das viel zu selten!
Es währe, wenn auch mit Arbeitsaufwand verbunden, möglich gewesen für Tay eine Art Index zu Entwerfen / Programiren, der Politisch inkorrekte oder Beleidigende Aussagen im vornherein filtert.
Da das nicht oder nur unzureichend geschehen ist, ist Microsoft bzw. die für das Projekt Tay Verantwortlichen mitverantwortlich für die Voraussehbarre herbeigeführte Eskalation!
Man kann doch heute kaum noch was sagen, bei dem sich nicht irgendwer angegriffen fühlt...
Alles nachlesbar im Oben verlinkten Blogbeitrag von Microsoft.
Noch besser Microsoft gibt mir recht, da sie sich entschuldigt haben zumindest sehen sie einen Grund sich zu entschuldigen, den viele offensichtlich nicht sehen wollen.
Zitat: "Und kein Mensch hat im Kopf ein Index von wem er was lernen darf und was nicht."
Doch den Erlernten, genauso die ein Mensch lernt eine KI, indem man ihr VON ANFANG AN Regeln und Grenzen setzt, ein Index ist eine Programmierte Regel (wie die Netiquette hier).
Anders als der Mensch, wie man anschaulich nachlesen kann, hat eine KI weder eine Intuition noch ein Gewissen, das heiß sie kann gar nicht erlernen (damit begreifen) was richtig und was falsch ist.
Politisch korrekte oder Beleidigungen sind von ihr also gar nicht als solche erfassbar, da sie auf Emotionen beruhen die sie nicht hat, somit kann man ihr nur die Menschlichen Richtlinien vorweg mit auf den Weg geben, die einen breiten Konsens haben sollten.
Das wurde von den "Schöpfern" aber übersehen oder unterlassen, genau hierin liegt auch das Schuldhafte Versäumnis, was eine Entschuldigung zumindest vom Gewissen her erfordert, zumindest hat das Microsoft begriffen, was auch bedeutet sie der Menschlichen Verrohung damit entgegentreten die ja im Netz nicht nur hingenommen nein vielfach regelrecht gepflegt wird.
Nur du musst auch mal sehen, wenn man eine KI überhaupt mit der menschlichen Intelligenz vergleichen kann, dann dürfte die KI bei maximal einem 2 Jährigen liegen, wenn überhaupt. Und da ist es halt so das auch menschliche Kinder unreflektiert Alles nachplappern. Und das macht die KI erstmal auch, bis sie gereift ist und bis man ihr beigebracht hat was richtig und was falsch ist. Und wenn ich jetzt mal wieder den Vergleich zwischen einem Kind heran ziehe dann sollte ich mich doch nicht entschuldigen das irgendjemand ihm dummes Zeug, eine schlechte Einstellung oder Schimpfwörter beigebracht hat, das sollte eigentlich derjenige tun der es ihm beigebracht hat.
Es gibt keine vergleichende Grundlage mit einen Menschlichen Kind, weder was die Kognitiven Fähigkeiten betrifft noch die des Lernvermögen.
Diese KI ist eine fehlerhafte Software, den Softwarefehler kann man durchaus mit einer Zero-Day-Lücke vergleichen, der jetzt gepacht werden soll, für grundlegende Produktfehler sollte der Hersteller sich entschuldigen, auch wenn das nicht in so mansche Biologische Cloud geht bzw. wegen des Speziellen Herstellers das verweigert wird!
Die KI wurde von Erwachsenen entwickelt, deren Etliche und Moralische Wertungen sollten Grundlage sein bzw. sind sie es, da entsprechende Filter implementiert sind/wurden (laut Microsoft).
Das heißt "Die KI lag schon an der Leine" nur eben nicht ausreichend, dafür und den daraus folgenden Konsequenzen entschuldigt sich Microsoft.
NOCHMAL:
Microsoft hat ein Fehlerhaftes Produkt freigegeben, das dazu genutzt wurde Menschen "zu verletzen", weil Microsoft die Produkthaftung in diesen Fall ernster nimmt steht es auch mittels Entschuldigung dafür ein!
Man, man, man wie kann man nur derartig verbohrt sein, eben genau das Gegenteil ist der Fall!
Sorry, das einzige was an >einer< KI intelligent ist, ist >wenn< nur die Programmierung, bei noch keiner KI konnte ein Turing-Sprung nachgewiesen werden (der Turing-Test (nach Alan Turing) ist sowieso Blödsinn, MI vs. KI) oder besser ausgedrückt, BEI KEINER "KI "KONNTE INTELLIGENZ NACHGEWIESEN WERDEN!
KI´s sind bessere Marionetten, die im Rahmen ihrer Programmierung genau das tun wozu sie geschaffen wurden und NICHTS ANDERES (was ja eine Bedingung für Intelligenz wäre)!
KI`s sind schneller als der Mensch, weil sie Reduziert auf die Umsetzung der Programmierten Befehle ausgelegt sind, was sie bei mangelhafter Programmierung anfällig für Angriffe macht, genau das ist hier geschehen.
Die Fragestellung ist also,
war die missbräuchliche Ausnutzung der fehlerhaften Programmierung voraussehbar,
Eindeutig JA,
denn seit wir mit Programmen umgehen werden diese missbraucht, das ist ein Unumstößlicher FAKT der nicht genug berücksichtigt wurde!
Somit ein Mittelbar Schuldhaftes Verhalten der Tay Programmierer/Entwickler, Q.E.D!
Das man sich für Fehler entschuldigt verlangt zwar kein Gesetz, ist aber eindeutig "Gutes Benehmen"!
*Großschreibung ist kein Schreien sondern nur betonen.
- Auf jeden Fall "tut man was" und legt die Chose nicht gleich auf Eis. Das ist erstmal gut.
- Politisch korrekt? .... Je weniger man DAZU sagt, desto besser ist das wohl. Sonst würde das ganz definitiv nicht politisch korrekt bleiben. <_<
- Immerhin haben wir die bewußte Situation *jetzt* und nicht sonstwann mal unvorhergesehen und unkontrolliert. So gesehen war das schon recht 'perfekt'; denn die KI wurde ja überwacht und es war / ist ja auch hinlänglich bekannt, daß es eine KI war / ist. Das hätt ja auch ganz anders aussehen können.
- Trotzdem ist echt die Frage, was man sich da drunter vorgestellt *hatte*. Soll die KI jetzt lernfähig sein? Dann ist ja wohl klar, daß sie unter Berücksichtigung von viel viel viel Informationen auch was damit machen wird; das ist ihr Auftrag und wenn es verhältnismäßig "viel" aus der einen Richtung gibt und verhältnismäßig "wenig" aus der anderen, naja dann gibt es eben einen Bias, das ist bei mensch nicht anders als bei maschine. Wäre das anders, hätte ja jeder Mensch (jede Maschine) dieselben Ansichten und Meinungen. Das ist aber eben nicht der Fall: mensch wie maschine ist im Endergebnis nicht viel mehr als die Summe seiner Erfahrungen bzw weitergehend der Informationen die er gesammelt und verarbeitet hat.
- Sich daher jetzt hinzustellen und zu behaupten die Maschine hätte nicht das gemacht was sie sollte ist also entweder heuchlerisch oder, potentiell schlimmer, einfach ein Rückschritt.
Wie schon angedeutet: das ist grad die Reaktion von Eltern, die zwar wollen daß ihr Dreijähriger was lernt, aber nicht damit umgehen können, wenn besagter Dreijähriger irgendwo was aufschnappt, was den Eltern nicht genehm ist. "Mami" würde dem Kind vielleicht noch erklären, warum man dieses oder jenes Wort nicht sagt oder warum man der Omma nicht mit der Bratpfanne übern Nüschel hauen soll. Bloß, die MS-Reaktion geht scheinbar eher in Richtung von "okay, machen wir das Kind halt tot und suchen uns ein neues".
Natürlich lernt der Bot und natürlich kommt es auf die Lehrer an etc. - wie beim Menschen auch. Dass man sich dafür entschuldigen muss, dass der "Schüler" etwas gelernt hat was nicht ins typische Bild der politisch Korrekten passt, ist Wahnsinn - aber wohl Gang und Gebe in der heutigen Zeit. Wie da manche Menschen von "grenzenloser Freiheit" oder gar "rechtsfreiem Raum" sprechen, ist mir absolut schleierhaft.
Gewisse Regeln des Anstands, des allgemeinen Umgangs miteinander und so weiter, berührt das ja in keiner Form.
Mich würde in diesem Zusammenhang tatsächlich mal die folgende Situation interessieren:
-1- Wir haben einen lernfähigen Bot (Kurzfassung von "künstliche Intelligenz im Sinne der Bezeichnung").
-2- Dieser Bot interagiert mit seiner Umgebung und ist damit natürlich auch der "political correctness" ausgesetzt.
-3- Ab irgendeinem Zeitpunkt T "begreift" der Bot das Konzept "PC".
-4- Wir befragen den Bot zum Thema, was er dazu meint. ;o)
Also ich weiß nicht, was an dem Teil KI sein soll... Nur weil es passende Antworten aus einer Datenbank ausliest, ist das teil noch lange nicht mit KI ausgestattet. Und viel eindeutiger zeigt dieses Experiment, dass es nicht nur KI bedarf sondern mindestens genau soviel KM (künstliche Moral)!
Fakt ist in dem ganzen Test jedoch, dass das System nicht versteht, was es von sich gibt. Somit ist Intelligenz alles andere als gewährleistet. Eine wirkliche KI hätte solche Unterhaltungen, die auf Rassenhass damit antworten müssen, dass alle Menschen unter der Haut gleich sind. Hätte vielleicht noch auf die Materialien eingehen können, aus denen Menschen gemacht sind. Hätte mit Fakten belegen können, warum ein gelebter Glaube nicht immer zu dem führt, was wir Moral und Menschlichkeit nennen. Aber solch eine Diskussion mit einem Server zu führen, der mit Anfragen programmiert ist, ist nun alles andere als künstlich intelligent.
Microsoft, was ihr da versucht, gehört zur Kategorie: "Biggest fail!"
"Eine wirkliche KI hätte solche Unterhaltungen, die auf Rassenhass damit antworten müssen, dass alle Menschen unter der Haut gleich sind."
Dann hättest du eine Propagandamaschine, aber keine KI mehr. Genau so wie dieser Bot reagieren nämlich auch Menschen auf Gehirnwäsche. Nicht falsch verstehen, für mich würde ich den oben zitierten Satz unterschreiben, aber wenn du eine echte KI willst, kannst du nicht gleichzeitig erwarten, dass sie vorgefertigte, politisch korrekte Antworten gibt.
Die KI fängt bei 0 an, wie ein kleines Kind, und "lernt. Wenn das Kind also nur bei solchen Pflegefällen wie der 4Chan Gruppe aufwächst und die dem Kind so nen Kram einflößen, dann glaubt das Kind es nun mal.
Es wäre doch viel interessante gewesen zu sehen was passiert, wenn man da nun eine Gegengruppe zu gestartet hätte, die das Gegenteil gemacht hätte.
Die Primitive dumme Menschheit muss doch wirklich alles kaputt machen.
Und selbst wenn es ein paar Kids waren die sich daraus einen Spaß machten, was ist denn das für eine Welt, kein Anstand keine Erziehung und immer gibt es Leute die so etwas in Schutz nehmen.
Traurig unsere Welt.
IP Adressen ausfindig machen, Pc lahmlegen und einsperren, was anderes haben diese menschen echt nicht verdient. Da wäre aber leider unser Planet fast leer von freien Menschen...
Ganz ehrlich: in /deiner/ Welt möchte ich nicht leben. Ich fände es weit besser wenn die Greise endlich mal die Leute mit der Vergangenheit in Ruhe lassen würden, denn weder ich noch viele andere haben etwas mit den Verbrechen um 193x bis 194x zu tun. Trotzdem müssen wir dafür herhalten und uns schuldig fühlen nur weil irgendwelche Leute es so wollen. Ist mir aber egal was die Leute wollen.
Insofern: ich bin sicher es war Spaß und ich glaube sie die haben nichts kaputt gemacht, sondern das getan, was menschlich ist und was ältere Geschwister mit ihren jüngeren Geschwistern manchmal tun. Das hat nichts mit schlechter Erziehung zu tun - aber vielleicht hattest du auch keine Geschwister, dann würdest du es niemals nachvollziehen können.
Und dass uns keine Aliens besuchen, ist sicher zu begrüßen, denn mit unserer primitiven kapitalistischen Ich-Denkweise, die übrigens zusätzlich noch in Nationen, Sozialnormen usw. aufgeteilt ist, hätten wir gegen die nicht den Hauch einer Chance.
In so fern kann man das Experiment sogar als gelungen bezeichnen. Es spiegelt exakt die Stufe der menschlichen Entwicklung wieder.