Wie die Chat-KI ChatGPT sicher wurde? Mit Hungerlöhnen in Kenia
Elon Musk und Microsoft finanziert wird, ist derzeit der hellste Stern am KI-Himmel. Denn das Unternehmen hat den Bildgenerator Dall-E sowie den Chatbot ChatGPT in seinem Portfolio und diese lassen Nutzer auch immer wieder staunen. Denn derartige künstliche Intelligenzen liefern Ergebnisse, die von menschlichen teilweise nur schwer zu unterscheiden sind.
Doch ganz ohne menschliche Unterstützung geht es nicht: Denn einerseits müssen ChatGPT und Co. trainiert werden, andererseits kommen die Betreiber ohne Überwachung nicht aus. Denn wenn Menschen eine KI testen, dann gibt es natürlich auch jene, die deren Grenzen ausloten wollen oder sonstigen Schabernack damit treiben.
Das zusätzliche bzw. eigentliche Problem dabei: Diese mehr als belastende Arbeit wurde ausgelagert, und zwar vor allem nach Kenia. OpenAI hat sich hierfür mit einem auf "Data Labeling" spezialisierten Unternehmen namens Sama zusammengetan. Dieses leugnet auch gar nicht, dass man diese Arbeit in Entwicklungsländer auslagert, behauptet aber, dass das "ethische" und "würdevolle digitale Arbeit" sei.
Die Realität war laut Time-Recherchen eine andere: Die kenianischen Data Miner mussten unter schlechten Arbeitsbedingungen und niedrigen Löhnen arbeiten. Ein kenianischer Arbeiter sagte, dass er "an wiederkehrenden Visionen litt, nachdem er eine grafische Beschreibung eines Mannes gelesen hatte, der in Gegenwart eines kleinen Kindes Sex mit einem Hund hatte".
Sama hat sich vom OpenAI-Vertrag bereits im Februar 2022 zurückgezogen, und zwar vorzeitig. Grund war teilweise die traumatische Art der Inhalte, teils aber auch ein ähnlicher Time-Bericht, der ganz ähnliche Vorwürfe im Zusammenhang von Sama-Moderatoren, die für Meta/Facebook tätig waren, erhoben hat.
Für die Sama-Arbeitnehmer in Kenia war das aber eher ein Fall von "Vom Regen in Traufe". Denn sie mussten zwar nicht länger verstörende Bilder und Texte sehen und lesen, viele standen aber über Nacht ohne Job da.
Siehe auch:
OpenAI, das unter anderem von
Doch ganz ohne menschliche Unterstützung geht es nicht: Denn einerseits müssen ChatGPT und Co. trainiert werden, andererseits kommen die Betreiber ohne Überwachung nicht aus. Denn wenn Menschen eine KI testen, dann gibt es natürlich auch jene, die deren Grenzen ausloten wollen oder sonstigen Schabernack damit treiben.
Alptraumhafte Arbeit, um ChatGPT zu trainieren
Das ist laut einem Bericht von Time eine ganze Menge: So arbeiteten im Hintergrund von ChatGPT menschliche Aufpasser, die "toxische Daten" aus dem Trainingsmaterial für die KI kennzeichnen und filtern. Und sie sind gezwungen, grafische Details von NSFW-Inhalten (Not Safe For Work) wie sexuellen Kindesmissbrauch, Bestialität, Mord, Selbstmord, Folter, Selbstverletzung und Inzest zu lesen. Derartige Inhalte führten beim Vorgänger GPT-3 immer wieder dazu, dass die KI mit "falschen" Daten (die frei aus dem Internet bezogen wurden) trainiert wurde und sich daraufhin selbst sexistisch und rassistisch äußerte.Das zusätzliche bzw. eigentliche Problem dabei: Diese mehr als belastende Arbeit wurde ausgelagert, und zwar vor allem nach Kenia. OpenAI hat sich hierfür mit einem auf "Data Labeling" spezialisierten Unternehmen namens Sama zusammengetan. Dieses leugnet auch gar nicht, dass man diese Arbeit in Entwicklungsländer auslagert, behauptet aber, dass das "ethische" und "würdevolle digitale Arbeit" sei.
Die Realität war laut Time-Recherchen eine andere: Die kenianischen Data Miner mussten unter schlechten Arbeitsbedingungen und niedrigen Löhnen arbeiten. Ein kenianischer Arbeiter sagte, dass er "an wiederkehrenden Visionen litt, nachdem er eine grafische Beschreibung eines Mannes gelesen hatte, der in Gegenwart eines kleinen Kindes Sex mit einem Hund hatte".
Maximal zwei Dollar die Stunde
Die Bezahlung für diese "Tortur", so ein anderer Mitarbeiter, und solchen psychischen Stress war im Prinzip ein Witz, denn je nach Leistung und Erfahrung bekamen die Arbeiter einen Stundenlohn von 1,30 bis zwei Dollar.Sama hat sich vom OpenAI-Vertrag bereits im Februar 2022 zurückgezogen, und zwar vorzeitig. Grund war teilweise die traumatische Art der Inhalte, teils aber auch ein ähnlicher Time-Bericht, der ganz ähnliche Vorwürfe im Zusammenhang von Sama-Moderatoren, die für Meta/Facebook tätig waren, erhoben hat.
Für die Sama-Arbeitnehmer in Kenia war das aber eher ein Fall von "Vom Regen in Traufe". Denn sie mussten zwar nicht länger verstörende Bilder und Texte sehen und lesen, viele standen aber über Nacht ohne Job da.
Siehe auch:
- Konservative sind paranoid, dass KIs "woke" voreingenommen sind
- OpenAI: Microsoft will gigantische Summe in ChatGPT-Macher stecken
- ChatGPT: Microsoft will den Hype-Chatbot auch in Office integrieren
- Bing bekommt KI von ChatGPT: "Roter Alarm" bei Google berechtigt?
- ChatGPT: Neuer mächtiger Chatbot löst bei Google "roten Alarm" aus
Kommentar abgeben
Netiquette beachten!
Videos zum Thema OpenAI
Interessante Links
ChatGPT on ChatGPT im Preisvergleich
Neue Nachrichten
- Aktuelle Technik-Blitzangebote im Überblick
- Activision-Deal: EU erteilt Microsoft eine kartellrechtliche Warnung
- "HeadCrab"-Malware verwandelt Redis-Server in Monero-Miner
- Nächster Banner-Fail: Microsoft 365-Anzeige blockiert Windows-Desktop
- Tiny11 Windows: Abgespeckte Version mit Secure Boot ohne TPM
- Microsoft stoppt Edge-Schwachstelle, anfällig für Manipulationsversuche
- Windows 11 22H2 Beta: Optionales Update gestartet, das ist neu
Videos
Beliebte Downloads
Beliebte Nachrichten
❤ WinFuture unterstützen
Sie wollen online einkaufen?
Dann nutzen Sie bitte einen der folgenden Links,
um WinFuture zu unterstützen:
Vielen Dank!
Alle Kommentare zu dieser News anzeigen