Chatbots Bard und Bing sind eine "Shitshow" der Fehlinformation
OpenAI-Entwicklung ChatGPT bzw. mittlerweile dem Nachfolger GPT-4 plaudern kann. Konkret bedeutet das, dass man mit einem Chatbot sprechen kann und dieser fortschrittliche und vor allem menschlich klingende Antworten liefert. Das hat einen "roten Alarm" bei Google ausgelöst und seit gestern hat auch der kalifornische Konkurrent ganz offiziell eine eigene Chat-KI namens Bard.
Hier ist die falsche Bing-Antwort zu sehen
So hat Microsofts Bing vor Kurzem auf die Frage, ob Googles Bard eingestellt wurde, mit einem Ja geantwortet. Dabei zeigt die Beweis- und Argumentationskette, wie sich eine Information im Stille-Post-Prinzip verfälschen kann. Denn Bing beruft sich in seiner (falschen) Antwort auf einen Artikel, in der ein Tweet und die Bard-Antwort darauf diskutiert wird, wo wiederum ein Scherz auf Hacker News vorkommt, in dem vorhergesagt wurde, dass so etwas passieren kann.
Im Wesentlichen zeigt sich dabei, dass eine KI zwar menschlich klingen, nicht aber zwangsläufig die Nuancen menschlicher Kommunikation erkennen kann. Microsoft hat diesen Fehler zwar schnell erkannt, laut The Verge zeigt dieser aber hervorragend, wie schnell eine solche künstliche "Intelligenz" eine Falschmeldung erschaffen kann.
The Verge, das die Sache als "Shitshow" bezeichnet, dazu: "Wir haben es hier mit einem ersten Anzeichen dafür zu tun, dass wir in ein riesiges Spiel mit einer KI-Fehlinformation stolpern, bei dem Chatbots nicht in der Lage sind, zuverlässige Nachrichtenquellen einzuschätzen, Geschichten über sich selbst falsch lesen und falsch über ihre eigenen Fähigkeiten berichten. In diesem Fall begann die ganze Sache mit einem einzigen scherzhaften Kommentar auf Hacker News."
Der Autor meint, dass das alles unfreiwillig passiert sei, man sich aber nur vorstellen solle, was passieren könnte, wenn man solche Systeme bewusst manipulieren will: "Es ist eine lächerliche Situation, aber eine mit potenziell ernsten Folgen."
Siehe auch:
Anfang Februar hat Microsoft die neue Version seiner Suchmaschine Bing vorgestellt, diese hat einen eigenen Bereich, in dem man mit der
Missverständnisse zwischen Bots
Die beiden Chatbots "kennen" sich inzwischen auch - doch das bedeutet nichts Gutes. Denn wie The Verge berichtet, machen sich die beiden KIs gegenseitig schlecht bzw. verbreiten Unwahrheiten über sich. Hier kann man sicherlich keine Absicht unterstellen, die Sache zeigt aber gut, wie viel (negatives) Potenzial für Falschinformationen Bard und Bing mit ChatGPT haben.
Im Wesentlichen zeigt sich dabei, dass eine KI zwar menschlich klingen, nicht aber zwangsläufig die Nuancen menschlicher Kommunikation erkennen kann. Microsoft hat diesen Fehler zwar schnell erkannt, laut The Verge zeigt dieser aber hervorragend, wie schnell eine solche künstliche "Intelligenz" eine Falschmeldung erschaffen kann.
The Verge, das die Sache als "Shitshow" bezeichnet, dazu: "Wir haben es hier mit einem ersten Anzeichen dafür zu tun, dass wir in ein riesiges Spiel mit einer KI-Fehlinformation stolpern, bei dem Chatbots nicht in der Lage sind, zuverlässige Nachrichtenquellen einzuschätzen, Geschichten über sich selbst falsch lesen und falsch über ihre eigenen Fähigkeiten berichten. In diesem Fall begann die ganze Sache mit einem einzigen scherzhaften Kommentar auf Hacker News."
Der Autor meint, dass das alles unfreiwillig passiert sei, man sich aber nur vorstellen solle, was passieren könnte, wenn man solche Systeme bewusst manipulieren will: "Es ist eine lächerliche Situation, aber eine mit potenziell ernsten Folgen."
Zusammenfassung
- Microsoft & Google nutzen KI-Chatbots.
- Bing nutzt ChatGPT, Google hat Bard.
- KIs klingen menschlich, aber erkennen Nuancen nicht.
- Ein Scherz auf Hacker News wurde von KI für bare Münze gehalten.
- Zeigt, wie schnell KIs Fehlinformationen schaffen können.
- Lächerlich, aber ernste Folgen, wenn man KIs manipulieren will.
Siehe auch:
- Google startet Microsoft-ChatGPT-Konkurrenten Bard nun offiziell
- Bing mit GPT-4 Chatbot: Microsoft gewährt Zugang ohne Warteliste
- Microsoft bestätigt: Bing Chatbot nutzt GPT-4 bereits seit Wochen
- GPT-4 ist offiziell verfügbar: Zugang auf absehbare Zeit sehr beschränkt
- Panik durch ChatGPT & Microsoft: Google stopft KI in alle Produkte
Kommentar abgeben
Netiquette beachten!
Neue Bilder zum Thema OpenAI
Videos zum Thema OpenAI
Interessante Links
ChatGPT on ChatGPT im Preisvergleich
Neue Nachrichten
- Aktuelle Technik-Blitzangebote im Überblick
- RARBG Opfer von Corona & Krieg: Legendäres Torrent-Portal schließt
- iOS 16.6-Update: Apple startet zweite Beta-Version für Entwickler
- Anpassen mit weniger Klicks: Google Chrome startet Schnellfunktion
- Nur bis 9 Uhr: Media Markt startet Late-Night-Deals mit Bestpreisen
- iPhone 16 & 17: Roadmap zeigt, wie Apple seine Displays wachsen lässt
- Twitter ist nur noch ein Drittel dessen wert, was Elon Musk bezahlt hat
❤ WinFuture unterstützen
Sie wollen online einkaufen?
Dann nutzen Sie bitte einen der folgenden Links,
um WinFuture zu unterstützen:
Vielen Dank!
Alle Kommentare zu dieser News anzeigen