Ernüchternde Untersuchung:
KIs können Fake News nicht erkennen

In Zeiten einer nahezu ungebremsten Verbreitung enormer Mengen an Nachrichten, Gerüchten und Falschinformationen liegen große Hoffnungen auf modernen KI-Systemen. Doch diese können aktuell schlicht keine Ordnung ins Chaos bringen.
Ki, Künstliche Intelligenz, Gehirn, Kopf, Denken
Saad Faruque (CC BY-SA 2.0)
Unternehmen wie Facebook und auch andere Parteien betonen immer wieder, dass das so genannte Fake-News-Problem mit gut geschulten KI-Systemen in den Griff zu bekommen wäre - und sei es nur für eine Vorsortierung der enormen Menge an kursierenden Informationen. Zwei Forscherguppen an der renommierten Technik-Universität MIT unter Leitung der Professorin Regina Barzilay haben sich mit der Frage der Grenzen aktueller Algorithmen zum Maschinenlernen beschäftigt und kommen hier eher zu ernüchternden Ergebnissen.

In den meisten Fällen greifen entsprechende Systeme aktuell auf eine Datenbank namens Fact Extraction and Verification (FEVER) zurück. In dieser sind zahlreiche geprüfte Informationen enthalten und man hofft darauf, dass die KIs anhand dessen lernen, wie der Wahrheitsgehalt anderer Informationen zu bewerten ist. Das Problem ist allerdings, dass die Algorithmen im Alltag oft nicht mit klaren Aussagen zu tun haben, sondern die Sprache häufig verschlungenen Wegen mit feinen Nuancen folgt.

Maschinentext wird gut enttarnt

So können die Systeme beispielsweise positive Aussagen wie "Greg sagt, sein Auto ist blau" problemlos als richtig oder falsch bewerten. Sie scheitern allerdings schon bei relativ einfachen negativen Statements wie "Greg hat nie gesagt, dass sein Auto nicht blau wäre". Bei solchen Defiziten bei der Interpretation der Sprache hilft auch keine noch so gute Fakt-Checking-Datenbank.

Ein weiteres Problem haben die Forscher in der Datenbank selbst identifiziert: In dieser ist eine Voreingenommenheit auch in der Datenstruktur angelegt. Richtige Informationen sind fast ausschließlich als positiv formulierte Aussagen enthalten, während falsche Angaben als negative Statements enthalten sind. Für eine KI, die im Wesentlichen auch nur eine gute Mustererkennung bietet, ist das fatal, wenn sie in der Praxis damit konfrontiert ist, dass in der natürlichen Sprache wesentlich flexibler agiert wird.

Es gibt aber zumindest ein Ergebnis der Untersuchung, das positiv stimmt: Die immer besser werdenden Systeme, bei denen andere KIs Texte schreiben, die für Menschen nicht von den Werken echter Redakteure zu unterscheiden sind, lassen sich durch Maschinenlern-Systeme mit spielender Leichtigkeit enttarnen. Zumindest hier kann man also auf eine gute Fake-Erkennung hoffen.

Siehe auch: Hysterie um Fake News & Social Bots: Untersuchung zeigt kaum Beweise
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Jetzt als Amazon Blitzangebot
Ab 07:30 Uhr OpenSourz Raspberry Pi 4 Modell B 8 GB RAM mit 128 GB SD-Karte, Raspberry Pi PC/ABS-Gehäuse, Kühlkörper, Lüfter, HDMI-Kabel, 5V/3A USB-C-Netzteil mit SchalterOpenSourz Raspberry Pi 4 Modell B 8 GB RAM mit 128 GB SD-Karte, Raspberry Pi PC/ABS-Gehäuse, Kühlkörper, Lüfter, HDMI-Kabel, 5V/3A USB-C-Netzteil mit Schalter
Original Amazon-Preis
179,99
Im Preisvergleich ab
179,99
Blitzangebot-Preis
161,49
Ersparnis zu Amazon 10% oder 18,50
Im WinFuture Preisvergleich
Folgt uns auf Twitter
WinFuture bei Twitter
Interessante Artikel & Testberichte
Tipp einsenden
❤ WinFuture unterstützen
Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!