Ernüchternde Untersuchung: KIs können Fake News nicht erkennen

In Zeiten einer nahezu ungebremsten Verbreitung enormer Mengen an Nachrichten, Gerüchten und Falschinformationen liegen große Hoffnungen auf modernen KI-Systemen. Doch diese können aktuell schlicht keine Ordnung ins Chaos bringen. Unternehmen wie Facebook und auch andere Parteien betonen immer wieder, dass das so genannte Fake-News-Problem mit gut geschulten KI-Systemen in den Griff zu bekommen wäre - und sei es nur für eine Vorsortierung der enormen Menge an kursierenden Informationen. Zwei Forscherguppen an der renommierten Technik-Universität MIT unter Leitung der Professorin Regina Barzilay haben sich mit der Frage der Grenzen aktueller Algorithmen zum Maschinenlernen beschäftigt und kommen hier eher zu ernüchternden Ergebnissen.

In den meisten Fällen greifen entsprechende Systeme aktuell auf eine Datenbank namens Fact Extraction and Verification (FEVER) zurück. In dieser sind zahlreiche geprüfte Informationen enthalten und man hofft darauf, dass die KIs anhand dessen lernen, wie der Wahrheitsgehalt anderer Informationen zu bewerten ist. Das Problem ist allerdings, dass die Algorithmen im Alltag oft nicht mit klaren Aussagen zu tun haben, sondern die Sprache häufig verschlungenen Wegen mit feinen Nuancen folgt.

Maschinentext wird gut enttarnt

So können die Systeme beispielsweise positive Aussagen wie "Greg sagt, sein Auto ist blau" problemlos als richtig oder falsch bewerten. Sie scheitern allerdings schon bei relativ einfachen negativen Statements wie "Greg hat nie gesagt, dass sein Auto nicht blau wäre". Bei solchen Defiziten bei der Interpretation der Sprache hilft auch keine noch so gute Fakt-Checking-Datenbank.

Ein weiteres Problem haben die Forscher in der Datenbank selbst identifiziert: In dieser ist eine Voreingenommenheit auch in der Datenstruktur angelegt. Richtige Informationen sind fast ausschließlich als positiv formulierte Aussagen enthalten, während falsche Angaben als negative Statements enthalten sind. Für eine KI, die im Wesentlichen auch nur eine gute Mustererkennung bietet, ist das fatal, wenn sie in der Praxis damit konfrontiert ist, dass in der natürlichen Sprache wesentlich flexibler agiert wird.

Es gibt aber zumindest ein Ergebnis der Untersuchung, das positiv stimmt: Die immer besser werdenden Systeme, bei denen andere KIs Texte schreiben, die für Menschen nicht von den Werken echter Redakteure zu unterscheiden sind, lassen sich durch Maschinenlern-Systeme mit spielender Leichtigkeit enttarnen. Zumindest hier kann man also auf eine gute Fake-Erkennung hoffen.

Siehe auch: Hysterie um Fake News & Social Bots: Untersuchung zeigt kaum Beweise Ki, Künstliche Intelligenz, Gehirn, Kopf, Denken Ki, Künstliche Intelligenz, Gehirn, Kopf, Denken Saad Faruque (CC BY-SA 2.0)
Diese Nachricht empfehlen
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 06:35 Uhr Amazfit Mens Bip S Smartwatch, SquareAmazfit Mens Bip S Smartwatch, Square
Original Amazon-Preis
49,90
Im Preisvergleich ab
?
Blitzangebot-Preis
39,90
Ersparnis zu Amazon 20% oder 10

Video-Empfehlungen

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

Tipp einsenden

❤ WinFuture unterstützen

Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!