Ernüchternde Untersuchung: KIs können Fake News nicht erkennen

Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Bildquelle: Saad Faruque (CC BY-SA 2.0)
In Zeiten einer nahezu ungebremsten Verbreitung enormer Mengen an Nachrichten, Gerüchten und Falschinformationen liegen große Hoffnungen auf modernen KI-Systemen. Doch diese können aktuell schlicht keine Ordnung ins Chaos bringen. Unternehmen wie Facebook und auch andere Parteien betonen immer wieder, dass das so genannte Fake-News-Problem mit gut geschulten KI-Systemen in den Griff zu bekommen wäre - und sei es nur für eine Vorsortierung der enormen Menge an kursierenden Informationen. Zwei Forscherguppen an der renommierten Technik-Universität MIT unter Leitung der Professorin Regina Barzilay haben sich mit der Frage der Grenzen aktueller Algorithmen zum Maschinenlernen beschäftigt und kommen hier eher zu ernüchternden Ergebnissen.

In den meisten Fällen greifen entsprechende Systeme aktuell auf eine Datenbank namens Fact Extraction and Verification (FEVER) zurück. In dieser sind zahlreiche geprüfte Informationen enthalten und man hofft darauf, dass die KIs anhand dessen lernen, wie der Wahrheitsgehalt anderer Informationen zu bewerten ist. Das Problem ist allerdings, dass die Algorithmen im Alltag oft nicht mit klaren Aussagen zu tun haben, sondern die Sprache häufig verschlungenen Wegen mit feinen Nuancen folgt.

Maschinentext wird gut enttarnt

So können die Systeme beispielsweise positive Aussagen wie "Greg sagt, sein Auto ist blau" problemlos als richtig oder falsch bewerten. Sie scheitern allerdings schon bei relativ einfachen negativen Statements wie "Greg hat nie gesagt, dass sein Auto nicht blau wäre". Bei solchen Defiziten bei der Interpretation der Sprache hilft auch keine noch so gute Fakt-Checking-Datenbank.

Ein weiteres Problem haben die Forscher in der Datenbank selbst identifiziert: In dieser ist eine Voreingenommenheit auch in der Datenstruktur angelegt. Richtige Informationen sind fast ausschließlich als positiv formulierte Aussagen enthalten, während falsche Angaben als negative Statements enthalten sind. Für eine KI, die im Wesentlichen auch nur eine gute Mustererkennung bietet, ist das fatal, wenn sie in der Praxis damit konfrontiert ist, dass in der natürlichen Sprache wesentlich flexibler agiert wird.

Es gibt aber zumindest ein Ergebnis der Untersuchung, das positiv stimmt: Die immer besser werdenden Systeme, bei denen andere KIs Texte schreiben, die für Menschen nicht von den Werken echter Redakteure zu unterscheiden sind, lassen sich durch Maschinenlern-Systeme mit spielender Leichtigkeit enttarnen. Zumindest hier kann man also auf eine gute Fake-Erkennung hoffen.

Siehe auch: Hysterie um Fake News & Social Bots: Untersuchung zeigt kaum Beweise Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Saad Faruque (CC BY-SA 2.0)
Diese Nachricht empfehlen
Kommentieren17
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 00:00 Uhr Bis zu 20% auf Blue MikrofonBis zu 20% auf Blue Mikrofon
Original Amazon-Preis
59,99
Im Preisvergleich ab
40,99
Blitzangebot-Preis
42,99
Ersparnis zu Amazon 28% oder 17

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

Tipp einsenden