Ernüchternde Untersuchung: KIs können Fake News nicht erkennen

In Zeiten einer nahezu ungebremsten Verbreitung enormer Mengen an Nachrichten, Gerüchten und Falschinformationen liegen große Hoffnungen auf modernen KI-Systemen. Doch diese können aktuell schlicht keine Ordnung ins Chaos bringen. mehr... Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Bildquelle: Saad Faruque (CC BY-SA 2.0) Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Saad Faruque (CC BY-SA 2.0)

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich finde "Fake News" ja immer noch eine interessante Wortschöpfung. Im Endeffekt sind "Fake News" doch auch nur "Lügen".

Jemand behauptet / verbreitet etwas, was nicht der Wahrheit entspricht. Und das ist einfach gesagt eine Lüge.

Wobei es da ja auch wieder viele Unterscheidungsmöglichkeiten gibt. Das verbreiten falscher Informationen muss ja nicht immer eine Lüge sein - es kann auch ein Irrtum sein. Oder einfach nur Dummheit weil man es nicht besser weiss...

Und dann kann auch ein Tippfehler zu Fake News / Lügen führen... (z.B. ein / kein)

Schwierig....
 
Wenn es KIs wären dann könnten sie es lernen.
 
Das Begriff KI wird viel zu inflationär verwendet. Was wir derzeit maximal haben, sind KA - Künstliche Assistenten. Eine KI sollte auch auf nicht programmierte Fragen eine Antwort haben.
 
@feikwf: Dein Kriterium für KI finde ich etwas zu schwammig (es ist unklar, was du unter einer "programmierten Frage" verstehst), aber ich stimme dir zu, dass die heutigen "KIs" eigentlich herzlich wenig mit Intelligenz zu tun haben. Ich finde, der Begriff wurde von Beginn an völlig falsch gewählt, aber jetzt hat er sich leider festgesetzt.
 
@adrianghc: Ich denke, mit "programmierter Frage" ist eine exakte Formulierung gemeint. Aber so ist es doch: wenn ich z.B. Alexa ein Kommando gebe, das nicht exakt so formuliert ist, wie sie es haben will, dann scheitert sie. Das hat in meinen Augen auch nichts mit künstlicher Intelligenz zu tun, das ist ein besserer Sprachassistent, der festgelegte Kommandos und Fragen abarbeitet.
 
@Torchwood: Okay, ich hab bloß an einen weiteren Begriff von heutiger "KI" gedacht als nur Sprachassistenten.
 
@Torchwood: Fuzzy-Logik lautet der Fachbegriff, darüber lässt sich herleiten wenn die Informationslage nicht ganz sauber ist.
 
Ah ja. Und die FEVER Datenbank wird von welchen Staaten gefüllt? -_-
 
@PranKe01: Wo steht denn, dass diese Datenbank überhaupt von irgendwelchen Staaten gefüllt wird?
 
Das typische Fehler Fake-News sind plakative Clickbait-Schlagzeilen. Leider haben sich auch immer mehr seriösere Nachrichtenveröffentlicher dazu hinreißen lassen, dass sie dieses Aufmachung suchen, um dann den Inhalt noch hinter Bezahlschranken zu verstecken.
 
Das geht ja auch von der Logik her gar nicht.

Eigentlich kann man beide Aussagen, "Greg sagt, sein Auto ist blau" als auch die Aussage "Greg hat nie gesagt, dass sein Auto nicht blau wäre", nur bewerten, wenn man wirklich sämtliche Aussagen von Greg kennt.

Lediglich die erste Aussage von Greg kann nur als wahr gewertet werden, wenn man nur eine Aussage von ihm findet in dem er behauptet sein Auto sei blau. Wenn man allerdings nicht weiß, ob man wirklich alle Aussagen von ihm kennt, wann und wo diese auch immer getätigt wurden, dann kann man diese Aussagen schlichtweg nie bewerten. Auch als Mensch nicht.
 
Es gibt eben keine "selbstlernende KI", sondern nur feste Aktionspläne nach bestimmten Erkennungsmustern.
Das oft für eine KI beworbene Schach hat als Beispiel auch eine feste Anzahl an möglichen Zügen - der Mensch eben nicht!

Alles andere ist Vertriebsgebrabbel oder Mumpitz.
Es kochen alle nur mit Wasser (selbst Google).
 
@Postman1970: Ganz so stimmt das aber nicht. Schach hat natürlich durch seine Spielregeln und den begrenzten Dimensionen des Spielfeldes immer eine begrenzte Anzahl von möglichen Zügen.

Und diese kann eine KI durchaus auch selbstlernend irgendwann alle erlernen und abspeichern. Auch wenn die Anzahl möglicher Aufstellungen und daraus resultierender Taktiken ziemlich groß ist, irgendwann sind alle Möglichkeiten gespielt. Ist nur eine Frage der Zeit.

Ist dann halt ein wenig wie der berühmte Schimpanse der wahllos auf einer Schreibmaschine herumhämmert. Wenn er endlos viel Zeit hätte, würde er zufällig und fehlerfrei irgendwann die Bibel, Moby Dick oder ähnliche Bücher schreiben.

Und da kann man sich jetzt streiten, was KI ist, und ob man es überhaupt KI nennen kann. Denn was macht das menschliche Gehirn? Eigentlich greifen wir auch nur auf eine Datenbank mit Mustern zurück. Ist uns das Ergebnis genau bewusst greifen wir direkt auf dieses Muster zurück, wenn nicht versuchen wir etwas Ähnliches zu finden und durch Abweichungen das Ganze anzupassen und dadurch halt unser Ziel zu erreichen.

Viel mehr, aber auch nicht weniger macht eine komplexe KI. Zwar etwas dezimiert, aber vom Prinzip her ist es schon sehr ähnlich. Also zumindest ansatzweise kann man es durchaus KI nennen. Aber eben nur künstliche. Sie ist nicht so analog wie das natürliche Gehirn, wodurch wir wahrscheinlich mehr Nuancen haben. Zudem haben wir einfach mehr Sensoren, mit denen wir lernen können, usw. Das macht uns natürlich wesentlich flexibler. Da wir nur die Möglichkeit haben eine KI mit einer Datenbank zu füttern in der richtig oder falsch vermerkt ist, grob gesagt, wird das weitere lernen sich natürlich ebenfalls nur binär fortsetzen.

Ich weiß nicht ob Quantencomputer das ändern werden, dazu kenne ich mich zu wenig damit aus. Vor allem weiß ich auch nicht wie die Programmierung und das Abfragen von Ergebnissen dann vonstattengehen wird. Ich denke jedoch, dass wir in unserer Programmierung und der Ergebnisabfrage erstmal weiterhin auf True und False verlassen werden. Und wenn es eben halt so aussieht, dass ein Wertebereich als wahr gilt und die andere Hälfte als falsch. Aber wie gesagt, da wage ich noch keine so richtige Prognose, weil da habe ich mich bisher zu wenig mit beschäftigt.
 
Man weiß es halt selbst bei den "bizarrsten" Aussagen nicht:

Lügt einer bewusst oder ist er so abgrundtief dumm, dass er aus tiefem Herzen den größten Unfug glaubt?
 
Es gab vor einiger Zeit das Phänomen dass Linke/Grüne Nachrichten von angeblichen Vergewaltigungen und Messerstechereien künstlich kreiert haben um den Rechten vorwerfen zu können dass sie auf "Fake-News" hereinfallen.

Ein Rechter springt auf solch eine Nachricht natürlich sofort an und die Kontrolle ob das alles stimmt ist dem gemeinen Nutzer in aller Regel nicht möglich.
Es ist auch so dass genau solche Meldungen auch gehäuft keine "Fake-News" waren und man anhand der Thematik nicht erkennen kann ob diese Medungen generell als unglaubwürdig einzustufen sind.

Anderes Beispiel:
Die Medien (ZDF, ARD, Zeitungen) hatten über Gräueltat des Assad-Regimes berichtet und zur Untermauerung Videoaufnahmen gezeigt. Diese Videos wurden aber nicht ein mal in Syrien aufgenommen, sondern im Irak vor einigen Jahren.

Man könnte jetzt denken dass die Staatsmedien diese Fake-News für ihre eigenen Propagandazwecke gegen Assad nutzen wollen, sie selbst sagen aber dazu nur "Ups, das war wohl ein Fehler, so etwas passiert eben."
 
@baseJump: Oder ist deine "Meldung" vielleicht schon eine Meta-Fake-News?
Man veröffentlicht eine Fake-News, in der man darstellt selber Opfer von Fake-News zu sein, um von eigenen Fake-News abzulenken.

Oder das noch nichtmal der Unterschied zwischen Staatsmedien und öffentlichrechtlicher Finanzierung verstanden wird.

Und warum wird eigentlich immer Links und Grün in einem Topf geworfen? Jamaika zeigt, dass Grün auch gut konservativ kann.
Kommentar abgeben Netiquette beachten!
Einloggen

Video-Empfehlungen