Facebook zu User-Sperren: Wir sind nicht Schuld, unsere KI ist Schuld!

Bisher werden KI-Algorithmen vor allem als die seelig machende Lösung aller möglichen Probleme beworben. Sie lassen sich aber auch hervorragend nutzen, um bei Fehlern als Sündenböcke herzuhalten - immerhin lassen sich die Vorgänge in der Blackbox vermeintlich weder nachvollziehen noch beeinflussen.

Infografik: MaschinenlernenMaschinenlernen
Das zeigt ein aktueller Fall im Social Network Facebook. Auf der Plattform wurde dieser Tage eine ganze Reihe von Nutzern gesperrt, die einen älteren Artikel der Tageszeitung Welt geteilt hatten. Es handelte sich hier um den Beitrag "So viel Nazi-Ideologie steckt im Islamismus" von Clemens Wergin, der bereits seit vier Jahren verfügbar ist und der schon mehrfach seine Kreise zog.

Nun drehte der Link zu dem Artikel eine weitere Runde durch die Profile verschiedener Nutzer und auf einmal sprang Facebooks System zur Kontrolle von Inhalten an. Wie die Redaktion der Zeitung Welt mitteilte, hätten sich verschiedene Nutzer gemeldet, bei denen der Artikel einfach automatisch kurz nach dem Teilen wieder aus der Timeline gelöscht wurde. Es gab aber auch User, deren Accounts direkt für einen Zeitraum von 30 Tagen gesperrt wurden, weil sie angeblich gegen die Gemeinschaftsstandards verstoßen hätten.

Die Schuld für die Sperrungen wurde von einem Facebook-Sprecher schlicht dem KI-System zugeschoben, das die Inhalte auf der Plattform im Blick behält. Entstanden sei das Problem demnach durch ein Foto, das den Beitrag demonstrierte. Dieses sei in der Vergangenheit auch schon in Verbindung mit Terrorpropaganda verbreitet worden, weshalb die betroffenen Anwender hier fälschlicherweise in die gleiche Schublade gesteckt wurden.

Vorgeschmack auf die Zukunft

Angeblich - so teilte man es der Zeitung gegenüber mit - arbeite man mit Hochdruck daran, den Algorithmus anzupassen, um den Fehler zukünftig zu vermeiden. Das ist aber nicht gerade trivial. Denn während in einem herkömmlichen Programmcode die Möglichkeit bestünde, entsprechende Anpassungen vorzunehmen, agieren die so genannten KIs mit eigenen Entscheidungen aufgrund der Auswertung von zahlreichen Trainings-Daten. Lediglich mit der Gestaltung dieser lässt sich eine gewisse Kontrolle behalten - wenn man denn weiß, was man tut.

Die Systeme, die gemeinhin als KI bezeichnet werden, beruhen eigentlich nur auf Maschinenlernen. Das heißt, sie werden anfangs mit Trainingsdaten gefüttert und lernen schlicht eine sehr schnelle Mustererkennung in komplexen Datenstrukturen. Eine wirkliche Einordnung und sinnvolle Bewertung von Inhalten wird dabei nicht vorgenommen.

Im aktuellen Fall von Facebook hält sich der Schaden in Grenzen. Die Sache gibt aber einen Vorgeschmack darauf, was zukünftig auf die Nutzer zukommt. Denn sehr ähnliche Algorithmen sollen zukünftig auch als Upload-Filter zum Einsatz kommen, wie sie von der EU vorgeschrieben werden könnten. Die Systeme werden auch dann schlicht darin versagen, korrekt zu bewerten, ob ein Nutzer gerade gegen das Urheberrecht verstößt oder eigentlich völlig legal einen Inhalt hochladen will.

Siehe auch: Was kann schiefgehen? - Facebook-KI soll Software-Bugs fixen
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Jetzt als Amazon Blitzangebot
Ab 06:10 Uhr Lisen Legion Go/ROG Ally/Steam Dock, 13-in-1 Dockingstation mit 5 USB 3.0 und 2.0, Zwei Lüftern, HDMI 4K bei 60 Hz, Gigabit Ethernet, 100 W Aufladung für Stream Deck/LenovoLisen Legion Go/ROG Ally/Steam Dock, 13-in-1 Dockingstation mit 5 USB 3.0 und 2.0, Zwei Lüftern, HDMI 4K bei 60 Hz, Gigabit Ethernet, 100 W Aufladung für Stream Deck/Lenovo
Original Amazon-Preis
79,98
Im Preisvergleich ab
?
Blitzangebot-Preis
53,98
Ersparnis zu Amazon 33% oder 26
Metras Aktienkurs in Euro
Tipp einsenden
❤ WinFuture unterstützen
Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!