Bildanalyse-KI täuschen: Das ist keine Waffe, es ist ein Hubschrauber

Roboter, Künstliche Intelligenz, Auge, Sehen Bildquelle: Public Domain
Computer haben bei der Mustererkennung dank neuester KI-Algorithmen rasante Fortschritte gemacht, nähern sich den menschlichen Fähigkeiten aber auch darin an, wie anfällig sie gegenüber optischen Täuschungen sind. Das kann sich in verschiedenen Bereichen zu einem durchaus nicht zu verachtenden Problem entwickeln. Über die letzten Jahre hinweg haben die in der KI-Forschung führenden Unternehmen immer wieder stolz ihre Fortschritte präsentiert. Computer sind so heute in der Lage, binnen kürzester Zeit Personen zu erkennen, riesige Videoarchive auf das Auftauchen bestimmter Gegenstände zu durchsuchen und vieles mehr. Wirklich spannend dürfte daher inzwischen eher die Frage sein, an welchen Stellen die Systeme zuverlässig scheitern.

Eines der unzweifelhaft besten Systeme zur maschinellen Bildanalyse ist Googles Cloud Vision. Daher haben sich Forscher der renommierten Technologie-Universität MIT dieses System vorgenommen und erfolgreich mit optischen Täuschungen attackiert. Und dabei sind sie inzwischen weit über Testläufe hinausgekommen, berichtet das US-Magazin Wired.

Es geht Richtung Praxis

Anfänglich wurden manipulierte Gegenstände in so genannten White Boxes gezeigt und man kannte weitgehend die Arbeitsweise eines Systems - so dass gezielte Täuschungen möglich waren. Allerdings war es eine weitaus höhere Herausforderung, auch in praxisorientierten Umfeldern Erfolge zu erzielen - und das auch noch mit realistischen Betrugsexperimenten.

In ihren aktuellen Publikationen zeigen die Forscher unter anderem, dass sie zumindest mit passenden Bildern unter Black Box-Bedingungen für eine Täuschung des Algorithmus sorgen können. Eine Ansammlung von Waffen wurde hier von der KI beispielsweise als Bild eines Hubschraubers identifiziert. Dabei hatte sich die Aufnahme für einen menschlichen Betrachter faktisch gar nicht verändert. Es reichte die Manipulation einiger entscheidender Pixel, um die Software in die Irre zu führen.
Bildanalyse-KI austricksenWaffe... Bildanalyse-KI austricksen...oder Hubschrauber?
Die Manipulationen zeigen einen Weg auf, solche Betrugs-Verfahren auch für die Praxis entwickeln zu können. Hier kann dies gravierende Folgen haben. Es würde beispielsweise reichen, einer irgendwann einmal kommenden größeren Flotte von autonomen Fahrzeugen manipulierte Verkehrsschilder zu präsentieren - während die noch vorhandenen menschlichen Fahrer hier dann korrekt das Stop-Schild erkennen, meint die KI vielleicht eine Vorfahrsgewährung zu sehen. Roboter, Künstliche Intelligenz, Auge, Sehen Roboter, Künstliche Intelligenz, Auge, Sehen Public Domain
Diese Nachricht empfehlen
Kommentieren15
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Kommentar abgeben Netiquette beachten!
Einloggen

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

Tipp einsenden