US Air Force: Abbruch-Befehl an KI-gestützte Drohne wird zur Gefahr

Neue KI-Technologien haben natürlich auch das Interesse der Mi­li­tärs geweckt. Ein aktueller Test der US-Luftwaffe zeigt je­doch, wa­rum es keine besonders gute Idee ist, den un­durch­schau­ba­ren Algorithmen weitgehende Kontrolle über töd­li­che Waf­fen zu geben.
überwachung, Drohne, Spionage, Krieg, Militär, Armee, Bundeswehr, Soldaten, US Army, Soldat, Us Armee, Flecktarn, War, Aufklärung, Drohnenabwehr, Drohnenangriff, Elitesoldaten
In einer jüngst durchgeführten Simulation wollte ein Drohnen-Operator dafür sorgen, dass das von ihm geführte Kampfsystem seine Mission abbricht. Die KI in der Drohne interpretierte dies allerdings als Gefährdung der vorgesehenen Ziel-Erfüllung. Die Reaktion bestand darin, dass das System seinen Operator "tötete", um die anfangs vorgesehene Mission erfolgreich abschließen zu können, berichtet das US-Magazin Motherboard.

Dies entspricht ungefähr dem, was bereits in verschiedenen Science-Fiction-Geschichten, die sich mit den Problemen Künstlicher Intelligenz beschäftigen, vorhergesehen wurde. Allein im Kino boten solche Schwierigkeiten mehrfach Stoff für große Klassiker - angefangen bei Stanley Kubricks "2001: A Space Odyssey" bis hin zur berühmten Terminator-Reihe.


Kein Mensch zu Schaden gekommen

Das fatale Ergebnis der Simulation wurde seitens eines Offiziers der US Air Force auf einer Konferenz öffentlich gemacht. Dabei betonte man, dass es sich um einen "simulierten Test" in einer rein virtuellen Umgebung handelte, und nicht etwa um einen Live-Test mit realer militärischer Hardware. Es sei kein Mensch zu Schaden gekommen.

Später schob man weitere Beschwichtigungen nach. "Es scheint, dass die Kommentare des Obersts aus dem Kontext gerissen wurden und anekdotisch gemeint waren", so eine Air Force-Sprecherin. "Das Department der Air Force hat keine derartigen KI-Drohnen-Simulationen durchgeführt und setzt sich weiterhin für einen ethischen und verantwortungsvollen Einsatz von KI-Technologie ein." Dies klingt nach einem in der PR verbreiteten, überspezifischen Dementi - es wird immerhin nichts darüber ausgesagt, dass ein solcher Versuch nicht bei einer anderen Organisation unter Beteiligung der Air Force-Spezialisten durchgeführt wurde.

Worin auch immer die Grundlage des Konferenzvortrags zu finden ist, zeigt sich doch die Schwierigkeit, mit der man es bei der KI-Entwicklung zu tun hat. Denn hier handelt es sich eben nicht mehr um nachvollziehbare Codes, die abgearbeitet werden. Vielmehr entwickeln die selbstlernenden Algorithmen in einer Blackbox eigene Strategien, um vorgegebene Ziele zu erreichen - und den Entwicklern obliegt es, im Training der KI sowohl passende Daten als auch ein entsprechendes Umfeld an Bedingungen zu schaffen.

Zusammenfassung
  • US-Luftwaffe testet KI: "tötet" Operator, um Mission zu erfüllen
  • Offizier der US Air Force macht Ergebnis öffentlich
  • Air Force dementiert
  • Entwickler müssen KI mit passenden Daten und Umfeld trainieren
  • KI-Kontrolle über tödliche Waffen keine gute Idee

Siehe auch:
Jetzt einen Kommentar schreiben


Alle Kommentare zu dieser News anzeigen
Tipp einsenden
❤ WinFuture unterstützen
Sie wollen online einkaufen? Dann nutzen Sie bitte einen der folgenden Links, um WinFuture zu unterstützen: Vielen Dank!