Microsoft will Künstliche Intelligenz nicht als Kriegswerkzeug sehen

Microsoft macht sich nach eigenen Angaben viele Gedanken über einen ethisch einwandfreien Einsatz seiner Technologien aus dem Bereich der Künstlichen Intelligenz. Das Unternehmen lässt deshalb auch so manche Anfrage von Kunden abblitzen, weil man ... mehr... Chatbot, Tay, Microsoft Chatbot, Tay.ai Bildquelle: Twitter Chatbot, Tay, Microsoft Chatbot, Tay.ai Chatbot, Tay, Microsoft Chatbot, Tay.ai Twitter

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das ist ja alles ehrbar, schön und nett, denn Krieg ist in der Tat furchtbar.
ABER, was macht man wenn andere Nationen KI als Kriegswerkzeug einsetzen?

Denn dass KI nicht nur Autos autonom lenken kann, sondern auch Drohnen oder Panzer ist eine Tatsache.
Und wenn man das einseitig aus ethischen Gründen nicht macht, dann kann man sich langfristig einen schweren Nachteil einhandeln.

PS: Das wird zwar sicher wieder viele Minus geben, die Realität ist es aber trotzdem. ;)
 
@rw4125: Also sollte man besser Waffen entwickeln um nicht einen Nachteil zu haben, falls ein Anderer diese Waffen entwickelt?
Ich finde dass er hier ähnlich der Chemiewaffenkonvention und Biowaffenkonvention eine KI-Waffenkonvention geben sollte.
 
@erso: Wenn sich alle auch wirklich an eine solche Konvention halten, dann wäre das eine Möglichkeit.
Die Frage ist aber, wie man das jemals sicherstellen kann. Und wo genau wird man die Grenze zwischen ziviler und militärischer Nutzung ziehen?
 
@erso: Und diese Konvention wird dann genauso konsequent angewendet, wie aktuell in dem Kriegen dieser Welt?

Btw: Einst war die Armbrust eine geächtete Waffe, da ihre Bolzen in der Lage waren den Brustharnisch der gepanzerten Ritter zu durchschlagen. Ihre Ächtung hat sich dabei nicht sonderlich Effektiv erwiesen. Und die Entwicklung von KI-Waffensystemen wird es ähnlich gehen.

Ein Objekt, welches man als Waffe nutzen kann, wird auch als Waffe genutzt, wenn es einen taktischen Vorteil verspricht. War immer so, ist so und wird immer so sein.
 
@Kobold-HH: In dem Artikel steht dass Microsoft seine KI`s anders designen und herstellen will.

Die Microsoft KI`s werden als as­sis­tie­render Begleiter entwickelt und die Forschung wird darauf ausgerichtet.

KI + Mensch Designs:
A) Keine Hilfe kein Bedarf
B) Begleitene Assistenz / Hilfestellung
C) Umfangreiche Hilfestellung
D) Stellvertretende bzw. und oder vollständige Übernahme zum Beispiel von Entscheidungen.
 
@Kobold-HH: Das passt zwar nicht zu deinem Narrativ, aber diese Konventionen werden in aller Regel eingehalten.
 
@Niccolo Machiavelli: Wie man anschaulich in Syrien aktuell sehen kann...
 
@Kobold-HH: Falls du dich auf den Gasanschlag beziehst: Weder Syrien noch die Rebellen sind Unterzeichnerparteien entsprechender Konvention(en).
 
@Niccolo Machiavelli: Es bestätigt meine Aussage. "Ein Objekt, welches man als Waffe nutzen kann, wird auch als Waffe genutzt, wenn es einen taktischen Vorteil verspricht. War immer so, ist so und wird immer so sein."

Und selbst wenn jemand eine solche Konvention unterzeichnet: Wenn er auf der Verliererseite steht, ist ihm am Ende jedes Mittel recht, um nicht unterzugehen. Geschichte lehrt uns vieles, wenn man sie kennt.
 
@Kobold-HH: "Es bestätigt meine Aussage."

Nein, das tut es nicht. Weder Giftgas/Biologische Waffen/Atombomben wurden von Unterzeichnernationen seit der Unterzeichnung betreffender Nationen eingesetzt. Obwohl es seitdem abertausende Situationen gab, wo sie einen Vorteil gebracht hätten.

"Und selbst wenn jemand eine solche Konvention unterzeichnet: Wenn er auf der Verliererseite steht, ist ihm am Ende jedes Mittel recht, um nicht unterzugehen. "

Mag sein. Ändert aber nichts daran, dass ein solches Abkommen die wirtschaftliche Nutzbarkeit solcher Produkte quasi in Rauch aufgehen lässt, weshalb auch der Forschung in dieser Richtung massiv Steine in den Weg gelegt werden. Waffen müssen am Ende auch wirtschaftlich sein. Auch wenn "wirtschaftlich" am Ende nur bedeutet, dass man absolut zwar schlechter, relativ aber besser als der Gegner dasteht.

Und den Nachteil holt man im Falle eines Krieges in der Regel nicht innerhalb kurzer Zeit auf. Schon gar nicht, wenn die Ressourcen fehlen, was zufälligerweise oft der Fall ist, wenn man dabei ist, einen Krieg zu verlieren. Der Schaden ist also selbst dann geringer, wenn eine Nation den Vertrag brechen und betreffende Waffen einsetzen sollte. Vom anschließenden diplomatischen Fallout sprechen wir gar nicht.

Aber ich seh schon: Da wünscht sich jemand die Mutual Assured Destruction zurück.
 
@Niccolo Machiavelli: Gar nichts kannst Du sehen. Du spekulierst nur blind.
 
@Kobold-HH: Stimmt. Ganz im Gegensatz zu deiner wohlfundierten "Ist halt so"-Argumentation gefolgt von beleidigtem Ans-Bein-treten.
 
@Niccolo Machiavelli: Da Du ohnehin als WF-Forentroll bekannt bist, spare ich mir weitere Erläuterungen und überlasse Dir nochmals das letzte Wort. Bitte schön. :-)
 
@Niccolo Machiavelli: Wenn man nicht vor hat besagte Dinge einzusetzen weil man ja unterzeichnet hat, warum besitzt man diese Dinge dann überhaupt?
 
@erso:
Grad in Syrien sieht man, dass Konventionen wertlos sind
 
@GRADY: Welche meinst du denn genau?
 
@rw4125: Wäre ja auch völliger Unsinn eine Waffe unnötig mit wertvollen Personen zu besetzen wenn man die Verluste durch den Einsatz einer KI minimieren könnte.
 
"Ethik geht vor Umsatz"

Microsoft hatte in der Vergangenheit größte Mühe, reguläre Gesetze einzuhalten, wenn ihre Verletzung ihnen zum Vorteil gereichte. Da habe ich bei "weichen" Regeln, wie sie die Ethik setzt, noch weniger Hoffnung.
 
Microsoft will Künstliche Intelligenz nicht als Kriegswerkzeug sehen? Bis jetzt wurde grundsätzlich JEDE technische Neuerung eher früher als später auf ihre Eignung für die militärische Nutzung unter die Lupe genommen (Rad, Schwarzpulver, Flugzeug, Raketenantrieb, Kernspaltung usw. usf.). Warum sollte das ausgerechnet bei einer K.I. anders sein, und wieso glaubt Microsoft, darauf Einfluß haben zu können?
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot