Millionen für die KI-Forschung: eBay-Gründer will Skynet verhindern

Mit dem Aufkommen immer besserer Künstlicher Intelligenzen werden zunehmend auch Befürchtungen laut, nach denen diese eines Tages eine Gefahr für Menschen darstellen können - wie es in der Science Fiction immerhin schon in ausreichendem Maße ... mehr... Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Bildquelle: Saad Faruque (CC BY-SA 2.0) Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Saad Faruque (CC BY-SA 2.0)

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Richtig so! Ich hab auch Angst davor, dass die KI uns mal "vor uns selbst beschützt" ala iRobot. Ich hab auch Angst davor, dass wie im Falle Skynet die Maschinen uns den Krieg erklären. Aber die größte Angst hab ich davor, dass wir alle in der Sklaverei landen und es noch nicht einmal wissen (Matrix)!
 
@SunnyMarx: Ich glaub du solltest weniger Fernsehen gucken. :P
 
@crmsnrzl: Nun, aber die Möglichkeiten sind doch echt nicht von der Hand zuweisen. Oder? Man weiß halt eben nicht, wie die KI reagiert, wenn sie selbständig denken lernt und sich selbst weiterentwickelt. Das ist wie bei nem parallelen Universum. Unzählige Möglichkeiten, die eintreten könnten.
 
@crmsnrzl: Als 1978 Bug Rogers lief; die Vorlage des Huck-Pack Space Shuttles Raumschiff kam daher. Manchmal bildet Fernsehen schon ein wenig. Und viele andere technische Errungenschaften die im Fernsehen liefen wurden Realität.
Gruß
Seewolfman
 
@SunnyMarx: Tja, Pech gehabt würde ich sagen, denn in der Sklaverei leben wir doch schon lange. Und ich sagen mal, das wissen auch schon viele :-)
 
@JoIchauch: Das nennst Du Sklaverei? Ließ Dir mal durch, wie mit Sklaven umgegangen worden ist! Dagegen ist das, was Du hier ansprichst billigster Kindergarten!!!
 
sorry aber, wo muss man Forschen wenn es um etische Grundregeln der Robotik geht?
1. Greife keine Menschen an
2. Schütze Menschen
3. Ist Punkt 1. nicht Vermeidbar, setze z.b. einen Angreifer auf einen anderen Menschen nur außer Gefecht.
4. Schreibe dein eigenen Code nicht so um das er 1 bis 3 wiederspricht.
 
@TeamTaken: Robotik / KI Systemen meine ich
 
@TeamTaken: Naja, forschen muss man da ja schon, um das auch korrekt umzusetzen, also der KI richtig beizubringen.
Ich stell mir das so ähnlich vor wie bei Kleinkindern: "Lang nicht an die Herdplatte, die ist heiß". Das glaubt das Kind aber frühestens dann, wenn es das erste Mal hingelangt hat.
Bei der KI darf es aber erst gar nicht so weit kommen. Man kann nicht sagen "Rotte die Menschheit nicht aus, wir brauchen die noch". Wenn die KI dann erstmal anfängt zu testen, ob man die wirklich noch braucht könnte es schon zu spät sein ^^
 
@TeamTaken: und was bedeutet Schutz... wie weit kann man da gehen... was bedeutet Angreifer außer Gefecht setzen???

Ich denke die KI sollte sich so wenig wie möglich EINMISCHEN! Genau wie es nichts bringt als Mensch zu verhindern, dass ein Raubtier sich seine Beute holt...

Ich Theorie, "wenn die KI errechnet hat, dass ein Menschenleben mit einer NN%tigen Wahrscheinlichkeit stirbt" dass sich die KI komplett Abschaltet finde ich persönlich "ganz" nett...

Beispiel, Auto muss entscheiden ob Insasse oder Insassen in einem anderen Auto gerettet werden sollen <- Besser keine Entscheidung treffen! <- sowas sollte nur der Mensch können (klingt zwar erstmal hart, aber letztendlich kann man hier keine richtigen Entscheidungen treffen, wenn eine KI die Entscheidung trifft, kann man diese anzweifeln)!
 
@baeri: keine Entscheidung ist auch eine Entscheidung. Auch wenn du auf Eingabe von Menschen wartest, ist das eine Entscheidung.Oder wenn die KI Entscheidungen vom Menschen umsetzt, dann trifft sie auch Entscheidungen. Es ist im übrigen auch eine Entscheidung, ob ich mit KI im Auto die Unfälle und Tote auf der Straße drastisch reduziere, oder ob ich nach wie vor Menschen so eine gefährliche Sache anvertraue.
 
@eshloraque: darum geht es ja nicht... die KI hilft um schneller zu Reagieren und den Schaden zu "minimieren" ... sobald es aber 2 scheinbar gleiche (schlechte / tödliche) Wege gibt bin ich für Abschaltung... <- Abwarten bis der "Mensch" die Entscheidung trifft ist nicht möglich, dauert zu lange...
Das ganze ethisch zu Programmieren ist einfach meiner Meinung nach Unmöglich... wenn ich als Mensch aus einen "Affekt" handle, dann "Entscheide" ich mich für richtig und Falsch... eine Maschine (eine Programmierte "Intelligenz") muss aber schon immer vorher die Entscheidung getroffen haben <- FAZIT im Falle eines Falles wird jemand "während" der Programmierung schon zu Tode verurteilt! UND DAS ... Stelle ich schwer infrage!
 
@TeamTaken: Asimovs hat auch mal Robotergesetze postuliert:

0. Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird.
1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

das Nullte Gesetz kam später hinzu und wurde als "Übergesetz" gewertet, damit die Menschheit an sich existent bleibt.
 
@TeamTaken: Viel zu oberflächlich gedacht und vor allem einseitig.

Selbstschutz? Muss sich die KI von Vandalen sabotieren, manipulieren oder zerstören lassen? Oder sind blaue Flecken ok um Millionensachschaden zu verhindern. Wenn der Ausfall der KI auch Menschen gefährdet wäre es nicht nur Sachschaden. Wo liegt die Grenze?

Priorisierung? Wen schützen, wenn man nicht alle schützen kann. Oder dann keinen schützen und alle krepieren lassen?

Ich kann dir locker noch 'ne A4-Seite mit offenen Fragen zur Ethik niederschreiben, aber ich geh mal nicht davon aus, dass wir die hier ausdiskutieren wollen.

Außer Gefecht setzen kann auch viel bedeuten. Töten ist die endgültige Form des außer Gefecht Setzens.
 
@crmsnrzl: Außer Gefecht setzen = Angreifer zu weiteren Taten hindern/ Angriff Abblocken/ Angreifer soweit außer Gefecht setzen das Vitalfunktionen keinen Kritischen oder Lebensgefährlichen Zustand erreichen.

Zu deiner Priorisierung könnte man noch ausführen wie weit darin der Unterschied besteht in Erwachsenen und Kindern.
 
@TeamTaken: Außer Gefecht setzen beinhaltet auch bei der Polizei als Ultimo ratio den Finalen Rettungsschuss.

Priorisierung: Also lieber 1 Kind retten als 15 Erwachsene? Wenn die KI nur 1 von 2 Erwachsenen retten kann, wer ist vorzuziehen? Haben Schwangere Vorrang vor Kindern?
 
@TeamTaken: Dann ist es aber keine echte KI, wenn man Grundregeln verankert.

Echte KI wäre es nur, wenn so ein Ding sich wirklich frei entwickeln und selbst in seinem Programm schreiben könnte.

Von daher haben Kritiker schon nicht ganz unrecht.

Ist ja bei Menschen das gleiche. Jeder hat es zwar in seinem Code, dass man Gesetze beachten muss etc. aber jeder könnte dennoch alles anstellen, wenn er nur wollte.
 
@andi1983: "wenn er es nur wollte."
Das "Wollen" ist ja genau der Punkt. KI könnte auch alles anstellen. Es geht darum, dass sie den Willen, bestimmte Dinge zu vermeiden, einprogrammiert bekommt.

Menschen haben es nicht automatisch im "Code" dass man Gesetze beachten muss. Wenn es so wäre, wären Strafen unnötig. Viele Gesetze greifen nur, weil man die Strafen fürchtet.

Es gibt dennoch Regeln, Handlungsweisen und Verhaltensmuster bei Menschen und anderen Tieren, die fest verdrahtet sind. Das schlägt sich in Reflexen und Instinkten nieder. Z.B. der Mutterinstinkt. Mütter die gegen diesen Instinkt handeln, werden in der Gesellschaft als geistig gestört wahrgenommen. Das entspricht praktisch einer defekten KI.

Auch echte "natürlich Intelligenz" kann sich nicht wirklich frei entwickeln und an sich selbst "herumschreiben". Der menschliche Quellcode, die DNS, wird vorrangig vom Zufall und äußeren Einflüssen verändert.

Übrigens, nur weil man das Gefühl hat, sich aus freien Stücken für oder gegen etwas zu entscheiden, heißt das noch lange nicht, dass es so ist. Ich habe in meinem engeren Bekanntenkreis jemanden mit durchtrennten Corpus Callosum (die Hauptverbindung zwischen den Hirnhälften) wegen starker Epilepsie. Heute macht man sowas kaum noch.
Das gibt faszinierende Einblicke in die Arbeitsweise des Gehirns (für den Betroffenen wohl weniger faszinierend). Wenn man erst mal selbst erlebt hat, wie man jemanden zu Handlungen veranlässt und derjenigen danach Gründe erfindet um sein Handeln zu erklären (völlig unterbewusst) da er gar keine Ahnung hat, wieso er das tat, dann weiß man auch, wie viel man auf freien Wille geben kann.
 
Wenn man zu viele Hollywoodfilme gesehen hat und langsam den Verstand verliert.
 
Sicher ein coole Thema , aber ich ahne wie es ausgehen wird - Töte keine Kunden - denn Kunden sind Geld
 
@teufler: Das wird sicher eine lange Zeit funktionieren, aber vielleicht findet die KI eine Möglichkeit diese Notwendigkeit zu eliminieren. Das Ergebnis davon kann aber sehr wohl auch ein positives sein. Vielleicht hat man ja deswegen bei StarTrek das Geld abgeschafft ^^
 
Ich fürchte jedoch, dass das Militär an einer ethischen Nutzung / Programmierung so was von überhaupt nicht interessiert sein wird -- und wenn das abschaltbar sein sollte kann das umso schneller ins Auge gehen
 
Die KI ist nicht das Problem. Das Problem ist die KI in den Händen einer kleinen Gruppe von Menschen, Konzerne, Regierungen, Geheimdienste, Militärs.
 
skynet gibt es schon, also warum verhindern?!:
http://www.konjunktion.info/2016/02/skynet-ein-nsa-programm-zur-identifizierung-von-terroristen/

https://en.m.wikipedia.org/wiki/SKYNET_(surveillance_program)
Kommentar abgeben Netiquette beachten!
Einloggen