Google lässt seine KI jetzt ihre eigene Verschlüsselung erfinden

Die KI-Forscher bei Google haben in einem Experiment die Grundlagen dafür gelegt, dass Menschen eines Tages vielleicht gar nicht mehr mitbekommen, was ihre Maschinen im Schilde führen. Sie trainierten selbstlernende Algorithmen darauf, eigene ... mehr... Verschlüsselung, Kryptographie, Code Bildquelle: Christian Ditaputratama (CC BY-SA 2.0) Verschlüsselung, Kryptographie, Code Verschlüsselung, Kryptographie, Code Christian Ditaputratama (CC BY-SA 2.0)

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
wnen ki anfangen es zu verstehen, ist das ende nicbt weit entfernt. person of interest - wir kommen !
 
@kemo159: "wnen ki anfangen es zu verstehen, ist das ende nicbt weit entfernt."

Als ob wir dazu KIs brauchen
 
@kemo159: POI war der realität vom Setting her immer nur ca. 2 Jahre voraus ^^
 
@kuchengeschmack: Musste ich auch gerade dran denken ....
 
Bei aller Euphorie über DeepMind und Co, ich glaube davor dass KIs selbstständig eine starke Verschlüsselung finden sind wir noch weit entfernt.
Darüber hinaus glaube ich, dass erstmal sehr schwer zu beurteilen ist wie sicher eine Verschlüsselung ist, die Googles KI gefunden hat. D.h. wenn nach Eve auch Googles Entwickler die Nachricht nicht entschlüsseln können kann es trotzdem sein, dass jemand andres eine sehr einfache Methode findet.
 
Wir haben Drohnen und wir haben KI. So langsam halte ich sowas wie Skynet für ein realistisches Szenario in vielleicht 50-100 Jahren. Wenn eine KI erkennt, das Menschen für sich selbst eine Gefahr sind und KIs darauf programmiert sind, die Menschheit zu schützen ist es deren Aufgabe, die Menschheit vor sich selbst zu beschützten.
 
@kkp2321: Nimm jeweils ne Null weg und es passt. Der Mensch kann es doch kaum mehr erwarten ausgelöscht zu werden, deswegen wird auch so motiviert daran gearbeitet dieses Ziel zu erreichen. Ich denke für das Universum ist die Erde ohnehin kein Verlust.
 
@Memfis: Ne, soweit ist unsere Technologie noch nicht.
 
Ich frag mich echt wie man nur so blind sein kann und sowas ausprobiert...

Dass das auf kurz oder lang nicht gut ausgehen wird dafür braucht man keine Intelligenzbestie zu sein um das zu erkennen...

Aber selbst wenn da riesige Warnschilder "Vorsicht Abgrund!" und "Ende der Welt!" stehen würden... die machen einfach weiter... Ist wie mit kleinen Kindern und der Herdplatte... die müssen sich erst die Finger verbrennen... nur leider ist es dann für ALLE zu spät!
 
@Annettekrum: also ich hab nie auf den Herd gegriffen. Mir würde gesagt das sei heiß also hab ich einen Löffel genommen und ihn in die Flamme gehalten bis er (zu) warm wurde...
 
@Annettekrum: Genau das ist das Problem! KI wird höchstwahrscheinlich irgendwann Menschen töten nur um "vor sich selbst zu schützen".
 
vielleicht werde ich zu Lebzeiten den ersten Terminator miterleben
 
Ich halte die KI-Horrorszenarien für ziemlichen Quatsch. Künstliche Intelligenz müsste erstmal ein Bewusstsein für die eigene Existenz (sprich: reale Emotionen) entwickeln, um überhaupt eine Motivation zu erlangen (das eigene Überleben sichern, "f*cken" für die Arterhaltung, sprich die weitere Erschaffung autonomer, künstlicher Intelligenzen). Das wird aber nicht passieren. Woher auch? Du kannst einer Maschine zwar das Denken, nicht aber das fühlen beibringen.
 
@IkarusVC: Völliger Käse. Code kann sich bereits replizieren. Das ist ALLES was es braucht. Wenn irgendwann jeder Fahrstuhl, jeder Comouter und jedes AKW mit so etwas 'infiziert' wird, ist Schicht im Schacht. Dann bringt dich der Fahrstubl ins Grab, das AKW überhitzt und explodiert (Folgen muss ich erklären) usw. Einen kleinen Vorgeschmack hast du vor 2 Wochen bekommen, als etwa 50000 IOT-Geräte (Smart connected devices) von Hackern ferngesteuert wurden und damit 50% des amerikanischen Internets ausfallen ließen.
Jetzt stell dir das ganze 100x heftiger vor. Mit nicht 50000 sondern eher 5 Mio Geräten. Damit ist praktisch alles möglich. Komplettes Internet abschalten? Kein Problem. Akw hochjagen? Null problemo.
PS: " Du kannst einer Maschine zwar das Denken, nicht aber das fühlen beibringen."

Das ist ebenso nicht korrekt. a) Eine Maschine muss nicht fühlen. b) sie kann es trotzdem bereits, da sie "unbekanntes Verhalten" hat. Zufällige Codesegmente, die quasi die Handlung der Maschine unbeherrschbar werden lassen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen