Bisher größte Simulation des Gehirns durchgeführt

Einer der schnellsten Rechner der Welt diente aktuell als Grundlage für die bisher größte Simulation des menschlichen Nervensystems. Beteiligt waren daran Wissenschaftler aus Japan und Deutschland, teilte das Forschungszentrum Jülich mit. mehr... Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Bildquelle: Saad Faruque (CC BY-SA 2.0) Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Künstliche Intelligenz, Ki, Gehirn, Denken, Kopf Saad Faruque (CC BY-SA 2.0)

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ja, das zeigt uns doch mal anschaulich die Grenzen auf - auch und gerade für die Künstliche Intelligenz. Auch wenn sich mir grad nicht erschließen will, was man sich von "zufällig verknüpften Nervenzellen" verspricht. Ferner ab der Realität geht ja schon fast gar nicht mehr. ... Aber, gut; anders als zufällig verknüpfen konnte man (vermutlich) auch gar nicht mangels besseren Verständnisses der Vorgänge da oben. Unangenehmer Ringbezug, das. :(
 
@RalphS: "Das neuronale Netzwerk, das wir *berechnet* haben, entspricht trotz seiner enormen Größe gerade einmal einem Prozent des gesamten *menschlichen Gehirns*". Vielleicht liegt da das Problem dieser Grenzen. Irgendetwas stimmt mit dem grundsätzlichen Ansatz und der Vorgehensweise nicht? Vielleicht passt so etwas wie das Gehirn und Denken einfach irgendwie nicht auf einen Computer, bzw. man hat nicht die entsprechende Computer?
 
@Lastwebpage: Kein Grund, schnippisch zu warden. ^_^ So schlau war ich dann doch selber - schrieb ja auch eingangs, daß uns das die Grenzen aufzeigt. Das Problem ist hier, daß wir nach all den Jahren IMMER NOCH binär speichern; solange sich das nicht ändert, warden wir im Hinblick auf den Speicherbedarf nicht (signifikant) weiter kommen.
 
@RalphS: Nicht ganz. Also das mit dem Zufällig haben sie ja nur gemacht um erstmal überhaupt eine Grundlagenverknüpfung zu haben. Bei anderen KI-Modellen werden die Aus und EIngänge gewichtet, so entstehen dann ganz automatisch Verknüpfungen, oder ändern sich, wenn der Lernprozess dann eintritt.
 
@RalphS: "zufällig verknüpften Nervenzellen" Das ist doch nichts neues, schau dir Merkel und Co an.^^
 
Herzlichen Glückwunsch ! Die Grundlagen für SKYNET wurden gelegt !
 
@bluedragoon: verstehe nicht wieso du hier geminust wirst... =D jedes kind der 90er wird bei so einer news doch wohl das gleiche denken.
 
Die Aktivität unseres Gehirns innerhalb 1 Sekunde. Dafür benötigte der Supercomputer 40 Minuten. Das zeigt, wie weit unsere Technik noch von der Leistungsfähigkeit des Gehirns entfernt ist.
 
@Brassel: Naja die Natur (wenn sie es denn war :D), hatte ja auch ein paar Tage Zeit um das Gehirn zu entwickeln. Ich denke, das wir spätestens ende des Jahrhunderts, mindestens genauso weit sind.
 
@skyjagger: ... un dann muss die Größe und Energieverbrauch des Computers noch von Sporthalle auf Taschenrechner runterskaliert werden ...
 
@Brassel: Und dabei wurde nur 1% des Gehirns berechnet. Also müsste das Gehirn selbst wenn es nur 1% der Nervenzellen hätte trotzdem 2400x schneller sein.
 
@Brassel: Und trotzdem errechnet mir ein Rechner 2+35-17 schneller. :-D Hundert Jahre könnte es noch dauern, dann sind Computer und Gehirne mehr oder weniger gleichauf, erleben werden wir es wohl nicht mehr.
 
@hhgs: Bis ende das Jahrhunderts? Der war gut^^ Schau Dir doch einmal die Entwicklung der Rechenleistung an... Vor 10 Jahren hätten die Berechnungen wahrscheinlichen Tage bis Wochen benötigt, heute sind wir bei 40 Minuten und das anscheinend ohne groß auf GPU-Computing zu setzen, welches sich ja sehr gut für parallele, simple Berechnungen eignet. Dazu noch weiter optimierte Algorithmen und 2020 sind wir mit einer höheren Komplexität sicherlich bei gut einer Minute angekommen. --- Abgesehen davon hinkt der Vergleich eh: Schon ein billiger Taschenrechner schlägt die meisten Menschen bei simpelsten Multiplikationen, während selbst große Rechnerfarmen nicht an die Wahrnehmung und Deutung ihrer Umgebung herankommen. Aktuell wird das neuronale Gehirn quasi in Software gegossen und auf binären System ausgeführt. IBM arbeitet aber schon seit Jahren an neuronaler Hardware, das dürfte es spätestens enorm beschleunigen.
 
@hhgs: Stimmt, daß errechnet jeder Computer / Taschenrechner schneller als ein Mensch. ABER: Der Comuter / Taschenrechner ist auch für diesen einen Zweck konzipiert. Der kann in diesem Fall nichts anderes. Der Mensch ist in der Lage so viele Dinge unterschiedlichster Art zu erfassen und zu analysieren. Das schafft "noch" kein Computer der Welt und wird es die nächsten 20-30 Jahre auch nicht können. Auch wenn sich in diesem Zeitraum die Rechnerleistung vervielfacht hat. Die Umsetzung und Auswertung der komplexen Informationen ist das was die Leistungsfähigkeit des Gehirns ausmacht. Nicht die pure Geswchwindigkeit eines einzelnen Vorgangs.
 
@hhgs: Benötigt man 40 Minuten um 1 Sekunde von 1% des Gehirns zu simulieren, dann müssen für eine Echtzeitberechnung Rechner die 60*40*100-fache (=240 000-fache) Leistung bringen. Die gegenwärtige Entwicklung der Rechnerleistung bei Supercomputern folgt einem exponentiellem Verlauf (schon seit einigen Jahrzehnten erstaunlich konsequent). Nimmt man sich nun Daten der letzten 20 Jahre zu Topleistungen von Supercomputern und macht das Übliche (Fit der logarithmierten Daten), so erhält man für die Zeit, die eine 240 000-Fachung der Rechenleistung braucht genau 19.46 Jahre. Man könnte also etwas kompakter sagen, dass wir in 20 Jahren da sind (vorausgesetzt die Entwicklung setzt sich mit derzeitigem Tempo fort). Inwiefern man das so einfach sagen kann, sie mal dahingestellt, aber ich finde es nach wie vor erschreckend wie schnell und ungebremst sich Computer weiterentwickeln.
 
@Brassel: Also ich denke eher, dass dies zeigt wie weit unsere Technik schon ist. Heute 1s <> 40min. Morgen 1s <> 1 min Übermorgen 1s <>1ms und nur ein paar Tage später... SKYNET (scnr - der rest ist aber Ernst gemeint).
 
@Brassel: Und dann sind die Dimensions-Unterschiede auch sehr groß zum Gehirn und der technischen Aufstellung. Das Gehirn ist schneller und nimmt nur ein Bruchteil des Platzes weg, was die Wissenschaftler dort aufgestellt haben.
Bei Beispielen wie diesen bin ich immer noch verblüfft und sprachlos, wie wir mit unserem Gehirn in der Lage sind, solche welche Massen an Daten auf zu nehmen und zu verarbeiten. ... Einfach nur sprachlos...
 
@Brassel: Es ist doch eigentlich ganz einfach: Der Computer rechnet schon jetzt schneller als der Mensch. Zugegeben. Aber was er berechnen soll gibt immer noch der Mensch vor egal wie schnell der Computer rechnet. Und so lange das so ist so lange erreicht der Computer nicht die Leistung des Menschen bzw. dessen Hirns.
 
@Brassel: Alle simplen Bestandteile auch der einfachsten Computer (Handy...) sind schon längst sehr viel schneller als die biologischen Bestandteile des Gehirns. So sind die elektrischen Leitungen im PC, die Transistoren, die Kondensatoren etc. sehr viel schneller als ihre ungefähren biologischen Entsprechungen wie Nervenbahnen, Neuronen, Synapsen etc.
Der Grund, warum das Gehirn in manchen Bereichen trotzdem noch überlegen ist, liegt an der massive Parallelität der Vorgänge im Gehirn. Sobald diese Parallelität technisch besser nachgebildet werden kann, wird der Mensch langsam sehen, wie verbesserungswürdig das menschliche Hirn bei aller Selbstbeweihräucherung ("Krone der Schöfung") doch ist. Persönlich glaube ich, das uns noch vor Mitte des Jh. künstliche Gehirne in jeder Hinsicht überlegen sein werden, sollten die vielen Bedenkenträger und Moralapostel nicht wieder mal alles behindern.
 
Ausgabe: Sex, Food, Sleep!
Scientist: Look! It's a boy!

SCNR. ;)
 
@MrChaos: Du hast was vergessen: BEEER!
 
@MrChaos: Ausgabe: Shopping, Food, Sleep! Scientist: Look! It's a girl! ;-)
 
Nicht Morgen wohl er Übermorgen...1% Übermorgen 5 % ..aber ich denke villeicht reichen ja 5 % Berrechnung dann aus um genug A.I rein zu quetschen und irgend etwas Intelegenter zu machen.
 
Das ganze geht sowieso wieder nur in eine Richtung. Das Militär freut sich auf selbstdenkende Roboter ohne freien Willen ;)
 
@PCLinuxOS: Denken ist beim Militär nicht erwünscht, und autonome Waffensysteme gibts auch schon länger. Die könnten doch mit einer echten KI gar nichts anfangen, am Ende hinterfragt die vielleicht noch, warum sie jetzt dieses oder jenes zivile Fahrzeug oder Krankenhaus bombardieren soll und verweigert den Befehl, weil sie die menschliche Machtgier nicht teilt. Na wo kommen wir denn da hin :-p
 
@starship: Hat nicht unbedingt mit Machtgier zu tun. Was machst du mit einem feindlichen Scharfschützen, der sich hinter 2 Frauen versteckt und auf dem 4 Kinder draufliegen? Warten bis er alle erschossen hat oder 6 wehrlose Menschen umbringen? Schwere Entscheidung...
 
@LaberLu: Ist doch einfach. Man Wartet entweder bis er 7 Menschen getötet hat, oder man Zielt richtig...den du weis doch, Kugeln gehen 100% durch den Körper einer Person..oder schulter...nicht wie im Film.. ja.... wo die als Schild benutzt werden ist , Fake.
 
@PCLinuxOS: In der Hirnforschung ist es längst Konsens, dass der freie Wille, den wir empfinden, eine Illusion ist. Könnten wir den Zustand des Gehirns "einfrieren" und 1000 Mal genau die selbe Situation "erleben" lassen, und danach jedes mal "resettieren", würde das Gehirn (und damit natürlich der Mensch) immer die selbe Entscheidung treffen.
Wird also das menschliche Gehirn originalgetreu simuliert, wird sich das künstliche Gehirn genauso "menschlich" verhalten wie ein natürliches, und genauso der Illusion erliegen, es hätte einen freien Willen.
Wir sind also nichts anderes als eine komplexe Maschine, und sobald sich das Gehirn mehr oder weniger komplett simulieren lässt, wird dieser Fakt auch die breite Bevölkerung langsam erreichen. Glaube auch kaum dass es bis Ende des Jh. dauern wird, viell. schon sehr viel früher.
Die momentane Praxis der Rechtsprechung, die einen freien Willen annimmt, und bei Geisteskrankheit, Drogen, Alkohol etc. milder bestraft oder sogar Schuldunfähigkeit attestiert, wird dann geändert werden müssen, da alle Menschen nicht schuldfähig im Sinne der heutigen Rechtsprechung sind. Das Strafmaß sollte also mehr zur Abschreckung und zum Schutz der Bevölkerung dienen, und sich nicht nach einer moralischen Schuld richten, die ohne freien Willen nicht existieren kann. Aber es wird wohl noch dauern bis die Welt reif ist, den aktuellen Stand der Wissenschaft zu akzeptieren, insbesondere der geistes-"wissenschaftlich" geprägte Teil der Welt.
 
Die Entwicklung der Technik profitiert doch vor allem auch immer wieder von spontanen Ideen. Derzeit leben wir doch aller bestens im Mittelalter der Technik. In nicht ganz 350 Jahren von der Dampfmaschine zum Touchscreen. In 30 Jahren vom Kommodore zum iPad. Es wird wohl keine 100 Jahre dauern, bis wir das Menschliche Gehirn Digital nachbilden können Eher 20 bis 50. Man forscht an optronischen Speichern. Man versucht, mit biologischem Materialien Chips zu bauen. Da reicht sogar ein Geistesblitz,, Und olle Data bringt mir schon in 20 Jahren meinen Kaffee.
Schlecht find ich's nicht.
Wie hat es schon Albert Einstein gesagt:
"Das ewig unbegreifliche an der Welt ist ihre Begreiflichkeit."
 
Das Problem ist die Genauigkeit der Simulation. Die Berechnung der Aktivierungen erfolgt auf einige Nachkommastellen und nicht Hardwareoptimiert. Es gibt ja bereits Forschungen zur Entwicklung von "digitalen Gehirnzellenarrays" (also CPUs die ungenau dafür sauschnell rechnen, welche für Hardware-Neuronale-Netze geeignet sind) das hat glaub ich eher Zukunft ;-)
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte