Exaflops-Supercomputer mit 100 Mio. Cores ab 2018

Supercomputer Kaum ist im Bereich des Supercomputing die Marke von einem Petaflops erfolgreich genommen, richten die Entwickler ihr Augenmerk schon auf den nächsten großen Sprung: Den Bau von Exaflops-Rechnern. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Und wann kommt die typische Frage hier: Stichwort Crysis?
 
@zivilist: Könnt ruckeln :D
 
@zivilist: Der Witz hat fertig. Würde nicht ständig einer nach der Frage fragen, würde das C-Wort in solchen Artikeln garnicht mehr auftauchen.
 
@zivilist: Humor ist immer wichtig! Natürlich sind soche Supercomputer für die Forschung wichtig, nur viele können sich noch nicht mal nen anständigen PC leisten, das ist traurig!
 
@zivilist: Wird das Flüssige in Crysis damit laufen?
 
@zivilist: ich würde eher die Frage stellen... Willst du 2018 immernoch Crysis spielen?
 
@frust-bithuner: Klar, man möchte wenigstens einmal in seinem Leben Crysis flüssig gespielt haben. Was machst du denn 2018? Für Crisys 3 musste schon aufm Zettaflop warten...
 
@frust-bithuner: in einem Holodeck gerne. Da wird auch so ein Rechner gut ausgelastet werden.
 
@frust-bithuner: Ja. Crysis 5.
 
@zivilist: 2018? Glaube da spielen viele schon Midlife-Crisis.
 
@Mister-X: bei crysis würden sich auf dem supercomputer sowieso noch 99999998 prozessorkerne langweilen also bringts alles nix =P
 
Das die Wissenschaft da Bedarf dran hat glaub ich gern... unsere Numerik wäre bestimmt glücklich mit so einem Teil für sie alleine.
 
@pandabaer: hoffentlich die "richtige" Wissenschaft.
 
@pandabaer: Vielleicht könnte man die Genauigkeit von Wettervorhersagen um mehr als 10% erhöhen!
 
@tinko: dann wären das ja schon 11%!
 
@zivilist: Nunja, was ist richtig und was falsch? Und wer definiert das? Jede Art von Forschung kann von den entsprechenden Leuten "mißbraucht" werden. Sollen wir keine Kernphysik mehr machen, weil wir so zu alles vernichtenden Waffen kommen könnten? Sollen wir die Biophysik einstellen weil wir Angst vor biologischen Waffen haben? Sollen wir das Leben sein lassen, weil wir doch irgendwann sterben? :)
 
@Layor: er meint Prozent, nicht Prozentpunkte...
 
@pandabaer: Oh wie philosophisch :P Zivile Nutzung von Kerntechnik zb für Medizin: Gut. Atombombenforschung: Schlecht. Biophysik: gut. Biowaffen: Schlecht. Leben: gut, sterben: auch gut. Wenn man an Medizin forscht muß man nicht auch paralell dazu an biologischen Waffen forschen. Das eine ergibt nicht zwangsläufig das andere, gut und schlecht sind klar voneinander getrennt. Jede Waffe, jedes Medikament, das sind klare Ziele, die sich eine gewisse Strecke vielleicht teilen, aber nicht komplett. Es war jedenfalls nicht nötig Atombomben über Japan abzuwerfen damit wir heute Tiefkühllasagne in der Mikrowelle auftauen können. Forschung hat viele klare Zweige.
 
@pandabaer: falsch ist für mich für Kernwaffenforschung.
 
@lutschboy: Aye... war absichtlich philosophisch geschrieben. Prinzipiell geb ich dir Recht, nur bei Grundlagenforschung wird es mit den klaren Zielen heikel. Aber letztlich entscheidet halt doch der Mensch darüber. Und da gibt es eben immer unterschiedliche Ansichten. Letzten Endes kann ich zwar Laserforschung betreiben (also Physik) aber ich kann damit auch einen "ausm Weg räumen". Und vielleicht ist auch die Waffenforschung doch mal zu was zu gebrauchen. Schließlich leben wir ja nicht in einer perfekten Welt und Konflikte gibt es ja auch überall. Es wäre blind zu glauben, dass sich die von alleine lösen. Nicht das ich Waffenforschung für gut halte, nein, ich halte sie aber auch nicht für das schlechteste der Welt... da kommt zuerst die Engstirnigkeit der Menschheit. Und letzten Endes um mal ein Argument aus der PC-Spieler vs. Amokläufer Debatte zu verwenden: Menschen töten Menschen und nicht das Messer ausm Bortkasten. ... Noch was, ich schreiben oft etwas abstrakt und stelle Überlegungen auf, die nicht immer unbedingt meine Meinung wiedergeben... so eine Art Advocatus Diaboli (oder wie man das schreibt :)) Nachtrag: Mit der Forschung an Turbinen kann ich entweder ein Passagierflugzeug antreiben oder einen Kampfjet oder gleich eine Atomrakete... soll man jetzt damit aufhören?
 
Juhu, gleich mal ne Minute Rechenleistung bestellen, ich brauch neue RainbowTables.
 
@wuddih: ein paar Minuten für jedes Projekt von http://de.wikipedia.org/wiki/Liste_der_Projekte_verteilten_Rechnens wäre geil (support vorausgesetzt). Ist die Frage welche Architektur benutzt wird.
 
Wenn es so weitergeht, beantworten dir die Rechner irgendwann fragen, bevor du weisst das du sie stellen wolltest!
 
@silentius: Es geht hier aber im weitesten Sinne um Geschwindigkeit und nicht um hellseherische Fähigkeiten.
 
@silentius: Prinzipiell gibts sowas schon. So ne Sache mit nem EEG-Helm an nem Pc und der Pc sagt Dir bevor Du es wirklich subjektiv weißt welchen der bunten Knöpfe vor Dir du drückst. -Gutn och nicht zu 100% glaub ich aber beser als die Tante bei 9Live auf jeden Fall-^^
 
@rockCoach: Dafür braucht man aber sicher nicht so eine Hohe Rechenleitung, Das ist ne andere art von Technologie. Das es das schon gibt war mir aber nicht bekannt^^
 
@Driv3r: Nunja, evtl. wäre ne höhere Rechenleistung nicht schlecht für die Variante 1: Erhöhung der Rechenleistung für mehr Genaugkeit und schnelleres Auslesen sowie Erfassen umfangreicherer Informationen aus dem Gehirn.

Variante 2 wird wohl auch 1 Exaflopsrechner nicht langen: Der Computer reist eigenständig um z.B. 12 Uhr um eine Gewisse Zeitspanne in die Vergangenheit -sagen wir 1 Stunde- und ersetzt sich dort selbst während gleichzeitig der Computer von 11 Uhr nach einem kleinen Missionbriefing durch die Zeit nach 12 Uhr reist. Theoretisch gibt es dann an der selben Stelle 2 PCs wovon aber nur 1 Pc sichtbar ist da der 2. PC welcher eigentlich der 1. PC ist in der zeit voraus ist. Stellt nun jemand dem 2. Pc (den von 12 Uhr) eine Frage kann dieser sie beantworten noch bevor sie ausgesprochen wird, da er sie ja bereits zuvor gehört hatte. so oder so ähnlich...^^
Der Witz an der Sache ist: Die Rechenleistung wird dann eigentlich nru für die Berechnung des Zeitsprungs benötigt :D
 
@rockCoach: Gut, wenn du mir jetzt noch erlärst wie es möglich sein soll in die vergangenheit zu reisen werde ich dir zustimmen xD. Irgentwie habe ich aber so das gefühl, dass das nicht so einfach sein dürfte *g.
 
@Driv3r: Bei der Rechenleistung wirds der computer schon wissen^^

Vielleicht nimmt er einen der möglichen risse im Raum-Zeitgefüge zur hilfe die bei der Kollision von Atomkernen in so nem Teilchenbeshcleuniger entstehen könn(t)en.^^
 
@Driv3r: Ist ja auch noch nicht 2018 :-)
 
Nicht schlecht, was den nach aktuellen Kenntnissen hochgerechneten Energieverbrauch angeht. Ein halbes Kernkraftwerk für ein Rechnersystem. Ist schon 'ne Hausmarke :) EDI: Wieviele Haushalte kann solch ein mittelmäßiges halbes Kernkraft eigentlich mit Energie versorgen? ^^
 
@raketenhund: Wieviele Haushalte können mit dieser Rechenpower versorgt werden? Theoretisch sollte man dann wieder Stromsparen. xD
 
@raketenhund: 1 Haushalt mit 1 Rechner und 1 Grafikkarte der dann aktuellsten Generation^^
 
he he mal sehn ob die damit Ackermann = a(4,4) berechnen können ^^
 
Vielleicht rechnet dieser Supercomputer mal was anderes als 42 aus...
 
@jigsaw: Dann würde ich die Insektengitter erneuern.
 
@jigsaw: dann kennen wir die Frage aber immer noch nicht :-)
 
@ed_larvenstein: Du weißt doch das dies in einem Universum nicht möglich ist ,-)
 
Ich hatte eher vermutet das die Zukunft in eine andere Richtung geht als einfach immer mehr cores zu verwenden (was ja sehr offensichtlich auch große Probleme bereitet: "Strom, Wärme ect..."). Man sollte mal an eine neue Lösung für Prozessoren forschen bzw. 1 Core leistungsstärker machen. 100 Millonen Cores? Das kann ich mir selbst in 8 Jahren noch nicht vorstellen. Klingt irgentwie unwirtschaftlich.
 
@Driv3r: tja, so hab ich auch gedacht... wenn wir jetzt 7MW schon für so einen Cluster brauchen... und da sind vielleicht nur ein paar hunderttausend Cores drinne... und dann das Tausendfache? das wären ja grob geschätzt 7TW? nich mal ein Gewitter entlädt soviel Energie.. Also wenn das mit dem Kernmultiplexing nicht bald aufhört und die Rechenleistung pro Kern nicht bald wieder höher wird bzw der Stromverbrauch sinkt.. gibt es noch ne Katastrophe in der Rechentechnik. Was bringen uns 8 oder vielleicht auch 16 bzw 32 Cores? Ein großer Teil davon idled zum wenn vielleicht 2 oder 4 Cores wirklich am Rechnen sind.
 
@frust-bithuner: Jo das mit dem Idlen stimmt, das is aber auch Sache der Softwareentwickler die Cores zu nutzen.

Aber mal was anderes: Wenn das ganzeschön warm wird könnte man durch Wärmetausch auch Energie zurückführen. (flüssigkeitskühlung...)

Oder es werden einfach Multicore-AKWs erfunden^^
 
@rockCoach: Hey das mit der Wärmeentwicklung ist doch eig. eine gute Idee. Die Technologie aus wämre Strom zu erzeugen haben wir ja längst.
 
@Driv3r: Joa nur die Sache mit dem Wikungsgrad und so macht daraus nur nen tropfen auf den heißen Stein.
 
@Driv3r: Heutzutage hat man 200000 - 300000 cores. 100 Millionen in 8 Jahren sind sehr realistisch.
 
@njinok: Also wenn das wirklich so ist... In wieviel nm sind die denn gefertigt? Wie groß soll der Rechner mit Kühlung denn dann sein? Wieso müssen 24-Kerner für den "Normal-user" noch entwickelt werden? Wie uneffizient muss das denn dann sein?
 
@frust-bithuner: Sorry, aber gerade bei wissenschaftlichen Dingen wird parallel gerechnet. Man nutzt schließlich nicht irgendwelchen Consumer-Code, sondern die Wissenschaftler schreiben den Code selber und passen ihn dann direkt an ihre Bedürfnisse an. Was die interessiert sind tatsächlich nur Cores. Je mehr, desto besser. Ihr könnt solch ein Teil nicht mit eurem Home-PC und der Software darauf vergleichen. Das geht schlichtweg nicht. Die Arbeiten ja auch nicht mit Office oder sonstwas auf dem Ding, sondern lassen von dem Teil ihre Simulationen rechnen (mit ihrem eigenen Code oder kommerzieller Software die eben auf genau das ausgelegt ist).
 
zuerst müssen sie den fluxkompensator oder zpm´s entwickeln um das ding dann anschliessend 2018 betreiben zu können. :))
 
@OSLin: also der Fluxkompensator hat nur 1.21 GW verbraucht....
 
@OSLin: Na da kannste doch froh sein, dass Linux dann immer noch auf Rechnern aus dem Jahre 1990 laufen wird *kicher*
 
@DennisMoore: den witz versteh ich nich...
 
@MarcelP: Dann kann man auch in Zukunft alte Krücken verwenden die kaum Strom brauchen und kaum Leistung haben und muß sich keine dollen Rechenmaschinen mit zig Kernen kaufen. Damit auch keinen Fluxkompensator oder ZPMs.
 
2 Gigawatt Oo ...himmel, hoffentlich tut sich da noch was energiemässig.100 mio cores, hälfte muss die eigene stromrechnung ausrechnen :)
greetz
 
@Tribi: ich mach mir da keine sorgen. kleines kraftwerk für den Garten ist schon in Planung :P
 
Was ist besser? Quantentechnologie in Computern zu erforschen oder zu schauen wie viele Millionen Cores in einen Supercomputer passen, bzw. bei wie vielen Cores man ihn nicht mehr ausreichend mit Strom befeuern kann???
 
@DennisMoore: schauen wie viele Millionen Cores in einen Supercomputer passen, bzw. bei wie vielen Cores man ihn nicht mehr ausreichend mit Strom befeuern kann -natürlich.
 
@DennisMoore: Ich finde die Frage ungeschickt gestellt :) Weil, besser geht immer und kommt auf den momentanen Stand- und Zeitpunkt an. Besser fände ich beides, also sowohl als auch und das sollte ja auch kein Problem sein, da ja nicht nur eine Gruppe an neuen Technologien forscht. Also beides parallel dazu betreiben. Das eine dauert bestimmt länger (im forschen) wie das andere.
 
Ich möchte nicht wissen wie viel Arbeit es sein muss für so nen rechner ein passendes Betriebssystem zu schreiben, dass alle 100mio Cores richtig belasten kann...

Ich nehme an das OS wird wohl 128 oder wahrscheinlich eher 256 Bittig sein...
 
@XP SP4: Schau dir mal die Top500-Liste an. Die laufen größtenteils mit Linux.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles