Forscher bauen Spar-Supercomputer für 4000 Euro

Supercomputer Wissenschaftler der Universität Antwerpen in Belgien haben auf Basis von PC-Hardware in Kombination mit mehreren High-End-Grafikkarten einen kostengünstigen Supercomputer gebaut, der ihnen Berechnungen ermöglicht, für die sonst ein aus mehreren ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
und wenn man mal keinen Bock auf Berechnung hat, zockt mal Crysis bei 1000 FPS xD
 
@silentius: realistischer wären da schon 10000 FPS - da erkennt man mehr Unterschiede!
 
@silentius: naja ob crysis die 8 GPU kerne unterstützt is fraglich^^
 
@silentius: Also in dem Video auf der Seite von denen zocken sie da auch auf dem Rechner *g*
 
@silentius: Muss ich dich leider enttäuschen. Laut: http://tinyurl.com/4ma52p ..."Mit dieser Ausstattung erreichen die Antwerpener zwar nur 12.603 Punkte im 3DMark06 (mit ausnahmsweise aktiviertem SLI), aber ums Spielen geht es hier auch nicht."...
 
@ Unbekannter Nr.1: Dann machen sie definitv was falsch :D
 
@Unbekannter Nr.1: Ups! Da muss noch schnell der 3DMark2006 angepasst werden.
 
@silentius: der rechner mag vieleicht schnell sein und nur 4000 euro gekostet haben, aber fuer nen anstaendigen monitorunterbau hats wohl nicht gereicht... papier??? o_O
 
Schon geil das Ding muss man sagen.^^
 
Nichts schlecht.

Was die wohl für ein Board gemacht haben?

4 von den Dingern neben einander.

 
@Nania: MSI K9A2 Platinum Mainboard
 
Man vergleiche die Investition in PC und Bildschirm (ist das Druckpapier?) ... übrigens hat Golem in der News ein interessantes Video dazu.
 
@newsman: Nichts gegen meine TFT ! :D
 
Ich hab den auch und bin echt zufrieden^^ benutze aber auch keine Papierstapel als unterlage, mir passt die Höhe :D
 
leider unterstützen die Grafikkarten nur single precision Arithmetik und dazu noch nicht mal konform zum IEEE 754. Für viele Anwendungen daher ungeeignet.
 
@suick: genau das ist der sprigende punkt, warum solche gpu lösungen für wissenschaftliche berechnungen nicht geeignet sind. dort ist mindestens zweifache genauigkeit gefordert
 
@ Heinz322: Grundsätzlich zu sagen, dass GPUs für wissenschaftliche Berechungen ungeeignet sind, ist vollkommener Quatsch. Beispiele geeigneter Implementierungen: FFT, N-Body Probleme, Radiosity...

Auch ist nicht bei jeder Anwendung ist die "ungenaue" Arithmetik das Problem. Eine Grafikkarte hat mehrere begrenzende Faktoren, z.B. Speicherplatz oder Bustransferzeiten.
 
Supercomputer ist vielleicht nicht die beste Wortwahl. Ein Großrechner steht im direkten Vergleich noch unter einem Supercomputer. weisse bescheid :) p.s. super computer hätte schon eher gepasst^^
 
@schrittmacher: das ist natürlich schade. explizite berechnungen z.b. würden also funktionieren, implizite nicht.
nützt mir also nix, schade...
 
Die 4 Dinger hätte ich aber mit Wasser gekühlt.
 
Pff das mit den Tomographien ist doch nur ein lächerlicher Vorwand. In Wirklichkeit wollen die doch nur den Rekord im 3D Mark Vantage knacken. So siehts aus. :)
 
@Ijob: 3DMark Vantage ist doch nur für DX10 das heisst Vista und läuft net auf XP

aber schon krass das teil wenne ma überlegst das du 2005 3.5MIO euro fürn schlechteres teil ausgegeben haben :O
 
gaaaaheeeeeeil xDD
 
Kann mir mal jemand erklären, warum man allgemein keine GPUs als CPUs verwendet/missbraucht?
 
@ICeYmx: Ich denke das liegt an der Integration der Rechenwerke und Befehlssätze, aber kA
 
@ICeYmx: Genau, dazu müsste eine GPU X86 Befehle verarbeiten können und dann würde jeder "Core" um einiges größer werden, dann brauch man Cache usw. so das eine GPU dann auch nicht mehr Kerne hätte als aktuelle CPUs.
 
und dann währ aus der gpu schon wieder ne cpu geworden :D
 
@ICeYmx: Eine GPU ist kein Allrounder. Sie kann weniger als eine CPU, aber das was sie kann, kann sie verdammt gut.
 
@ICeYmx: Das Probelm ist einfach die hohe Optimierung. Grafikkarten untersützen nur single precision. Das sind Fließkommazahlen mit nur 4 Nachkommastellen (wenn ich mich recht entsinne). Generische Prozessoren unterstützen double precision, praktisch 8 Nachkommastellen. Wenn du so willst. Wenn wir alle Grafikkarten als Prozessoren nehmen würde, liefe eine ganze Zahl von Anwendungen nicht mehr. Wissenschaftliche sowieso nicht, aber auch so sachen wie BOINC. Deswegen kann die Graka die CPU nicht ersetzen, nicht mal mehr im Ansatz.
 
@Peko: Byte meinst du, nicht Nachkommastellen. :) 8 oder gar nur 4 Nachkommastellen wäre etwas wenig. Grafikkarten können übrigens inzwischen durchaus Double Precision (64 Bit), sind da aber erheblich langsamer als bei Single Precision (teilweise Faktor 5 wenn man den Zahlen glauben darf, die ich grad im Netz gefunden habe).
 
@TiKu: So noch die Endkorrektur...Nachkommastellen durch Bit ersetzen :D
 
@bluefisch200: Dann wären es 4 Bit, also nichtmal 1 Byte. Es sind aber 4 Byte (32 Bit) bei Single Precision.
 
@TiKu: Ja klar, wollte nur sagen, dass es im Binärsystem keine Nachkommastellen gibt...
 
Klasse Sache! Da beißt ma nsich doch ins Bein wenn ein 4000 € Gerät nun die Arbeit eines 3,5 Mio Clusters bearbeitet.... wenns wirklich für die gleichen Berechnungen zu gebrauchen ist. Klasse Sache! Warum ist man denn darauf nicht früher gekommen?
 
@nize: Die Idee ist sicher nicht neu, und auch ich hatte sie vor 10 Jahren schon. Aber was den Massenmarkt betrifft, widerspricht sowas den wirtschaftlichen Interessen der Industrie. Die verdienen doch grade daran die Leistung der Hardware kleckermäßig zu steigern damit die Leute am Kaufen gehalten werden.
 
wo kann man sich den bestellen? :D
 
@krauthead: Zum Bsp. bei Alternate. Musst die Sachen nur selber zusammen bauen :) (es sei denn man lässt sich den Rechner da zusammen bauen)
 
@krauthead: stümmt *g* ____ hätte ich auch selbst drauf kommen sollen.
 
Das ist das Ende von Linux auf den Supercomputern^^
 
@OttoNormalUser: Wohl eher nicht, da anders als auf dem Bild mit Linux nicht nur das Einspannen der Grafikkarten für Fließkommaberechnungen möglich ist, sondern obendrein auch noch das Benutzen von CUDA im Cluster. Was wegen CUDA Treibern im Winfuture Artikel behauptet wird, ist grober Unfug, da es zuerst CUDA nur für Linux gab: http://forums.nvidia.com/index.php?showtopic=36286 und auf der Linux Plattform eben auch die CUDA Entwicklung viel weiter fortgeschritten ist, z.B. ist nur auf Linux die Nutzung dieser CUDA Technologie im Cluster möglich, den was wäre noch viel schneller, als bloß ein einzelner Windows-Computer der 4 Grafikkarten zum Fließkommarechnen nutzt? Ganz viele Linux-Computer mit 4 oder mehr Grafikkarten im Cluster! Gerade für Tomographie werden schon lange Linux-Cluster eingesetzt, wofür Windows schlichtweg unzulänglich ist. Die Treiberprobleme gibt es eher auf Windows, da es keine Software für CUDA im Cluster gibt: http://www.nvidia.com/object/cuda_get.html CUDA ist das, was es überhaupt erst ermöglicht die Nvidia Grafikkarten zum Fließkommarechnen zu benutzen. Das Windows-Projekt ist eine Totgeburt, da es wegen der fehlendem Clusterfähigkeit keine große Zukunft hat. Es mutet durchaus auch eher so an, als hätten irgendwelche Zocker-Kinder mal in der Uni ihre Traumzockerkiste zusammenbasteln dürfen und Zocker-Kinder kennen nun mal bloß Windows. :-))
 
Und wofür braucht man für den Rechner nen Super-Duper-Leuchte-Leuchte-Gehäuse und Leuchte-Leuchte-Lüfter, durch die man sicherlich nochmal hätte Geld einsparen können?
 
@M!neo: Solche beleuchteten Lüfter kosten nur unwesentlich mehr als unbeleuchtete, man hätte wohl 5-6€ einsparen können. Darüber hinaus wurden die Lüfter wohl vor allem hinsichtlich guter Kühlung ausgewählt, ebenso wie das teure Gehäuse. Ein billig-Gehäuse weist nicht annähernd so gute Kühlungswerte auf wie ein hochwertiges welches einen guten Luftstrom zulässt.
 
@M!neo: Man findet auch immer was zum aussetzen oder? Abgesehn davon was master_jazz gesagt hat, versuchen die ja Wissenschaft mal sympathisch für das volk zu machen, aber sobald etwas aussieht wie daheim und nich irgendein steriler weißer Klotz ist, ist das schnickschnack und teuer und was weiss ich.Vllt hat das ja sogar nen wichtigen effekt :) man weiss ja nie^^
 
@M!neo: Als Systemadministrator kann ich dir sagen, ich liebe meinen vollgepackten DELL-Serverscrank mit seinen blauen LEDs :) Da arbeitet man gleich viel lieber dran :)
 
@estes: Mein Klotz zuhause ist steril grau, steht ja auch nur unterm Tisch wo ich außer zum An/Ausschalten so gut wie nie runterkomm. War jetzt auch nicht so oberböse gemeint, is mir eigentlich gleich wofür die Belgier ihr Geld ausgeben :P
Dass für das Volk sympathisch machen ist natürlich auch eine sehr interessante Variante, da gucken schonmal die Leute alleine wegen dem Aussehen hin...

@.omega. und master_jazz: Da muss ich mich wohl geschlagen geben :)
 
@M!neo: Zur Kontrolle natürlich. Siehst Du einen blauen Ring -> Lüfter OK. Siehst Du 5 blaue Punkte -> Lüfter kaputt. Weiterhin kaufen sie ihr Papier bei Staples. Dann kann man sich auch beleuchtete Lüfter leisten.
 
is ja nen AMD drin...mhh
 
@Corefice: Xd Dacht ich mir auch, "Guter Computer" währe angebrachter. ^^
 
@Corefice & rollyxp: zum xp starten wird er doch wohl noch reichen. oder?
 
Ich frage mich, was das mit dem Sparen zu tun hat... oder hab ich da was überlesen?
 
@Jan-Hendrikscholz: Jop, hast du.
"[...] schneller Ergebnisse liefert als der von der Universität Antwerpen ebenfalls betriebene Supercomputer CalcUA. In dessen Inneren stecken 512 AMD Opteron Prozessoren stecken. Insgesamt wurden 2005 dafür 3,5 Millionen Euro investiert. "
Also 3.500.000€ - 4.000€ = 3.496.000€ Ersparnis. Mit dem verbrauchten Strom kann man bestimmt auch nochmal was rausholen.
 
für diese Leistung hat man vorher - wie du schon lesen konntest - einen PC für 3,5 Millionen Euro gebraucht xD
schon krasses ding,
4000€ klingt auf den ersten Moment richtig viel,
wenn man aber bedenkt was in ihm steckt dann kann man nur noch staunen.
 
Ist schon krass, wie viel Potential in der Fließkommaberechnung von GraKas steckt. Da wird sich denke ich wirklich sehr viel tun in den nächsten Jahren.
 
Ob man mit dem PC gut was erHASHen kann?? Uiuiuiii ^^
 
Und wieso investieren die nicht 3,5mio $ in nen Supercumputer mit hunderten von GPUs?
 
@LuitziFa: Zum einen waren die GPUs 2005 bei weitem noch nicht so leistungsfähig wie heute und das CUDA Projekt von NVidia war vllt. auch noch nicht soweit. Zum anderen ist der 4000 Euro Rechner sicher nicht in allen Dingen, für die man einen Supercomputer eben braucht, schneller als der Supercomputer.
 
@LuitziFa: Vermutlich ein günstiges Testmodell, wenn es gut funktioniert wird es aufgerüstet.
 
Tja, mit der Wahl von Windows schränken die sich aber stark ein, nicht nur, dass es für Linux die CUDA Treiber anders als behauptet gibt, darüberhinaus bietet CUDA auf Linux auch noch die Möglichkeit Cluster mit CUDA zu betreiben. Bezüglich Cluster ist Windows erheblich eingeschränkt, also mit Windows geht CUDA im Cluster gar nicht: http://www.nvidia.com/object/cuda_get.html
Gerade im Bereich der Tomographie ist es bereits seit vielen Jahren üblich, mit Linux-Clustern zu arbeiten, da ist die Entscheidung für Windows eine Sackgasse und völlig unverständlich aus Forschungssicht, da das Projekt ja eigentlich etwas zum Erkennen von Mikroverkalkung in Brüsten beitragen will.
 
@Fusselbär: Sie haben Windows nur wegen den Treibern für die 4 Grakas genommen. Steht doch im Text...
 
@Fusselbär: Scheint komischerweise auch ohne Linux zu gehen.
 
@Fusselbär: Laber... ( - )
 
Und mit der Windows Lizenz gibts auch kein Problem.
"Windows XP Professional 1-2 CPU", es werden ja GPU's genutzt.
 
@BergTho: Ja , das eine beginnt mit C das andere mit G... in der Schule nicht aufgepasst ?
 
Kann mir mal jemand sagen, wie hoch die Leistung ist? Wie viel Teraflops? Oder sind die noch bei Gigaflops? Aus dem Text hab ich das nicht entnehmen können.
 
@angel29.01: Eine AMD HD4870 soll wohl 1 TFLOPS schaffen.
 
@angel29.01:
"The GeForce 9800 GX2 features 256 processor cores each independently operating at 1,500 MHz. Counting conservatively (2 flops per processor core), this amounts to an unprecedented 768 gigaflops of raw shading horsepower."
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=152&Itemid=1
Circa 3 Teraflop also.
 
Endlich mal eine wirklich sinvolle Verwendung, respekt!
 
Das YouTube-Video ist ja auch witzig gemacht. Lass mich raten: Der Typ hat keine Freundin?!
 
@Ken Guru:
Es haben schon ganz andere eine abbekommen.
Wer das Aussehen anderer kritisiert,kann ja auch gleich mal sein Bild einschicken...:))
Würde mal gerne sehen,ob sie besser aussehen...
 
Wozu brauch der eine Freundin ? Nvidia macht dem für die Werbung steinreich weil die Industrie Wissenschaft und Forschung Millionen ausgeben werden um die Leistung der Nvidia Karten nutzen zu können .
 
Wie konnten die Nvidia-Graka´s da reinbasteln,wenn das MSI K9A2 Platinum nur Crossfire unterstützt?
 
@Chicolino: Wahrscheinlich haben die sich da irgendwas am Bios und co zurechtgebastelt...
 
Hy! Also ich bin schwer begeister von dem Projekt! Ich erhoffe mir dadurch schneller einen Einsatz in unseren Wohnzimmern (Stichwort Physik berechnungen von Spielen). Weiß jemand ob sich das auch für Raytracing nützen lässt? Wenn ja, weiß jemand Infos von dem Typen der jetzt bei Intel arbeitet welcher Quake im Raytracing "entwickelt" hat?

Bezüglich dem Design gebe ich einem Vorposter recht. Blaue Lüfter und ein tolles Gehäuse sollen die Wissenschaft und das Thema interessanter machen für uns.

Aber was mir aufgefallen ist: Warum 4000 Euro? 4x 9800GX2 kosten keine 2000 Euro.. der Rest kostet hier und da n Hunderter, aber auf 4000 komm ich niemals..
 
Hört sich ganz nett an. Im Prinzip werden die SIMD-Rechner mit günstiger Consumer-Technik zum Leben erweckt. Lang lebe die Connection Machine!

Wer nicht zu den Selbstbastlern gehört und auch bereit ist für Leistung zu zahlen, kann schon seit geraumer Zeit von nvidia die Teslas kaufen. Damit kann man z.B. 4 GPUs in einem 1U-Gehäuse kaufen. Ist für Rechenzentren wohl besser geeignet.

@Fusi: schau mal bei nvidia unter Gelato nach. Wenn ich mich nicht täusche, habe ich mal gelesen, dass das ein hybrider CPU/GPU-Raytracer ist, auch wenn es nicht explizit dabei steht.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles