Einstein@home überschreitet die Petaflops-Marke

Das Distributed Computing-Projekt "Einstein@home" kann inzwischen auf eine Rechenleistung von über ein Petaflops zurückgreifen. Damit gehört es theoretisch zu den größten Supercomputern der Welt.

Für gewöhnlich müssen Wissenschaftler, wenn sie für ihre Arbeit hohe Rechenleistungen benötigen, entweder auf Zeit auf einem der Supercomputer zentraler Datenzentren warten oder aber auf die Genehmigung von Mitteln hoffen, mit denen sie ein eigenes System finanzieren können - was aber leicht zweistellige Millionen-Summen verschlingen kann.

Angesichts chronisch knapper Kassen haben in der Vergangenheit bereits mehrfach Forschungsprojekte ihr Heil darin gesucht, das Freiwillige die ungenutzten Kapazitäten ihrer PCs zur Verfügung stellen. Die Aufgaben werden dann in zahlreiche kleine Berechnungen aufgesplittet und über das Internet an die Computer der Supporter veteilt - so auch bei Einstein@home.


Das Forschungsprojekt ist auf der Suche nach Hinweisen auf Gravitationswellen. Diese müssen von sehr kompakten, hochdichten und schnell rotierenden Sternen laut Albert Einsteins Reletivitätstheorie erzeugt werden. Dafür werden Daten von zwei Gravitationswellendetektoren in den USA und Deutschland ausgewertet. Hinzu kommen noch die Informationen, die das Arecibo-Observatorium in Puerto Rico bei der Suche nach binären Radiopulsaren liefert.

In den letzten Jahren kamen immer wieder neue Unterstützer hinzu und die bereits vorhandenen schafften sich immer schnellere PCs an, so das die verfügbare Rechenleistung stetig anstieg. Gestern wurde nun vermeldet, dass die Petaflops-Marke fast genommen ist. Am Nachmittag verzeichnete man 989,2 Teraflops, wobei pro Stunde etwa 1,3 Teraflops hinzukamen.

Theoretisch wäre die Petaflops-Marke so bereits am gestrigen späten Abend gefallen. Allerdings, so der Hinweis, gehe die verfügbare Leistung am späten Abend stets ein Stück zurück - beispielsweise weil Unterstützer vor dem Schlafengehen ihren Rechner abschalten. So wurde die Marke erst heute genommen. Zur Stunde weisen die Server-Statistiken 1.004 Teraflops verfügbarer Leistung auf. Würde das Distributed Computing-Projekt als ein Supercomputer gewertet, stünde es in der Top500-Liste der weltweit schnellsten Rechner somit aktuell auf Platz 24 - und dies ohne Millionen-Institionen, sondern nur mit Open Source-Software und der Hilfe vieler User.
Diese Nachricht empfehlen
Videos zum Thema
 
Wow beeindruckend! Gibt es solche Open Source Softwarelösungen eigentlich in ähnlicher Art auch für den "Heimgebrauch"? Also wenn es zum Beispiel große Simulationen zu machen gibt, oder Videos rendern und so weiter.
 
@germericanish: mit bionc kann man glaub ich alles mögliche machen ... du musst nur leute finden die dich unterstützen ...
 
@xerex.exe: Ich dachte da eher ans Heimnetzwerk. Mal recherchieren. :) Aber danke für deine Antwort!
 
@germericanish: Videos rendern....das wird wohl eher schwierig. Da müssen bestimmt jede Menge Daten umgeschrieben werden. Ob sich da Vorteile erzielen lassen, wage ich zu bezweifeln.
 
@germericanish: distcc wird gerne zum verteilten Rechnen verwendet: https://code.google.com/p/distcc/ Einsatzzweck ist dabei das compilern.


Alle Kommentare zu dieser News anzeigen

Schreiben Sie uns Ihre Meinung, bewerten Sie Kommentare oder diskutieren Sie mit anderen WinFuture.de Lesern!

Melden Sie sich jetzt kostenlos an
oder verwenden Sie Ihren bestehenden Zugang.

Wöchentlicher Newsletter

Beliebte Videos

powered by veeseo

Jetzt als Amazon Blitzangebot

Ab 09:59Acer B296CLbmiidprz 74cm (29 Zoll) IPS Monitor 21:9 2K Ultra HD dunkelgrauAcer B296CLbmiidprz 74cm (29 Zoll) IPS Monitor 21:9 2K Ultra HD dunkelgrau
Original Amazon-Preis
451,54
Blitzangebot-Preis
399
Ersparnis 12% oder 52,54
Jetzt Kaufen
Im WinFuture Preisvergleich

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles