Einstein@home überschreitet die Petaflops-Marke

Das Distributed Computing-Projekt "Einstein@home" kann inzwischen auf eine Rechenleistung von über ein Petaflops zurückgreifen. Damit gehört es theoretisch zu den größten Supercomputern der Welt. mehr... Stern, Pulsar Stern, Pulsar

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wow beeindruckend! Gibt es solche Open Source Softwarelösungen eigentlich in ähnlicher Art auch für den "Heimgebrauch"? Also wenn es zum Beispiel große Simulationen zu machen gibt, oder Videos rendern und so weiter.
 
@germericanish: mit bionc kann man glaub ich alles mögliche machen ... du musst nur leute finden die dich unterstützen ...
 
@xerex.exe: Ich dachte da eher ans Heimnetzwerk. Mal recherchieren. :) Aber danke für deine Antwort!
 
@germericanish: Videos rendern....das wird wohl eher schwierig. Da müssen bestimmt jede Menge Daten umgeschrieben werden. Ob sich da Vorteile erzielen lassen, wage ich zu bezweifeln.
 
@jb2012: ??? es geht hier doch nur um verteilte rechenleistung!
 
@astrovan: Nein er hat ja schon recht, es kommt natürlich drauf an, von welchem Material gerendert werden soll. Ich dachte halt, dass es schon Erfahrungen im lokalen Gigabit Netzwerk gibt mit solchen Tools. Compilieren brauch ich jetzt eher weniger. ;)
 
@germericanish: Verteiltes Rechnen mit Blender: http://portal.hs-weingarten.de/c/document_library/get_file?uuid=471d8fbf-0fe7-43f6-8fb5-087933209bc3&groupId=26000 Blender kann übrigens auch als Videoschnitt Editor verwendet werden: http://www.heise.de/video/artikel/Videoschnitt-mit-Blender-1760344.html
 
@germericanish: ich kenne sowas schon länger im pro-audio bereich. da kannst du 2 oder mehr rechner per netzwerk verbinden. da werden keine "bilder" verschoben, extern berechnet und wieder zurück geschoben, sondern es wird sich einfach die rechenleistung auf den hauprechner geholt. und da audio-u. videobearbeitung recht ähnliche dinge sind, dachte ich, es wäre ähnlich einfach zu lösen.
 
@Feuerpferd: Danke! Das werde ich mir mal anschauen.
 
@germericanish: ich kenne sowas schon länger im pro-audio bereich. da kannst du 2 oder mehr rechner per netzwerk verbinden. da werden keine "bilder" verschoben, extern berechnet und wieder zurück geschoben, sondern es wird sich einfach die rechenleistung auf den hauprechner geholt. und da audio-u. videobearbeitung recht ähnliche dinge sind, dachte ich, es wäre ähnlich einfach zu lösen.
 
@astrovan: Genau, was nützt es, wenn ich einen 10 GB Film ins Internet senden muss, um dann die veränderten Daten wieder zurück geschickt bekomme (wären dann ja wieder 10 GB). Es sei denn die Berechnung selbst wäre so kompliziert, dass es Sinn macht und man die Filmdaten selbst nicht verschicken braucht. Das ist eben die Frage.
 
@germericanish: distcc wird gerne zum verteilten Rechnen verwendet: https://code.google.com/p/distcc/ Einsatzzweck ist dabei das compilern.
 
@Feuerpferd: Wenn schon, dann das Kompilieren.
 
@mh0001: Die GCC ist kein KDE Projekt! Sonst hieße es wohl "KKK" (KDE Kompilier Kollektion).
 
@germericanish: Also Videos konvertieren kann man im Netzwerk mit ripbot264. http://goo.gl/Ad0k

Da nennt sich das Ganze distributed encoding.
 
Beim kommerziellen Renderer sind generell schon Clusterlösungen enthalten. (z.B. Cinema4D). Da braucht man keine weitere Software. Der Renderer wird auf mehreren Rechnern installiert, wobei einer der Master ist: dieser schickt Einzelbilder zu den Rechnern und holt sie auch wieder ab.

Nachteil: Alle benutzten Plugins müssen auch auf den Clusterstationen vollständig installiert sein.
 
Kann man sowas auch auf den mobilen Bereicht anwenden? Wenn da sagen wir mal 500mio Android devices zusammen arbeiten würden...
Nicht auszudenken!?
Find ich sehr interessant das Thema hört sich schon an wie Skynet
 
@n8: BOINC läuft bereits auf Android, einfach nach NativeBOINC googeln.
 
@n8: Ist im mobilen Bereich nicht praktikabel, da dann innerhalb von minuten bis zu wenigen Stunden der Akku leergelutscht ist. Das ist auch der Grund warum ich solche Projekte im privaten Bereich nicht mehr unterstützte: Es würden abartige Stromkosten entstehen.
 
tja oder men baut sich ein zombie Netzwerk auf was ja illegal ist dann haste mehrere Petaflops ruck zuck zusammen.
 
Das Projekt Folding@Home hat die Petaflop-Grenze schon vor Jahren gerissen und liegt aktuell bei 3-7 PFlops. Dass Einstein@Home nun bei 1 PFlop liegt, isf zwaf toll, aber nicht wirklich beeindruckend.
 
ist das nicht das gleiche wie damals beim SETI Projekt? da wurd doch änliches auch schon vor 10Jahren durchgeführt.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.