Ein Co-Prozessor für Handys und Supercomputer

Prozessoren Das Chip-Startup Adapteva hat eine neue Prozessor-Architektur vorgestellt, die sowohl Smartphones als auch Server mit einer höheren Leistung bei geringem Stromverbrauch ermöglichen soll. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Also praktisch so wie die PhysX Karten früher. der Stromverbrauch is beeindruckend, wenn er aus dem 1GHz auch genug Rechenleistung rausholen kann
 
@JasonLA: Nicht ganz, die PhysX Karten, bzw. Prozessoren, waren für eine ganz spezielle Aufgabe ausgelegt. Dies hier ist viel universeller. Ich frage mich allerdings, wenn der einzige fehlende Punkt das Speichermanagment und ein wenig Befehlscode ist, wieso kriegt man es dann nicht hin einen sehr geringverbrauchenden Hauptprozessor mit, sagen wir mal 32 Kernen, und sehr geringem Verbrauch zu produzieren? Von der Leistung her dürfte es im Mittelfeld wie Tablets, Büromaschinen, usw. durch die 32 Kerne locker ausreichen, oder als Infotainment im Auto sowieso.
 
@Tomarr: Das Speichermanagement ist keine triviale Sache und immer ein Problemkind der Mehrkernprozessoren. So gab es doch mal ein Szenario (so etwa um die Jahrtausendwende), wo auf Grund des Speichermanagements der Einsatz von mehr als 8 Prozessoren anstatt zum Leistungszuwachs zu Leistungseinbußen führte. Ob das jetzt direkt am Speichermanagement lag oder an anderen Aufgaben, die der Verwaltung mehrerer Prozessoren galten, weiß ich jetzt nicht mehr so genau. Fakt ist aber, dass diese Prozessoren viel unabhängiger von einander arbeiten können, wenn sie sich nicht selbst synchronisieren müssen und sich nicht selbst um die Aufteilung des Speichers zu kümmern brauchen. Man könnte hier bereits von einem Client-Server-Szenario sprechen: der Server (in dem Fall der Hauptprozessor) übernimmt die Steuerung des Speichers und teilt den Clients (möglicherweise tausende Co-Prozessoren) ihre Aufgaben zu. Das funktioniert besser, als wenn jeder der Co-Prozessoren selbst ein komplettes Speichermanagement aufweist. Da die Prozessoren ja skalierbar sein sollen, müsste wirklich jeder Kern das komplette Speichermanagement mitbringen. Das wäre dann mit P2P zu vergleichen, welches, wie man ja aus alten Emule- und Gnutella-Zeiten weiß, auch nicht wirklich immer zuverlässig funktioniert.
 
@Der_da: Inzwischen sollten derartige Probleme aber gelöst sein denke ich mal. Ich habe vor schon etwa einem Jahr einen Artikel gelesen über einen Hauptprozessor der locker mal eben 64 Kerne hat. War zwar noch in der Entwicklung, aber durch die sehr interessante Architektur auch sau schnell. Und zwar handelte es sich dabei um 32 Dualcoreprozessoren, auf dem rein Theoretisch wenn sinnvoll, auch 32 Betriebssysteme gleichzeitig hätten laufen können. Also es war nicht ein Prozessor mit 63 Rechenknechten oder so. Aber die Kerne haben eben halt auch als Dualcore super funktioniert. Also von daher sollte das alles doch machbar sein glaube ich.
 
das is ja der hammer, 8 mal soviele Kerne wie ein aktueller ARM-Prozessor und trotzdem nur die Hälfte an Stromverbrauch.
@ JasonLa: Wenn man sich mal anschaut, was die heutigen Smartphones mit 1Ghz anstellen, dann wird man mit diesem Prozessor alles ersetzen können, da wird dann ein usbhub/thunderbolthub angeschlossen und dann gehts los mit Crisis 2 auf dem Smartphone in gediegener 1440p Auflösung auf dem heimischen 100+ Zoll Flachbildfernsehr und mit Maus und Tastatur;)
Freue mich riesig ;)
Los gehts schnell raus damit ;) will ein IPhone 5 oder 6 mit so nem Chip :D:D
(Für alle, die jetzt gleich ein Minus setzen wollen, ich übertreibe "etwas" :D)
 
@D4rk3n3mi3: Nur geringfügig. Quasi minimal und kaum erkennbar ;).
 
überflüssig - jetzt wo's 3D Prozessoren gibt ^^ -- ne im ernst, die idee ist gut, nur die praxistauglichkeit muss sich erst noch zeigen.
 
die Frage ist eher wieviel Rechenleistung haben die Teile bei einem Ghz? Die Anzahl der Cores und des Taktes sagt gar nichts aus.
 
@tavoc: Da ja auch großrechner im Gespräch sind, werden die schon ne annehmbare Rechenleistung haben. 4000 Prozessorkerne die nichts bringen sind an Großrechnerfirmen sehr schwer zu verkaufen.
 
@tavoc: ob der einzelne Prozessor bei 1 GHz viel bringt, ist eigentlich nebensächlich, denn eine einzelne Aufgabe kann auch von einem schwachen Prozessor in annehmbarer Zeit ausgeführt werden. Bei der Zielgruppe für 1000 Prozessoren jedoch geht es ja darum, viele 1000 Aufgaben so "gleichzeitig wie möglich" auszuführen. Beispiel: Berechnet der Earth-Simulator (war/ist weltweit auf Platz 1 der Supercomputer) eine Simulation und muss dabei 1000 Fakten berücksichtigen, so kann er diese zur Berechnung an 1000 Prozessoren schicken, die mit 1 GHz arbeiten, anstatt diese 1000 Fakten mit sagen wir utopischen 100 GHz nacheinander abzuarbeiten und immernoch 10 mal so lange zu brauchen. Klar, sind alles sehr theoretische Konstrukte, die ich hier nenne, aber für so in etwa diese Richtung gehende Aufgaben ist das gedacht.
 
@Der_da: ja es kommt aber immer noch auf die Recheneffizient an, der reine Takt sagt ja nichts aus. Die Architektur ist auch wichtig. Um bei deinem Beispiel zu bleiben. Nehmen wir mal an diese CPU kann in einer Sekunde 1000 einfache Operationen vornehmen, z.b eine Addition. Eine andere 1 GHz kann 10.0000 Operationen in dieser Zeit vornehmen, z.b. auch Subtration. Kommt halt drauf an, wieviele befehle für die Operation notwendig sind und wie lang die Pipes sind.
 
@tavoc: Hab ja gesagt, dass ich das sehr theoretisch ausführe, in der Praxis sieht das natürlich anders aus. Der wirkliche Mehrwert kommt ja erst, wenn man viele (tausende? zehntausende?) Tasks und Threads gleichzeitig laufen hat.
 
Die Homepage ist cool. Jetzt erhält die jQuery-Mentalität auch Einzug in die Chip-Industrie. :p
 
@timmy: da läuft mootools und yui, kein jquery - gesamt betrachtet also eine RIA :P
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen