Intel demonstriert Prozessor-Prototyp mit 48 Kernen

Prozessoren Der Chip-Hersteller Intel will heute seinen ersten Prozessor mit 48 Kernen vorführen. Dabei handelt es sich um einen funktionsfähigen Prototypen aus dem Tera-Scale Computing Research-Programm. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"10 bis 20 mal so hoch wie bei den derzeitigen Spitzenprodukten" kann sich bei der Energieaufnahme sehen lassen!
 
@JasonLA: Ich denke aber auch dass der Preis 10 bis 20 mal so hoch im Vergleich zu den aktuellen Spitzenmodellen sein wird...sowas wird uns als Endkunden eh in den nächsten 5-10Jahren nicht erreichen :(
 
@Aeleks: 10 bis 20 mal ?
ich denke da eher an 20-40 mal wenn er denn jetzt würde verkauft werden. :-)
 
@Aeleks: Na ja in den nächsten Jahren muss vorallem erstmal die Softwareindustrie nachholen. Und das nicht bei 4 sondern wohl bei 16 Kernen. Die vernünftig zu nutzen wird bestimm 5-10 Jahre dauern. Ganz einfach weil sie recht träge auf neue Systeme umsteigen.
 
@TobiTobsen: Wenn ich sehe, was Windows 7 beim Taskwechsel und ausreichend RAM auch auf einem Multicore für Gedenksekunden einlegt kann ich da nur beipflichten.
 
Der Verbrauch unter voller Last ist ja wirklich super gering, im Vergleich zu manchen derzeitigen Duals und Quads.
 
@EL LOCO: den 80 kerner von vor ein paar jahren ignorieren wir mal :)
 
@EL LOCO: Die Frage ist, ob die Wattzahl für die ganze CPU gilt oder pro Core, dann wäre das eigene Kraftwerk wieder voll gerechtfertigt :-)
 
@ccmax: Und den Johannes B. Kerner ignorieren wir auch :)
 
Werden denn die Watt-Angaben, bei derzeitigen Dual- oder Quad-Core, pro Kern angegeben ? - Nein, es bezieht sich immer auf die ganze CPU. Mich würde mal interessieren, wie groß dieser 48 Kern Prozessor ist.
 
@ccmax: Das war ja auch der Einstieg. Also ohne den Prototyp hätte man den neuen nicht erschaffen können. Man bedenke das der neue auf einen neuen Daten Bus setzt. Auch die Dynamische zuordnung und abschaltung ist dazugekommen. Also ein Evolutionärer Prozess
 
@Horst Local: Der Prozessor ist leicht grösser als eine 1-Euro-Münze (567 mm²), ausserdem sind es nicht 48 sondern lediglich 24 Tiles - Grund: Es handelt sich pro Tile um jeweils einen Dualcore-Prozessoren welche auf der Pentium-Technologie aufsetzt. Auf Computerbase gibt es einen sehr ausführlichen Artikel (CB war vor Ort), der alle Fragen beantworten sollte.
 
Sorry aber langsam wirds pervers...
 
@citrix: Äh, warum denn?
 
@Ikilu: Mit "pervers" meint er wahrscheinlich "genial gut" oder so...
 
@Xtracter: Nö, ich finde einfach, das keine Sau 48 Prozessorkerne braucht. Es sind jetzt seit einigen Jahren die Mehrkern (2/4) Prozessoren auf dem Markt und kaum ne Software packt es, diese auszureizen... jetzt kommt Intel mit einem 48Kern Prozessor an.... Für was ?? Penisvergleich mit AMD oder was ? Also in meinen Augen völlig unnötig für die aktuellen Verhältnisse.
 
@citrix: es ist doch gar nicht gesagt, dass der prozessor jemals für uns Konsumenten gedacht ist, oder? Und ich find 10-20 fach gesteigerte Rechenleistung bei Verbauchswerten, die selbst ein 4-Kerner für Gamôrkids und -Prôs heute übertrifft, pervers geil! :)
 
@citrix: Naja in Bereichen wie Videoschnitt & CGI wär so ein Prozessor schon das Nonplusultra, allerdings müssen wirklich erstmal Anwendungen geschaffen werden, die so viele Kerne überhaupt gebrauchen können. Es gibt zwar schon ewig die Technik, dass alle Kerne zu einem nativen (oder wie sich das nennt) Kern zusammengefasst werden, aber ob das dann noch den spürbaren Performenceunterschied bringt??? Wohl eher nicht...
 
@citrix: Es ist schon ziemlich Sinnvoll, daman so recht Stromsparend immer mehr Leistung kriegt. Wie ich aber auch oben geschribeen habe, muss die Softwareindustrie ersteinmal aufholen. Es gibt zwar schon einige Anwendungen die Multicores ausnutzt aber doch zu wenig.
 
@CruZad3r: Nachdem intel es geschafft hat den speichercontroler zu integrieren denken sie weiter über irgendwelche neuerungen nach :P!Edit:Neuerungen kommen erst wenn amd diese für die öffentlichkeit zur verfügung stellt :).Und nun steinigt mich ihr intel freunde aber bis jetzt war es so und deshalb habe ich keine probleme es so darzustellen!Schaut euch die entwicklungen an von intel und amd und dann sieht man es evtl auch aus einem anderem blickwinkel.Ja der i7... kann es jetzt aber genau jetzt und was war die letzten jahre da los?Aber intel ist ja soviel besser etc.Ich unterstütze innovationen auch wenn die leistung etwas zurückliegt.Aber ohne dem bin ich persönlich der meinung wären wir noch lange nicht da wo wir jetzt sind.
 
@Aeleks: Ich hab n Primzahlenprogramm das beliebig viele threads gleichzeitig laufen lässt. Das will ich da mal laufen lassen :D
 
@citrix: sorry aber laber doch kein s c h e i ß!
 
@citrix: Hast du schon einmal bedacht, dass im wissenschaftlichen bereichen heute rechenleistung alles ist. für den heimanwender wird dies vielleicht in 20 oder mehr jahren nötig sein, aber bei berechnungen in der wissenschaft (simulation eines atomtestes) ist man heute mit den grösten rechnern am limit.
 
Ich übernheme vorewg Mal die üblichen Kommentare wie: "Man, der wäre doch Geil zum zocken", oder "Da läuft Crysis bestimmt richtig gut". "Ich würde den noch übertakten, ist doch so noch zu laaaangsaaam.

Ernsthaft...die Energieaufnahme ist wirklich schon sehr angenehem. 25W im normalbetrieb für solche hochgezüchteten Chips liest sich recht überraschend. Über die Taktung wird hier allerdings nichts gesagt.
 
@Darksim: leider..aber die genaue, ungenaue Angabe von 10-20 mal so schnell, wie derzeitige Prozessoren.. :-P
 
@Darksim: dachte ich mir im ersten Moment auch. Ich glaub kaum, dass der bei 3Ghz läuft. 1. nicht wegen dem Verbrauch und 2. ist die Platine logischerweise noch nicht für so hohe Taktraten optimiert.
 
@CruZad3r: auch wenn der nur bei 1.5 Ghz läufts.. währs insgesammt dicke 72 Ghz :) und das für eine CPU
 
@hARTcore: Juhuu...wir lieben solche Ghz Rechnungen :P Btw. wieso ist ein Core 2 Solo schneller als ein höher getakteter P4 ? ,-)
 
@Darksim:
mann war das klar, immer CRYSIS.....MANN! son quatsch!
 
@Darksim: du kannst dir ruhig nen 65376357348 Core-Prozzi einbauen...Crysis würde trotzdem nur 2 Kerne rechnen lassen =P
 
Geil! Encoding, Rendering und Compiling wird dadurch vielleicht zum Kurzauftritt :)
 
@Chrisber: aber nicht in ultra-high-definition. Außerdem rechnet das nicht sowieso die Graka?
 
@CruZad3r: Die Graka übernimmt dank Cuda und co zwar immer mehr aber bei den aufgezählten Aufgaben ist das wohl noch nicht üblich (außer halt das Rendern und selbst da kann ich mir vorstellen dass für Raycasting eher auf so ne CPU gesetzt wird). Es sei denn du hast dir ne Eigenentwicklung zusammengebaut.
 
@klaus4040: ach hab irgendwie nach dem Wort Encoding schon meinen Kopf ausgeschalten. Ja klar Compiling macht soweit ich weiß auch heute noch ausschließlich die CPU.
 
Leerlauf 25W? Wenn die jetzigen CPUs 5-10 Watt schaffen, halte ich das für zu viel. Ich mein wie oft und lang läuft ein PC wirklich unter voller Last?
 
@RobCole: deiner vielleicht nicht, stell dir mal CPU's auf rendering farmen vor.
Da rechnet nicht nur ein Chip und die lasten die dort auch sehr gut aus. geht nicht immer nur vom Normal User aus, es gibt auch aufgaben die weit mehr rechenaufwand benötigen als Internet surfen und gelegentlich ein spiel zu spielen.
 
@IcE*T: Selbst bei Servern wird die CPU nie dauerhaft bei über 30% liegen. Und falls es dir nicht aufgefallen ist, rede nicht vom TDP-wert, sondern vom IDLE-Wert und der ist zu hoch. Vor allem wenn es wie in der News erwähnt wird, Kerne temporär abschalten können.
 
@RobCole: Selbst bei Servern?? Also wenn ich das richtig interpretiere, dann denkst du, dass Server an höchster Stelle sind was CPU-Auslastung angeht...Is aber nicht so. IcE*T hat schon recht mit Render-Farmen. Da sind meist sogar mehrere hundert Computer gleichzeitig am rechnen mit dauerhaft voller CPU Last...
 
@RobCole: Mit Strömungssimulationen und FEM (nutzt MultiCore) schafft man auf derzeitiger Technik auch mit vereinfachten Modellen Rechenzeiten von mehreren Monaten...
 
Fraglich ist, wann soetwas marktreif ist.
Aber die Entwicklung wäre echt rasant!
Damit wären heute als sicher geltende Verschlüsselungen schon nicht mehr so sicher (WPA, WPA2, etc. AES, ...)
Ein Video in sekundenbruchteilen gerendert!
 
@ByteRider: WPA lässt sich doch heute schon umgehen, und nen anständigen Schlüssel, an dem n heutiger Rechner mehrere Mrd. Jahre rechnet, wird man auch mit dieser CPU nicht von jetzt auf nachher knacken können.
 
Das Problem an der ganzen Multicore-Geschichte ist nur leider noch immer die Software. Unterstützung auf breiter Front ist noch immer ziemlich mies und manche Sachen lassen sich auch einfach nicht sinnvoll parallelisieren. Daher ist die Geschwindigkeit des einzelnen Cores noch immer ein sehr wichtiger Faktor, nur dass sich grade in diesem Bereich in den letzten 2-3 Jahren fast nichts getan hat, wenn man es mit den Jahren davor vergleicht...
 
@Duglum: da muss ich dir völlig recht geben, bei spielen kommt langsam schwung in die Geschichte, aber ich denke wenn die programmierer etwas mehr energie in die parallelisierung stecken würden, dann wäre etwas mehr aus der multicore technologie rauszuholen.
 
wieso wird BUS grossgeschrieben? ist das ein praktikantenartikel?

ferner: auch "in" speichercontroller gehoert zur ausstattung. weiterer typo oder schluderig und schlampig geschriebener moechtegernartikel, oder racing in der newsscene und dabei die qualitaetskontrolle vergessen nur um erster schreien zu koennen?

shame.
 
@nxm: Wieso schreibst Du alles klein außer "BUS"?
 
@nxm: BitUnitSystem = BUS
 
geil man! endlich läuft crysis vernünftig!!
 
@null_plan: Deine Name ist Programm oder?
 
Wow, ich hab hier gerade mal 16 Kerne (Packung Rocher) :-)
 
"Der Chip-Hersteller Intel will heute seinen ersten Prozessor mit 48 Kernen vorführen." Nee, der wurde gestern schon vorgeführt. Wart Ihr etwa nicht eingeladen? :-)
 
Wer mehr dazu lesen möchte, inkl. Bilderchen, hier: http://tiny.cc/w3WoA
 
Die Ghz Grenze haben wir ja schon mal, bald kommt dann die minimales Fertigungsgrösse und darauf kommt dann die Grenze für die Anzahl Kerne auf einem DIE...jep, wir brauchen eine grundlegend neue CPU Architektur die sich gegen x86 durchsetzt...
 
Rechner an, Boinc drauf und erstmal ne runde crunchen :) , danach noch 3 295iger drauf und auch noch mitrechnen lassen. :)
Auf CB gibts den Bericht auch in Lang, mit Video :)

Mfg
 
Mehrkernprozessoren, mit 48 oder mehr Kernen, gibt es schon seit Jahren. Die verbrauchen zwar nur ein zehntel so viel Strom, wie die Teile von Intel, aber schön, dass Intel jetzt langsam mal aufholt. Aber die WF-Schreiberlinge haben es mal wieder geschafft, einen Artikel so zu verhunzen, dass alle Welt denkt, Intel ist Vorreiter. Nein, Intel hat seinen Abstand, als Schlusslicht bei Innovationen, verringert.
 
Dumm nur dass das Mehrkern-Prinzip für die Tonne ist, wenn z.B. bei einer Berchnung der nächste Rechenschritt immer auf einem Ergebnis der vorigen Rechnung aufbaut.
 
@Colonel Lynch: Die Software sollte natürlich auch gut durchdacht sein um die optimale Leistung mehrerer Kerne rauszuholen :-)
 
"Jeder der Kerne sei außerdem unabhängig von den anderen frei programmierbar." ... sind doch die heutigen auch...?!?!!
 
Wo Intel noch in der PC CPU Branche das Maß aller dinge darstellt, bin ich langjähriger Nvidia Anhänger auf eine ATI/AMD Graka umgestiegen, was das jetzt mit der News zu tun hat, weiß ich auch nicht so recht ^^ Wollt es halt mal Kund tun....also ran an den Minusbutton :)
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles