MIC: Intel kündigt Prozessoren mit 50 Kernen an

Prozessoren Der Chiphersteller Intel hat eine neue Serie von Prozessoren angekündigt, die mit deutlich mehr Kernen ausgestattet sein wird, als die bisher verfügbaren Chips des Unternehmens. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Nur 50? :P ^^
 
@MrBonsai: In der Krise muss halt gespart werden.
 
@Legastheniker: oder ihr gebt es den Griechen und zockt dann eure Bürger ab .
 
@MrBonsai: damit läuft crysis immernoch nicht flüssig.
 
@xerex.exe: Crysis schon eher ne Graka Frage aber GTA4 läuft dann so halbwegs :-)
 
xD für heimanwender wird das nie etwas sein... da ich mir kaum vorstellen kann das sich jemand die mühe gibt ein programm zu schreiben das alle 50kerne benützt.. xD naja wenns so funkt wie es klingt is ja gut =)
 
@fenz_18: Jaja, und 4 Kerne wird man auch niemals brauchen...
 
@SpiDe: zwischen 4 - 12 und 50 sind noch dimensionen
 
@fenz_18: Braucht man dann für Microsoft Word 2017 3D
 
@SpiDe: für die meisten Heimanwender (surfen, mailen, Liebesbriefchen per Textverarbeitung) reicht immer noch ein Singlecore.
 
@Wollknäuel Sockenbar: Surfen, mailen UND Textverarbeitung sind doch schon drei dinge die parallel laufen können ;) da ist ein dualcore auch schon ne gute idee... vor allem bei den aufgeblasenen Browsern und mailprogrammen...
 
@SpiDe: Selbst 4 Kerne kann man kaum effizient in einem Programm nutzen. Es ist nichtmal ein Problem der aufwändigeren Programmierung, es ist einfach eine Tatsache das man nicht alles parallelisieren kann. Wie willst du die Berechnung ((4+9)*12)-15 parallelisieren? Es gibt einfach natürliche Grenzen, die man nicht immer überwinden kann. Es mag seltene Anwendungen geben wo man wirklich so viele Kerne braucht (wie zb. die im Artikel erwähnten wissenschaftlichen Anwendungen) aber im >normalen< Haushalt wird man wirklich NIE soviel Rechenpower brauchen, es sei denn irgendwann wird Klimaforschung, oder Nuklearexplosionssimulation zum Hobby.
 
@fenz_18: "640 Kilobyte sind genug für jeden." (Bill Gates, 1981)
 
@niko86: "I've said some stupid things and some wrong things, but not that." (Gates, 19 January 1996); "I never said that statement — I said the opposite of that." (Gates, 20 August 2001). Aber schön, dass Leute immer noch vollkommen unüberprüft vermeindliche Zitate in die Welt hinaus tragen.
 
@niko86: Leider eine längst widerlegte "Urban Legend".
 
@niko86: das hat er nie gesagt. wenn du schon meinst hier zitate posten zu müssen, informiere dich vorher
 
10x10cm und 2KW?
 
@Sighol: ja und ? wären 40 Watt pro Core... ! Hauptsache du hast was geschrieben-stimmts?!Wenn die Leistung passt, wären deine 2KW doch effizient...
 
@SebastianM: Sinnlose Besserwisser ... Verstehste nicht, dass es auch um unseren Planten geht?
 
@Sighol: vll kann man mit der rechenleistung ja die krebsforschung vorantreiben, oder ein mittel gegen aids falten? vll können wir auch mit der rechenleistung im bereich der alternativen energieen weiter forschen.
 
@Sighol: Rofl. Geh halt sterben, sry.
 
@Sighol: Wenn das Ding 2kW braucht spart man damit Strom, denn in Supercomputern werden sonst für 50 Kerne zum Beispiel 25 zweikerner eingesetzt, von denen jeder 100 - 120 Watt braucht. Das wären dann hochgerechnet mehr als 2500 Watt für die gleiche Kernzahl. (die Rechenleistung steht aber wieder auf einem anderen Blatt)

Ich würd aber mal annehmen, dass er weniger als 2000 Watt braucht, da bisher nahezu jeder mehrkern Prozessor pro Kern weniger verbraucht, als ein gleichgetakteter Einkern - Prozessor.
Ich denke also durch die miniaturisierung und die gemeinsame Nutzung bestimmter Ressourcen (Speichercontroller, Cache, ... ) sowie der vermidnerten Zahl an benötigten Mainboards und ähnlichem um die gleiche Zahl an Kernen unterzubringen wird son Ding umgerechnet ne Menge Energie sparen!
 
@Sighol: Leute! Die können ruhig leistungsfähiger CPU's bauen, aber an erster Steller sollte eine geringer Stromverbrauch stehen!
 
@Sighol: Und den Sinn dieser CPU hast du noch nicht verstanden, oder?
 
@Sighol: hast Recht, aber wozu die voreilige Vermutung von dir oben, wenn weder du noch sonst wer das jetzt schon weiß? Vielleicht werden die ja sehr sparsam sein, dann war das hier alles sinnlos ?
 
@Sighol: Bei der Anwendung ist der Stromverbrauch eigentlich nur für die Kosten relevant. Im Wissenschaftlichen Bereich steht Rechenpower im Vordergrund und nicht Öko. Am ökologischsten wäre es gar nicht zu rechnen, aber das würde uns auch nichts bringen, und wenn man dann das Ding anwirft, soll es gefälligst auch schnell arbeiten. Und auch wenn das Gerät 5 Mal soviel Strom verbraucht wie der Vorgänger, er wird die gleiche Arbeit schneller verrichten, und vielleicht sogar die Gesamteffizienz steigern. Aber auch wenn nicht, so fallen wissenschaftliche Supercomputer in der weltweiten Klimabilanz warscheinlich nicht mal ins Gewicht.
 
@Sighol: lol du laberst n scheiß über stromsparende cpus und hast GAR KEINE ahnung wie viel leistung das teil zieht... man o man... intel hat doch schon vor 4 jahren nen 40-kerner oder so präsentiert und der zieht auch net mehr wie ein high-end 4-kerner von heute...
 
Würden alle Entwickler leistungsfressender Software endlich mal so programmieren, dass das ganze auch skalierbar auf jeder Kernanzahl läuft... speziell jetzt an Spieleentwickler gerichtet.
 
@Zaru: Es liegt bestimmt nicht daran das sie das nicht wollen, es ist einfach nur verdammt komplex und in vielen Fällen nicht einmal möglich berechnungen zu paralelisieren. Einfaches Beispiel wäre z.B. die Fibonacci-Folge, da baut die eine berechnugn auf der anderen auf und da kannste nicht gleichzeitig schon weiter rechnen.
 
Warum nicht tausend Kerne dann brauch man in Zukunft nicht immer soviel kaufen .
 
@BeveStallmer: Larracat :)
 
@lol, downvoter: Laracroft O_0
 
Intel sollte mal eine Funktion im Prozessor selber einbauen bei dem es im Prozessor drin selbst eine Steuereinheit hat, die als 1 Prozessor, 1 Kern angezeigt wird dieser dann alle Aufgaben, "übernimmt" und es dann auf allen verfügbaren Kernen selber verteilen kann, so würden die Kerne nicht mehr als "unnötig" dastehen und man würde alle Kerne sinvoll ausnutzen.

Habe ich mich schon immer gefragt...
 
@valoN: also ich hasse es wenn Hardware die Arbeit vollrichten muss die normal von der Software erledigt werden kann nur weil sie zu schlecht ist, aber einigen ist die Stromrechnung wohl egal.
 
@fraaay: Denkst du die Programmierer werden es irgendwann fertig bringen Software für mehrkernige Prozessoren zu programmieren? Nein, das wissen wir beide.

Und mal ganz ehrlich, was wäre gescheiter? Wenn sich zich Millionen Programmierer einrichten müssen oder wenn einfach mal Intel das ding rein macht?

Und mal noch ehrlicher, die CPU's von Heute verbrauchen doch nix...
 
@valoN: Deshalb entwickeln die grossen Softwarehersteller immer bessere Bibliotheken, die einem den Zugriff auf viele Kerne so einfach wie möglich gestalten sollen. Wird ja auch in .NET 4 integriert sein, z.B.
 
@valoN: grundsätzlich klingt die Idee ja nicht schlecht, aber in der Praxis noch schlechter. Die Befehle würden dann einfach nacheinander ablaufen und einzelne Befehle, die auf vorhergehende warten müssen, bremsen die Kerne aus, die ebendiese Befehle schon ausführen würden.
 
@valoN, @ZECK: Wird schon gemacht, Stichwort Pipelining und Out of Order Processing. Das macht jeder aktuelle x86 Prozessor (ausser Atom, der hat kein Out of Order, deswegen ist er so lahm und stromsparend). Allerdings sind die Bottlenecks zur Zeit RAM und HDD. Im Cache vom Prozessor kann man Daten noch eine Ecke schneller hin und her schieben.
 
@valoN: Deine Steuereinheit müsste dann rasend schnell sein, da alle Ein- und Rückgaben des Prozessors mit seinen 50 Kernen über diese Steuereinheit müssten - also mehr als 50-mal schneller als die normalen Kerne. Damit ist die ansonsten vernünftige Idee leider gestorben. Programmieren für mehrere Kerne ist nicht so das Problem. Man kann es von Hand machen, aber da hat man die Schwierigkeit, dass der Mensch nicht parallel denken kann. Oder man nutzt Compiler die aus einem Single-Task-Programm ein Multi-Task-Programm machen. Gibt es auch schon, aber da bekommt man die Schwierigkeit, dass Aufteilung nicht kostenlos ist, denn man braucht Kommunikation. Also wird man einerseits schneller durch parallel Verarbeitung und andererseits langsamer durch gestiegene Kommunikation. Bei stiegender Parallelisierung werden die Programme irgendwann wieder langsamer, da die Kommunikation immer teurer wird. Zu guter Letzt gibt es nur wenige Probleme, die sich überhaupt massiv parallelisieren lassen. Einige wenige Kerne machen Sinn, aber für massive Parallelsierung (1000 Kerne oder mehr) gibt es nur wenige Aufgaben.
 
@Timurlenk: Ich habe da eher an einer Art "Northbridge" gedacht, bei dem ein Prozessor/Kern alle verfügbaren Kerne analysiert und Aufgaben nach der Verfügbarkeit verteilt. Beim Output gehen die Operationen dann den Normalen weg, Hauptsache die Aufaben wurden gerecht verteilt. Vielleicht ist ja meine Überlegung nicht lösbar, wäre aber immerhin besser wenn sich ein Team damit beschäftigt und nicht tausende von Programmierern.
 
Im bereich der FE-Berechnung (Crashsimulation etc.) sind 32 Kerne durchaus schon in Anwendung. Von daher... weiter gehts... gute Sache
 
@Mastawilli: Erdbebenforschung auch.
 
Ist das denn noch sinnvoll? 50 Kerne haben theoretisch viel REchenpower, aber die müssen auch synchronisiert werden und der Aufwand dürfte expotential ansteigen...
 
@Rikibu: Die Anforderungen an die Software sind hoch und werden weiter steigen. Solange man Prozesse parallel betrachten kann ist alls in Ordnung. Nur das Problem, welches schnell zum Hauptproblem wird, sind die Teile des Codes, die sich nicht so leicht oder eben gar nicht parallelisieren lassen. Da bringen auch zig tausen Kerne nichts, wenn eine Rechenfolge eben nur seriell abgearbeitet werden kann.
 
@Rikibu: Ich könnte mir vorstellen, dass die Admins in einem solchen Fall eher schnellere CPUs mit weniger kernen verwenden werden, als dieses Ding hier. Gibt aber auch genug Sachen, die man bis ins Unendliche parallelisieren kann. ;)
 
@Rikibu: Solaris kann das. Die haben ja auch schon vor Jahren mit ihrer Niagara Vielkern-CPU die Richtung vorgegeben. Für Windows mit seinem bescheidenen Scheduler sieht es aber düster aus: http://en.wikipedia.org/wiki/Scheduling_%28computing%29
 
@Rikibu: 50 Kerne machen für Privatanwender heutzutage keinen Sinn, da diese nicht sinnvoll ausgelastet werden können. In der Forschung gibt es aber durchaus Beispiele. Daher gab es auch schon lange Parallelrechner, die dann sehr teuer waren und ein schlechtes Preis-Leistungsverhältnis hatten, aber eben schnell waren.
 
@Rikibu: Was hat den wohl einen größeren Verwaltungsaufwand...ein paar hundert Systeme mit jeweils 50Kernen in einem Cluster oder ein paar tausend Systeme mit 4 Kernen in einem Cluster?
 
Der Gewinn wird dann durch das Atomkraftwerk erzielt, welches man dazukaufen muss, um genügend Strom zu erzeugen.
 
Via la Grand Central Dispatch!
 
@malfunction: Apples Mac OS schwächelt beim SMP. Das ist mit ein Grund warum Apples Mac OS bei Servern keine große Rolle spielt.
 
Da kommen mir meine zwei Kerne richtig mickrig vor! :-)
 
Gibt es eigentlich eine physikalische Grenze? Also ohne, dass sich der Steckplatz ändert.
 
@AcidRain: Wenn du einen Prozessorkern mit nur 50 Transistoren baust, kannst du auch zehn Millionen Kerne auf dem Chip unterbringen. Hier wird nur von kernen gesprochen, ich bezweifle das jeder dieser Kerne auch nur annähernd an die Komplexität eines x86 Prozessorkerns heran kommt.
 
@master_jazz: Ah ok, danke. So sehr kenn ich mich dann in der ganzen Hardware doch nicht aus. Dachte Kern ist Kern. Aber jetzt hast du mich zur nächsen Frage gebracht. Inwieweit wirken sich Transistoren auf die Rechenleistung aus? Wenn du kein Bock hast mir das zu erklären kann ich auch googeln, aber dich denke dann versteh ich weniger ;)
 
@AcidRain: Die Transistoren wirken sich insofern auf die Rechenleistung aus, als das du z.B. mehr Register oder Cachespeicher in eine CPU integrieren kannst. Dadurch kann man bei Speicherintensiven Aufgaben (z.B. Sortieralgorithmen) die Ladezeit der Daten verkürzen da man Daten nicht immer aus dem langsamen RAM holen muss, sondern diese direkt in der CPU vorhalten kann. Andererseits kann man mehrere parallele Pipelines für die einzelnen Befehle integrieren, wodurch ein Programm (auch ohne Multi CPU) etwas paralleler ausgeführt wird, allerdings auf Assemblerebene. Wenn dein Programm quasi so lauten würde: Berechne "A+B, danach C+D", dann würde deine CPU schon beim interpretieren der vorgeladenen Befehle sehen das beide Befehle nichts miteinander zu tun haben (unterschiedliche unabhängige Variablen) und diese beiden Rechnungen parallel berechnen können. Allerdings hat auch das Grenzen. Man braucht nämlich auch immer mehr Transistoren welche nichts anderes machen als das Programm auf mögliche Parallelität zu untersuchen. Momentan macht glaube ich etwa ein Viertel oder ein Drittel der Transistoren einer CPU nichts anderes als zu schauen welche Programmteile parallel ausgeführt werden könnten. Und so kann man mit der doppelten Transistoranzahl nicht gleich die Geschwindigkeit verdoppeln. Es wird daher immer schwieriger, und man erhöht deshalb momentan auch immer mehr die Cache Größe, weil es einfach langsam einen gewissen Grenzwert gibt gegen den man die Geschwindigkeit mit mehr Transistoren erhöhen kann. Man muss sich immer kniffligere Tricks einfallen lassen, wie z.B. einfach bessere Befehlssätze und so, um da noch mehr raus quetschen zu können. Naja Ich hoffe meine Ausführungen waren verständlich. ^^
 
darf man das aehnlich wie bei grafikprozessoren verstehen? und wieviele pins haengen unter dem chip?
 
für server bestimmt eine coole sache aber für zu hause wohl kaum^^

okay wird eh nicht bezahl bar sein
 
Was kostet es und wo kann man es kaufen?^^
 
@chris193: klar doch kaufen kann man aber wo ist die Software oder die Spiele die das unterstützen??Kann man die auch kaufen????
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

Forum