Intel: Bis zu 1.000 Kerne pro Prozessor sind möglich

Prozessoren In den Laboren des Chip-Herstellers Intel wird an Prozessoren gearbeitet, deren Zahl an Rechenkernen sehr viel größer ist, als bei den heute verfügbaren Chips. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Kurz bevor der Pentium 4 auf den Markt kam hieß es auch mal: "10 Ghz sind möglich." :)
 
@Leihmen: Der P4 hat die 8 Ghz ja mal geschafft. Ein Celeron sogar auch...
 
@Kjuiss: Unter flüssigem Stickstoff...ja genial ,-) IBM ist für mich immer noch die Nummer 1 was Hochleistungsprozessoren angeht...
 
@bluefisch200: Nicht nur Hochleistungsprozessoren, sondern auch Hochpreisprozessoren ;)
 
@Kjuiss:
jam aber unter welchen voraussetzungen? für massenmarkt völlig untauglich^^
 
@Kjuiss: habe einen p4 in meinem server drin (immer noch) und der läuft mi 12.6 Ghz :) mit gegnügend feintuning geht alles :D
 
@Lyrex: Hm? Und wie wird der Gekühlt...mit dem Nordpol?^^
 
@Aeleks: den gibts doch bald garnicht mehr...
 
@Lyrex: iss klar! Mein Quad wird von einem Plutonium Kern befeuert und läuft nun mit 50 GHz ;-)
 
@Leihmen: genau sind möglich, aber die haben nicht gesagt wann!
Nicht immer gleich die Phantasie durch gehen lassen.
 
@123: mal ein bischen Geschichte. Ich zitiere aus der c't vom März 2003:
...aber 5 Ghhz ist das erklärte Ziel der nächsten Prozessorgeneration Prescott.Desktop-Manager Burns erwähnte auch schon den Nachfolgetypen namens Tejas, der nach inoffiziellen Roadmaps Ende 2004 mit 5,6 Ghz und FSB1066 starten und nahe an 10 GHz kommen soll. Ihm soll dann Nehalem in 65-nm-Technologie folgen............

Aber hast schon recht, diesmal haben sie sich kein zeitliches Limit gesetzt ;)
 
@Leihmen: 10 GHz hätten sie auch locker geschafft, wenn sie weiter daran gearbeitet hätten. Aber sie haben was sinvolleres entwickelt: Mehrere Cores bei rel. kleinen Taktraten.
 
@EinUserMitEiern: das seh ich etwas anders...
Intel hat es versucht ist letztendlich aber bei 3,7 Ghz stehen geblieben. Und das für sehr lange Zeit, so das sie AMD nur noch durch illegale Marktstrategien klein halten konnten. Die Hitzeentwicklung ist einfach zu hoch - vorallem für die damalige Fertigungstechnik. Und selbst heute laufen die Top IBM-CPUs "nur" auf 5 Ghz.
 
@Leihmen: Dies liegt aber daran dass IBM gar nicht noch hohen Taktraten strebt...Power 6 ist höher getaktet als Power 7 ,-)
 
@Leihmen: 10 GHz und höher sind theoretisch immer noch möglich. Die Strukturen müssen nur klein genug sein, um die Verlustleistung zu reduzieren.
Und genau hier stellt sich die Frage, was wirtschalftlicher und ökologisch sinnvoller ist. Wenige Kerne mit hohem Takt oder viele Kerne mit niedrigem Takt.
Was bringt einer Firma eine "Prestige-CPU" mit 10 GHz, wenn die Entwicklung viele Milliarden kostet, sich das Teil am Ende aber doch niemand leisten kann oder will?

Ich denke mal, der Trend wird dahin gehen, dass auf einem Die viele Kerne enthalten sein werden, die (wie teilweise schon realisiert) bei Bedarf hinzugeschaltet oder im Leerlauf abgeschaltet werden können.

Die größte Herausforderung wird hierbei wohl eher die Software sein, die eine solche Architektur auch unterstützen muss, sonst bringen einem die vielen Kerne rein gar nichts.
 
@heidenf: Natürlich sind 10 GHz theoretisch möglich. Das Problem dabei ist, dass man in Bereiche der HF-Technik vordringt. Da gelten dann andere Regeln wie bei den bisherigen Layouts im Chip und auch ausserhalb auf dem Motherboard. Man muss z.B. genau die Leitungslängen einhalten, die Leitungen abschliessen usw. usw. Das bedeutet jede Menge "Testerei" bis so ein Chip mal richtig läuft. Sollte man so einen Chip mal lauffähig haben, bekommen die Motherboardhersteller auch sehr sehr sehr enge Vorgaben und ob die dann noch "preiswerte" Boards herstellen können, ist mehr als fraglich. Wer sich schon mal mit HF-Technik beschäftigt hat, kennt die gesamte Problematik.
 
@drhook: ist das nicht genau das, was ich gesagt habe?

Ist zwar möglich, aber nicht wirtschaftlich.
 
@heidenf: Ich wollte zusätzlich die "Probleme" im HF-Bereich benennen.
@Lyrex: Das wäre aber ein Rekord wenn dein P4 mit 12.6 GHz läuft. Mich würde mal interessieren, wie du diesen GHz-Wert ermittelt hast.
 
@Leihmen: ich erinnere mich an Meldungen, dass die im Labor bereits angeblich ungekühlte 10 GHz Prozessoren bei Zimmertemperatur betreiben
 
Also für Mainframes ist das bestimmt ne tolle sache..
 
Und mal wieder ein Beweis dafür, dass mehr Kerne nicht immer gleich mehr Leistung bedeuten ;-)
 
@my_R: so neu ist die Erkenntnis nun auch nicht, die Grenze der Prozessoren auf dem Board wurde auch mal mit 8 angegeben, bevor die Leistung wieder sank ... aber keine Ahnung, ob das nun die Intel- oder die PowerPC-Plattform war, ist schon ein Weilchen her ... so 9 bis 10 Jahre
 
@my_R: Verkauft sich aber besser ;)
 
so ein prozessor kostet bestimmt soviel wie ein kleiner sportwagen oder irre ich mich jetzt? ;->
 
@25cgn1981: ja jetzt bestimmt aber bei massenfertigung sicher erschwinglich
 
@25cgn1981: mag sein aber der firma mio's und dann ist die frage welches betribsystem und welches board.
 
@25cgn1981: Warum sollte er denn? Die Produktionskosten bzw Materialkosten für so nen "simplen" Chip sind sicherlich nicht hoch.
Was kostet, ist die Entwicklung. Son bisschen Silizium kostet denen ja nichts...Und wenn die ersten nicht funktionieren, macht man eben 10 weitere. Ist ja egal. Bedenke, Verkaufspreise haben nichts Produktionskosten zu tun. Wenn du ne CPU kaust, zahlst du nach Leistung. Der Hersteller zahlt aber nur das Material.
 
@Fatal!ty Str!ke: nicht nur das material sondern die Leute die maschien müßen geändert werden und die strucktur muß geplannt werden das alles kostet zeit und geld.
 
@Fatal!ty Str!ke: Was kosten schon Medikamente. Die paar Stoffe, die zusammengemixt werden .....

Du vergisst, dass Du das Know-How bezahlst. Was glaubst Du, was die Entwicklung einer CPU kostet, bevor diese auch nur annähernd die Marktreife erlangt hat? Was kosten die Produktionsstätten, die Maschienen, das Personal, die Infrastruktur etc.

Oder gehst Du zum Mercedes Händler um die Ecke und bezahlst die neue S-Klasse nach dem aktuellen Stahlpreis in kg?
 
@25cgn1981: Die Preise sind eh relativ. Denn eine Firma, welche diesen Prozessor in ihren Servern verbaut, wird genau gegen rechnen wie sich die Anschaffung lohnt. Denn ob ich 125Server mit je 4Quadcores kaufe oder dann eben zwei mit 1000Cores sollte sich preislich sogar zu gunsten des 1000Kerner ausgehen. Und wenn man dazu die heutigen Preise eines Quadcores zu Grunde legt, ist ein Mittelklassewagen günstiger bei der benötigten Menge ....
 
Toll! Und das Kraftwerk dazu?
 
@Sighol: Geh nach Frankreich... da ist der Strom schön günstig. Ich denk sogar tatsächlich drüber nach (nicht unbedingt wegen dem Strom ^^).
 
Ein guter Kollege, Informatikstudent aus Karlsruhe, hat mal ein Praktikum gemacht bei Forschungsabteilung von Intel vor 2 oder 3 Jahren da durfte er schon an CPUs mit bis zu 1000 Kernen forschen. Hab das damals als schlechten Scherz aufgenommen. Scheint mir als ob es doch kein Scherz war...
 
Die Frage ob so ein Prozessor wirklich sinnvoll ist, ist die große Frage. Der Aufwand 1000 Kerne zu synchronisieren dürfte expotential zum Leistungsgewinn durch 1000 Kerne stehen. Also cih möchte das nicht managen müssen... aber schön was alles so auf m Papier machbar is.
 
@Rikibu: Ich möchte ganz sicher nicht unhöflich sein, aber ich glaube du bist dir nicht ganz im Klaren darüber was du mit expotential ausdrücken willst. Exponentiell bedeutet das sich was ganz schnell ändert (einfach ausgedrückt) und Potential is was ganz anderes. Und etwas kann nicht zu entwas anderem exponentiell sein, sondern sich im vgl. zu etwas exponentiell schnell oder langsam entwickeln. Nicht böse gemeint.
 
@SirKkk: Nein, expootential meint, dass sich eben der Mehraufwand für die Synchronisierung von 1000 Kernen nicht linear hochrechnen lässt, sondern der Aufwand eben mathematisch expotential erhöht, diese 1000 Kerne im "Einklang " zu halten. betrachte es mal mathematisch - linear hochrechnen lässt sich der Aufwand definitiv nicht.
 
@Rikibu: Du bist ganz sicher, das das Wort expotential existiert? Mir ist schon klar was du sagen willst, ich widerspreche dir auch nicht. Das was die Effizienz des Prozessors gering halten wird mit steigender Prozessorzahl ist beschrieben im Amdahlschen Gesetz. Nach Amdahl wird der Geschwindigkeitszuwachs vor allem durch den sequentiellen Anteil des Problems beschränkt, da sich dessen Ausführungszeit durch Parallelisierung nicht verringern lässt. Die Synchronisierung ist bei den geringen Laufzeiten nicht das größte Problem.
 
@SirKkk: schau dich mal in der Mathematik um, dort gibt es das wort expotential... potentiell heißt faktisch der lineare Anstieg und exportential eben der non lineare Anstieg - so hab ich es zumindest immer verstanden - ist aber mittlerweile schon 14 jahre her als ich inner schule hockte...
 
@Rikibu: Du meinst einen exponentiellen Anstieg. Dies wird durch eine Exponentialfunktion dargestellt, welches durch das Wort Exponent kommt. f(x)=e^x oder f(x)=a^x sind z.B. eine Exponentialfunktion...Eine Lineare Funktion wäre z.B. f(x)=mx+b...potentiell hat jetzt nicht soviel mit den beiden Dingen zu tun...
 
@Rikibu: Ja, bei Crysis und Co werden 1000 Kerne kaum was bringen, da sowas nicht unbedingt parallelisiert werden kann. Andere Anwendungen werden aber immer 100% von allen Kernen profitieren.
 
@monte: ist halt die Frage ob der Synchronisierungsaufwand im Verhältnis zum Mehrgewinn steht. und ob das alles auch gut umgesetzt ist.
 
@Rikibu: Ist doch wurscht. 1000 Kerne, davon 10 funktionabel kannste den Intelfans locker für viele Taler verkaufen, die dann damit auf die Kagge hauen.
 
Ich denke mal das der höchste, derzeit mögliche und bezahlbare Leistungszuwachs zu erzielen ist, wenn die Software und der Prozessor optimal aufeinander abgestimmt sind. Ber der Vielfalt an Prozessoren und Software, muß zuviel auf Eventualitäten oder Kompromisse eingegangen werden. Apple hatte es jahrelang so gemacht. Das OS war optimal auf den Prozessor bzw. die verbaute Hardware abgestimmt. Das war an der Leistungsfähigkeit auch merkbar. (habe selbst keinen Apple, aber an einigen gearbeitet !)

Eine andere Lösung könnte sein, das es mehrere Prozessoren in einem PC gibt, die für Ihren jeweiligen Anwendungsfall optimiert sind. Siehe GPUs. Die sind hervorragend geeignet für Fliesskommaberechnungen und hängen locker normale CPUs ab.
 
1000 kerne wären cool, nur man bräuchte völig andere Konzepte von Betriebssystemen, bei 1000 kernen will man schließlich nicht mehr 15% leistung fürs präemptive multitasking verschenkt, sondern ein system, dass jeden task einmal auf ein paar kerne verteilt und dann inruhe lässt, bis das programm sich von sich aus meldet
 
Und es würde eine gefühlte Ewigkeit dauern, bis Programme für Ottonormaluser überhaupt mitskalieren.
 
Solange die meisten Applikationen nicht mehrere Kerne unterstützen, ist diese Info für mich als "Kunde" nahezu sinnlos.
 
Und? Was bringt das dem Endverbraucher? Wenn man tatsächlich die Core-Architektur zugrundelegt, hieße das, einen Thread pro Kern... ein kurzer Blick in den ProcExp sagt mir, momentan sind da ~1.300 Threads. Davon schlafen die meisten, weil sie einfach nicht gebraucht werden. Also hätten wir dann ne ~1000-Kern-CPU, die die meiste Zeit rumfaulenzt. Natürlich hieße es auch, man könnte sich ne ganze Menge Peripherie sparen und stattdessen die CPU für Sound, Grafik, etc, verwenden. ... Anders sieht's natürlich bei nem ordnungsgemäßen SMP-skalierten System aus (hier mit 10 Stufen, ie 2^10 Kernen) - dann weiß man zumindest was was ist, aber auch das wäre bestenfalls für spezifische Anwendungen wie zB die Generation von fühlbare Hologrammen, mit denen man dann interagieren kann... aber, trotzdem nix für den Endverbraucher.
Kommentar abgeben Netiquette beachten!

Intels Aktienkurs in Euro

Intel Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles