Piton: Extrem skalierbare CPU für Systeme mit über 200.000 Cores
Piton-Chip vorgestellt. Hier wurde ein Weg weiterverfolgt, der auch schon von den kommerziellen Anbietern zumindest ansatzweise eingeschlagen wurde: Server mit Prozessoren auszustatten, die möglichst viele Kerne mitbringen, um insbesondere im Bereich von Webanwendungen die zahlreichen anfallenden kleinen Aufgaben parallel abarbeiten zu können.
Bei der Entwicklung von Piton wurde daher besonders auf Skalierbarkeit geachtet. Auf dem 6 x 6 Millimeter großen Die sind 25 einzelne Kerne enthalten, die sich aus 460 Millionen Transistoren zusammensetzen. Aktuell wird der Prozessor in 32-Nanometer-Bauweise gefertigt. Es handelt sich hier um einen der komplexesten Prozessoren, der je aus der universitären Forschung hervorgegangen ist.
Die Entwickler haben außerdem Routinen eingebaut, die besonders bei den Aufgaben in Cloud-Datenzentren zum Tragen kommen. Hier werden oftmals die immer gleichen Berechnungen durchgeführt - zumindest, wenn man sich anschaut, was auf der Prozessorebene abläuft. Solche sehr ähnlichen Aufgaben werden unter einer optimierten Abstimmung zwischen den Cores abgearbeitet, was die Effizienz gegenüber der herkömmlichen Art und Weise noch einmal um 18 Prozent steigert, hieß es.
Das Entwickler-Team geht nun aber nicht den häufig eingeschlagenen Weg, ein Startup aus der Uni auszugründen und zu hoffen, von einem großen Chiphersteller übernommen zu werden. Stattdessen wurden das Prozessor-Design, alle Quellcodes und Test-Routinen über OpenPiton als Open Source-Projekt freigegeben, damit jeder Anbieter auf der Grundlage eigene Chips entwickeln kann.
Forscher an der Princeton University haben jetzt ihren neuen Bei der Entwicklung von Piton wurde daher besonders auf Skalierbarkeit geachtet. Auf dem 6 x 6 Millimeter großen Die sind 25 einzelne Kerne enthalten, die sich aus 460 Millionen Transistoren zusammensetzen. Aktuell wird der Prozessor in 32-Nanometer-Bauweise gefertigt. Es handelt sich hier um einen der komplexesten Prozessoren, der je aus der universitären Forschung hervorgegangen ist.
Die Entwickler haben außerdem Routinen eingebaut, die besonders bei den Aufgaben in Cloud-Datenzentren zum Tragen kommen. Hier werden oftmals die immer gleichen Berechnungen durchgeführt - zumindest, wenn man sich anschaut, was auf der Prozessorebene abläuft. Solche sehr ähnlichen Aufgaben werden unter einer optimierten Abstimmung zwischen den Cores abgearbeitet, was die Effizienz gegenüber der herkömmlichen Art und Weise noch einmal um 18 Prozent steigert, hieß es.
System mit hunderttausenden Cores
Ein wesentlicher Aspekt der Skalierbarkeit ergibt sich aus direkten Verbindungen, die zwischen einzelnen Piton-Prozessoren etabliert werden können. In einem Datenzentrum ist es so möglich, ein System aufzubauen, das so arbeitet, als handelte es sich um einen einzelnen Rechner - und dies ist bis zu einer Dimension von über 200.000 Kernen möglich.Das Entwickler-Team geht nun aber nicht den häufig eingeschlagenen Weg, ein Startup aus der Uni auszugründen und zu hoffen, von einem großen Chiphersteller übernommen zu werden. Stattdessen wurden das Prozessor-Design, alle Quellcodes und Test-Routinen über OpenPiton als Open Source-Projekt freigegeben, damit jeder Anbieter auf der Grundlage eigene Chips entwickeln kann.
Thema:
Neueste Downloads
Beliebt im Preisvergleich
- Prozessoren (CPUs):
Neue Nachrichten
Beliebte Nachrichten
Videos
Christian Kahle
Redakteur bei WinFuture
Ich empfehle ...
❤ WinFuture unterstützen
Sie wollen online einkaufen?
Dann nutzen Sie bitte einen der folgenden Links,
um WinFuture zu unterstützen:
Vielen Dank!
Alle Kommentare zu dieser News anzeigen