Prozessor & Grafik auf einem Chip = Supercomputer?

Hardware Phil Hester, Chief Technology Officer bei AMD, sagte jetzt auf einer Konferenz, dass die Vereinigung von Graphics Processing Units (GPUs) und Central Processing Units (CPUs) auf einem Chip dafür sorgen könnte, das gewöhnliche PCs an die Leistung ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
@werosey: lobenswerter Beitrag. (c) Rechtschreib- und Grammatikfehler vorbehalten.
 
@werosey: Joa, dein heißgeliebtes WoW wird dadrauf sicher auch laufen.
 
Ich hatte zwar schonmal gefragt, aber warum bringt man die GPU jetzt wieder auf die CPU zurück, wo man sie doch (wenn ich mich recht entsinne) vor einiger Zeit ausgelagert hat - nämlich auf eine externe Karte ausschließlich zur Grafikberechnung ( = Grafikkarte). Gut jetzt sollen es mehrere Kerne werden, aber warum nicht Quadcore CPU und genauso Duo- oder Quadcore-GPU über PCI-Express?
 
@demmi: warum nicht? Auserdem habe ich das so verstanden, das man nen grafikprozessor für berechnugen dann nimmt, die eben die GPU besser erledigt, als die CPU
 
@demmi: was willstn du jetzt mit ner quadcore gpu wo die aktuellen cpu's teilweise schon bei SLI nichtmehr nachkommen? Wenn beides wieder zusammen ist und man mehrere Prozessorkerne hat, und es mal soweit ist, dass sie der GPU hinterher kommen, wird der Schritt zur Duo/Quad-GPU wohl kaum noch ein sehr großer sein.
 
@eisteh: Das mit der Mehrkern-GPU war nur ein Gedanke. Meine eigentliche Frage war, warum man CPU und GPU wieder kombinieren will, wo man sie noch vor einiger Zeit getrennt hat - genau wie beim Sound oder neuerdings bei Physik.
 
@demmi: Ich würde sagen der Vorteil ist der geringe Leitungsweg und damit höhere Kommunikationsgeschwindigkeiten und natürlich für den Hersteller, das man beim Aufrüst gleich die CPU und die GPU zusammen austauschen muss und vermutlich nur die Hochleistungs-GPUs mit den Hochleistungs-CPUs gebündelt werden.
 
@demmi: Wir befinden uns derzeit in der "Steinzeit" der "Informationstechnologieära". Was sich alles noch trennen und wieder anders zusammenfügen wird ist nicht abzuschätzen. :-)
 
@floerido: Ja, stimmt - das macht Sinn.
@Davediddly: Geb ich dir auch Recht. Mal schauen was noch so alles passiert.
 
@floerido: Schade nur, dass wir dadurch aber auf langsameren Speicher zugreifen, wobei der Weg wieder etwas länger wird. Gleichzeitig sinkt die Bandbreite zum Speicher und die Bandbreite wird natürlich auch geteilt zwischen Grafik- und Prozessorzugriffen (auf den Speicher). Ich bin gespannt, was da kommen wird. Ich denke einfach nur, dass bisher der Speicher den Engpass darstellen wird.
 
@demmi: man hat die doch nicht ausgelagert. frueher hat allein die cpu alles berechnet. da der pc aber fuer spiele entdeckt wurde, reichte die leistung der cpu nicht mehr aus. um bessere grafik darzustellen, wurde dann die grafikkarte erfunden, oder bessere gesagt der "3d-beschleuniger".
 
@GuybrushThreepwood: Das gleiche hat er schonmal gefragt und ich habe ihm was ähnliches geantwortrt. Er wird es nicht verstehen, glaub ich langsam.
 
Das heißt also das der arbeitsspeicher auch gleichzeitig der grafikspeicher ist oder wie? ich glaube da wird noch einige entwicklungszeit vergehen
 
@mercury: Und ich behaupte, dass man das erste fertige Produkt in gut einem Jahr kaufen können wird.
 
@cfroemmel: 1 Jahr? und wovon träumst du nachts? ich gehe von mindestens 3 Jahren aus. weil dadurch müsste das komplette System des Rechner ummodelliert werden. und das geht nichts chlecht, weil auch andere Komponenten ausgetauscht und abgeändert werden müssen damit alles sinnvoll funktioniert.
 
Find ich toll den schritt! Hab vorn paar tagen gemerkt dasses so weit is, weil ati.com jetzt im AMD style is, oder sogar die AMD hauptseite?!
 
@Xylen.C4: ati.com ist jetzt Teil der AMD-Hauptseite und leitet weiter auf den Subdomain ati.amd.com
 
wow bin ebenso gespannt wie sich das alles entwickeln wird. sowas finde ich unheimlich interessant =)
 
@demmi
Wo und wann hat man denn GPU und CPU getrennt???
Das war noch nie zusammen auf einem Chip. Für Grafik am PC musstest du schon immer eine externe Graka verwenden (EGA, XGA, VGA usw.). Ausser du meinst Onboard-Grakas, welche aber nicht in der CPU sind, sondern auf dem Chipsatz in einem extra Chip. Insofern wäre solch ein Chip schon etwas, was es noch nie gegeben hat bisher. Und ich bin gespannt, was daraus noch wird.
 
@Udragor: Ich auch! Und ich freue mich auch auf den Zeitounkt, wann die Leute endlich begreifen, das es kleine blaue Pfeile hier gibt!!! Jaja, ich weiß, das nervt...
 
@Udragor: CPU und GPU wurden zwar relativ früh getrennt (70/80iger Jahre), aber die Behauptung das sie schon immer getrennt waren finde ich weiter hergeholt als die Behauptung von demmi (siehe Wikipedia Grafikprozessor).
 
@Udragor: Das stimmt alles nicht. Insbesondere gab es den Begriff 'GPU' in den 70/80er Jahren noch gar nicht - den hat NVidia geprägt, um die enorme Leistungsfähigkeit moderner 3D-Beschleuniger herauszustellen. Die frühere VGA-Hardware war lediglich ein Bildspeicher mit Elektronik zur Ansteuerung eines Monitors, dazu waren ein oder mehrere Zeichensätze hart verdrahtet dabei. Grafik wurde softwaremässig von der CPU erzeugt und in den Bildspeicher geschrieben.
 
Ich fände austauschbare GPUs (wie die CPUs halt) und austauschbaren VRAM extrem geil... und dann alles mit Extrasteckplatz auf dem Mainboard
 
also finde die Idee klasse, habe auch gelesen das man dann sogar noch eine zusätzliche Grafikkarte einbauen kann (sowas in der Art wie SLi & Crossfire). Denke dann fällt das weg mit 2 GraKas im Rechner, dann ist eine Im CPU und eine aufen PCIe Steckplatz. Dann würde mir ein Dualcore + GPU und eine Grafikkarte voll reichen.
 
@sxshane: lol, für die Lösung möchte ich nicht die Treiber schreiben müssen (mgl. vgl.:das wäre ja, wie wenn du an deinem Auto vorne 2 unterschiedlich große Räder montierst und du das kleinere Rad tiefer legst und eine Übersetzung einbautest, die dir hilft, dass das Auto gerade aus fährt ... oje)
 
@sxshane: @garbot: Der Vergleich hinkt etwas, das wäre als wenn du in deinen 600PS Wagen einen 2.Motor baust, der hilft die Drehzahl zu erhöhen.
 
@2-hot-4-tv: Wobei du die 600 PS aber auch wieder relativ sehen musst, ein Jahr später is das Auto mit 600 PS ein StandarD Opel oder sowas in der Art
 
Der einzige "Nachteil" ist nun, dass wenn man eine neue Grafikkarte haben will oder einen neuen Prozessor, gleich "beides" neugekauft werden muss. Naja, vielleicht wird ja dann auch mal eine Grafikkarte bzw. eine GPU-CPU Kombination dafür sorgen, dass man eine Grafikkarte nicht alle 3 Monate neukaufen muss, um aktuelle Spiele in guter Grafik sehen zu dürfen. BTW: Quelle bitte.
 
@icetea: Noch ein Nachteil das somit eigentlich die ganze Sparte der Grafikkarten-Hersteller wegfallen würde und somit die Arbeitsplätze.
 
Wenn aktuelle GPU´s wesentlich schneller sind als aktuelle CPU´s wäre dann nicht der logische Schritt eher der, die CPU abzuschaffen und dafür ne GPU einzusetzen? Mal logisch betrachtet so? :)
 
@ThreeM: CPU = Central Prozessing Unit : GPU = Graphic Prozessing Unit somit würde in diesem fall der nahme GPU wieder zu CPU werden. was du meinst ist die eingesetzte chip technik der GPUs auf die CPUs zu übertragen ... nur genau das ist ja der kasus knaktus :-) oder wie auch immer... AMD hat genau das vor.. weil 1zu1 kann man aus ner GPU keine CPU machen wegen Einsprungsadresse-Stromfehlberechnungskontrolle und co. siehe bootvorgang ... und nätürlich wegen paar berechnungs wegen die die GPU so nicht kann... fürt zu weit egal .. ich finde die idee aufjedenfall genial zumal weniger platz gebraucht wird ... meiner meinung nach könnten sie gleich auch noch north und southbrige dort unterbrigen soviel mehr aufwand wäre das nicht ... dann würden auch endlich durchgängig standarisierte mainboards rauskommen und damit könnten auch laptops leiser energie effizienter und wesentlich kleiner werden !!!!! Geniale sache !! alles auf einem chip ! die herstellungs qualität dürfte dann aller dings nicht so misserabel wie bei derzeitigen chips sein ...naja...mal sehn.
 
@tux-züchter: Die Northbridge hat AMD ja bereits zu großen Teilen integriert (Speichercontroller).
 
Das wär ja oberhammer. Affengeil :)
 
Wenn im GPU Teil hochgeschwindigkeitsberechnungen gemacht werden dürfts Bild dann aber ruckeln :) Unterstützt eine AnwendungsSoftware überhaupt schon den speziellen Hardwarezugriff ? Da wird noch viel erklärungsbedarf sein obwohl ich die Entwicklung ansich gut heisse, die einzigsten Miesmacher werden dann wohl nur die üblichen Verdächtigen sein.
 
hm soso, interessant ^_^
 
Für mich als interessierter Leie stellt sich das eher so dar, daß der Kern in so einem Verbau nicht klassisch mit einem CPU-Kern vergleichbar ist. Vielleicht sind eher eine bestimmte Anzahl von kleinen spezialisierten Bereichen vorhanden die über nen Internen Bus mit der HauptCPU in Verbindung stehen. Hier wäre auch die Frage ob ein unspezialisierter Bereich der per Microcode (siehe auch Transmeta) "geladen" wird die gewünschte Flexibilität in Sachen "Grakaerweiterung" bringen könnte (dazu käme natürlich auch die Frage der Performance). Dann kauft man beim Händler keine neue Graka mehr, sondern ne CD mit dem entsprechend Code drauf der dann in die "Recheneinheit" geladen wird. Der Speicher könnte dann evtl. wirklich auf nem Steckplatz sein, allerdings wird sich erst noch zeigen müssen ob die Leitungsverluste dann nicht viel zu hoch sind. Von DDR3 oder DDR4 Speicher als normales RAM sind wir ja auch noch ein ganz schön gutes Stück weit weg. Ansonsten finde ich das Zusammenführen einzelner Spezialbereiche durchaus löblich.
 
@PowerPyx: Ich denke jetzt mal deine Idee weiter: Man könnte dann je nach Bedarf den Anteil vom Unspezialisierten CPU-Breich regulieren. Wenn man viel Grafikleistung benötigt schaltet man 90% von diesem Bereich auf Grafikberechnung um und wenn man viel KI berechnung braucht regelt man die Grafik wieder runter und erhöht den KI-Anteil. Vorraussetzung ist natürlich, dass man solche "unspezialisierten Bereiche" durch Mikrocode schnell anpassen und einstellen kann.
 
@demmi: ja entweder manuell oder "automatisch" - sprich das Spiel / die Anwendung nimmt die Regulierungen / Einstellungen vor. Du hast natürlich recht - wie weit sich sowas z.b. im laufenden Betrieb realisieren liese wäre eine wichtige Frage bei dem ganzen Gedankenspiel.
 
@PowerPyx: Ich dachte da schon an 'ne Automatik ^^ Manuell mit Schiebereglern rumspielen wäre ja doch ein bisschen blöd *g* Aber ich hab mich ein bissl unpräzise ausgedrückt, sry :)
 
@demmi: *lach* das beruht nun auf Gegenseitigigkeit :) Ich wollte damit gar nicht "rückfragen" ob manuell oder automatisch, sondern dies als "Option" im Raum stehen lassen. ^^ sorry für den "Fallstrick". War keine Absicht. Gruß Pyx.
 
Das riecht so innovativ :) da bin ich auf einmal so stolz auf meine AMD/ATI equipment :D
 
Ich erinnere mich an Tomb Raider 2 mit 3D dank MMX von Intel, um 3D ohne 3D-Grafikkarte zu erzeugen. Recht langsamer als sonstwas (natürlich schneller als Software). Ich glaube, die Idee ist nicht neu oder?
 
Warum nicht gleich nen 500 MHz FPGA mit ner ordentlichen ANzahl an Slices auf das Mainboard packen, dann müssen halt mehr Leute VHDL lernen :P
 
@TPW1.5: Erklär mal auf Deutsch bitte :)
 
@demmi: Das war Deutsch *zwinker*. Naja, das Problem ist doch: ine CPU ist ja schön und auch ganz hübsch schnell, aber eben ein viel zu allgemeiner Rechenknecht. Deshalb gibt es für vieles Beschleunigerkarten, n ehmen wir H.264 dekodierung als Beispiel. Ein vor 3 Jahren aktuelle Rechner wird, zumindest bei HD-Inhalten einfach nciht mitkommen. Baut man eine Zusatzkarte ein, schon geht's. Aber man will ja schließlich nciht x Zusatzkarten brauchen. Also es gibt Chips deren Logik ist reprogrammierbar. Eine "Programmier"sprache dafür ist VHDL (besser ist es VHDL als Beschreibungssprache zu bezeichnen). Damit ist es im Prinzip möglich jetzt ein H.264 Video zu dekodieren und 15 Sekunden später (nach einer Reprogrammierung) eine FastFourier-Transformation hardwarebeschleunigt zu machen. Hoffe das war jetzt verständlich genug.
 
Mich würde mal interessieren wie der 64-Bit-Prozessor hieß, den AMD Anno 1999 eingeführt hat.
 
@TiKu:
1999 wurde der K7 eingeführt, die 64bit Schiene kam bei AMD erst 2003 in Form des Opteron. die ersten 64bit CPU's gab es schon 1991, diese waren nur keine x86.
Glaube 1997 gab es den ersten PC im Handel mit einer 64bit-CPU, bei VOBIS der Alpha-PC, man brauchte dafür auch ein spezielle NT-version (da kein x86).
 
:S Wundert mich hab vor kurzem mal drüber nachgedacht wiso das es net gemacht wird bin dann zum schluss gekommen wird schon seine gründe haben... Die Grafik wird e wesentlich schneller sein so, es macht ja e alles den weg über den CPU von demher geht das schneller da jeder milimeter Kupfer oder sonst etwas die leistung drastisch senkt... Auser man kühlt das Kupfer auf -zimlichkalt ab dann hats keinen wiederstand mehr :)
 
DEN CPUGPU-KÜHLER WILL ICH SEHEN! :) grins
 
@cornelis: Das sollte kein Problem darstellen bei der 65 nm technoligie... Mein GPU ist Passiv gekühlt den CPU würde ja Theoretisch auch gehen... Zudem müsste der GPU dann nichtmehr so hoch getaktet sein da er näher am geschehen ist wodurch auch weniger abwärme entsteht...
 
Die Aussage, GPUs wären wesentlich schneller als CPUs ist irreführend, denn GPUs sind Spezialprozessoren, bei denen ganz bestimmte Operationen optimiert sind (Vektor- und Matrixoperationen, Winkelberechnungen, Rasterisierung, etc.), und die bereits in sich stark parallelisiert sind. Dazu haben sie eine sehr schnelle Speicheranbindung. Sie sind keine echten Allzweck-Prozessoren: Auch wenn die Shadereinheiten inzwischen sehr leistungsfähig sind, sind sie immer noch auf die spezielle Aufgabenstellung der GPUs ausgerichtet. Selbst GPGPU-Anwendungen sind ausschliesslich die Applikationen, die von den speziellen Fähigkeiten der GPUs (nicht nur der hohen Parallelität) profitieren. CPUs können aufgrund ihrer Aufgabenstellung da nicht mithalten, können dafür aber mehr. Die Frage ist höchstens, wie nahe man diese zwei unterschiedlichen Designs mit Multicore-Prozessoren zueinander hinführen kann.
 
Ich hab vor ca. 3-4 Monaten einen Bericht im Fernsehn gesehen über IBM. Die hatten einen Prozessor der bei Raumtemperatur 150 GigaHerz und bei Stickstoffkühlung bis -50°C sogar 300 GigaHerz schafft.

Dort wurden auch die grafischen Elemente direkt auf dieser CPU berechnet.

Klingt für mich so, als würde AMD jetzt das gleiche machen wie IBM.
 
@Executter: War es wirklich ein Prozessor oder vll. doch nur ein einzelner Schaltkreis bzw. ein einzelner Transistor? :)
 
@Executter: Es war nur ein Transistor.
 
So schön und gut die Entwicklung ist aber der Preis wird wohl mit der Leistung auch stark ansteigen ... das kann sich dann so ein armer Arbeitsloser (wie ich :-( ) und ich glaube auch einige andere nicht mehr leisten. Bin ja Heil Froh endlich ne 64 bit CPU zu haben. Und schon kommt wieder was neues. Naja Fortschritt lässt sich zwar nicht aufhalten, zum Glück natürlich aber der Preis steigt so rapide mit der entwiklung und neu erschaffungen dass das echt zu Teuer wird mit der Zeit.
L.G. L!zzArd
 
Mich würd mal interessieren wie die EU das ganze sieht. Microsoft bekommt andauernd was zwischen die Hörner wenn sie zusätzliche Software in Ihr BS einbauen wollen von wegen Gleichberechtigung anderer Hersteller usw. Und nun will AMD die Sparte der Grafikkartenhersteller quasi ausrotten? Könnte lustig werden :)
 
@Boonlike: So schnell funktioniert das nicht mit der Ausrottung , die Spezialrechenwerke werden nicht so schnell sein um deinen Highend Egoshooter flüssig darzustellen. Bei diesem Thema geht es eher darum Spezialberechnungen im Hauptprozessor sehr schnell auszuführen.
 
Zitat: "..Da aktuelle GPUs deutlich schneller sind als aktuelle CPUs.."
 
was hat das wohl zu bedeuten? oO
 
@lorenor-zorro: Du hast den Edit-Button nicht gefunden ?!
 
@lorenor-zorro: leider nicht.. *gg* war wohl zu eilig ^^
 
ATI hat doch mit AVivo eine Sache am laufen, die es theoretisch erlaubt Berechnungen auf der Grafikkarte auszuführen. Warum geht da die Entwicklung der Software nicht voran ?
 
Mal kurz Nachdenken.... Gab es nicht schon einmal einen Versuch, so eine eierlegende Wollmilchsau namens Cyrix Media GX auf den Markt zu schmeißen? Wie war das noch? Das Teil brachte kaum Performance und wurde nur ziemlich heiß.. Es mag ja sein, dass man heute mehr Erfolg bei der Integration mehrere Dinge in ein Chip(-gehäuse??) hätte, doch sollte doch jedem klar sein, dass allein der Ausfall einer Komponente dann dem Ausfall des ganzen Chips gleichkäme und Ersatz demnach unnötig teuer würde. Also doch nur eine Gewinnmaximierungsstrategie?
 
@ffx: fällt bei dir so oft etwas aus? Bei mir war weder GPU noch CPU jemals abgeraucht.
 
@Kirill: Oft nicht... Ich erinnere mich aber daran, dass die Mobilty X700 im 8 Monate jungen Laptop die Grätsche gemacht hat (wurde auf Garantie ersetzt). In dem Moment wäre dann, wenn's in das Gehäuse der CPU integriert wäre, die noch funktionierende CPU mit ersetzt werden. Ein nicht unerheblicher Kostenfaktor in dem Moment, da die Kombi-Prozessoren (ich nenn sie mal so) sicherlich recht teuer sein werden. Ich sehe das halt aus dieser Sicht :)
 
Also ich kapier das nicht mehr. Bei Festplatten war der letzte Fortschritt, von paralleler Verarbeitung zu serieller Verarbeitung zu wechseln (EIDE zu SATA). Serielle Verarbeitung ist also auf einmal schneller als parallele. Bei Grafikkarten gab es mal Extra Beschleuniger (Voodoo). Die wurden dann aber in die Grafikkarte integriert. Zur Physikberechnung gibt es dafür nun extra Karten. Die GPUs sollen nun in Zukunft wiederum besser arbeiten, wenn sie nicht auf Extra-Karten sitzen.

Kann mir das jemand erklären? Mal so, mal so, mal integriert, mal mehrere Units, mal parallel, mal seriell...laufend wird etwas als DER Durchbruch angepriesen, was einige Jahre davor noch als veraltet galt. Und umgekehrt.
 
Find ich zwar gut aber zahkt man dann nich in zukunft doppelt.... einmal für den CPU+GPU und einer extra Grafikkarte für bessere berechnung.... is doch scheiße oder nich..... (zwar logisch gut aber praktisch ne abzocke).
Und was macht man wenn man zwei komponenten hat die sich untereinander nicht verstehen.... muss man dann erst seine bevorzugte firma wechseln oder was..... also ansich is das zwar nich schlecht aber wer bezahlt bitte soviel geld..... selbst normale grafikprogramme brauchen leistung. :-§ noch mal üblegen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles