GPU-CPU-Kombination von AMD heißt offiziell "Fusion"

Prozessoren Vor langer Zeit kündigte der Chiphersteller AMD eine neue Generation von Prozessoren an, die mit einem integrierten Grafikchip ausgestattet sein wird. Die bisher als Codename verwendete Bezeichnung "Fusion" wird nun auch der offizielle Name. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Der Name ist ja der Knaller - wie lange wohl die Marktforschung betrieben haben ^.^
 
@Michael350:
aber hallo, das dacht ich mir beim Durchlesen auch so. Schade dass es keinen Nobelpreis für Originalität git. Fusion... brilliant!
 
@Michael350: Wenigstens heißt es nur Fusion und nicht iFusion. Den dieser Buchstabe scheint mittlerweile ja der letzte Renner bei den Marketingfutzis zu sein. (wie lange die "Denker" bei Intel wohl für i7 benötigt haben) ^^
 
@Michael350: Der Fusion hieß schon immer Fusion und wurde nur kurzzeitig unter dem Namen Swift entwickelt... Ich finde das ist endlich mal ein sinnvolelr Name in der IT-Branche.
 
Hört sich gut an aber für Gamer PCs wird das wohl nichts denk ich mal.
 
@Motherbrain: "denk ich mal" - genau da fangen dir probleme an, du hast versucht zu denken. Das überlässt du einfach an leute die das auch können zb. AMD. Nagut ich hätte jetzt fragen können "Wie kannst du in die zukunft sehen?" oder "Warum soll ein GPU(!!!!)-CPU Kombi nichts für spiele sein?". Aber so ist das viel lustiger.
 
@sabisabi: da braucht man nicht lange in die zukunft sehn, um zu verstehn dass des was davor auf einer oder 2 Grakas drauf war schon vom platz her nicht in einen cpu-kern reinzubekomme ist. leistung ja aba halt nicht viel mehr als moderne onboardlöungen. stromverbrauch wär spannend.
 
@sabisabi: Gegenfrage, warum sollte eine GPU-CPU Kombi was für Gamer sein?? und das mit dem denken ist bei dir ja wohl auch nicht weit her....
Aber halt du hast recht, Spiele aus dem Jahr 2000 kannst du auch mit Fusion Zocken! Aber den High end Markt wird Fusion in der ersten Generation wohl kaum dominieren geschweige denn umwerfen!
 
@Motherbrain: Vieleicht mal an einen neuen Sockel denken und dann braucht man sich auch um den Platz keine sorgen zumachen. Der Fusion Chip kann doch wesentlich größer werden weil man ja dann keinen Platz mehr für die riesen Grafikkarten braucht.Das hat zum Vorteil das auch leistungsfähige Gpus verbaut werden können. Darausfolgt auch das man sich um die Kühlung keine Sorgen machen muss da dann auch der Kühlkörper größer werden können.
 
@die meisten: Also ich habe im Text nichts gelsesen, was auf die Größe des Prozessors schließen lässt. Er könnte also durchaus 150x150 sein. Das einzige Problem wäre der Grafikspeicher, der auch auf den Prozessor müsste oder halt vom RAM abgeknabbert wird. Bei letzterem müsste er aber noch schneller werden. Wenn diese Probleme (und einige kleine mehr, wie Platz auf dem Board oder Hitzeentwicklung) gelöst sind, dann steht einem platzsparendem, aber trotzdem schnellem PC mit allen wichtigen Komponenten in 2-3 Teilen nichts im Wege. Es ist als nicht gesagt, dass es kein Gaming-Rechner werden kann, allerdings gehe ich auch davon aus, dass zuerst der Office-Bereich davon profitieren wird.
 
Is doch nur aufgebohrte OnBoard-Grafik. Fusion wird sicherlich meilenweit hinter herkömmlichen Grafikkarten bleiben und ist damit nur was für Durchschnittsrechner. Für Gamer zu schwach und für Büros unwichtig.
 
@MAPtheMOP:
Wenn dem so wäre müsste man kein so ein TamTam um die Sache machen. Wenn es richtig angegangen wird gibt es hier mit Sicherheit Potential v.a. der Laptop bereich dürfte hiervon profitieren. Also erstmal abwarten und nicht über ungelegte Eier urteilen...
 
@MAPtheMOP: Ohne TDP und Preis kannst du diese Aussage nicht machen, ausser dass es kein Gamer Chip ist...
 
@MAPtheMOP: Aber irgendwann muss man ja einen Anfang machen. Wie weit das entwickelt werden kann und wie leistungsstark die Sache wird, kann man doch jetzt noch nicht sagen. Also erstmal abwarten und nicht vorschnell urteilen.
 
@MAPtheMOP: Ich vermute mal es wird wahrscheinlich ein HD-Chip sein, welcher? Abwarten!
Aber für Notebooks seh ich da gute Chancen, da keine Extragrafikkarte mehr notwendig und damit eine Hitzequelle weniger. Und die Onboardlösungen waren ja bisher bescheiden.
 
@MAPtheMOP: Wenn man die Chips der fehlenden Grafikplatine auf dem Mainboard unterbringt wäre das sehr interessant für sonen kleinen Wohnzimmerrechner. Frag mich sowieso wie das gehen soll ich mein wo ist der Grafikspeicher und der Rest? Wird dann wieder der RAM dafür missbraucht.
 
@MAPtheMOP: sicherlich zu schwach für gamer. aber für eine office oder laptop lösung einwandfrei durch das stromsparen. nicht jeder der einen pc kauft, braucht ihn zum spielen. und bei den aktuellen stromfressern die unsere bilder auf den monitor zaubern ist das mal was praktisches
 
@oohlala: ja wird sicher voll schwach für gamer. Vorallem wenn das ein quadcore wird und bis dahin quadcore cpus in spielen besser unterschtützt werden. Das ding wird niemals eine single gpu karte schlagen können... NIEEEEMAAAALS. Wer kommt auf solche ideen.
 
@MAPtheMOP: Hier wird auch nich davon geredet das die GPU dann Crysis fähig ist,sondern hier werden andere Märkte angesprochen.Laptops.Handhelds meinetwegen Navis und weiß der Geier was noch alles.
Vorallem in Forschungseinrichtungenwär das doch Perfekt.
Der Technologische fortschritt zählt hier einfach :)
 
@MAPtheMOP: Ihr seid ja welche. Oh mann. Jetzt stellt euch mal vor was der Atom dagegen zusetzten hat mit seiner Krüppelgrafik. Ups Intel Grafik ist immer ein Krüppel. Hier wird nicht der Gamer angesprochen sondern der grosse Laptop Markt und mini Pc-Markt. Und jetzt mal zur Info der Grafikkern wird ein RV8xx sein das lässt Raum für Spekulationen(Tempo) aber für Intel reicht es dicke. Und ne Nvidia wird sich dan auch keiner mehr an tuen den die CPU/GPU hat dann ein PCIe 16x zugang für eine bessere Graka.
 
@MAPtheMOP: Ich würde keine Schätzungen dafür abgeben... Dadurch dass CPU und GPU auch physisch so nah beieinander liegen und wesentlich angepasster aufeinander sein werden würd ich sagen, dass die Lösung auf jeden Fall deutlich schneller sein wird als die onboard-Sachen
 
@MAPtheMOP: Ich finde es schon echt interresant wieviele Leute wir hier auf Winfuture haben, die sich mit Chipdesign so verdammt gut auskennen. Wenn man sich das hier so durchliest könnte man meinen ihr seid selbst unmittelbar an der Entwicklung beteiligt. Also mir ist ein intelligentes leistungsfähiges Hardwaredesign alle Male lieber, als dem derzeitigen Motto : "Größer lauter heißer Stromhungriger". Da frage ich die Experten doch mal wo denn jetzt der himmelsweite Unterschied zwischen der Rechenleistung einer Cpu zu einer Gpu steht... bzw. da steht das Cpu und Gpu vereint werden soll...steht da was von die komplette Grafikkartenplatine wird in den Prozessor gequetscht? NEIN !
 
wer knackt das passwort? :P
 
@LuckY1710: habs schon mit amd und fusion probiert klappte nicht :D
 
Ähm das wird ein Prozessor! und keine Grafikkarte :) :D:D xD, eigentlich wäre das doch voll sinnvoll wenn man bedenkt das diese Fusion durch die GPU in bestimmten Aufgabe die Leistung steigert. Und für Office Notebooks perfekt !^^
 
Wie sieht das Konstrukt in einem PC aus, wenn hier Fusion eingesetzt wird? Dann wird es hier doch möglich sein eine extra PCI-E Graka anzuschließen wie bisher auch. Ich stell mit das so vor das der GPU in der Kombi die CPU bei den Berechnungen unterstützt und so eine Leistungssteigerung erzielt wird. Wär klasse wenn das hinhauen würde. Oder sind meine Träume Schäume?
 
@Drnk3n: Garnich mal so abwegig der Traum und wenn dan rumgeIdlet wird,könnte man ja die PCIe Karte abschalten bzw runterfahren.Aber ich glaub dann siehts Düster aus mit OCEN,denn da wirft sich mir die Frage auf,ob man Seperat CPU/GPU übertakten kann oder nur in einem bestimmten Verhältniss...Wir werdens sehn

It´s done When it´s done !
 
@Drnk3n: Die CPU hat eine PCIe 16x SChnittstelle also sollte man auch eine zusätzliche Graka laufen lassen.
 
.....können.
 
AMD trägt mit dieser Kombo doch nur der laufenden Entwicklung Rechnung. Die wäre z.B. das es tatsächlich Leute gibt, welche anhand von diversen Benchmarks herausgefunden haben wollen, dass die GPU wesentlich mehr Rechenoperationen als ein CPU durchführen kann (noch dazu komplexere). Irgendwann ist auch bei den Prozessoren die Rechenleistung erschöpft und die Anzahl der Prozessoren kann nun mal nicht gegen Unendlich gehen. Was bleibt ist dieser durchaus logische Schritt. Mehr Rechenleistung über z.B. GPU. AMD hat hier nichts von Gamer oder sonstwas PC gesprochen. Und davon abgesehen ist bis zum Release in 2010 noch viel Zeit. Wer weiß wie weit die dann sind in der Forschung für dieses Projekt?
 
Also ich seh schon die ersten Flamer in ein paar Jahren, wo Intel dann genau sowas auf den Markt bringt und damit viel schneller ist als AMD. Dann heisst es wieder "muhahaha amd geht kaputt" und "AMD hat aber damit angefangen"
 
Ich finde das sehr spannend was AMD dort versucht.Einige von uns wissen,das eine GPU mitlerweile mehr Power hat als eine CPU.Und wenn man diese beiden zusammen führt!!!!Alter schwede überlegt euch doch mal die Geschwindigkeit beim Convertieren von Videos! :)
 
@xyz: Wie wahr. Wenn dazu noch die Möglichkeit für CrossfireX und den damit verbundenen Stromsparmöglichkeiten in Kombination mit einer extra Grafikkarte besteht, dann ist das ja mal wirklich was neues und vorallem gutes.
 
Klasse, das könnte wieder die Pol-Position sein, leisten doch moderne GPUs ne Menge. Hoffe nur der Stromverbrauch bleibt dabei akzeptabel.
 
Hmmm wäre ja vielleicht sogar für Netbooks mit akzeptabler 3D-Performance interessant ..... also als ersatz für eine Graka kann man das Produkt sicherlich nicht sehen allerdings als nachfolger der OnBoard-Grafik ..... bin schon mal gespannt =)
 
Das wäre doch mal etwas für AMD!
Nicht schlecht diese Idee :-)
 
Fusion ? Kann man sich auch noch damit Rasieren ? Ich aktualisiere durchschnittlich meine CPU zweimal häufiger als meine Grafikkarte - Schnaps Idee also.
Es hat seit 1985 keine überzeugende Alternative zum modular aufgebauten PC gegeben. Vielleicht liegt das ja daran, das man das Rad nicht zweimal erfinden kann.
Jedenfalls hat sich an dem Grundaufbau Mainboard, CPU, Bussystem, Erweiterungskarten seit dem Nichts geändert - und bei Leistungsfähigen PC wird sich das auch nicht ändern.
Kompaktlösungen werden auf den Wohnzimmer- Media- Laptop- Konsolen Bereich beschränkt bleiben.
"Fusion" ist uninteressant für den PC-Gamer.
 
@Genghis99: Also ich wechsel meine CPU maximal alle 4 Jahre und meine Grafikkarte alle 2 Jahre :)
 
Was ich nicht verstehe ist, warum bei solchen Themen sofort alle schreien dass dies nichts für Gamer ist. Die PC Welt besteht nicht nur aus PC-Spielen, aber das verstehen anscheinend so manche Kiddys hier nicht.
 
Na da bin ich ja mal gespannt was AMD da schon wieder ausbrütet? Henri Richard hat ja mal in einem Interview dazu über einen "Next-Generation-Core" gesprochen, das lässt ja eigentlich darauf schließen das jeder einzelne Core auf der CPU über eine eigene GPU verfügt? Sollte das Gerät dann in etwa die Power einer Geforce 7600GS erreichen wäre ich schon mehr als zufrieden.
 
Wie originell... (ironic)
 
warum soll das nichts für Gamer sein, man kann ja weiterhin zusätzliche Grafikkarten einbauen und ist ja auch möglich das die intregrierte GPU beim Spielen rechenoperationen übernimmt (Crossfire ähnlich oder so) aber erstmal muss das Teil ja auch dem Markt sein und sind ja nicht alles Gamer hier bzw. der ein und andere wird sicher auch mal paar andere Sachen damit anstellen wo dann die "Große" GPU abgeschalten werden kann was wiederrum stromsparendes/leiseres arbeiten ermöglicht bzw. längere Akkulaufzeiten beim Laptop..., was sich sonst so daraus ergibt werden wir dann sehen!
 
Was ist so schlimm an einem kleinen Grafikchip auf dem Mainboard? Warum muß man das in die CPU mit reinpacken? Find ich ziemlichen Quatsch. Kann höchstens was für Embedded-Systeme sein. Aber ansonsten....
 
@DennisMoore: Du bist auch ein Vogel. Der FanBoYVogel nr.1. Intel bringt so eine CPU/GPU kombination 2010 auch raus. Also was mach die Schauklappen weg und die Augen auf. In zukunft gibts kein reine CPUs mehr.
 
@knuprecht: Es geht nicht um Intel oder AMD, sondern ums Prinzip einen Grafikkern mit in eine CPU zu packen. Ich seh da einfach keinen richtigen Vorteil, außer bei Embedded-Lösungen, wo selbst der Platz für den Graifkchip auf dem Mainboard knapp ist. Ich wär für eine reine CPU, einen kleinen Grafikchip aufm Board und einer reinen 3D-Beschleunigerkarte die bei Bedarf verwendet wird und ansonsten "schläft".
 
Ich warte immernoch auf so leistungsstarke Grafikkarten, dass man jedes Spiel auf 100 FPS locker spielen kann. Auch die Spiele, die erst in 2-3 Jahren rauskommen. Sowas als Fusion dannoch zu haben wäre doch klasse! Jeder mensch hat den gleichen Prozessor (Grafikkarte). Irgendwann kann man Spiele ja nicht noch realer entwickeln als dass sie es schon sind. Bessere grafik als Crysis kann ich mir nciht vorstellen. Das wäre doch dann schon RL !?!
 
@s3m1h-44: warum nicht glaubst du nicht das wir uns weiterentwickeln werden??
die werden neue grafikkarten entwickeln neue software usw. bin mir sicher das wir noch nicht am ende sind!
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles