Studie: 2013 lösen Multichip-CPUs Onboard-Grafik ab

Prozessoren Laut den Analysten von Jon Peddie Research wird die herkömmliche Onboard-Grafik spätestens 2013 von so genannten Multichip-CPUs abgelöst, wie sie derzeit von Intel und AMD entwickelt werden. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das finde ich auch mal brauchbar und hätte es nie gedacht das es sowas mal geben wird das eine gpu in ein er cpu drin stecken wird
 
@303jayson: Da hast du recht, wobei vor 20 Jahren hat noch keiner gedacht, dass es einen Grafikchip geben wird. Wahrscheinlich ist die GPUCPU in wenigen Jahren genauso gewöhnlich.
 
@303jayson: gute sache mich würd dann aber noch interresieren wieviel watt das ding braucht. Im gesammten sicherlich weniger als mit einem seperatem grafik chip
 
@ZECK: Später dann GCPU genannt !
 
Das hätte ich den Leuten auch ohne eine Studie sagen können
 
ja, nur blöd das windows 7 keine hybrid grafikkarten ab Werk unterstützen wird ^^
http://winfuture.de/news,43419.html
 
@orioon:

Und wieso muss ein OS überhaupt Treiber ab Werk liefern? Das einzigste was das OS mitbringen muss sind Universaltreiber damit man die finalen vom Hersteller (welche eh aktueller sind) installiert werden kann. Sprich dafür muss ich heutzutage einfach mal ins Internet kommen um dann von dort aus alle Treiber zu aktualisieren. Aber GB weise Treiber auf die Platte schaufeln wie es bei den Vorgängern der Fall war, ist hoffentlich endlich mal vorbei. Man kann sich das System auch anders zumüllen.
 
Fragen zum Text: 1) Warum schreibt ihr im ersten Absatz von Intel? Ist es nicht so, dass sich AMD bereits früher und intensiver mit diesem Thema beschäftigt hat? Intel zog doch lediglich nach...
____2) Im Dritten Absatz steht, dass die Nachfrage nach dedizierten leistungsfähigen Grafikkarten weiterhin steigen wird. Weshalb sollte eine Hybrid-CPU bzw. -GPU denn den Verkauf von separaten GPUs steigern?!
 
@knoxyz: sehr gute Frage! Ich wette du wirst von keinem WF-Reporter jemals ne Antwort erfahren... wie immer...
 
@knoxyz: jep sehe ich auch so, AMD ist an seinem seinem "FUSION" schon sehr lange beschäftigt, man munkelt dass es auch ein hauptgrund für die übernahme von ATI war...
 
@knoxyz: ja sicher war das der Hauptgrund. Aber leider konnte keiner zu der Zeit ahnen, wie schlecht es ATI zu der Zeit ging. Hätte AMD noch ein Weilchen gewartet, hätten sie ATI um einiges günstiger kaufen können. Schade nur dass Fusion so lange auf sich warten lässt. Zumindest haben sie aber mit dem 780 chipsatz eine gute Zwischenlösung gefunden.
 
@CruZad3r: Wie man sehen kann hat WF doch reagiert, danke :-)
Zwar wird Intel zuerst, und damit mehr betont gekannt, aber wollen wir's nicht übertreiben ^_^
 
Ich sehe schon, Nvidia wird gegen Intel eine Kartellklage einreichen :D
 
@Kirill: wo wurde deiner Meinung nach ein Kartell gegründet?
 
2013 löst sich meine Hornhaut endlich ab...
 
@GordonFlash: da wirst du aber nix mehr sehen können :-)
 
GPUs in CPUs sind kein ersatz zu der doch extrem starken Grafikkarte .
 
@overdriverdh21: nur mal zur Info. Moderne CPUs werden mit 2,5-3Ghz getaktet. Eine GPU "nur" mit durchschnittlich 700-800MHz. Jetzt pack doch mal eine ATI 4850/70 auf die DIE und takte sie mit der gleichen Geschwindigkeit wie die CPU was meinste welche ist schneller? OnCPU oder extern. Abgesehen von der Bandbreite und Geschwindigkeit des Speichers.
 
@SpiritOfMatrix: Eine Leistungsbewertung auf Grundlage der Taktfrequenz ist zwischen CPU und GPU überhaupt nicht aussagekräftig. GPUs sind Vektorrechner, d.h. sie wenden eine Operation auf mehrere Datensätze gleichzeitig an, CPUs müssen die Operation nacheinander auf die einzelnen Datensätze anwenden. Bestes Beispiel sind Bildoperationen auf die drei Farbanteile. In der GPU geht das in nur einem Zyklus, eine CPU braucht da mehr als das dreifache der Zeit. Deshalb hängt die von dir aufgeführte 800Mhz GPU in solchen Fällen deine ATI CPU um längen ab. Selbst bei 3 GHz, denn neben der eigentlichen Operation muss die CPU auch noch viele Zwischenoperationen durchführen (laden, zwischenspeichern, schreiben.... usw)
 
@TommyFive: Was ? Bitte erklär mir und wahrscheinlich auch vielen anderen, was das mit der Integration der Garka in die CPU zu tun hat. Wieso sollte plötzlich die CPU diese Funktion übernehmen, wenn es die Grafikeinheit besser kann? Die werden das Rad doch nicht nochmal erfinden! Im gegenteil um was es denen wirklich geht, ist es die Funktionen näher an die Eigentliche CPU zu bringen. Um diese effizienter zu nutzen, um Latenzen zu minimieren und anderen Programmen, außer Grafiksoftware, besser(leichter) bereit zu stellen. Ein Hauptgrund ist außerdem "DX11- spätere Versionen" wo unter anderem Physik(nur ein Beispiel) hinzukommen wird. Außerdem wenn eine schon vorhandene Schaltung, die schon mit z.B. 800MHz getaktet ist auf 3000MHz beschleunige, wird diese sehr wohl schneller abgearbeitet. Die große Frage die sich nun stellt, wie hoch wird die Leistungsaufnahme bei eine so dramatischen Tackterhöhung sein? Und ist das überhaupt machbar? Geht es, das man die Taktraten so anhebt, ohne den Anschluss des Speicher zu überlasten bzw. gibt es überhaupt Speicher der diese Bandbreite bereit stellen kann?
 
Für mich stellt sich mehr die Frage: "Wann fangen die Chiphersteller(Entwickler) endlich an, frei konfigurierbare CPU her zu stellen"? Ich meine einen Prozessor, der nicht mehr im herkömmlichen Sinne fest verdrahtete Schaltungen und Funktionen besitzt. Die Technik ist nun fast so weit. Wäre doch schön, wenn ich 5 mathematische Co.-Prozessoren brauche, so werden die Transistoren halt so geschaltet, das man sie hat. Oder ich brauch 5 Shadereinheiten und schwups da sind sie. Machbar wäre es. Aber dann könnte man ja nur noch am Tackt schrauben oder die Menge der Transistoren erhöhen. Was ja nicht im Sinne der Marktwirtschaft ist :P Könnte mir auch CPUs in der 3. Dimensionsbauweise vorstellen :) Dann hätte das ganze hier - Fusion hin oder her - ein ende.
 
@SpiritOfMatrix: machbar wäre es? Hast du ein Link oder wieso glaubst du es ist machbar? Ich kann grad nicht nachvollziehen, was du damit meinst. Einfach einen Prozessor der nur Transistoren hat und sonst gar nichts und die Software stellt das ganze so ein wie sie es braucht? Und wie soll das bitteschön gehen? An 3d hab ich selber schon gedacht, einfach 2-3 Layer übereinanderlegen. Ich denke dann gibts aber Hitzestau oder die Produktionskosten steigen exponential
 
@CruZad3r: nein ich habe keine Links. Da es ein Gedankenblähung war/ist. Stelle es mir so vor, das jeder Transistoren mit seinen Nachbarn verbunden ist. Also wie ein Gitter. Glaube auch mal gelesen zu haben, das Transistoren mittlerweile mehr als nur zwei Zustände haben können(an/aus). So könnte es doch auch möglich sein, das ein Transistor die Möglichkeit hat sich auf "durchschleifen" zu stellen und so komplexe Schalungen und Funktionen ermöglicht werden. Zum Layer: Hier gib es mittlerweile die Möglichkeit der "Nanoröhren". Es gibt gute ausgefeilte Flüssigkeitskühlungen. Wenn man nun das Wasser(oder was auch immer) anstatt oben über die CPU laufen lässt durch die Nanoröhren in der CPU, ist die Kühlleistung sogar besser. Weil ja die Hitze schon am Entstehungsort abgeführt wird. Zur Schaltung der Transistoren: da ist es sogar zwingend nötig, das über Software zu machen. Da mir keine andere Möglichkeit einfällt. Zum kosten teil: das ist wie mit allen anderen Sachen, die Masse macht es. 1986 oder so hat ein einigermaßen gut PC um die 2000-3000DM gekostet. Heute bekommst du einen PC mit der x fachen Leistung schon für 300-400 Euro. Also wird das nicht ein Augment sein, um so etwas "nicht" zu entwickel. Aber wie gesagt: "es ist nur ein Blähung". :)
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.