ATI: Stromsparende Grafikkarten mit zwei Kernen

Hardware In einem Gespräch mit der Internetseite Golem.de hat ATIs Europa-Chef Peter Edinger Details zu einer neuen Generation von Grafikkarten preisgegeben. Diese sollen deutlich weniger Strom verbrauchen und mit zwei Kernen in einem Grafikchip arbeiten. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
vor allem sollte man auch wieder kleiner werden mit den karten. Freund vom Sli modus werd ich nie werden. Da sind zwei Kerne und weniger stromverbrauch nen guter ansatz
 
@Kalimann: ich freue mich auch darauf. Vor allem wenn man mit einem high-End PC wieder angenehm DVD schauen kann ohne Kühlgeräusche.
 
kann ich mit meiner passiven 7900gt auch^^ ansonsten nen zalman kühler drauf und das ding gibt auch ruh
 
@schischa: er sprach von high end
 
@Kalimann: haaaaaaaahahahaha
 
Wenn nVidia soetwas machen würde, würde ich dies sehr begrüßen. Soll kein bashing sein, hab halt nur für meine Zwecke (nicht gaming) mit nVidia bessere Erfahrungen gemacht. Aber trotzdem ein großes Lob an ATI für dieses Ziel. Wie sie schon sagten, es ging mit der Leistungsaufnahme deutlich in die falsche Richtung :P
 
@sevobal: es wird nicht lange auf sich warten lassen, da macht das auch nvidia. Verlust an Kundschaft mag keiner...
 
@sevobal: Wie "zivilist" eben schon sagte, wird das nVidia sicherlich auch in nächster Zeit aufschnappen - Auch wenn nVidia zur Zeit die deutlich stromsparenderen und damit kühleren Modelle anbietet.
Das mit dem geringeren Stromverbrauch hat aber natürlich dann auch wieder den Nachteil, dass man im Winter wieder die Heizung anmachen muss. :D
 
@Vyper: http://www.hartware.de/news_39375.html Mit dem G80 steht das Pendant schon in den Startlöchern ^^
 
@sevobal: Liegt daran, dass die Treiber von nVIDIA einfach deutlich besser sind. Habe selbst beide Karten schon gehabt, aber jeder muss es einfach bestätigen, dass die nVIDIA Treiber ein gutes Stück besser sind. Besonders der Linux Support und OpenGL. Schade ist das eigentlich, aber so ist das.
 
Ich wüsste nicht inwiefern die Windows-ATI-Treiber schlechter sein sollten als ihre nVidia-Pendants. Bzgl. OpenGL hat sich einiges getan und die Linux-Treiber sind auch ein gutes Stück besser geworden (wenn auch noch nicht auf nVidia-Niveau, richtig). Ich habe jedenfalls unter Linux keinerlei Probleme mit 3 Rechner mit ATIs drin und sie unterstützen schon X.org 7.1.
 
Ich dachte ATI solls schon bald nicht mehr geben !?
 
@DonElTomato: les dir ma das update durch
 
@Kalimann: Na dann auf zu neuen Taten :-)
 
die einzelnden quads rechnen doch eh schon unabhängig voneinander. das kann man doch gar nicht mit dualcore cpus vergleichen...
 
Kaum hat AMD ATi übernommen, sollen die ATi GPUs das werden, wofür die AMD CPUs lange zeit beliebt waren...Weniger energiehungrig und mehrkernig..sehr geil...
wenn die platinen jetzt noch kleiner werden, und ich mich nicht mehr entscheiden muss, ob ich entweder meine x1900 angeschlossen hab oder meine festplatten kühltechnisch sinnvoll eingebaut hab, dann halleluja...
 
Sehe keinen Grund von zwei OC 7900 GTX @ 1800 Mhz auf ATI um zu steigen, wer ein High End System hat schaut auch nicht auf die Stromrechnung ist mal so.
 
@SOLDIER: Es geht nicht ums umsteigen, aber auch deine Grakas werden mal zum alten Eisen gehören. Würdest du dann zwei "Elektroheizungen" kaufen (für die du dann noch Zusatz-Lüfter, Dämmplatten und ein neues Netzteil brauchst), wenn du die gleiche Leistung auch stromsparend, leise und kühl haben kannst?
 
@SOLDIER: vielleicht schaut derjenige aber aufs Zimmertermometer.
Selbst ein x1800 reicht schon um ne Dachwohnung zum Kochen zu bringen.
 
Energiesparender ist immer gut.
Sonst steht einen noch eine Horrorstromrechnung vor der Tür. :D
 
@Khamelion: Ich habe mir ein Strommessgerät gekauft :-)
 
@zivilist muss ich dir recht geben die neune chips werden alle zu heiß...
 
In naher Zukunft wird die GPU & CPU eh verschmelzen. Ähnlich dem CELL Prozessor. Das wird definitiv kommen - es führt kein Weg daran vorbei. Darin sollten sie Ihre Energie setzen. Und ich denke das AMD & ATI nun die allerbesten Vorraussetzungen dafür bilden (kann durchaus sein, dass AMD mit der Übernahme von ATI sowas schon im Hinterkopf hat). Damit hat man nicht nur eine hohe Performancesteigerung(durch viel höhere Busbreite) sondern auch einen viel geringeren Stromverbrauch.
 
@mr.return: Die ist schon klar, dass Du totalen Blödsinn redest? CPU und GPU haben absolut nichts miteinander gemeinsam. Weder den Cache, noch den Befehlssatz und erst recht nicht die Architektur. "Ähnlich dem CELL Prozessor." Mir scheint Du weisst nicht, was der CELL ist und vor allem wie er funktioniert. Btw: Die PS3 hat auch eine eigene GPU... Höhere Busbreite kann sein... Niedrigerer Stromverbrauch nein. Bitte nix schreiben, wenn man nicht weiss worüber...
 
@mr.return: ganz zu schweigen davon, und das weiß ich aus sicherer quelle, dass der cell prozessor ein kleines thermisches problemchen hat :zwinker
 
@brand10: Ach ja, wie war das mit dem Steine schmeißen...? 1. Habe ich ähnlich dem Cell gesprochen. 'ähnlich' nicht gleich 'genau so'. 2. Ist mir klar das GPU & CPU unterschiedlich sind, was aber nicht die von mir besprochene Verschmelzung/Implementierung in eine Einheit behindern würde - es wird machbar sein. Höre dir z.B. erst mal diese Sendung an http://tinyurl.com/z2xsd, danach darfst du hier noch mal posten - und es ist echt lachhaft wie du Leute anmachst und selber Stuss laberst. @TPW1.5 Der CELL Prozessor war als Bsp. für die Verschmelzung mehrerer Elemente von mir aufgeführt, mehr nicht. Das dieser selbst Hitzeprobleme hat ist mir eigentlich egal.
 
@mr.return: Jaa öhm,.. und eigentlich öhm, ehhh, ehh und ehhhh eigentlich... Mein Gott. Wenn ich dem Kerl ausm Podcast zuhöre, dann schlaf ich fast ein. 2 Stunden... Egal. Habs beschleunigt :) Ich glaube Du hsat die Sache etwas falsch verstanden. Es geht nicht direkt um die Kombination von GPU und CPU, sondern vielmehr darum, dass die CPUs so leistungsfähig sein werden, um die Aufgaben einer GPU übernehmen zu können. Bitte schreibs das nächste mal so, dass keine Mißverständnisse entstehen. Dann sparen wir uns unnötige Diskussionen, weil: mit dieser Therorie gehe ich mit. Die Idee dahinter wurde damals mal von Kyro umgesetzt. Die Kyro2 GPU hatte keine eigene Hardware T&L, sondern überlies diese Arbeit der CPU. Neu ist das Prinzip also nicht :) MfG
 
@brand10: Schön das du wenigstens mal reingehört hast - hätte ich fast nicht gedacht *gg*. Ok, ok, ob nun die GPU & CPU verschmelzen oder die CPU die Aufgaben der GPU übernimmt kommt doch dem Ergebnis fast gleich, sprich meiner Meinung von oben. Das man leider extrem darauf aufpassen muss, wie man was wo sagt ist leider so, aber eben nicht immer machbar und jedem Verständlich....ähhh, ich gelobe Besserung. :-) Trotzdem fand ich: "..., dass Du totalen Blödsinn redest?" & Co nicht gerade die feine englische Art. gl
 
@mr.return: Haste Recht, daher Sry. Ich glaube ich sollte keine Beiträge verfassen, wenn ich gerade gestresst bin :)
 
Irgendwie habe ich dieses kommen sehen, Dual GPU und Stromsparend.

Ich finds geil.

Edit

So etwa?
 
@overdriverdh21: Ich hoffe, dass Du diesen Kommentar nochmal überarbeitest :-)
 
Wird ATI dann auch mal endlich brauchbare Treiber bringen oder bleiben sie so ein schrott wie jetzt?
 
@lordfritte: stöhn......der Schrott sitzt meistens vor der Fuselkiste. :-)
 
Hier wurde öfters erwänt AMD wird für seine Stromsparenden CPUs geliebt. Dann schaut euch mal die Intel Core 2 Architektur an. Ist die z.Z. beste x86 und x86-64 Architektur der Welt.
 
@billgatesm: Wurde genau 1 mal erwähnt und derjenige schrieb "lange Zeit beliebt"... Das ist nicht gleich ewig. Abgesehen davon: Was hat das mit Grafikkarten / der News zu tun?
 
@billgatesm: Alles schön und gut, das war aber jahrelang anders (NetBurst) und die Teile sind soweit ich weiß noch nicht wirklich verfügbar.
 
Also ich find es einfach super wenn ATI Nvidia wieder mal einen Schritt voraus ist!
 
@ATI4ever: Dafür hat ATI eine halbe Ewigkeitgebraucht für die integration des SM 3 gebraucht. :-)
 
@tjdg: HDR+AA? HQ-AF?
 
Die Überschrift ist ja falsch! "ATI: Stromsparende Grafikkarten mit zwei Kernen". Es müsste doch "AMD: Stromsparende Grafikkarten mit zwei Kernen" heißen, oder nicht? :-)
 
Wieso? ATIs Name bleibt vorraussichtlich. Wäre es dämlich den Namen einfach abzugeben. Das Image ist schließlich schon da und ein etablierter Kundenkreis inkl. allem drum und dran ebenfalls.
 
Hm, ich weiß ja nicht. Aber wenn man bei google nach Geforce8 sucht, sind diese ganzen Vorhaben von ATI bereits in der nächsten Generation von Nvidia, die ersten Gerüchten zu Folge schon im Herbst marktreif sein wird und zum Weihnachtsgeschäft kommen soll. Da kann doch irgendwas net stimmen. Die nächste Generation von beiden kommt auf jeden Fall dieses Jahr, damit DirectX10 Hardware pünktlich zu Vista im Laden ist. Quelle: http://www.hartware.de/news_39375.html
 
Diese Entwicklung bei Grafikkarten würde ich sehr sehr gut finden. Graffikkarten haben heutzutage einen zu hohen Stromverbrauch. Ich warte schon auf die übernächste Generation.
 
immer wenn ich den namen vom ati europa chef lese bekomm ich lust auf ein frisches erdinger weißbier :D lol
 
wenn das wirklich was taugt (und bald rauskommt) werde ich wohl zu ati greifen statt nvidia :)
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte