AMD setzt für High-End-Grafik auf Dual-GPU-Lösungen

Hardware Wenn es darum geht, aus einer Grafikkarte möglichst viel Leistung heraus zu holen, will man bei ATI künftig vor allem auf die gleichzeitige Verwendung zweier Grafikprozessoren auf der gleichen Platine setzen. Kommende High-End-Grafikkarten von ATI ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wenn da mal nicht wieder NVIDIA mit der 9000er Reihe im März einen Schritt voraus ist...
 
@bioforge: Eben so sieht es aus. NVIDEA hängt ATI ab und INTEL den AMD. Das was ATI/AMD gerade auf die Beine stellen ist einfach nur lächerlich.
 
@radar74: Eine undifferenzierte Aussage. Was die Leistung angeht hinkt ATI/AMD (etwas !!!) nach. In Sachen Innovation hat AMD/ATI aber in beiden Fällen die Nase WEIT vorn ... ! Dieser Vorsprung im Know-How wird sich früher oder später auszahlen.
 
@holom@trix: Wohl kaum. Wenn AMD endlich hinterherkommt hat Intel auch schon wieder neue Dinge am Start mit teilweise den selben Dingen wie AMD. z.B. Ende des Jahres. Da wird die Intel Multicore-CPU auch einen integrierten Speichercontroller und eine native Anbindung haben genau wie AMDs Phenoms. Innovation zahlt sich nicht aus wenn man sie vor der Konkurrenz nicht marktreif bekommt.
 
@DennisMoore: Der integrierte Speichercontroller von AMD ist schon seit 2003 marktreif. Das ist also ein schlechtes Beispiel. Prinzipiell kann ich dir aber zustimmen, auch wenn ich die AMD-Zukunft nicht ganz so schwarz sehe wie einige hier.
 
@bioforge: naja erst mal abwarten was die ersten Benchmarks zu der Karte sagen.
dann werden wir sehen ob ATI endlich mit einer Karte an die GTX rankommt.
 
@bioforge: naja erst mal abwarten was die ersten Benchmarks zu der Karte sagen.
dann werden wir sehen ob ATI endlich mit einer Karte an die GTX rankommt.
 
Ich könnte mir vorstellen in meinen nächsten PC so ein Ding einzubauen! Warum auch nicht? Wenn die Mehrleistung den Mehrpreis rechtfertigt.....

Hoffentlich tut die Entwicklung AMD gut! :-)
 
bin gesppant was amd (ati) da auf die beine stellt, hoffe für ati das sie an das Niveau von Nvidia herankommen, sonst siehst nicht gut aus für amd und ati.
 
@KinCH: Du solltest mehr darauf hoffen, das A: ATI auch gescheite Treiber bringt, und B: das Spiele auch Dual GPU´s unterstützen, sonst bringt das ganze nicht viel und es ist mal wieder ein netter Marketinggag.
 
@Akkon31/41: Die müssen am Treiber nich allzuviel ändern, da es nichts anderes is als würde man 2 Karten per Crossfire zu verbinden :) Und das unterstützen Spiele schon lange!
 
@fredthefreezer: Aha, wirklich? Wäre mir sowas von neu, das ohne entsprechende Unterstützung seitens der Games Crossfire im vollen Umfang angesprochen wird. Gleiche gillt auch für SLI.
 
@fredthefreezer: Ja, nur... als Besitzer einer HighEndCard, was nutzt da das SLI/Crossfire einem Normalsterblichen? Tja und wenn man zwei MidClassCards in den Verbund schickt, hat man dann nicht den Preis einer HighEndCard hingeblättert (jedenfalls meistens). Wenn also eine DualCoreGPU mehr sein soll, als der Platz-und Stromfresser SLI/Crossfire, worin mündet dies dann...na^^
 
Das gilt nur für SLI. CrossFire muss nicht vom Spiel unterstützt werden. So habe ich es zumindest gelesen.
 
@Akkon31/41: Ich hab ja nich gesagt, dass es nicht im Treiber einprogrammiert sein muss! Ich habe nur gesagt, dass die auf der neuen X2 Graka verwendete Technologie ähnlich der Crossfire/SLI Technologie ist und diese ist schon lange im Treiber eingebunden und wird von Spielen unterstützt!________________________-@Hellbend: Du solltest meinen Text nochmal lesen und deinen dann korrigieren du Nase :)
 
Wenn man nicht mehr konkurenzfähig ist, geht es nur noch um Schadensbegrenzung. Und das auf Kosten hoher Leistungsaufnahme. :)
 
ganz klar mogelpackung und vlt macht amd das ja weil ihnen die Ideen ausgehen?
 
@bilbao: Wie wärs mit der Nvidia 7950, auch Dual GPU und hat nicht wirklich viel gebracht ausser Strom zufressen, denn wenn Games keine Dual GPU´s unterstützen bringt der zweite Chip logischerweise nichts.
 
@GaTeXx: Das die Karte nix taugte würde ich ehr dem miesen Treibersupport von nvidia anheften als einem fehlenden Spielesupport.
 
@Mudder: Irrtum. Wenn die Spieleprogrammierer dem Spiel nicht sagen, das es auch 2 GPU´s nutzen kann wenn sie vorhanden sind, dann tun sie das auch nicht. Das ist das gleiche Spiel mit den Dual Core CPU´s. Wenn Anwendungen nicht darauf programmiert sind, werden beide Kerne nicht zu 100% ausgelastet. Treibersupport für SLI, CF oder Dual GPU´s gibt es schon länger.
 
Och die Dinger verbrauchen zu viel Energie und wenn ich mir schon die Normalen der HD3xxx reihe ansehe die sind viel zu lang geworden.
 
@overdriverdh21: dann hör auf zu zocken!!!Du kannst auch mit einer 40€ Karte mit Word arbeiten. Und die ist klein und verbraucht wenig.
 
@sk-m: Was hat denn das damit zu tuhen? Hallo man kann doch die Platine kleiner machen wir leben doch nicht mehr in der VooDoo zeit.
 
mir recht eine 8800 gt für nächste :) laso ich sag mal 2-3 jahre locker .
 
@Bazillus: ... wenn du damit zocken willst, wirst du garantiert nicht mit deinem angepeilten Zeitfenster hinkommen ...
 
ist ja immer nur zu gut wenn die "fachmänner" hier ihre dünne soße verschütten ohne vorher oder überhaupt erst einmal ein fertiges produkt in augenschein genommen zu haben.
 
@bilbao: Wie wärs mit der Nvidia 7950, auch Dual GPU und hat nicht wirklich viel gebracht ausser Strom zufressen, denn wenn Games keine Dual GPU´s unterstützen bringt der zweite Chip logischerweise nichts.
 
@bilbao: Ersteinmal stimmt die Aussage einiger, das eine Dual-GPU, von den jeweiligen Anwendungen, voll unterstützt werden muß, da der Effekt sonst gleich gen Null tendiert. Das AMD/ATI mit Ihrem Vorhaben derzeit eher am Stock gehen und ATI auch nicht für vernünftige Treiber sorge tragen kann ist mal Fakt. Also wer verschüttet hier dünne Soße, wenn nicht gerade du selbst!
 
@Hellbend: tja, und das meinte ich mit "fachmänner". die einen wollen schlußfolgerungen von einem konkurenzprodukt ableiten und die anderen beurteilen (und verurteilen) produkte (und deren mögliches scheitern) die es noch gar nicht gibt. von denen sie weder wissen wie aufgebaut werden sollen noch wie sie konkret funktionieren werden. und das alles aufgebaut auf der prämisse weil ein unternehmen zZ. ein paar schwierigkeiten hat weil sie in der jüngeren vergangenheit fehler begangen haben (für die sie ja jetzt reichlich zahlen müssen). was aber eine nullaussage bezüglich der zukunft desselben darstellt. denn keiner weiß wie sich diese zukunft gestallten wird. nicht einmal das unternehmen selbst weiß was ihr die zunkunft bringen wird. ob alles galtt läuft mit der entwicklung, ob alles so funktioneren wird wie es sich die entwickler vorstellen - und wenn ja - ob das produkt auch ein erfolg im markt sein wird - oder - ob sich wieder einmal der "fehlerteufel" einschleicht und alle planung zunichte macht. aber die im netz versammelten "fachmänner" wissen bescheid. sie kennen das unternehmen in und auswendig. kennen die entwickler persönlich - und - wissen natürlich zu 100% (durch ihre hellseherischen fähigkeiten) was die zukunft bringen wird. - - - - ürigens was die treiber anbelangt: ich habe komischerweise keine probleme mehr seit dem letzten update (anscheinend müssen sie also etwas richtig gemacht haben). was soll also das gequirle????
 
bei ATI hatte ich bisher nie das Gefühl, dass die zu Windows passen. Muss wohl Treiber liegen oder am Aussehen des Panels... Keine Ahnung lol
 
@hjo: Ich hatte auch nie das Gefühl das Veganer Menschen sind muss wohl an Apple liegen. Wegen Apple, halt.
 
@ overdriverdh21: Wein aus dem Tetrapack gehört verboten
 
@hjo: Ja meine ich doch weil wenn ich Rauche mein Leben um ein paar sekunden verkürze, vielleicht erspare ich mir damit die mickrige Rente wenn ich sehr viel Rauche.
 
@overdriverdh21: bin auch schon einen leben lang am rauchen. bringt nix. bin kerngesund
 
@hjo:
"... @overdriverdh21: bin auch schon einen leben lang am rauchen. bringt nix. bin kerngesund..."

aufgrund dieser aussage :"... bei ATI hatte ich bisher nie das Gefühl, dass die zu Windows passen. Muss wohl Treiber liegen oder am Aussehen des Panels... Keine Ahnung lol..." __- würde ich das bestreiten.
__-was bitte hat ein treiber oder das "panel" damit zu tun, ob ati zu windows "passt" ???

ati und nvidia sind zwar übriggeblieben von allen namhaften ehemaligen gpu-herstellern, jedoch konnte ati in der anfangszeit des "3d-hypes" mit nvidia stets schritt halten.
natürlich muß man zu nvidia sagen -. die haben fast alles richtig gemacht die letzten 15 jahre.
die richten konkurrenten geschluckt, die richtigen trends gesetzt.
ich habe bist 2005 nvidia gekauft. die treiber waren gut, die leistung ok, und der preis - wenn man ein paar monate wartete - ebenfalls gut.
was mir an nvidia die letzten 12-24 monate nicht mehr gefällt, ist dieser größenwahn.
immer mehr ram, immer schnellere gpu, immer größere platinen,2slots belegt, immer mehr stromverbrauch etc..
dieser wahnsinn geht mir dermaßen aufn keks, daß ich mich gewzungen sah, zu ati überzulaufen :-). meine (mittlerweile) betagte x1950 ati-graka mit 512 MB reicht locker aus, um alle aktuellen spiele auf 1280er auflösung undn paar netten effekten spielen zu können. und die hat mich im mai 07 "schlappe" 190eur gekostet. warum zum geier soviel strom verbrutzeln und soviel geld ausgeben für nix und wieder nix ? eine halbwertszeit von 6 monaten, und man sollte (sofern der verstand noch funktioniert) sich in den allerwertesten beißen, soviel geld ausgegeben zu haben, wie viele "zocker" das tun.

____dazu kann ich nur sagen . amd tut das richtige mit ati.
zwei gpu auf einer platine - das ist der richtige weg.
wenn sie dann noch die 55nm schaffen, und den takt nur geringfügig erhöhen, wäre es zumindest ein SINNVOLLER beitrag GEGEN GRÖßENWAHN und stromfresserei.____
mein system ist jedenfalls so harmonisiert, daß es zu windows passt. alles wie immer subjektiv :-)
 
@obiwankenobi: ... sorry - hatte selbst ein 1950XT mit 512MB Ram - aber deine Aussage, daß du jedes aktuelle Spiel in einer 1280er Auflösung spielen kannst (incl. ein paar netter Effekte) dürfte wohl kaum der Realität entsprechen - es sei denn, du interpretierst nette Effekte mit der jeweils niedrigsten Qualitätseinstellung ...
 
Sofern sie nicht ein Watt mehr als das Model der Konkurenz verbraucht ist es mir egal wieviele Chips sie verbaut hat. Und leise muss sie auch sein, leiser als ihre Vorgänger. Und ob das bei zwei GPU möglich ist, bezweifle ich doch stark.
 
@JTR: WaKü 4tW
 
@Nautilus_Master: Und wer braucht das derzeit? Bzw. welcher Ottonormalverbraucher kann sich beim Release sowas leisten?
 
@Akkon31/41:
keiner, deshalb ist es auch ratsam, wenigstens 2-3 monate nach dem release erst an einen kauf zu denken.

alles andere ist rational unergründliche dummheit.
ist doch bei den cpus genauso.
kuck dir intel an...an die 900 eur wollen die für ihren boliden.
in 3 monaten kostet das teil vielleicht noch 500 eur, in 5 monaten 350
auf jeden fall ist die halbwertzeit bei grafikkarten und bei cpus drastisch gesunken.

 
@ obiwankenobi: welch wahres Wort, am Montag einen Phenom9500 bestellt (209€) und heute kostest er 20€ weniger :Y

Naja egal... er wars mir ja wert, da kann man nicht im nachhinein anfangen zu mekkern.
 
Wieso bringen die nicht 2 Kerne auf eine GPU wie bei den CPU´s oder gabs das schon mal?Bin gerade überfragt. Ist doch im Prinzip nichts anderes wie damals mit 2 CPU´s auf einem MB.Gibts zwar glaub ich heut auch noch aber könnte mir gut vorstellen das eine sozusagen DUALCORE Lösung doch besser wäre was Wärme und Verbrauch angeht.(Vermutung)
 
@$chilly: es sind doch auch beim prozessor nur 2 kerne auf einer prozessor-platine, und bei der grafikkarte sind dann 2 GPUs/Grafikkerne auf einer grafikplatine. Selbst wenn es nicht so wäre, wäre es ghupft wie ghatscht.
 
@caldera: Nein, bei der hier verwendeten Technik sind tatsächlich 2 GPUs auf einer Platine, also als wären 2 Grakas miteinander verbunden :)
 
@ fredthefreezer : also wirklich alles, inkl. RAMs, oder werden diese nur einmal bestückt? Naja, von der leistung dürfte es wohl relativ irrelevant sein, aber preislich eben teurer, als wie wenn nur die kerne verdoppelt werden.
 
Wieso beschwert sich eigentlich jeder !? Sofern die Kerne einwandfrei angesteuert werden können ist das genial. Die 3870 ist ne gute Karte und mit zwei GPUs noch besser. Stromverbrauch ist fast alles nur Markttreiberei. Mein Rechner (4600+EE, X1950XT, 2GB, M2N-1394) verbraucht wenn er AUS ist 10Watt. In Windows: ~110Watt und bei Vollast 250Watt. Dazu der Monitor mit 40Watt n dicke Anlage und bla... :) Hätt ich genug Geld und mir ned vor einem Jahr die 1950 gekauft, würd ich die Karte sofort vorbestellen.
 
@consydar: bin ich nicht der einzie armer lumpen hier :-D
 
@consydar: also ich bin froh das ich von amd weg bin! hatte zuletzt die x1950xtx! eigentlich ne top GraKa! Aber was AMD momentan an Treiber Kacke raushaut ist echt ein Hohn! Bin mit meiner nVidia 8800GTX mehr als zufrieden! Des weiteren freu ich mich schon auf den G100! Da kann AMD gleich einpacken! So sieht es momentan aus! Und bei den CPU der gleiche Mist! Bin kein Intel oder Nvidia Fanboy! habe auch einen AMD/Ati 2. Rechner! Hoffe nur für AMD das es irgendwann mal wieder besser wird! Und wenn die Leistung stimmt bin ich der erste der auch wieder umsteigt, aber in nächster wird das wohl nix mehr werden!
 
@consydar: Jeder der nach SLI oder Cf fragt bekommt die antwort das man lieber eine gute statt 2 Mittlere holen soll. Und genau so sehe ich das mit den 2 GPUs.
 
@consydar: Ich beschwere mich ja nicht falls du mich meinst, die Wissen schon was die da tun, jedoch was liefert wohl mehr Wärme? 1 oder 2 GPU´s. Ich sag mal so lange die Wärme vernünftig abgeleitet wird soll´s ja auch schnuppe sein :-)
 
@ $chilly:
in diesem falls vermute ich, werden die zwei gpus weniger strom fressen als die eine "alte".
wenn amd/ati die teile in 55nm fertigt, bleibt noch ein wenig luft "nach oben". sie werden also weniger wärme entwickeln, und wohl etwas höher getaktet sein als die aktuellen modelle.

__-von daher - amd tut das richtige!
 
@cyberpirate:

seit der Übernahme hat sich das deutlich gebessert, seitens Linux geht es doch überhaupt erst los mit Treibersupport , wenn man hingegen schaute wie es bei der Geforce8 aussah und es zum Teil jetzt noch aussieht zihe ich ATI doch vor, mit der 3850 bekomme ich da eine sehr günstige/flotte Karte, in dem Preisbereicht hat Nvidia nichts ordentliches

________________________

CPU sieht doch auch sehr gut aus, OK Leistungsmäßig minimal unter vergleichbarer Intel CPU was eh keiner merkt aber dafür auch günstiger, mal sehen sich das im nächsten Jahr so entwickelt, durch den Bug konnten dieses jahr leider keine schnelleren Modelle mehr geliefert werden, potenzial steckt ja ordentlich drin
 
Also ich sehe das eigentlich so, wenn es ordentlich auf beide GPUs verteilt wird und beide ihr eigenes RAM haben, wirds doppelt so schnell berechnet. Muss das Spiel dann 2 GPUs unterstützen? Eigentlich doch nicht, weil dem Spiel ists doch egal obs späterhin vom Treiber oder von der Hardware getrennt wird.
 
Hat schon wer einen ungefähren Termin? Ich mein ... 299$ wärn umgerechnet gut 210€, dass ist der Preis einer einfachen 3870!
 
@fubsle: " Die Preise sollen sich im Bereich zwischen 299 und 349 US-Dollar bewegen."
Das sind für mich keine 299$!
 
Warum gibt es eigentlich noch keine 2 Kernigen GPUs? Ist es schwieriger bei der Architektur, als bei CPUs?
 
@TobiTobsen: An sich haben GPUs jetzt schon sehr viele "Kerne". Will heissen bis zu einige hundert unified shader, welche ja die eigentlichen Berechnungen im Grafikchip durchführen. Bei einer GPU macht es folglich mehr sinn, mehr shader zu verbauen, als einen zweiten, identischen Kern draufzupressen. Ist erstens einfacher und zweitens schneller und stromsparender. Falls ich Müll erzähle, bitte korrigieren.
 
@3-R4Z0R: Könntest recht haben bei einer Grafikkarte mit 2 GPUs. Wäre es eine GPU mit 2 Kernen würde es aber bestimmt anders aussehen. Bei CPUs ist das ähnlich. Intel Quad mit 2 Cpus auf einer Platine. Da sind die Leistungszuwächse auch nur ~60% bei 100% mehr Rechenkraft.
 
299/349 dollar.-..bei nem kurs von 0,52
naaaa...macht ?
ca 150-180 eur
__und das ist nun aber mal ein guter preis!!
 
hm, mein Dual PII 300MHz verpresst locker einen PIII 600MHz, dann wirds da vll auch so sein :-)
 
mal ne frage, das sind dann zwei getrennte gpu oder? also nicht wie bei nen cpu zwei kerne in einen?
 
Irgendwie kommt mir das so vor als hätte ich diese ganze news schon mal hier genau so gelesen lol
 
Hört sich richtig geil an und der Preis ist mehr als in Ordnung!
Wenn ATI bzw AMD jetzt Rang 1 im High-End-Performance belegen wird, dann werde ich natürlich diese Grafikkarte kaufen. Ich hoffe das wird auch so, denn AMD hat schon lange nichts guten im Höchstleistungsbereich...
Vielleicht kaufe ich bei dem Preis sogar zwei Grafikkarten! :)
Kommt eben auf die Treiber an...
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles