AMD stellt "weltweit schnellste Grafikkarte" vor

Grafikkarten AMD will es wissen: Nachdem Nvidia den Markt für Grafikkarten lange angeführt hat, startete AMD mit seiner Radeon HD-5000-Serie eine Aufholjagd. Jetzt wurde ein neues Modell angekündigt, das die "weltweit schnellste Grafikkarte" darstellen soll. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Endlich eine Grafikkarten-News, bei der der Crysis-Kommentar gleich integriert ist :-)
 
@satyris: LOL.
 
@satyris: Ja, aber läufts auch auf Maximum? :)
 
@satyris: Tja, die Referenz der Leser wurde nun endlich von WF übernommen, wurde auch zeit :D
 
@killphil: Laut computerbase.de - JA! Um die 40FPS bei 1920x1200 @ Ultra @ 16xAF 4xAA.
 
@stockduck: Das liest sich ja noch besser als 56FPS @1.920x1.080 Pixel, 2xAA
 
@stockduck: Endlich! :D Hätte eigentlich die Überschrift sein können: AMD stellt "weltweit einzige Crysis-Ultra-Grafikkarte" vor
 
@killphil: oder auch: grafikarte mit eigenen tower... man sieht das ding gross aus ^^
 
@satyris: Was mich mal interesieren würde ist mit was für PC's Crytek das game geschaffen hat o.O Die mussten doch auch alles auf höchster einstellung testen...
 
@satyris: cool, 2 Jahre nachdem Crysis rausgekommen ist, gibts auch endlich ne Graka, die dafür schnell genug ist ... ^^
 
@PsP-FreaK_94: Ne, müssen die garnicht. Man muss ja nur Bugs beheben, ob man es in maximaler Grafik auch flüssig spielen kann ist eher nebensächlich. Hauptsache die maximale Grafik funktioniert (~10FPS reichen dort zur Genüge) und hauptsache das Spiel funktioniert (Niedrige oder Mittlere Einstellungen reichen hier zur Genüge zum Testen)
 
@BachManiac: nicht ganz. Die Graka hat ja 2 Rechenkerne. Das ist wie ein Crossfire System. Eine Single-Core Graka wär doch mal interessant, die solche Leistungswerte hat :)
 
Nvidia besser.
 
@exqZ: Warum?
 
@tienchen: Weil Fanboy
Nichts hören, nichts sehen, nichts akzeptieren, außer die eigene Meinung :)
 
@exqZ: Und für so einen Kommentar hast du dir gestern extra ein neues Profil angelegt?
 
@exqZ: sieht man ja eindeutig an den Tests :D
 
@StrokeOfFate: Woher weißt du denn, dass er ein Fanboy is? Das klingt immer so nach Fanatiker oder so. Nur weil er Nvidia besser findet? Ich finde Nvidia auch besser halt mit der Begründung, dass ich keine so dollen Erfahrungen mit ATI gemacht habe. Zudem bin ich der Meinung, dass Nvidia die solideren Grafikkarten entwickelt und Treiber. Und Nvidia macht bei den meisten Spielen weniger Probleme als ATI aus eigener erfahrung. Bin ich jetz auch nen Fanboy???
 
@Viceinator: Ein Fanboy ist einer, der auf einen Anbieter wettert, aber keine Argumente bringt. Du bist kein Fanboy, sorry, du bist ein Nutzer, der durch Wissenssammlung sich seine Meinung gebildet hat.
 
@exqZ: wegen den beschissenen Treibern natürlich... also ich hatte 1 mal Nvidia und nur Probleme schnell umgetuascht gegen ne 4870 und alles läuft wunderbar... ATi ftw
 
@exqZ: NVIDIA sich zurückziehen von Highend-Grafikkarten sie wollen, junger Padawan!
 
@rush: ich hatte schon viele gpus von beiden herstellen und ich hatte noch keine probleme... bin mit beiden herstellern zufrieden, aber momentan bin ich eher auf der amd/ati seite...
 
@silentius: Yoda hatte auch schonmal bessere Vorahnungen...
 
@silentius: Die News war eine Falsch(verstandene) Meldung: http://winfuture.de/news,50488.html
 
@satyris: Korrekt muß es heißen: "Einer Ente aufgesessen du bist" ^^
 
@exqZ: Na ergun der harte ? neuen account ? wurde Dein alter Account gesperrt ?
 
@exqZ: nvidia verkackt grad, aber so richtig. hatte bisher zwar auch meist nvidia, aber in letzter zeit machen die nur noch mist, angefangen bei dem ständigen umlabeln der alten karten. ^^
 
@Viceinator: Und ich habe genau die gegenteilige Erfahrung gemacht, denn ich habe oft genug PCs mit nVidia-Grafikkarten gesehen, die nicht richtig funktioniert haben. Bei ATi habe ich viel weniger PCs gesehen, die nicht richtig funktioniert haben. Ist aber halt immer eine subjektive Meinung, denn statistisch gesehen nehmen sich die beiden Anbieter wohl nichts.
 
@satyris: Arg, wenn man nicht mal mehr den knallhart recherchierten News von Winfuture trauen kann, ist wohl bald vorbei mit der Zivilization. Entschuldigen für meine falschinformation ich muss :-/
 
@Viceinator: Muss dir zustimmen. Ich selber bin mehr ein nVidia Freund. Alleine der Treibersupport ist gut. Bei ATI dagegen ist der Treibersupport nicht so toll. Bei meinem alten Laptop merken musste, dass man bei denen nicht einfach das aktuellste Treiberpaket runterladen kann für seine Grafikkarte. So kam es dann halt, dass ich einer der neuesten Treiberversionen hatte, wo aber der Support bereits für den Typen nicht mehr dabei war. Nach langer Suche im Internet habe ich auf einer externen nicht AMD / ATI Seite einen passenden Treiber gefunden.

Dagegen war die Suche nach einem Treiber für die alte nVidia Karte vom PC meines Vaters in 5 Minuten erledigt. Einfach auf die Seite, Model ausgewählt und der Rest ging im Flug.
 
@Vandusk: Umgekehrt wäre es dir ergangen, wenn du eine nVidia-Karte im Notebook und ATI im PC hättest. BEIDE Hersteller unterstützen mit ihren Treiber nicht direkt die Mobilplattformen und auch bei ATI kannst du SOFORT auf der Seite einen Treiber für Desktop-Grafikkarten laden. Darauf deine Entscheidung zu gründen zeugt von ziemlichem Unwissen.
 
@satyris: Komischerweise konnte ich bisher für einige Leute, die eine nVidia Karte in ihrem Notebook haben, die Treiber ohne Probleme installieren.

Das der Treiber für ATI Desktopkarten gut ist, will ich gar nicht in Frage stellen. (Wobei mir da ein Schulkollege was anderes erzählt)

Egal, da ich ja von ziemlichen Unwissen anscheinend verfüge, sag ich jetzt mal lieber nichts weiteres.
 
@Vandusk: Nönö von Unwissen kann man da ich sprechen. Würde eher sagen satyris ist etwas Unwissend. Auf der Nvidia seite gibts extra Treiber für Notebooks. Das sind die Mobility-Driver aber naja^^
 
Ich finds ma wieder lächerlich. Der US-Dollar-Preis soll bei $599 liegen (laut AMD). Winfuture berichtet von 500 Euro, Computerbase von 560 Euro. Seltesam, bei nem Umrechnungskurs von "599 US-Dollar = 402,121375 Euro" (Stand 10:36 Uhr).
 
@Der_Karlson: Danach darf man leider nicht gehen. Es kommen ja noch Steuern, Zoll, Transport und Lagerung hinzu.
 
@Der_Karlson: hier in deutschland bezahlst du aber weder mit usd noch mit der umrechnung von usd in eur.
 
@Der_Karlson: selbst dem dümmsten Schaf sollte mittlerweile kalr sein das Produkte nicht stur nach Umrechnunskurs in andere Teritorien außer den USA verkauft werden. Finde die Preisangabe sofern sie nicht offiziell ist, immer schwachsinnig. Umrechnen bringt nix, da klar ist das Europäer immer mehr bezahlen meist dollar = euro...
 
@Der_Karlson: das wäre ja schön so. nicht im jeden land ist man bereit das selbe zu zahlen. bei autos ist es nicht anders. in anderen eu-ländern kostet das selbe auto evtl weniger/mehr aber nicht nur wegen den steuern.
 
@Der_Karlson: Wer soviel Geld für eine Grafikkarte ausgibt, dem kommt es auf hundert Euro hin oder her auch nicht an.
 
Dennoch ist ein Preis von über 500 Euro übertrieben, da es sich "nur" um 2 5850 Chips handelt.
@ Rikibu: Komisch nur, dass Euro = Dollar nicht galt, als der Dollar teurer war als der Euro ...
 
@EpicFail: Damit landest Du bei etwas unter 500 Euro. Und das, wenn man vom Endkundenpreis ausgeht - die Händler kriegen ja deutlich günstigere Preise.
 
@Der_Karlson: Die neuen spitzenmodelle liegen doch immer in dem preissegment das ist doch nichts neues.Ich würde sowas auch gerne haben :) aber ich warte dann doch immer eine gewisse zeit da der preisverfall ja enorm ist.
 
@Der_Karlson: Hast du dir mal nen Reimport-Auto gekauft? Einige Marken werden im Ausland so billig verkauft, dass sich zugar der Reimport lohnt und sie trotzdem noch günstiger sind! Genauso ists bei Hardware, da setzten die Firmen die Preise pro Land fest, hinsichtlich Absatzchangen und Lebenstandard...
Wenn du genau nach Umrechnungskurs gehst musste bei den Amis bestellen, aber dann kommt noch Mwst drauf und bist genausoweit :)
 
@EpicFail: Dazu hab ich ne Frage: Die Karten werden ja in Asien gebaut. Zahlen die Amerikaner für Transport, Zoll etc. kein Geld?
 
@EpicFail: Die Teile werden in Asien hergestellt, für den Import in die USA fallen genauso Steuern, Zoll, Transport und Lagerung an. Das ist kein Argument. Die Teile werden doch nicht in Asien produziert, nach USA geliefert, und von dort nach Europa, das wäre ja unsinnig.
 
@Der_Karlson: amd hat momentan halt keinen "ernsthafen" gegner für seine 5970, deswegen werden die den preis auch so hoch festlegen... wart einfach mal ab bis die konkurrenz mitzieht...
 
@Der_Karlson: Seit wan hat eine 5850 den 1600 Shader? Bitte um Aufklärung!
 
@Der_Karlson: Man sollte vielleicht auch mal darauf hinweisen, dass in den USA auch noch Steuern beim Kauf anfallen. Die sogenannte "Sales Tax" wird sofort an der Kasse erhoben und liegt (ist in jedem US-Bundesstaat anders) so circa bei 7%. Also geht keiner dort aus dem Laden und hat nur 599$ bezahlt.
 
@drhook: Und wenn man online in einem Andren Bundestaat einkauft spart man sich sogar diese. Oder noch besser in Canada bestellen und noch mehr sparen.
 
@Der_Karlson: Das stimmt nicht, es sind zwei 5870 Chips, welche lediglich etwas langsamer takten. Quelle: http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2310622/radeon_hd_5970_im_test.html
 
@knuprecht: Klar aber ein normaler Käufer zahlt in einem US-Laden auf jeden Fall mehr als 599$.
 
@Der_Karlson: Es handelt sich um 2 5870 Chips. Übrigens könnt ihr diese Preisangabe getrost ignorieren, es gibt bei der 5000er Serie so gut wie keine Verfügbarkeit. Sobald eine hinreichende Menge an Händlern die Karte in einigermaßen vernünftigen Stückzahlen liefern kann, wird sich ein neuer Preis bilden.
 
@Boskops: Ho ho ho!
 
Solange die noch so schlechte Treiber rausbringen muss ich bei Nvidia bleiben.
 
@John-C: Wie beurteilst du die Qualität der aktuellen Treiber, wenn du keine aktuelle ATI-Karte in deinem System hast?
 
@John-C: Was ist daran so schlecht? Oder sind das noch erinnerungen von 5 jahren? Weil dann könnte man genauso behaupten, dass man keine nvidia kaufen dürfte, wegen der 5er serie (FX).
 
@John-C: Also wenn du den linux support meinst hast du recht da ist nvidia die bessere wahl.Aber von windows kannst du wohl nicht reden.Denn was ist an den windowstreibern so schlecht?Kannst mich ja mal aufklären.Ich habe und hatte noch nicht ein problem in über 10 Jahren mit ati treibern unter windows!
 
@John-C: Das schöne am Glauben ist, dass er keine Beweise braucht ...
 
@John-C: Ich hab mir vor geraumer zeit ne 8800gt gekauft keine frage eine sehr gute karte zu ihrer zeit. Aber die Treiber von nvidia rofl die stehen amd in Fehlern in nichts nach. zb Crysis konnte man erst nach 3 Monaten ordentlich zocken da gabs sachen wie das man 30 fps hatte dann an einen bestimmten punkt geguckt hat und dann nur noch 0,2 fps hatte. Ich hab ka wo dran es lag aber nach ner zeit wars weg.
 
@John-C: Ich glaub ich bleibe schon deshalb bei nVidia weil sie mit den Spieleherstellern viele Spiele optimieren, und das zahlt sich aus. TWIMTBP-Games laufen mit meiner 8800GTX immer supergut und man bekommt außerdem noch die netten Physx-Effekte obendrauf.
 
@Carp: Selbst das ist nicht allgemein richtig. Meine ATI X1650 Pro läuft unter Ubuntu 9.10 besser (also auch Treiber technisch), als meine ältere NVidia Karte.
 
@DennisMoore: Optimieren hat nVidia ja auch nötig, weil sonst hätten sie kein Schnitte. Ist schon traurig, daß man teilweise mit Optimierungen trotzdem weniger zu bieten hat, als die Konkurrenz ohne Optimierungen. Und PhysX ist doch Quatsch mit Soße. Eine Hand voller Spiele die ein paar lächerliche Effekte hervorbringen die dan auch noch unrealistisch wirken.
 
@DennisMoore: Ließt du vor dem Kauf keine Benchmarks? Da sieht man, was ihnen die Optimierungen bringen (nichts). Die ATI-Karten haben trotzdem das bessere P/L-Verhältnis. Alles, was mit der 8800 GTX flüssig läuft, läuft auch mit der 4850 flüssig. Die Spiele, die Physx supporten und das MIT Hardwarebeschleunigung kannst du aber an deinen Händen abzählen. Die Technologie wird sich kaum durchsetzen, schließlich gibt es neuerdings eine Lösung, die auf beiden Karten läuft. Bei ATI kriegst du die netten Tesselation- und DX10.1-Effekte, die bringen ungefähr genausoviel wie Physx (fast nichts). Aber neuerdings auch DX11 und Eyefinity, das hat nVidia nicht.
 
@Carp: Du hast recht, genau das meine ich.
 
@Aspartam: Ich lese viel. und zur Info für dich, Carp hat richtig vermutet.
 
@tinko+knuprecht: Optimieren bedeutet auch Clippingfehler und Abstürze zu vermeiden. Und das gelingt immer sehr gut. Was nützt mir ein tolles P/L Verhältnis und gleich gute oder bessere Frameraten wenn das Spiel auf meiner ATi gar nicht erst läuft, wie z.B. GTV IV?? Ich finde es ist wesentlich unproblematischer auf nVidia Basis zu spielen als auf ATi-Basis. @tinko: Physx bringt mir zumindest optisch mehr als DX10.1, denn DX10.1 wird von wesentlich weniger Spielen genutzt als Physx. Und was DX11 betrifft, entscheide ich mich erst wenn ich 2 Grafikkarten von den beiden großen Herstellern vergleichen kann.
 
@DennisMoore: Bei GTA IV war das Social Club Dingens daran schuld. Ich habe vom ersten Tag an GTA IV spielen können aber ohne SocialClub Schrott. Und die TWIMTBP Propaganda scheint bei dir ja voll aufzugehen. Schon mal gemerkt das ATi systematisch benachteiligt wird durch dieses Programm. Da erscheinen Spiele wo man bei ATi kein AA zuschalten kann. Komisch, komisch?!
 
@knuprecht: Wird ATi benachteiligt oder gibt nVidia sich einfach mehr Mühe? Ich finde es allemal besser wenn ein Hersteller sich bemüht seinen Kunden das beste Spielerlebnis zu bieten, als zwei Hersteller zu haben wo es bei beiden nur halb funktioniert. Es hält übrigens niemand ATi davon ab auch mit Spieleherstellern zusammenzuarbeiten um bessere Kompatibilität und Performance zu erzielen. ATi ist meiner Meinung nach nicht das Opfer von Benachteiligung, sondern gibt sich einfach keine Mühe. Und welche Komponente bei GTA IV Schuld war ist doch völlig egal. Unterm Strich lief es nicht mit ATi-Karten und das allein zählt wenn ich die Absturzmeldung zu Hause auf dem PC von dem Spiel sehe, auf das ich mich Monate gefreut habe.
 
Na endlich kann man Solitär und Minesweeper auf voller Auflösung und mit allen Details zocken.
 
@mcbit: Stimmt nicht ganz! Minesweeper stürzte im Test bei 16xAF und 8xAA des öfteren in der dritten Runde wegen zu wenig adressierbarem Grafikspeicher ab. Bei Solitär wiederum wird die schöne und gleichzeitig grafisch aufwendige Endanimation durch starke Mikroruckler gestört.
 
@mcbit: Ich kann diesen bescheuerten Kommentar nicht mehr lesen, schaut doch mal auf anderen Webseiten nach "Geilen Board-Sprüchen"
 
@spanky2200: Naja, der Crysis-Spruch war schon belegt.
 
@spanky2200: Wie recht du hast. Kaum geht es um Grafikkarten krächts der erste Troll der angekorchen kommt "...Crysis...spielbar..?...". @mcbit Epic Fail.
 
Knapp 300 Watt Aufnahmeleistung unter Volllast, da werden die Lüfter ganz schön was zu tun haben, hoffentlich entwickeln die nicht so'n Lärm wie ein Düsentriebwerk
 
@uk82: So schlimm ist es gar nicht. Ich hatte mir meine 4870x2 (mit referenzkühler auch immer viel schlimmer vorgestellt). Und da die 5970 weniger laut ist und weniger strom verbraucht, sehe ich der graka sehr gelassen entgegen :)
 
@stockduck: die frage ist ob die im crossfire laeuft? o_O 1kw strom ...
 
@uk82: Nee, wird sich in Grenzen halten. Auf CB steht, dass sie für 400W ausgelegt sind. Ist also noch Luft nach oben.
 
@DennisMoore: ja aber im sli ( sorry oben falsch genannt ) 2x 400 sind 800 watt da fehlt zum kw nicht mehr viel...
 
@Loc-Deu: 2x400 Watt kannste nicht rechnen. Das hat bei allen vorhergehenden SLI-Karten auch nicht gestimmt.
 
WeihnachtsFuture! Geniale Karte (:
 
Jedes Mal das gleiche : Knappe Bestände bei der Einführung. Das soll natürlich den Kunden nicht dazu verleiten zum überhöhten Preis zu kaufen und um ihm das Gefühl zu geben, dass er sich noch ein Modell vor Torschluss ergattert hat.
Erinnert mich irgendwie an die Knappheit der Schweinegrippeimpfstoffe.
 
@82567: Die kosten dem "User" aber nichts.
 
@82567: Der FAll liegt aber hier anders. Es liegt nämlich an der Yield-Rate beim Auftragsfertiger TSMC: http://winfuture.de/news,51080.html Da kann ATI nichts dran ändern. Die würden sicherlich deutlich mehr Umsatz (und im Moment auch Gewinn) machen, wenn sie die Nachfrage wirklich decken könnten. Die (überhöhten) Preise werden wohl eher von den Händlern hervorgerufen.
 
@82567: Das liegt an TSMC und ihrer schlechten Ausbeute an funktionierenden 40nm Chips.
 
Für mich persönlich zu teuer...evt. in 2 Jahren möglich, aber die Aufnahmeleistung ist ein Witz...soll man sich vielleicht demnächst noch ein Kraftwerk ins Haus stellen? Wär evt. eine Klasse Verkaufsschlager, das kleine Plutoniumnetzteil für jedermann.
 
@KlausM: Hast du dich schon mal informiert, was du für ein NT dafür brauchst? So schlimm ist das gar nicht :) Ich benutzte ein BQ550W DarkPower für: Q9650, 4x2GB, 4870x2, CPU+4Gehäuselüfter, Soundkarte, TV-Karte, Maus, Tastaur, Joystick... und es rennt tadellos, bei einer (künstlichen) auslastung von etwa 450-460W.
 
@KlausM: Was erwartest du von 2 Chips, die zusammen auf 4,64 TFlops kommen.
 
294 Watt. Da macht Crysis auch mit 56 Frames keinen Spaß mehr...
 
@lutschboy: den kiddies is das egal, zahlen eh die eltern.
 
@lutschboy: Kommt drauf an... wenn ich dir Abwärme sinnvoll nutzen könnte wäre das nicht schlecht. Der Heizstab in meinem Aquarium hat auch 200 Watt, der müsste dann nicht mehr an sein, wenn ich Crysis zocken möchte und so ne Karte habe :D
 
@pandabaer: http://www.myvideo.de/watch/6634689/Spezial_PC_Gehaeuse_mit_Aquarium :-)
 
@pandabaer: das wär mal ne wasserkühlung..
von den GPUs einfach einen Alu"stab" direkt ins Aquarium rein..
aber ob das die Fische dann überleben ist wiederum Fraglich =)
 
@80486: bei der Wärmeabgabe hat er dann vermutlich gedünsteten Fisch zum Abendessen
 
@80486: Nuja, der Heizstab is ja nicht immer an. Nur um die Temperatur im Bereich von 25-28 °C (Wassertemp) zu halten. Im Sommer kein Problem bzw. eher ein umgekehrtes, da ist es fast zu warm. Und im Winter wird es halt Nachts aufgrund der Nachtabsenkung der Heizung doch recht kühl in der Wohnung und da darf der Heizstab dann gut heizen... oder der Rechner fährt hoch und ein Skript läuft ab, das Crysis startet und ne Runde zockt ^^
 
@pandabaer: Dafür gibts dann Seti für die GPU :)
 
@lutschboy: Zockt man 365 Tage im Jahr 4 Stunden am Tag kostet bei unseren regionalen Strompreisen die Grake noch 142,50 im Jahr ^^... das ist mehr als ich vorher vermutet habe. Jetzt Frage ich mich verbraucht die Graka immer 294 Watt im 3D Betrieb zb bei anspruchslosen Spielen wie WoW wie viel Watt verbraucht die da?
 
@lutschboy: Du sollst auch nicht dran lutschen (und Dir dabei die Zunge verbrennen).
 
@wolver1n: Nee, das ist der maximale Verbrauch. Bekommst du fast nur mit dem FurMark hin. Ansonsten lastet fast kein Spiel alle Shader wirklich gleichzeitig aus. Aber 200 Watt wird sich die im Mittel schon gönnen (ob's jetzt bei WoW auch so ist musst du wohl selber messen).
 
@jigsaw: Na wunderbar - spart man sich auch noch den Herd!
 
Es muss leider gesagt werden: Diese Produktvorstellung von ATI ist reines Marketing. Die Karte ist (so gut wie) nicht zu kriegen. Man kriegt in D ja nicht mal eine reguläre HD5870 Vapor-X, und die ist angeblich schon seit einigen Wochen auf dem Markt. Das sage ich nicht als ATI-Feind, sondern als langjähriger ATI-Nutzer, der die 5870 Vapor-X lieber heute als morgen hätte.
 
@Aspartam: Ist kein reines Marketing. Hier kannst du eine 5890 kaufen, ist verfügbar: http://tinyurl.com/yhb7xw8 Kostet aber eine Kleinigkeit.
 
@Aspartam: Das ist aber nicht nur bei ATI Grafikkarten so, die Weltwirtschaftskrise zeigt ihre Auswirkungen, die Computerläden bieten auf ihren Webseiten zur Zeit Vapor-Ware in einem bislang noch nie gekannten Ausmaß an. So mögen sich manche an die DDR erinnert fühlen, da werden theoretisch schöne Dinge gezeigt, die aber nicht zu bekommen sind. Bei meinem Hoflieferanten ist der Vapor-Ware Anteil inzwischen auf gefühlte 2 Drittel bis 3 Viertel angeschwollen. Da muss man schon großes Glück haben, dass das Objekt der Begierde überhaupt direkt zum Kaufen und Mitnehmen da ist. Hier gibt es Bilder der stillgelegten Containerschiffsflotte: http://www.dailymail.co.uk/home/moslive/article-1212013/Revealed-The-ghost-fleet-recession-anchored-just-east-Singapore.html Tja, wenn es den ganzen Kram nicht zu kaufen gibt, kommt wieder weniger Kohle rein. Eine groteske Abwärtsspirale nimmt ihren Lauf.
 
@Aspartam: da haste deine karte http://www.alternate.de/html/product/details.html?artno=JCXSV5&
 
@Fusselbär: Das hat nix mit der Welt-Kriese zu tun sondern mit der TSMC-Kriese. Solange die ihren 40nm nicht in vernünftige Ausbeuten bekommen wird es weiterhin keine grosse Verfügbarkeit der 40nm Karten geben. Das gilt auch für Fermi und Konsorten.
 
@satyris: Ja das geht aber noch billiger... hier für 399 €
http://www.acom-pc.de/index.php?cat=c109_ATI-PCIe.html&sort=products_price-desc
 
@knuprecht: Wenn die Weltwirtschaftskrise keine Rolle spielen würde, dann könnten die Firmen einfach schlechte Ausbeute vernachlässigen und mit viel mehr Produktionsmaschinen mehr Ausschuss produzieren, um dabei auch etwas mehr brauchbare GPUs zum Verkauf herauszubekommen. Aber das Geld um einfach neue Fabriken aus dem Boden zu stampfen, das haben bereits die Banker verzockt. Die Kohle haben die Banker beim verzocken so lustig verbrannt, das für die produzierenden Firmen zu wenig Kohle übrig ist. Da hat sich der Wirtschaftskreislauf derbe verklemmt. Wobei fehlende frische Computerhardware für Crysis Spielchen sicherlich noch das kleinste Problem ist. Denn was wäre erst los, wenn der Kühlschrank weder Pizza noch Cola beherbergen könnte?
 
@djatcan: Ich finde dort keine HD5970(!) für 399 Euro, nur 5870er.
 
@Jungs: Ihr könnte alle nicht lesen. Ich will eine Vapor-X gekühlte Karte, keine normale. Ausserdem sind die Preise bei Alternate jenseits von gut und böse. Ich zahle doch nicht für eine Single GPU-Karte 600 Tacken, geht's noch? Und sind die Karten auch wirklich *verfügbar*?
 
@Fusselbär: Wenn ein Wafer 5000 Dollar kostet und du nur 40% ausbeute hast bezahlt AMD dann an TSMC nur die 40% der Chipausbeute, Und TSMC wird freiwllig auf den Kosten nicht sitzen bleiben wollen. Das glaubst du doch wohl selber nicht. Sollange das nicht wirtschaftlich ist wird TSMC die Anlagen bestimmt nicht mit 100% laufen lassen. TSMC wird freiwillig noch mehr miese machen wollen. Denk mal nach, nicht alles hat mit der komischen Krise zu tuen, die nur Leute mit Investiertem Geld in die Krise treibt.
 
Bringt AMD/ATI hoffentlich weiter nach vorne. Konkurrenz belebt das Geschäft.
 
Ich will will will will will die haben ^^
 
Ah, ein neuer Pixelschupser! Ich bekomme feuchte Augen wenn ich die Leistungsaufnahme sehe. Am besten per Kraft-Wärme Kopplung Badewasser erwärmen, während man Crysis *duck* spielt :-)
 
Im Artikel wird eine ca. 1 Jahr alte Nvidia Karte mit einer Nagel Neuen / Neueste Generaltion Grafikkarte von ATI Verglichen. Wär das gleiche wenn ich sage der i9 ist um Welten besser als nen Ph I 9950 ist...
 
@Maetz3: Dort wird die aktuell schnellste LIEFERBARE Ati mit der aktuell schnellsten nVidia verglichen! Wo ist das Problem? Wird bei High-End-Grafikkarten immer so gemacht. Was kann Ati dafür, dass nVidia nichts aktuelleres liefern kann?
 
@Maetz3: Wenn nvidia was neues auf dem markt hätte, dann würde damit verglichen werden. Was erwartest du bitte? Natürlich wird mit den "alten" gforce verglichen
 
@Maetz3: an die Minusklicker... die GeForce GTX 295 wurde damals im Dezember 08 ins rennen geschickt um mit der Radeon HD 4870 X2 zu Konkurieren. Nun wird diese mit der neusten Grafikkartengeneration verglichen.... was ist das denn für ein Vergleich??? Objektiv jedenfalls nicht. Edit: man kann werte Angeben und sagen derzeit schnellste Grafikkarte, aber vergleichen bringt ja in dem sinne nichts. Gibt ja nichts womit man vergleichen kann
 
@Maetz3: Natürlich macht das sinn. Oder findest du es nicht auch sinnvoll wenn getestet wird, wie schnell die neuen GTX 240 (DX10.1) etc sind? Nach deinen kriterien nicht, da man "eh schon weiß", dass sie keine geschwindigkeitsrekorde aufstellen werden.
 
@Maetz3: Dennoch ändert es nichts daran, das es die schnellste Graka derzeit auf dem Markt ist. Es steht NVidia frei dies zu ändern :).
 
@Maetz3: ntürlich ist das objektiv. vergleich schnellste nvidiakarte mit schnellster atikarte. der leistungsunterschied zeigt wie viel mehrleistung die atikarte dir bringen würde. was sollen die tester machen? sich selbst eine neue nvidiakarte löten damit die releasedates übereinstimmen? nvidia bietet derzeit nun mal nicht mehr als die gtx295
 
Falls es die "Verbraucht zu viel Strom Jammerer" interessiert.. Ich habe vor 2 Jahren intensiv mit 3 Pcs für Boinc gerechnet. Ca. 1 Jahr. Jahresabrechnung Strom = 40 Euro zuzahlen. Da die 3 Pcs aber sehr viel wärme produziert haben (Umluft-erhitzer), brauchte ich in der kalten Jahreszeit kaum die Heizung anstellen, da die Pcs ordentlich geheizt hatten. Hatte immer so 20-21°C in der Wohnung. Jahresabrechnung Heizung = 75 Euro Gutschrift. Ergebnis: Gutschrift 75 Euro - Stromnachzahlung 40 Euro =Einsparung von 35 Euro. Ich versichere Euch , dass ich die Wahrheit schreibe. Daher kann man hohen Stromverbrauch nicht allgemein verurteilen. Es kommt immer auch die Hintergründe an.
 
@Pegasushunter.: Und du hast nicht diverse Glühbirnen durch Energiesparlampen ersetzt, seltener das Licht eingeschaltet oder vielleicht einen wärmeren Winter als im Vorjahr gemacht? Dein "Bericht" hinkt vorn und hinten, sorry. Das ist absolut kein Vergleich.
 
@satyris: Ich habe die ganze Wohnung, seit 3 Jahren, mit Energiesparlampen mit hoher Schaltfestigkeit ausgerüstet. Wie die letzten 3 Winter wahren, kannst Du gerne selber recherchieren. Da hinkt gar nichts. Selbst wenn ich +/- Null gekommen wäre, wäre es ok gewesen. Aber dass Du solche mathematischen Rechnungen anfechtest, war mir im Vorhinein klar.
 
@Pegasushunter.: Mit Strom zu heizen ist immer teurer als Gas/Öl. Deswegen fechte ich eine mathematische "Rechnung" an, bei der das Heizen durch PC's günstiger sein soll, als das Heizen durch Gas-/Öl-Heizungen. Und deine Wohnung ist kein exakt kontrolliertes Labor, von daher wäre ich mit solchen "Beweisen" wie du sie lieferst sehr, sehr vorsichtig.
 
@satyris: Hier wird mit "Fernwärme" geheizt. Außerdem geht es um das Thema Kosten für den Endanwender. Um nichts anderes. Ich habe auch nichts anderes behauptet. Wenn der PC die Wohnung heizt, der Nutzer deshalb seine Heizung nicht aufdrehen muss und bei der Endabrechnung 35 Euro Spart, hat er was davon ? Genau 35 Euro mehr im Geldbeutel. Nur darum geht es. Mir schleierhaft, wie Du einmal auf Gas/Ölheizung kommst, aber wird schon seinen Grund haben. Es geht hier um erlebte Fakten. Deine theoretischen Gedanken/Argumente spielen da überhaupt keine Rolle. EDIT: Um es kurz zu machen: Ich behaupte (und habe bewiesen) Dass ein PC mit hohem Stromverbrauch nicht unbedingt Mehrkosten für einen 2 Personenhaushalt bedeutet.
 
@Pegasushunter.: Ich rede davon, dass deine Behauptung nicht aus einer kontrollierten Umgebung kommt. Wenn deine Wohnung das ganze Jahr über nur ein halbes Grad kälter war kannst du deine 75 Euro schon eingespart haben. Es ist NICHT reproduzierbar und NICHT belegbar, dass deine geringeren Heizkosten WIRKLICH von den höheren Stromkosten für's PC-Heizen kommen. Da du das offensichtlich nicht begreifst endet die Diskussion hier jetzt für mich.
 
@Pegasushunter.: Was interessiert es denn, ob du am Jahresende "nur" 40 Euro zuzahlen musstest? Liefen die 3 PCs nicht 24/7 hättest du eben 400 Euro zurück bekommen... (bei Annahme von ca 200W Verbrauch).
 
endlich kan ich crysis vernünftig zocken
 
@null_plan: Dafür mussten deine Sprachkenntnisse federn lassen.
 
Ich hab alles schon quer Beet probiert, ob nV o. AMD. Das was ich gemerkt hab, es hängt extrem vom System ab. Wenn ich ein System hab das mit nV richtig gut läuft, ist das aber keine Garantie das AMD genauso werkelt. Ich benutz grad eine 285GTX und bin zufrieden, genau wie vorher den AMD-Karten. Bei AMD hat man nur das Gefühl dazu das man was gespart hat :-) . Solange es min diese beiden großen Anbieter gibt, kommen alle günstiger weg. Solche Rechenleistung die wir heute haben hätte vor nen paar Jahren zig-Tausender gekostet und nV holt natürlich wieder auf (muß ja auch und haben sie eh schon in der Entwicklung).
 
passt zu der meldung heute das ab jahresanfang die strompreise um 5 - 9 Prozent wieder steigen, auser die kiddis wo das die eltern finanzieren.
 
Der Positivtrend von AMD ist schon bemerkenswert! Alle Achtung! Jetzt könnten Sie sich ja Intel als nächstes Ziel stecken und denen mit der schnellsten CPU in den Arsch treten. Startkapital gab es ja schon von Intel :-) Ich tippe mal auf 2012 falls die Welt dann nicht untergeht :-)
 
@[o2] exqZ

ich muss schon sagen, nette Score die du hast :D

Ich frag mich, wie man die Karte nur vernüftig produzieren will, es gibt ja kaum welche mit einer solchen GPU
 
Zitat "Die Nvidia GeForce GTX 295, ebenfalls mit zwei GPUs, kommt hier bloß auf 38 Bilder."
Die GeFrorce GTX 295 ist auch nen Bisschen älter als die Neue ATI karte. Ich hoffe einfach mal auf einen Gegenschlag von Nvidia.
 
Die Benchmarks kann man bis jetzt sowieso vergessen bevor die Treiber an die neuen Modelle oder die Spiele an die neue Hardware angepasst ist , es liegt noch zuviel Leistung brach bei den neuen Karten , wartet mal die neuen Games ab was dann für ein Sprung kommt :) mir tut es natürlich Leid für Nvidia das sie solche Probleme haben aber als ATI-Nutzer ist mir das auch bißchen egal :) nur sollte ein Konkurrent bleiben damit die Karten nicht ins unbezahlbare rutschen :)
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles