Angriff von AMD/ATI auf Nvidia zeigt schon Wirkung

Wirtschaft & Firmen Der Angriff von AMD/ATI schlägt sich bereits deutlich in den Quartalsergebnissen des Grafikchip-Produzenten Nvidia nieder. Der Umsatz ging in den letzten drei Monaten massiv zurück. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das finde ich schade. Finde die Firmen hätten sich nicht zusammen tun sollen. Nvidia leidet momentan sehr viel.
 
@Jetiman:

AMD hat ATI geschluckt und nicht Nvidia. Und AMD als solches geht es gar nicht gut (die Frage wie lange es die noch unter dem Namen gibt).
 
@Jetiman: Wer Schrott produziert muss leiden, ist doch ganz normal. @JTR: Vielleicht gehen ja beide pleite, dann haben wir keine guten Hersteller für Grafikkarten mehr ^^
 
@RegularReader:

Ach Intel soll ja nächsten Jahr mit Larabee kommen, von daher. Und bis dahin wird mein neues SLI System noch locker hinhalten. Ich mach mir keine Sorgen :)
 
@JTR: es geht ja auch mehr um die fehlerhaften GPUs im Notebook Bereich, die Nvidia im Moment so richtig Sorgen bereiten. Die Desktop Karten sind equal zu ATI, ich selber habe ATI
 
@Jetiman: bist du noch zu retten?^^ ohne konkurenzkampf gehen die preise steil nach oben
 
@Jetiman: Ich finde dein Beitrag klingt irgendwie so als wenn du gleich weinen musst weil Nvidia so leidet ^^
 
@JTR: wow einmal ein beitrag ohne deine neuen grafikkarten zu erwähnen..
 
@vires:

Ich empfehle mal dies zu lesen, und du begreifst vielleicht warum ich sie so empfehle: http://benchmarkreviews.com/index.php?option=com_content&task=view&id=238&Itemid=72&limit=1&limitstart=14. Ich habe diverse Benchmarks im Netz zusammengesucht, und den Hype um die HD4xxx Serie von ATI kann ich überhaupt nicht teilen. Hatte jahrelang ATI, aber für mich sind die inzwischen gestorben, nur schon weil 90% aller Spiele auf Nvidia optimiert sind, und weil die Treiber bei Nvidia (sie sind auch nicht perfekt) doch besser sind, als das was ATI abgeliefert (bzw. abgeliefert hatte, als ich noch ATI Karten hatte).
 
@JTR: nvidia Treiber sind auch voller Fehler und das schon seit Jahren VRAM Bug usw Also erzähl nicht so einen Mist. Es gibt überall Leute die Treiberprobleme haben, egal on nvidia oder ATi. Und so toll sind die GTX260 ² Karten auch nicht, kauft man einen 4870 mit 1024MB VRAM sind beide wieder gleich auf...
 
@Schnubbie: der vram bug ist ein hardware bug
 
@JTR: Ah, ja. Du bist im Moment im Bilde, wie es mit aktuellen Treibern der aktuellen ATI-Karten steht? Was heißt hier als ich "noch" [...] hatte? Wie lange soll das den bitte her sein? Hast Recht, vor der Übernahme seitens AMD waren die Treiber nicht gut. Aber ab der Übernahme kamen bis jetzt immer bessere Treiber raus. Und die sind nicht zu verachten. Auch was dabei an Leistung noch rausgeholt wird. 90 % der Spiele nVidia-optimiert? Woher hast du denn bitte diese Zahl? Schätzung? Dann kannst ja gleich als Politker weiterarbeiten. Und was du am Hype um HD 48xx nicht verstehen kannst, liegt wohl daran, dass du ein Nvidia-Fanboy bist. Denn die momentanen AMD-Karten bieten ein deutlich besseres Preis-/Leistungsverhältnis im Gegensatz zur GTX 200. Das ist der Knackpunkt.
 
@HardAttax:

Schau dir mal an, wie oft dich ein Nvidia anlacht beim Start eines Spiels? Klar ist das PR Gehabe, Fakt ist dass aber die Mehrheit der Publisher (Activision Blizzard, EA, Ubisoft) eng mit Nvidia zusammenarbeiten. Bei ATI bleibt da nur eine handvoll Studios wie Valve. Und Preisleistungsverhältnis muss man relativieren. Wenn ich eine neue Anschaffung mache, soll die möglichst lange herhalten. Und die überarbeitete GTX-260 Version ist darin wirklich gut. Und Nvidia Fanboy bin ich nicht, eher entäuschter ehemaliger ATI Nutzer. Ich kann dir ja aufzählen wieviele ATI Karten ich schon hatte (Radeon 9500 bis X1900XTX, dazwischen diverse) und dann bin ich wieder zurück zu Nvidia gewechselt auf die 8800GTX. Und die Radeon HD4870 konkuriert genau mit einer GTX-260 der ersten Generation, nicht aber mit einer GTX-280 oder der neuen GTX-260. Bei Filtering ist ATI besser, bei hohen Auflösungen Nvidia. Je nach dem was einem nun wichtiger ist, greift man zum einen oder anderen Hersteller. Ich habe absolut nichts dagegen wenn sich jemand eine ATI kauft. Ich empfehle nur was anderes, aber damit kann ich leben.
 
@Jetiman: Dafür haben sie vor der HD 4800er Serie die Karten auch ziemlich überteuert verkauft, da sie nicht wirklich eine Kongurenz hatten.
 
@JTR: Äh, nein. Nicht ganz. In hohen Auflösungen arbeiten die AMD-Karten teils besser als die nVidia-Pendanten. Nvidia = Nidriege Auflösungen: TOP. AMD = Hohe Auflösungen: TOP. Ja, bei Filtern arbeitet die AMD-Seite besser als Nvidia. Aber das auch nur in hohen Auflösungen. In niedrigen Mainstream-Zocker-Auflösungen 1024x768 und 1280x1024 arbeiten die Filter von Nvidia besser. Ich hatte die ATI 3D Rage pro, 9800 pro, die x800 und x1900 XT. Leihweise GF 5400 FX auch 7900 GT und 8800 GT und seit 3 Monaten eine HD 3850. Und ja, die 8800-er Reihe hat Leistung durch Spieleoptimierung, aber ständig nur Probleme. bin aber dennoch AMD-Seite rüber, da ich damit zufriedener bin und nicht mehr Leistung brauche.
 
@HardAttax:

Ich sags mal so, ich habe die ganze Kalkulation im Excel anhand diverser Daten aus dem Netz für die für mich wichtige Auflösung von 1920x1200 gemacht. Und dabei kam ich zum Schluss, dass eine SLI (sofern Nvidia, und dabei wollte ich bleiben, weil ich den Wechsel von ATI auf Nvidia alles andere als bereut habe) mit zwei GTX-260 das optimalste sei. Und nun habe ich sogar noch die überarbeitete Version die stark übertaktet ist (650MHz anstatt 575MHz).
 
@JTR: Das man optimal steigern kann, dürfte bei deinem Unsinn noch zu vernachlässigen sein. 2 mal GTX 260? Das gehört zu den sinnlosesten Sachen, die ich seit längerer Zeit gehört habe. Und ich stoße auf genug nVidia-Fanboys. Dein SLI-System ist schwächer als die 4870x2, kostet 40€ mehr und zwingt dich dazu eines dieser ätzenden nVidia-SLI-Boards zu kaufen (die den P35/P45ern von Intel P/L-mäßig unterlegen sind). Ganz nebenbei ist für deine Auflösung 1920x1200 eine GTX 280 (selbst) übertaktet (nein, du verlierst nicht die Garantie) die beste Variante, weil sie selbst Crysis bei gleich guter Grafikqualität ruckelfrei darstellen kann (nein, bei einem Dual-GPU-System sind 34 FPS nicht ruckelfrei). Und bei welchem Spiel können dir die 2 GTX 260 im SLI denn eine bessere Grafikqualität ruckelfrei darstellen, als eine GTX 280? Außerdem sind Dual-GPU-System kurzlebig im Verhältnis zum Preis, du wirst die beiden Grafikkarten nicht länger behalten können, als du eine einzelne GTX 280, das garanterie ich dir. Vor deinem nächsten GraKakauf tue folgendes: Schalte deinen Bildschirm auf monochrom (oder wenigstens in den Rot-Grün-Blindheitsmodus), vergleiche die Karten (und zwar: bei welcher Karte sind, bei meinen Spielen die höchsten Einstellungen bei meiner Auflösung ruckelfrei darstellbar, Dual-GPU-Karte nur wenn es keine einzige Single-Möglichkeit gibt und für die gilt dann: ruckelfrei ab über 45 FPS. Übrigens, schau dir mal den Unterschied von einem Crysis Screenshot bei 1920x1200 und 1680x1050 2xAA, Very High an, sei aber nicht allzu entäuscht...
 
@Jetiman: Ja, diese armen Firmen. Tun mir auch richtig leid. Nur 61,7 Millionen Überschuss, traurig. Ich leide richtig mit, kann mir schon vorstellen wie es ist, wenn ich mal nur 61,7 Millionen Überschuss habe. Vielleicht müsste ich dann sogar auf meinen 300. alljährlichen Porsche verzichten? Schlimm dieser WETTBEWERB. Dagegen sollte was unternommen werden! Ist wie bei Sportarten, ständig verlieren so viele. Kann ja gar nicht angehen. Warum warten die beim Marathon vorne nicht auf die, die eben etwas langsamer sind? Total ungerecht sowas. Ich hasse diese gemeine Welt. Alles ist so traurig. *schnüff*
 
@JTR: Dein Kommentar stimmt bzgl. 4870 vs. GTX 260 nicht. Die neue GTX 260 wurde aufgelegt, weil die alte der 4870 unterlegen und dazu noch teurer war. Ich bin immer noch zufriedener ATI-Benutzer. Bei hohen Auflösungen ist übrigens auch ATI besser. Im übrigens kommt es absolut aufs Spiel an und wie da die Renderpfade optimiert wurden.
 
@tinko: Ruckelfrei ist aufgrund grundlegender Eigenschaften des menschlichen Auges ab 30 fps. Gibt sogar eine entspr. Untersuchung einer deutschen Uni.
 
@Jetiman: jA,ja, ich leide auch sehr viel:habe nur 350€ im Monat.
 
Der echte Trumpf wird sein, wenn sich NVidia von Apple kaufen läßt. :)
 
@Dario: um Himmel Willen, NEIN!!! Denn dann wird von mir keine nVidia Karte mehr gekauft! Selbst wenn die super gut wären, was in meinen Augen unter Aplle nicht möglich ist, würd ich die aus Prinzip nicht kaufen weil Apple daran verdient!!!
 
@Schweini: Ich kauf Nvidia auch so schon nicht mehr. Früher waren die mal genial, aber die haben stark abgebaut und sich von Ati (AMD) überholen lassen
 
@RegularReader: Das geht immer im Wechsel lässt sich zurückverfolgen bis hin zur ati radeon 9800 pro
 
@Dario: igraphics powered by nvidia, eine überteuerte grafikkarte in apple plastik und aluminium... ich kauf sie nicht ^^
 
@Dario: Dann steigen die Preise einer Nvidia Karte erstmal kräftig an ^^ Schliesslich ist dann ein Apfel drauf :)
 
@Dario: Hoffentlich hat das Apple nicht gehört, sonst kommen die noch auf dumme Ideen.
 
@Dario: Joar das wäre echt lustig. Glaube aber nicht, dass Apple nvidia leisten kann(?)
 
@Dario: mhh... das würde dann heißen, dass auf Hardware von Apple Windows (u.a.) laufen würde oO ... kann ich mir nicht vorstellen :D
 
@sabisabi: Apple ist nach Microsoft die reichste Firma. Im übrigen war das ironie, ihr dürft mich ruhig positiv bewerten. *lol*
 
während in villariba noch geschrubbt wird, wird in villabajo schon gefeiert :)
 
@FloW3184:Du hast ja soooooooooo recht! =)
 
Oder liegt es vielleicht einfach nur daran das momentan sogut wie sämtliche Firmen starke Verluste durch die Finanzkrise vorweisen. Und nicht an der Abwerbekapmagne durch AMD/ATI.
 
@sertan_ka: Die Finanzkrise kann nicht an allem Schuld sein, ich denke das lässt sich belegen das AMD/Ati da gut zu beigetragen hat dass es bei Nvidia zurückgeht.
 
@RegularReader: Muss ich zustimmen, AMD/ATI hat einfach das bessere Preis-Leistungsverhältniss und viele kaufen sich halt lieber eine HD 4850 oder 4870 die wesentlich billiger ist aber auch leistungsmässig vollkommen ausreichen..
 
@ADK_NeoX:

Nvidia kontert mit der überarbeiteten Version der GTX-260 momentan nicht schlecht.
 
@JTR: Tja ich bin mit meinen zwei 4850 für 280€ voll und ganz zufrieden. Keine Treiberprobleme oder sonstiges und eine GTX 260 kann da niemals mithalten.
 
@JTR: ich denke das sieht anders aus: nvidian wie deren fanboys kontern momentan sehr sehr schlecht.
@sertan_ka: ich habe alles mitverfolgt und amd hat sich seinen arsch aufgerissen und nvidia war verpeilt und deswegen ist das so - finanzkrise hin oder her
 
@sabisabi: NVidia ist einfach nur zu teuer, an der Technik liegts nicht.
 
@Aspartam: An der Technik liegt es, dass sie so teuer sind, wäre der GT200-Chip nicht so ein Fiasko gewesen, wäre er längst auf 45nm, hätte höhere Yield-Raten und weniger Probleme, all das treibt den Preis. Und du musst bedenken, dass ATi mit den 4xxxer noch ordentlich Gewinn macht, während nVidia am Limit verkauft.
 
@tinko: "an der Technik liegts nicht" bezieht sich auf die Leistung der Karten, nicht auf den Preis, stell Dich doch nicht blöder als Du bist! NVidia hat immer noch die *mit Abstand* schnellste Single GPU.
 
Ich habe mir grad aktuell zwei GTX-260² Amped Edition von Zotac geholt. Für je 390.-CHF (260€) und diesselbe Leistung einer GTX-280, kann man nicht viel sagen.
 
@JTR: Wie oft willst du die WF-Leser noch mit deinem Neueinkauf nerven. Ist schon dein zweiter Beitrag hier zu dieser News. (-)
 
@JTR: Also ich seh die Karte nur für 300€ und das ist eine! Link pls! und für 300€ Krieg ich auch zwei HD 4850 die schneller sind als zwei GTX 260 laut Gamezone.
 
@JTR: LOL, wie du das jedesmal mit der vollen und exaten Bezeichnung nennen musst ^^
 
@ADK_NeoX:

Je nach dem welche Spiele, bei meiner Kalkulation hat ein SLI mit 2x GTX-260 weitaus am besten abgeschnitten und daraus resultierte meine Kaufentscheidung. Und ich hatte lange Zeit ATI, aber die Treiber sind einfach der Horror und zudem werden eigentlich heute 90% aller Spiele auf Nvidia optimiert. Von daher ist ATI für mich keine Option mehr (hatte von Radeon 9500 bis X1900XTX ATI). Quelle: digite.ch (Deeplink: http://www.digitec.ch/ProdukteDetails2.aspx?Reiter=Details&Artikel=157297).

@RegularReader:

Was ist gegen eine exakte Bezeichnung einzuwenden? Wenn jemand Benchs lesen will etc. braucht er diese. Zum Beispiel diese: http://benchmarkreviews.com/index.php?option=com_content&task=view&id=238&Itemid=72&limit=1&limitstart=14
 
@JTR: inkl. mehr Stromverbrauch, mehr Platz, mehr Abwärme... auf langer Zeit lohnt sich diese Strategie glaub ich nicht, falls 2 260er so schnell sind wie 1 280er.
 
@JTR: Dagegen ist prinzipiell nichts einzuwenden, außer es erscheint mehrmals unter den News. Ich hab eine ATi Radeon HD 3870 und bin sehr zufrieden damit. Alle Spiele laufen bislang auf Maximaleinstellungen flüssig und Treiberprobleme habe ich auch keine, das trifft eher auf Nvidia zu. Und von der angeblichen Spieleoptimierung auf Nvidia merkt man auch kaum was.
 
@JTR: ja, das du angeblich bereit bist viel geld auszugeben wissen wir doch mittlerweile. dein puller wird durch mehrmaliges herausposaunen aber auch nicht größer.
 
@JTR: du hast neue grafikkarten gekauft.. WOW.. welch leistung.. und dazu noch recht teure.. und jetzt willst dein gewissen beruhigen indem du uns allen immer und immer wieder auf die nase bindest wie gut doch diese grakas sind..
nimm deine grakas und geh spielen.. aber lass uns in ruhe
 
@tilip:
Lesen ist nicht deine Stärke was: eine GTX-260² ist so stark wie eine GTX-280. Sprich es gibt kein Grund mehr eine GTX-280 zu kaufen. Und eine HD4870 ist so stark wie eine normale GTX-260 weitaus langsamer als ne GTX-280 oder GTX-260². Das zwei bei der neuen Version steht nicht für Dual sondern Version 2.
 
@all:
(ironie on)
Ladies and Gentlemann,
Das wird heute ein Kampf der Giganten!
In der linken Ecke steht "vires" und in der rechten "JTR". "JTR" zückt seine 2 GTX-260 und prescht auf ihn los, doch ein Bug bringt ihn kurz vorher zu Fall. Nun ist es die Chance von "vibes", er knüppelt mit seinen ATI,s auf ihn ein, doch was ist das?
Ein Shader-Ladeproblem lässt seine Arme verschwinden und "JTR" hat nun die Gelegenheit zu kontern. Er springt auf greift nach einer GTX-260, die in diesem Moment abraucht. Es sieht wahrlich nicht gut aus für beide.
Das war es mal wieder. Ich verabschiede mich für heute und bin sicher, dass ich euch demnächts zu einem weiteren spannenden Kampf zwischen Nvidia und Ati begrüssen darf.
Bis dahin noch ein schönes Wochenende :)
(ironie off)
 
@JTR: Jetze kannste Crysis auf UltraHigh flüssig mit 50 fps spielen wa? xD
 
@HardAttax:

Crysis interessiert mich ein Scheissdreck, ich kaufe so eine Lösung um die nächstne 3 Jahre Ruhe zu haben, und das werde ich mit der Ausrüstung. Ich habe mich durch diverse Benchmarkstests aus dem Netz gewühlt und verglichen, ehe ich so eine Anschaffung mache. Meiner Meinung stellen diese Karten zur Zeit das beste Preisleistungverhältnis dar. Wer einen gut gemeinter Rat ausschlagen will, bitte. Er soll dabei aber bitte fair bleiben. Den Kampf gibt es nicht, weils mir Wurst ist wer was kauft, ich wollte nur helfen und lasse jedem seine Meinung, erwarte aber dass man die auch mir lässt.
 
@JTR: Ist ja schön und Gut, dass es für dich das im Moment beste P/L-Verhältnis bietet, aber bitte nicht andere damit nerven. Ach ja, die Stromrechnung solch eines Konzeptes ist auch nicht zu verachten. Das müsstest du mal aufrechnen, und im Gegensatz zu anderen Karten als Vergleich stellen. Dann wirst du sehen, dass deine Grafiklösung für die gebotene Leistung am Ende mehr Geld kostet, als andere Karten im Vergleich. Und btw: Deine Meinung kannst du gerne haben. Ich habe dazu meine Meinung und Crysis war ironisch gemeint :) mfg HardAttax
 
@HardAttax:

Weiss ich aber dennoch nicht mehr als eine HD4870 X2. Zudem kann ich so später eine Karte auf Physik und die andere auf Grafik rechnen lassen. Und ich wollte einfach mal ein SLI testen.
 
@JTR: ... wer glaubt, mit einem solchen Gespann für 3 Jahre Ruhe zu haben, macht sich doch selber etwas vor - und das weißt du auch ganz genau ... :)
 
@Thaquanwyn:

Quatsch, die 8800GTX ist jetzt bei mir 2jährig und reicht eigentlich immer noch (spiele damit eigentlich alle aktuellen Spiele ausser Crysis bei 1920x1200 ohne Filtering).
 
@ADK_NeoX: Dann täuscht Gamezone sich aber.
 
@JTR: 3 Jahre? und das hättest du mit einer einzigen 4870 nicht geschafft? Mal ganz im Ernst, du scheinst mir ein wenig balkensüchtig zu sein, nicht war? Vielleicht wollen wir mal ein paar Grundlagen der Grafikkartenkaufentscheidung wiederholen. 1. Dual-GPU-Systeme haben unregelmäßige Frametimes, damit ruckeln sie auch bei höheren FPS, wenn du einfach denkst FPS = FPS, dann tuts mir Leid... 2. 3 Jahre sind eine Illusion. Rechne mal 3 Jahre zurück, da hatten dir die 7900 GTX. Reichen 2 7900 GTX heute? nein. Was haben die damals gekostet? Ein bisschen mehr als 2 GTX 260. 3. Man kauft keine GraKa-Leistung, die man morgen braucht, man kauf GraKa-Leistung, die man heute braucht. Zeig mir ein Spiel außer Crysis, das du mit einer 4870 auf 1920x1200 nicht flüssig spielen kannst. Die 4870 hätte dich nur 200€ gekostet (ich weiß, Preis steigt, ist der Euro dran Schuld, heute 210€ oder so, sofort lieferbar, alle anderen Angebote wären Unsinn), und die hätte wenigstens 1 Jahr - 1,5 Jahre gehalten, denn Single-GPU-Karten verfallen nicht ganz so schnell (wenn dich der Grund interessiert, frag nach, das führt aber etwas weiter). 4. Man bezahlt für sichtbare Unterschiede. Schau dir mal ein paar Crysis Screenshots an (ja, geht auch mit anderen Spielen) mit durchdachten Settings, da kriegt man ohne sichtbare Unterschiede auch Settings hin, die man mit Mainstream-Grakas spielen kann. 5. alles über 30 FPS (bei Single-GPU) hilft dir nicht weiter. Und wenn es sein müsste, dann hätte es immer noch eine einzelne GTX 280 gemacht, selbst übertaktet, dann findest du echt keine Grenzen.
 
@tinko: Drei Jahre glaube ich gerne. Ich habe bis vor drei Monaten *alles* mit meiner betagten Radeon 9600 Pro gezockt, ohne mich an der Grafik zu stören. Die Generation stammt noch von 2003. Ich hätte jetzt mit dem neuen PC eigentlich eine HD4850 gehabt, aber die Serie von Club3D funktionierte nie. Jetzt habe ich eine HD4870 von Gainward und werde wohl die Karte bis zum nächsten PC behalten (und frag mich nicht, wann der gekauft wird... wahrscheinlich in frühestens 3 Jahren, tippe aber eher auf 5 Jahre, da ich dann wohl eh weniger PC Spiele spielen werde). Ein SLI-System für 3 Jahre zusammenzusetzen ist aber Unsinn in meinen Augen. Lieber eine Karte kaufen und dann das gesparte Geld in zwei Jahren oder früher schon in eine neuere Generation mit mehr Leistung stecken... und dabei alle Treiberprobleme die durch SLI verursacht werden los sein. Zudem kann ich jetzt mit meiner HD4870 wirklich *alle* Spiele auf maximalen Einstellungen spielen, die mir Windows XP erlaubt (Crysis also auf High in 1920x1200 bei 30 - 50 FPS).
 
@3-R4Z0R: Was du sagst ist natürlich richtig. Aber wir haben mit dir und JTR zwei unterschiedliche Gamer. JTRs Kaufentscheidung lässt keinen Zweifel daran zu, dass er seine Spielegrafik im höchsten Segment ansiedeln will und das altert sehr schnell.
 
@tinko: Das höchste Segment altert wirklich verdammt schnell. Meine GraKa schlägt ja eine 8800 Ultra locker, obwohl die Karte vor weniger als einem Jahr noch das Topmodell darstellte... und kostet dabei deutlich weniger als die Ultra dazumal. Ich wäre selber trotzdem lieber bei der HD4850 von Club3D geblieben, aber wenn die Gainward HD4870 eines Kumpels perfekt funktioniert, dann nehme ich eine solche und erspare mir weitere Probleme. Hatte neben der Leistung noch einen weiteren, eher unerwarteten Vorteil: die neue Karte ist leiser und kaum heisser als die HD4850. Lustigerweise heizt sie mein Zimmer auch noch weniger stark auf, kann mir das aber nicht erklären.
 
@ALL: JTR freut sich in meinen Augen gerade über einen Hammereinkauf. Wenn ich mir was Tolles leiste, erzähle ich es auch gerne herum - allerdings nur bei guten Freunden, die mir dafür auf die Schulter hauen und sich neidlos mit mir freuen können, und nicht im Internet, wo ein Haufen neidzerfressene, kleinkarierte charakterliche Kümmerlinge mich in der Luft zerreissen würden. +++++ JTR, Du hast Deine Lektion gelernt: Wirf Deine Perlen nicht vor die Säue, damit sie nicht zu Dir umdrehen und Dich nicht zerreissen. Ob Dein Kauf angesichts einschlägiger Tests von Mid-Range-SLI-Setups vs. Highend-Single GPU-Setups so sinnvoll war, die alle was anderes sagen, steht auf einem anderen Blatt, und ob Dein System drei Jahre hält wage ich genauso zu bezweifeln wie dass Du eine Bildschirm-Auflösung fährst für die weniger Leistung einfach nicht reicht (aber vielleicht hast Du ja ein Triple Head System mit 3 1080p-Monitoren), aber das ist wirklich Deine Sache. Selber habe ich nach längerem Überlegen eine HD48070 1 GB einer GTX 260 216 Shader-Variante vorgezogen, weil sich beide Karten nichts schenken, ich mit ATI seit meiner Radeon 9700 immer zufrieden war, und es für die ATI-Karte sehr gute und günstige Low Noise-Kühler gibt, was mir wichtig war. In spätestens zwei Jahren gibt es ein komplett neues System mit neuem Mobo, neuen Speicher, neuer CPU und neuer Graka, und in 3 Jahren sind sowohl Deine Grakas als auch die anderen Komponenten altes Eisen, wenns ums Spielen geht. Sieh Dir doch die Entwicklung an. Vor drei Jahren waren die Radon X800-Karten top - die kannst Du heute vergessen. Jetzt denk noch mal über "GTX 260 in 3 Jahren" nach. :) +++++ Diese widerliche Zurschaustellung blanken Neides und blanker Missgunst Dir gegenüber finde ich jedoch einfach zum K0tzen.
 
@Maximus1: Du erbärmliche kleine Neidnatur.
 
Wenn man sie die Zahlen der letzten Jahre mal anguckt, dann sieht man das solche Schwankungen durchaus normal sind. Geht quartalsweise immer hoch und wieder runter. Brauch man jetzt IMHO nix großartiges reininterpreiteren.
 
@DennisMoore: Um es mal mit den Worten von Paul Panzer auszudrücken: "RÜÜÜÜSCHTÜÜÜÜSCH!" Ich weiß gar nicht, was die hier alle so jammern! AMD/ATI haben ihre Durststrecke nun hoffentlich hinter sich und nVidia eben vor sich. Wenn es diesen Konkurrenzkampf nicht geben würde, wären die Graka-Preise nicht dort unten, wo sie jetzt sind. nVidia wird sich auch wieder erholen, wobei dort ja immer noch Gewinn in mehrstelliger Millionenhöhe eigefahren wird. Bei Verlusten unterm Strich würde ich mir Sorgen machen.
 
Nur noch 61,7 Millionen Dollar sind als Gewinn übrig geblieben, wie traurig. Vielleicht hat die Merkel ja noch paar Mitleidsmillionen für Nvidia übrig...
 
@citrix: Das Schlimme ist eher, dass bei diesem Gewinn trotzdem ziemlich viele Mitarbeiter gehen müssen... Scheiß Aktiengesellschaften! Die rechnen ja einen Rückgang im Gewinn schon gleich als VERLUST! Lange wirds so nen Unsinn hoffentlich ncihtmehr geben... Sieht man ja an den USA, dass es langsam den Berg runterrollt
 
@FloW3184: Nein, sie rechnen den nicht als Verlust, sondern denken in die Zukunft und sehen, dass der Verlust kommen wird. Wer Scheisse gebaut hat, die dann von einer Rezession gefolgt wird, muss sich auf *verdammt* harte Zeiten gefasst machen. Während einer Rezession neue Kunden zu gewinnen ist extrem schwierig. Die USA sind eh ein Spezialfall... da hat die Bevölkerung und deren Mentalität die Krise verursacht. Es funktioniert einfach nicht auf Dauer, wenn jeder einzelne Haushalt ganze 10'000 USD Kreditkartenschulden hat. Gerechnet auf die ganze amerikanische Bevölkerung sind das satte 3'000'000'000'000 USD oder drei Billionen Dollar. Und wenn Deutschland in der Verschuldung einen ähnlichen Weg geht (und das tut Deutschland dank der hervorragenden Regierung die da gewählt worden ist...), wird's in Deutschland bald auch so aussehen wie in den USA. Viel Spass wünsche ich euch mal.
 
..........ich hab gestern für 3800 Euro Malediven Ferien gebucht....bin ich jetzt auch ein Held ?
 
@Tomato_DeluXe: frag mal JTR ob er dir sein "neues SLI System mit zwei GTX-260² Amped von Zotac" leiht damit du dort auch deinen spaß hast^^
 
@TTDSnakeBite: looool +
 
@TTDSnakeBite: hahaha, you made my day. [+] haha, geil ich kann nicht mehr...roflmao
 
@HardAttax: omg
 
@Tomato_DeluXe: Hast du kein WoW? :-) JTR konnte für gerade mal 600€ zwei GTX-260² Amped Edition von Zotac kaufen. Und schau mal wie cool er jetzt ist. hättest du dir mal drei GTX-260² Amped Edition von Zotac gekauft oder so... Mensch von dem Geld kannst du 3 Generationen lang hypercool sein.
 
Ich denke nicht, dass das was Nvidia verlorgen hat auf AMD/ATI übergeschwappt ist... Das es der wirtschaft nicht gut geht spielt da sicher auch mit rein. Denke mal das nur weniger bei Nvidia gekauft wurde. Und zu den Treibern, ich kann nur meinen Vorrednern zustimmen, kein Treiber ist Fehlerfrei, mein AMD/ATI System läuft ohne Probleme. So then nice day!
 
@Drnk3n: Wenn du schon meinst, englische Sätze in einem deutschem "Forum" oder einer deutschen Newsseite in der Kommentarfunktion zu Tage zu fördern, dann formulier bitte wenigstens richtiges Englisch und kein Urwald-Englisch... thank you
 
@citrix: Das war kein Satz, das waren 4 Wöter und klugscheißen kannst woanders... man sind hier immer alle pingelig!
 
Man stelle sich Fanboys vor, egal aus welchem Lager, gebe ihnen Waffen und ließe sie in das Kolosseum im Rom: Es wäre der dritte Weltkrieg!
 
@Necabo: aber nur in entsprechender auflösung...
 
@Mr. Cutty: mit ne ATI karte, wäre die auflösung größer...und bildquali besser
 
Schön, wie die Nvidia-Fanboys hier herumschwallen. Tja, so schnell kann es gehen. Preis / Leistung in hohen Auflösungen bekommt Nvidia zur Zeit sowas von auffe Sacke :-). Arroganz und am Markt vorbei produzieren mit schlechter Qualität wird vom Kunden gnadenlos abgestraft. Aber das müssen viele Unternehmen zur Zeit lernen. Und die astreinen Treiber, besonders für Linux, sind eine Freude. So und jetzt was positives zu den neuen Nvidia-Grafikkarten... ähm... im Idle verbauchen sie wenig Strom... ähm und ... ähm ... es muss doch noch etwas postivies geben... achja die sind doppelt so teuer bei fast gleicher Leistung wie AMD-Grafikkarten.. achne das is ja schlecht...... Achja cooles Logo hat Nvidia.. Und nun macht mich Minussssss!!!!!
 
@Pegasushunter: ok, ich mach dich minus :) hast dir ja auch redlich verdient für die mühen hier rumzuschwallen
 
@Pegasushunter: Das bescheuerte ist, das kaum jemand in diesen Auflösungen spielt. Selbst 1680x1050 sind schon schwach vertreten, von höheren Auflösungen ganz zu schweigen. Man sehe nur z.B. die Statistiken von Valve Software an. Aber jeder führt das als Argument an. Bei der HD4870 zählt übrigens seit dem Preisverfall für GTX 260 Karten das Preis/Leistungs-Argument nicht mehr unbedingt.
 
@Aspartam: Gerade wenn wir alle 1280x1024 spielen, geht nVidia richtig ein, denn gegen die 4850 ist kein Kraut gewachsen und was die grafikbewussteren Spieler angeht, die sich 22" gönnen, da bleibt die GTX 260 zwar preislich immer noch 15€ im Nachteil, aber auch bei 1600x1200 ist die ATi durchschnittlich 6% schneller, man beachte den CB-Test http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/22/ .
 
@Aspartam: Die billigste GTX260 kostet bei Alternate: 259 Euro. Die billigste 4870 gibt es schon ab 199 Euro und eine 4850 bekommt man schon für 139 Euro. Q.E.D
 
@Pegasushunter: Sorry Junge, aber sich den billigsten HD4870-Preis überhaupt raus zu suchen und dann mit einem bestimmten Anbieter zu vergleichen der nicht der billigste ist ist ja wohl der reinste Mist. Ausserdem ist die Frage, welche Hersteller Du vergleichst. Ich würde nämlich z.B. nie und nimmer eine Powercolor-Graka kaufen - frag die Händler mal nach deren Rücklaufraten. Dazu hat eine billige HD 4870 nur 512 MB Speicher, eine GTX 260 aber 896 MB, also muss es schon eine HD 4870 1 GB sein. Damit wären wir für eine 1 GB HD4870 eines Qualitätsherstellers wie z.B. HIS oder Sapphire bei 259 Euro. Eine Gigabyte GeForce GTX 260 OC 216 (Achtung, das ist die *neue* 260er-Variante und OC!) bekommst Du bei Grafikkartenpower.de für 265 Euro. Verarschen kann ich mich selber, dazu brauche ich Dich nicht.
 
@Aspartam: Einspruch!! Ich hatte den Preis (199 Euro) noch im Kopf aus einer Anzeige von Alternate in der letzten CT. Soll ich die Seite einscannen und irgendwo hochladen ? Oder glaubst Du mir so ? Wenn ich es wirklich vor hätte, Dich zu verarschen, würdest Du es eh nicht mitbekommen :) Aber das überlasse ich lieber Nvidia. Die haben da mehr Erfahrung als ich :) OT: Meine Grafikfarten bisher: OAK 256KB, Video Seven 1MB, ET4000W32 2 MB, Matrox MGA + 3D Zusatzkarte, Matrox G400,Geforce 256DDR, ATI 9800 Pro, ATI X800 Pro, seit kurzem Sapphire HD4850(139Euro). Und bei der genannten 4870 für 199Euro hatte ich kurzzeitig den Gedanken, die HD4850 meiner Frau aufzuschwatzen und die 4870 mir zu holen. Hat aber leider nicht geklappt :(
 
@Pegasushunter: Ich habe doch haarklein erklärt, warum Deine Argumentation falsch ist. Immerhin bist Du trotz meines etwas groben Tonfalles nicht auf mich losgegangen. Das finde ich schon erstaunlich, besonders für dieses Forum. Alle Achtung.
 
dazu passt auch geil folgende news auf heise.de: "
Rambus will Einfuhr von Nvidia-Produkten in die USA verbieten lassen" wär scho goil, am besten weltweit :)
 
ganz ehrlich, ich sehe es eher pragmatisch: derjenige hersteller, der das bessere p/l-verhältnis hat, kommt bei mir in die engere wahl. ob da nun amd oder nvidia draufsteht, ist mir eigentlich wurscht - man sollte sich hüten, einen speziellen hersteller zu sehr zu verwöhnen. sobald ein hersteller glaubt, dass er ein monopol inne hat, wird er ohne die geringsten skrupel kräftig an der preisschraube drehen - da nehmen sich beide nichts. nennt sich "freie marktwirtschaft".
 
Ich hab mir heute 1 Sixer im REWE geholt. Ist billiger als die Kneipe, hat aber gleiche Menge. Bin ich jetzt so toll wie JTR odermuss ich mir noch ein doppel quad-sli system mit gtx280 karten machen? Ich will nicht spielen, aber die nächsten 3 Jahre Spielvoraussetzungen außer Acht lassen können...
 
@DasFragezeichen: Kleinkarierter Neidhammel. Wer anderen immer nur schlechtes unterstellt ist selber das Problem. Merke: Wo Scheisse rauskommt, ist auch Scheisse drin.
 
Hallo!
Ich höre oder sehe immer welche Karte ist besser AMD/ATI oder Nvidia
( im Strom verbrauch ) Hat sich schon mal einer Gedanken um denn Strom verbrauch der Karten gemacht 9800GTX+ 175 Watt: GTX260 182 Watt: GTX 280 236 Watt: 4850 106 Watt: 4870 157 Watt: 4870x2 286 Watt. Bei einen Strom Preis von Ca. 0,2043 Brutto Cent pro KW (Region bedingt)
(Bei mir kommt der Strom aus der Steckdose, so denken die meisten) Ha Ha Ha
Will man Anspruchsvoll Zocken muss man zweimal tief in die Tasche greifen.
Ich muss bald Überstunden machen um mir den Spaß noch zu gönnen, das Zocken .
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles