Nvidia: Preissenkung nach Erstarkung von AMD/ATI

Grafikkarten Vor wenigen Tagen bestätigten die Marktforscher von Jon Peddie Research (JPR), dass AMD seinem Konkurrenten Nvidia mit der Veröffentlichung neuer Grafikprozessoren in der jüngsten Vergangenheit Marktanteile abnehmen konnte. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Da die Preise die letzten Wochen angestiegen sind, werden sie höchstens auf den alten Preis zurückfallen, wo maximal 10 Euro auf die ein oder andere Karte weniger anfallen werden als im September/Oktober. Dafür muss man nun wirklich kein "Marktbeobachter" sein.
 
@upLinK|noW: Ob die Preise nun wirklich nur auf den alten Preis zurück fallen wage ich zu bezweifeln.Wenn AMD/ATI wirklich so an ihren Preisen schrauben bzw. mit den neuen Grafikchips noch einige Marktanteile mehr zusichern bleibt Nvidia über kurz oder lang gar keine andere Möglichkeit.
 
@upLinK|noW: Die Preise sind gestiegen, weil der Dollar wieder teurer geworden ist. Die Preise unterscheiden sich für den Produzenten nicht Großartig. Tja, außer man senkt lautstark den Preis, weil da hat man ja auch Marketingtechnisch was von.
 
@Dario: Bei Computern und Computer-Komponenten ist bereits seit vielen Jahren zu beobachten, dass die Preise vor Weihnachten und im Winter besonders hoch sind und zum Frühjahr/Sommer sich allmählich wieder normalisieren.
 
das die preise fallen ist nur einem einzigen umstand zu verdanken: dem stark verfallendem ölpreis (das barrell öl ist mittlerweile für um 56 dollar zu haben) und den sich daraus (zwangsläufig) ergebenden, stetig fallenden energie-/fertigungs-/transportkosten. daraus ergibt sich dann wiederum fast zwangsläufig das man mit vorher nicht vorhandenen finanziellen spielräumen, quasi mit scheinbarer "kundenfreundlcher preisgestalltung", wuchern kann um sich werbewirksam in szene zu setzen. - - - - - nichts besonderes also!
 
Ist mit 200er Reihe auch die GTX 280 gemeint?
 
@Erte:
Ja sicher , was glaubst du denn? Steht doch da GTX 200 Reihe, richtiger weise müsste es GTX 2xx Reihe heisen, aber das schreiben alle so.
 
@X2-3800: Dachte mir eben auch dass da ja eigtl. 2xx stehen müsste wenn alle gemeint sind. Danke :)
 
@Erte: Was versteht du an GTX 200-Reihen nicht?
 
@ayin: Was ist daran falsch nachzufragen wenn man unsicher ist?? Kann nicht jeder so belesen sein wie du!
 
@Gnahhh: Also wenn man von Reihe spricht und es gibt darin nur 2 Grakas, dann glaub ich kann man das auch als unerfahrener richtig deuten.
 
@ayin: Nein. Deshalb hat er schließlich gefragt, und auch eine Antwort bekommen. Also is die Sache wohl erledigt. Wie heißts so schön. Es gibt keine dummen Fragen, nur dumme Antworten.
 
@Erte: richtig, sollte 2** heissen. eine 200er reihe könnte ja 200 XT, 200 Ultra, 200-2 oder sonst wie gemeint sein für jemanden der das nicht weiß. daher ist die aussage 200er reihe falsch und irreführend, aber bei winfuture generell leider so
 
@Hardcore: es steht aber nicht 200er reihe, sondern gtx 200er reihe. wenn vw sagt die golfserie wird billiger, fragt man ja auch nicht, ob das für den dieselgolf auch gilt?
 
@ayin: und das is jetztn grund zum rasten?
 
Wettbewerb ist schon eine tolle Sache...
 
@shiversc: Wenn man sich nicht bei den Preisen abspricht .. sicher :-)
 
Ich glaube kaum das Nvidia da mithalten kann, Preise senken ist die eine Sache aber gleichzeitig auch die Grafikleistung zu Verfügung zu stellen die Andere.
Ich finde es Lustig, das sich Nvidia auf Fudzilla.com damit brüstet, das ihre neuen Grafikchips, die 2009 in 45nm kommen, auf einer komplett neuen Architektur basieren. Das hätte schon mit der GTX260/280 Reihe passieren sollen.
Das klingt alles so als will NVIDIA damit sagen das ATI bei ihren neuen 40nm Grafikchips (DX11) wieder die alte Technik aus der Versenkung holt.
Sicher wird ATI einen Teil wieder verwenden, aber allein schon durch DX11 wird sich viel verändern. ATI hat hierbei mehrere Vorteile, da mehrere Technologien für DX11 schon durch DX10.1 vorhanden sind.
 
@X2-3800:

Und was nützt ihnen dieser DirectX Vorsprung? Es kommen bis dato nur sehr wenige DX10 Titel raus, geschweige denn 10.1. Was willste also schon nächstes Jahr mit DirectX 11? Nvidia hatte diesen Fehler damals bei DirectX 9 gemacht, hatte ein Jahr Vorsprung zu ATI und nütze ihnen einen Dreck, weil keine entsprechende Spiele auf dem Markt war. Und Angesicht der Konsolen Dominanz wird in der nächsten Zeit in dem Bereich eh nicht mehr so vorwärts gehen wie früher, weil die Konsolen schlicht diese neue Techniken eh nicht unterstützen aber ein Grossteil des Marktes ausmachen. Also warum viel Geld in entsprechende Shadertechnologien investieren, die für den Grossteil des Marktes irrelevant sind? Und ATI Karten sind nicht so stark wie immer alle hier behaupten. Die HD4870 kann mal knapp mit einer GTX-260 mithalten, von einer GTX-280 oder GTX-260² ganz zu schweigen, da muss ATI mit einer Dualkarte mitziehen. Leistungstechnisch ist also ATI im Hintertreffen und macht das nur mit reinem Preiskampf wett (wohl auch aus Verzweiflung, denn der CPU Markt von AMD geht es gar nicht gut).
 
@JTR: Deshalb rüsten schon einige Hersteller um auf DX 10.1 z.B. Stalker Clear Sky welches mit DX.10.1 nochmal schneller läuft. Und zum Teil ist eine HD4870 sogar schneller als eine GTX280, aber macht ja nichts.
 
@X2-3800: Naja, auf Fudzilla steht viel wenn der Tag lang ist.Ich bezweifle das Windows 7 geschweige denn DirectX 11 bereits 2009 kommt ...
@ JTR: ATI ist im Moment dennoch nVidia um einiges voraus und ja der Preis macht viel aus. Wenn ich Unreal Tournament 3 mit 250 fps spiele zahle ich für 20 FPS auf einer nVidia Karte keine 200 mehr! Würde nicht behaupten, dass nur weil die Grafikkarte schneller ist, nVidia deswegen besser sei. Sehe da auch durchaus keine Verzweiflung. Ihre Treiber sind im Moment besser und sie haben directX 10.1 was bei Assassin's Creed viel gebracht hat bis nVidia mit seinen hinterhältigen Methoden UbiSoft zu einem Patch überreden konnte, der dies entfernt. nVidia baut seine Grafikkarten auf Leistung entwickelt sich technisch aber nicht weiter. Die 9er Klasse ist ein Beschiss der nicht so informierten Gamer-Masse. Dies war bei ATI in den letzten 3 Generationen nicht so und die 4er Klasse ist einfachj preislich und leistungstechnisch ein Traum für jeden Gamer. Ich habe selber nVidia, aber ich hätte nie eine andere Karte gekauft seit der 8800GTX.
 
@Schnubbie: Ob die 280 oder 4870 schneller ist, kommt ganz aufs Spiel an! Bzgl. der "Konsolendominaz" die JTR anspricht, von wem sind wohl die Grafikchips in der xBox und der Wii? Richtig, AMD/ATI!
 
@tedstriker84: Natürlich kommt es auf das Spiel an, aber der liebe JTR stellt es mal wieder so dar als ob eine HD4870 irgendeine Mittelklassekarte sei, was so überhaupt nicht stimmt. Zudem merkt man das er nicht viel Ahnung ha da er ja der Meinung sei das die Shadertechnologien nicht wichtig seien und er zudem den Grafikkartenmarkt Konsolen und PC Bereich miteinander vermischt, als ob alle Spiele jetzt für eine Konsole erscheinen...
 
@Schnubbie: Kann dir nur zustimmen. Die HD4870 bewegt sich größtenteils im Bereich einer GTX260 und in einigen Fällen übertrifft sie auch die GTX280. Beweis: http://tinyurl.com/65lb35 (PCGH)
 
@JTR: Na ja, aber es kommt halt nicht darauf an, dass ein Spiel im High End Bereich 10-30 FPS mehr bietet. Sondern eben auch, dass der Preis stimmt.
 
Gelöscht: Forum hat mal wieder gehangen.
 
@X2-3800: Welches Forum?
 
Die gute alte Marktwirtschaft. Sie funktioniert doch noch! Leider immer noch zu wenige (ernstzunehmende) Anbieter bei Grafikchips, Betriebssystemen und CPUs.
 
Nvidia verdient ja jetzt schon fast nichts mehr an den GTX 2xx Chips, da diese eine magere Ausbeute auf den Wafern haben, es riesige Chips sind mit einem hohen Materialverbrauch und dazu hohe Entwicklungskosten. Und jetzt wollen sie die Preise senken. Ist natürlich blöd wenn sich die ATi Radeon 4000er Serie en masse verkauft und die GTX 2xx im Lager ihr dasein fristet.
 
Na das klingt doch klasse...
Kann ich mir bald meine geschätzte GTX260² kaufen :)
 
@voodoopuppe: sag mir mal bitte, wozu du die leistung benötigst? vor allem zu dem preis
 
Modernes Grafikkarten Voodoo ... *grins* Aber schön - so kurz vor Weihnachten :)
 
@SmallAl: Apropos Voodoo. Nichtsl iebte ich mehr als meine 3Dfx Voodoo 2 im SLI. ^^
 
@AEA: Nene damals die gute alte 3DFX Monster 3D mit 4MB .... bzw. ich hatte statt der Monster 3D die 6MB Miro Media Variante inkl. TV Out, da war ich der Gott im Umkreis. Hab die Woche noch beim Ausmisten die Rechnung gefunden: 499DM *shocking* damals spielte man damit dann Spiele wie Turok ^^
 
@roterteufel81: Naja, wenn man das mal genauer betrachtet sind 500DM nicht so viel.. ^^ Es war damals das neuste von Neuen, die DM ist bis zur Euro-Einführung etwas erstarkt, also schätze ich mal, dass du heute 200€ bezahlen müsstest, wenns nichts besseres gäbe.
 
@ElDaRoN: ...und Inflation hat es nie gegeben, oder wie? Bei 10 Jahren und 2% im Schnitt macht das eine Prozentuale Verteuerung von 21,899442%. Und da es sich hier auch noch um ein Rohöl, Kupfer, Gold, etc. Produkt handelt darfst du eine noch höhere Teuerungsrate ansetzen.
 
@unbound.gene: Ein Klugscheisser macht die Nostalgie wieder dahin...
 
Das sind doch mal wieder gute Nachrichten. Da ich gerade mit dem Gedanken spiele mir eine neue Grafikkarte zuzulegen, werde ich also noch ein wenig warten und dann zuschlagen :)
 
Nvidia ist angeschlagen. Sie können es sich nicht leisten die teuer produzierten GT 200 GPUs zu niedrigeren Preisen als AMD zu verkaufen. Was für eine,der HD4850 ebenbürtige, Grafikkarte will Nvidia zu Dumpingpreisen um die 120 Euro verscherbeln um AMD Konkurrent zu sein? an die Nvidia-Fanboys !! lest meinen Post lieber drei oder vier mal, bevor Ihr sinn freies Zeug postet :-)
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte