Nvidia: Das Warten auf Fermi wird sich lohnen

Grafikkarten Wird Nvidia mit dem neuen Fermi-Chip der große Schlag gelingen? PC-Besitzer sind unsicher, ob sie eine aktuelle DirectX-11-Grafikkarte von AMD kaufen oder lieber auf die neue Produktlinie von Nvidia warten sollten. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"Nvidia: Das Warten auf Fermi wird sich NICHT lohnen" - das wäre eine News wert gewesen...
 
@knoxyz: er meinte wohl für NV, nicht für die käufer :)
 
Ja, das warten auf Fermi lohnt sich, aber Dx11 lohnt sich nicht. Genau, nVidia. Finde es übrigens super, dass das langsam den Bach runtergeht. Dieses Intel-nVidia Kartell nervt total, GTA IV war ja der Beweis. Und Ich habe eine nVidia Karte im Rechner und eine ATI im Laptop, sind beide in Ordnung. Bin auch kein Fanboy oder so, mag es einfach nur nicht, wenn da irgendwelche Firmen meinen, sie müssen Kartelle aufbauen und dann so Schrott Propaganda schieben. Die nutzen ihre Stellung total aus. AMD/ATI kann sich sowas nicht leisten, aber für nVidia ist es anscheinend kein Problem, über andere herzuziehen. Das ist Selbstregulierung des Marktes (*hust* FDP *hust*)
 
@DasFragezeichen: AMD/ATI versteht es durchaus auch mit Dreck zu werfen.
 
@knoxyz: ati fanboy... -.-
bleib neutral und gib nvidia auch ne chance
 
@knoxyz: ich versteh die Frage gar nicht. Warum warten, bis nvidia mit dem Fermi fertig ist und diese in Stückzahlen im Markt verfügbar sein wird, ist die CeBIT vorbei, und dann ist eine jetzt gekaufte ATI ohnehin Schnee von gestern.
 
@Xtracter: Lol, das würde ich eher anders interpretieren. Vielleicht möchte er darauf hinweisen, dass es nicht unbedingt verwunderlich ist, wenn nVidia solche Sachen angibt. Alles andere wäre sehr verwunderlich.
 
@tinko: Stimmt. @ Xtracter: Ich bin aktuell zufriedener Nvidia-GraKa Eigentümer.
 
für mich sind das durchhalteparolen seitens nvidia weil sie aktuell nichts anzubieten haben,ebensogut könnte ati sagen: das warten auf die nächste generation könnte sich lohnen
 
@charras: GENAU so ist es! (+)
edit: alle aussagen von NV könnte man ebend mit inhalt über ati hardware füllen und es würde den gleichen sinn haben.
 
@charras: Sind ausschließlich Durchhalteparolen. Hätten sie irgendetwas mit toller Leistung, dann würden sie die Daten ja jetzt schon rausrücken. In der aktuellen c't steht in einem Nebensatz, dass mit Grafikarten auf Basis des Fermi-Chip wohl kaum vor Mai(!!) zu rechnen ist. Wenn mich nicht alles täuscht kam das sogar auch von Del Rizzo, aber hab die c't grad nicht griffbereit.
 
@charras: Genau das habe ich mir auch gedacht. Bei NVidia duerfte man ziemlich zerknirscht sein, dass man mit Fermi das Weihnachtsgeschaeft verpasst. Da man nichts zum zeigen hat versucht man eben verbal die Leute vom Kauf einer AMD-Karte abzuhalten.
 
@Adam_West: Ist das nicht oft bei vielen Firmen so?
 
@charras: Natürlich sind das nur Durchhalteparolen. Das Hauptproblem scheint die Fertigung dieser Fermi-Chips zu sein, vermutlich weiss Nvidia auch nicht genau, wann diese in ausreichenden Stückzahlen verfügbar sind (Yield). Daher scheint der Maitermin aus der ct wohl realistisch zu sein.
 
Da will ich mal hoffen das Fermi genau so ein Sprung wird wie seinerzeit die 8-Serie!
Aber ob die erste Generation DX11 Karten was taugt sei mal dahin gestellt!
 
@WilloX:

Soweit ich weiss, war die 8-Serie auch die erste Reihe mit DX 10. Könnte also sein das ihnen der gleiche Wurf bei DX 11 gelingt. Aber warten wir einfach ab, was da so kommt. Vielleicht wäre es auch nicht schlecht wenn nVidia auch mal ne Reihe verkackt damit ATI Marktanteile bekommt. Das könnte dem Kunden beim Preis zugute kommen.
 
was ist denn das für eine news überschrift? verkommen wir langsam zum "Bild"- Niveau, das schon aussagen von irgendwelchen leuten, sei es ein pressesprecher oder nicht, als news deklariert?

btw. ist hier nur die meinung des sprechers vertreten, warum werden das news? typische NV push aktion mal wieder!
 
@Adam_West: bildnews von morgen schon heute!
 
@Adam_West: Wenn man nach deiner Aussage geht, gehe ich täglich auf mehrere "Bild"-Seiten :) Sei neutral und starte hier keine NV anti push aktion :D
 
@Gerron01: nene so war das nicht gemeint, ich halte mich neutral, mich stört nur, das hier eine aussage eine pressesprechers als faktische news ausgeschrieben wird.

das warten wird sich lohnen? weil ein presse knollo das sagt? alles klar^^
 
@Adam_West: Gibt ja noch den Artikel dazu.
 
@rockCoach: ändert aber nichts an den hier suggerierten "fakten" :-)
aber wurst, will mich auch nicht streiten :D
 
@Adam_West: Die Anführungszeichen fehlen halt.
 
ich bin mal gespannt ob die Preise auch sinken oder nicht, also von alten Grafikkarten
 
@oma420: es wäre denkbar das die 295gtx durch die dual Gpu schneller sein wird als Fermi als Single Gpu folglich wäre ne ältere Karte dann teurer!
 
@WilloX: Es gibt zahllose Gründe Dual GPU-Karten abzulehnen. Außerdem ist der Vorsprung der GTX 295 gegenüber der 5870 auf 0-20% zusammengeschrumpft (je nach Settings). Dieser Abstand geht durch Mikroruckler eh verloren, insofern gibt es jetzt schon Karten, die besser und günstiger als die GTX 295 sind. Wenn nVidias neue Single-GPU-Karten kein ähnliches oder besseres Modell haben, wäre das ein epic fail.
 
@tinko: ihr immer mit euren microrucklern... weder bei cf, noch bei sli hatte ich je microruckler. hatte sogar mal testweise 2 4870x2 für ne woche im system, also 4 gpus, kein einziger microruckler war wahrnehmbar und ich bin sehr penibel was fps und ruckeln angeht :)
 
@ExusAnimus: Die Mikroruckler treten auch nur in kritischen FPS-Bereichen auf. Da, wo es drauf ankommt. Übrigens kannst du 4GPUs total vergessen, die skalieren schon zu schlecht, als dass es noch einen nennenswerten Vorteil bringt, von Mikrorucklern mal abgesehen.
 
wird der hammer, aber nicht ganz billig. egal, vom lkw fallen die dinger immer. werd dann im ostblock eine kaufen
 
was sollen die auch anderes sagen. "kauft ATI karten, unsere werden mit ATI nicht mithalten können und viel zu teuer sein"
 
Ich würde mich natürlich freuen wenn Nvidia zurück findet, auch wenn ich ATI-User bin :) aber Konkurrenz muss sein sonst steigen die Karten von AMD stark nach oben oder bleiben so wie sie jetzt sind :( aber zur Zeit sieht es nicht so aus als ob Nvidia da was reissen könnte zumal sie schon gesagt hatten das sie sich vom High-End Markt zurückziehen wollen , war glaube auch eine News von hier
 
physx für xbox360/ ps3? dachte die haben beide ati grafikchips drin...
 
@k1rk: Bei meinen PS3-Spielen stand bisher auch immer nur Havok, Physx ist mir bisher noch nicht aufgefallen. Aber der Grafikprozessor der PS3 basiert auf nVidias 7er Reihe.
 
@k1rk: Wenn Nvidia will läuft PhysX auch auf Intels GMA Krüppeln.
 
@k1rk: Die 360 hat einen ATi-Grafikchip intus.
 
@knuprecht: Und wenn Chuck Norris es will, läuft PhysX auch auf Matrox- oder VooDoo-Karten :D
 
@k1rk: die ps3 besitz einen nv grafikchip und einen cell prozessor mit 7 aktivierten kernen.
 
@Adam_West: Wobei einer der Kerne aber für VMM reserviert ist, wodurch für Spiele nur sechs Kerne zur Verfügung stehen...
 
@Zebrahead: das ist der achte kern. sie hat insgesamt 8 kerne + 1 grafik kern. 1 kern des cell prozessors ist abgeschalten/reserviert.
 
@Adam_West: Nein, die PS3 hat acht Kerne, wovon einer aber abgeschaltet wurde um die Ausbeute zu erhöhen (da oftmals einer der Kerne defekt ist und der ganze Prozessor somit vernichtet werden müsste) und einer für VMM reserviert ist. Quelle: http://tinyurl.com/yz2djhm
 
@Zebrahead: dann halt so :)
 
@Sesselpupser: der war gut :D
 
"PC-Besitzer sind unsicher, ob sie eine aktuelle DirectX-11-Grafikkarte von AMD kaufen oder lieber auf die neue Produktlinie von Nvidia warten sollten." Ach sind sie das? Das sehe ich GANZ ANDERS
 
@Nigg: dann mach mal das licht an
 
Also ich glaube das der Fermi schneller sein wird als Ati 5870. Nur wen juckt das eigentlich ernsthaft, wenn man nicht grade ein Fanboy aus der ein oder anderen Partei ist? Kaum jemanden. Diese Karten sind overpowered, so einfach ist das. Viele aktuelle Titel kehren der High End Grafik den Rücken, weil viele viele viele Home PC's sie eigentlich nicht schaffen und verglichen damit der Aufwand dafür einfach nur zu hoch ist. Klar, viele Blockbuster bauen auf die tolle Grafik auf, aber der gemeine Durchschnitt eben nicht. Ich habe eine RadeonHD 3870 und kann heute sehr viele, auch aktuelle, Titel ruckelfrei Spielen und auch auf den höchsten Einstellungen. Da brauch ich keine Graka die 4x bis 6x schneller ist. Einziger Aspekt denn man beachten sollte das die Graka DX11 kann und dann reicht die Mittelklasse bis DX12 locker.
 
@kinterra: Man sollte auch noch beachten dass der Fermi wahrscheinlich besser für andere Aufgaben geeignet sein wird als der AMD-Chip. Schließlich hat nVidia mit diesem neuen Chip das HPC direkt ins Visier genommen. Mag sein, dass man dann zwar in etwa gleiche Grafikleistung haben wird, aber zusätzlich eben noch mehr Reserven für Physx. Vielleicht gibts auch bald extrem Videoencoder die Fermi effektiv nutzen.
 
@DennisMoore: Für PhysX gibt es jetzt Alternativen, die von beiden Karten unterstützt werden, insofern würde ich mir für PhysX keine große Zukunft versprechen. @kinterra: Das ist so nicht richtig. Natürlich kann man auch aktuelle Titel mit schwachen Grafikkarten zocken, aber High End Karten haben ebenfalls ihre Daseinsberechtigung. Nämlich wenn zu den höchsten Einstellungen noch hochwertige AA-Modi (wie SGSSAA) dazukommen (am besten gleich 8fach). Außerdem gibt es durchaus Leute, die gerne auf der FullHD-Auflösung oder mit mehreren Bildschirmen (auch 3 ist kein Problem mehr, Eyefinity sei dank) zocken.
 
@DennisMoore: ... und was bringt mir Physics heute? Eben, nichts - und so lange dies nicht spielentscheidend ist, kann ich getrost darauf verzichten ...
 
@Thaquanwyn: Doch, es bringt mir was. Dichtere Atmosphäre durch Physikeffekte, z.B. bei Batman Arkham Asylum. Spielentscheidend muß es gar nicht sein. Auf nVidia-Karten sieht man schöne Rauch- und Nebeleffekte und auf ATi-Karten gar nix. @tinko: Diese Alternativen müssen aber erstmal verwendet werden. Merke: OpenCL und der ComputeShader ersetzen CUDA nicht. Viel mehr ist CUDA Voraussetzung dafür dass diese beiden Technologien mit den GraKas sprechen können.
 
ATI Karten sind zZ einfach TOP was Preis/Leistung angeht. Nvidia´s Highend Karten sind vieleicht 2% schneller, aber auch 50% teurer!!!
 
@merlin1999: Welche NV HighEnd Karten sind schneller als ATIs aktuelle Karten :)
 
@merlin1999: fällt mir keine ein , selbst die GTX295 ist langsamer mit 2 Gpu´s als eine 5870 mit einer Gpu (bis auf Ausnahmen) , frische mal dein Kenntnisstand auf :) gibt genug Benchmarks auf vielen Seiten dazu , der wahre Power der neuen Generation kommt erst mit den neuesten Spielen und dann wirds böse für die aktuellen Karten von Nvidia wenn der GT300 nicht bald kommt
 
@dd2ren: Stimmt nicht, die GTX295 ist schneller als eine 5870 (Durchschnittlich 15 - 20%) und hier sind es die Ausnahmen, wo die 5870 schneller ist (was vorallem Titel betrifft, die keine (gute) Unterstützung für mehrere GPUs bringen). Quelle: http://tinyurl.com/yzguwbg
 
@dd2ren: frisch du mal bitte das wasser in deinem kopf auf.
 
@merlin1999: Zur zeit?Ich bin der meinung das war schon immer so :).
 
@Zebrahead: Den Vorteil verlieren sie durch Mikroruckler und in allen Spielen mit weniger optimierten SLI-Profilen.
 
@tinko: Ich würde auch zur 5870 greifen (schon nur wegen dem Stromverbrauch), aber im obigen Posts gings mir nur um die Berichtigung der offensichtlich Falschaussage seitens dd2ren.
 
wird zeit, das die grafikkartenhersteller am stromproblem arbeiten. fast alle neueren karten benötigen einen extra stromanschluß und haben aktive lüfter verbaut, weil die steigende leistung so viel abverlangt. ich frage mich als nicht spieler, warum man diese karten so hochzüchten muss. meiner meinung nach kann man auch mit weniger details ansprechend spielen. wer mehr will, sollte auf spezielle hardware in form von spielekonsolen zurückgreifen. aber das ist ja nur ein gedanklicher ansatz.
 
@medienfux: Einen Vorteil hat das ganze :D man spart Heizkosten :) Und ausserdem takten die Karten im 2D-Betrieb stark runter und brauchen wie die aktuellen ATI nur so glaube 27 Watt und das geht doch
http://img256.imageshack.us/i/5970specs6728660.png/

, nicht die 5970 werten denn das ist eine X2, selbst gemessen an meiner HD4890 verbraucht die neue 5870 genau soviel Strom unter Last wie meine und hat aber die doppelte Leistung von daher tut sich ja schon was :) und im IDLE sogar VIEL weniger , was will man mehr :)
 
@medienfux: Es gibt reichlich "halbperformante" Grafikarten, die ohne Stromanschluss und Lüfter auskommen und dann weniger Details bringen. Wenn man aber gerne zockt und einem die Details gefallen, dann ist es einem auch wert, dass da ein Lüfter läuft und die Karte etwas mehr zieht. Ich finde zwar Autovergleiche meist blöd, passen aber irgendwie auch immer wieder: wenn du ohne Schnick-Schnack von A nach B willst nimmst du einen Polo oder so. Verbracht nicht viel, zieht aber auch nicht. Wenn du Spaß am Schnellfahren und das nötige Kleingeld hast, dann nimmst du einen Sportwagen. Da fragt ja auch kaum einer, warum die Motoren so überzüchtet werden und dann viel schlucken.
 
@satyris: " fast alle neueren karten benötigen einen extra stromanschluß". Inzwischen sind es schon zwei zusätzliche Stromanschlüsse :-).
 
was soll er sonst sagen...ich markiere diese news hiermit offiziell als WERBUNG!
 
@asd3322: Auch wenn ich der Meinung bin dass das hier nicht so häufig der fall ist bzw. mir das egal ist muss ich dir doch in diesem Punkt Recht geben. Jeder Hersteller würde zu jedes seiner Produkte was noch nicht raus ist - besonders wenn die Konkurenz in der Zeit abräumt - sagen es lohnt sich zu warten... Zumal das ja in dieser Situation super als "Werbung" pasen würde... "Man weiß es nicht..."
 
Ich warte gerne. Hab momentan eine GTX260 und bin damit sehr zufrieden. Eine ATI würde ich mir nie mehr zu legen, damit hab ich einfach zu schlechte Erfahrungen gemacht. Gebranntes Kind scheut das Feuer!
 
Ich bin in den letzten Jahren bei jedem Rechner Upgrade zwischen den Herstellern hin und her gesprungen. Letztes mal z.B. von einer Radeon 8500 auf eine NVidia 9600GTS. Man muss einfach nur gucken, wer zum besagten Zeitpunkt das beste Gesamtpaket abliefert. Und das ist im Moment meiner Meinung nach auch AMD/ATI. Demnach würde ich derzeit wieder zu einer 5850 oder 5870 tendieren. Danach wird es dann bestimmt wieder eine von NVidia, weil die dann im Zugzwang sind, etwas besseres zu präsentieren als die Konkurrenz. Und davon profitiere ich als Verbraucher. :-)
 
@andvol: Erfahrungen, die du heute machst, kannst du morgen wieder vergessen. Zumindest bei kurzlebigen Produkten, wie Grafikkarten. Ich bin in dieser Hinsicht mehrfach gebrannt und dürfte garkeine Grafikkarte mehr kaufen.
 
@tinko: Ich bin da ziemlich nachtragend und auch markentreu. Ich zwinge meine Meinung ja niemanden auf, war ja nur eine subjektive Feststellung.
Jeder wie er will, ich will auf jedenfall kein ATI Produkt mehr.
 
Ich denke auch, dass sich das Warten lohnen wird. Ich habe große Hoffnung dass der Fermi nicht nur in 3D-Dingen die ATi-Karten schlagen wird, sondern auch dass es einen Mehrwert dank CUDA geben wird, der einen Kauf auch zu einem höheren Preis rechtfertigen wird. Daher werde ich auf jeden Fall warten. Und selbst für den Fall, dass der Chip ein Flop wird, wird sich das Warten lohnen. Die ATi-Karten werden bis dahin sicherlich im Preis gefallen sein. Im Prinzip kann man IMHO nichts falsch machen wenn man jetzt noch wartet.
 
@DennisMoore: Dank OpenCL dürfte es mit CUDA zu Ende gehen. Warten ist im GraKa-Markt übrigens selten von Nachteil.
 
@tinko: CUDA wird benötigt, damit OpenCL überhaupt funktioniert. OpenCL spricht mit CUDA und CUDA mit der Grafikkarte (vereinfacht ausgedrückt).
 
Also, es ist ja wie im Kindergarten hier, ATI/Amd oder NV, is doch egal, wer meint sich die ATI´s kaufen zu müssen, obwohl es zur Zeit keinen Sinn macht, der soll das tun! Ich brauche noch keine neue Karte, deshalb warte ich und sehe mir das an, dann entscheide ich und kaufe! Dieses ewige geheule und gelaber könnt ihr euch echt mal klemmen.....
Es zwingt euch ja niemand NV´s zu kaufen,lol
 
Ich habe gehört nvidia wird sich bald in schrottvidia umbennen. Meine quellen sind aber oft nicht sicher. Kann es mir jemand bestätigen? Also sinn machen würde es schon, aber wiegesagt, bin mir nicht sicher...
 
@ReVo-: allein die überschrift das warten auf weihnachten wird sich lohnen....SPART LIEBER EUER GELD FÜR WAS SINNVOLLES kiddies^^
 
und der war auch gut XBOX 360 hat nen nvidiachip drin^^ hier das gegenteil http://www.testeo.de/produkt_test/microsoft-xbox-360-elite-437557.html
 
Ich werde auf DX11 Nvidia Grafikkarten warten.
Klar,die Grafikkarten(DX11) von AMD/ATI sind nicht schlecht.
Und klar ist auch das NVidia ein nutzen daraus zieht das die AMD/ATI Grafikkarten mit DX11 als erstes auf den Markt waren.
Ich war auch drauf und dran mir eine AMD/ATI Grafikkarte mit DX11 zu kaufen,aber irgendwie habe ich das Gefühl das die NVidia-Grafikkarten einen tick besser werden.Ok,ati/amd hat natürlich was DX11 angeht in moment die Nase vorn,aber auch nur weil KEINE Konkurenz da ist,dass wird sich aber ab anfang nächstes Jahr ändern und NVidia darf wieder die Krone von den gamern entgegen nehmen.
Man darf auch nicht vergessen das immer mehr Programme von CUDA profitieren.
Ähm,nvidia sollte lieber die Fertigung des Chipsatzes abstossen,da sollten doch lieber Leute dran die sich mit sowas auskennen(zb.via).
Da hat in vergleich AMD/ATI die Nase vorn(intel mal ausgenommen),so wird es auch bleiben wenn NVidia nicht umdenkt.
 
@Ackerporsche: Mit der Krone ist es so eine Sache , kommt auf das Spiel an :) z.B. war ATI um längen besser unter Farcry2 :) Beide Konkurrenten nehmen sich eigentlich nichts , beide bauen Mist in verschiedenen Sachen womit ich nicht bauen auf die Hardware beziehe sondern auf Sachen die in Vergangenheit passiert sind , von der Krone die Nvidia gehabt haben soll habe ich nicht viel gemerkt , ob eine Karte 3 FPS mehr macht merke ich bei meinem System garnicht aber auch bei meinem alten System hätte ich es nicht gemerkt , denke mal das ist eher eine Kopf-Sache , dieses ständige hin und her hat doch sowieso keinen mehr interessiert und die Fan-Boys der jeweiligen Partei haben mit den anderen gestritten :) ist genau wie Vista und W7 ^^ ich habe immer noch Vista und kauf mir auch kein 7 :p
 
Wer jetzt eine neue Grafikkarte braucht, sollte meiner Meinung nach die neue ATI nehmen, weil er sich damit nicht nur die bestmögliche Preis-Leistung, sondern mit DX11 auch ein Zukunftssicheres Stück Hardware kauft. Wenn die NVidia Karten dann erscheinen, werden sie sich schnell in das bestehende Preis-Leistungsgefüge einpassen und dann kann man ja immer noch endscheiden. Denke aber nicht daß sie viel günstiger als die ATI sein wird, eher im Gegenteil.
 
Klar, was sollen die sonst sagen? Typisch NVidia F.U.D.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles