Nvidia Fermi: Massenproduktion doch erst 2010

Grafikkarten Anfang Oktober stellte Nvidia mit Fermi einen neuen Grafikchip vor, der in zukünftigen Grafikkarten Verwendung finden soll. Bislang war nicht klar, wann die ersten Modelle auf den Markt kommen sollen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Zitat: Nvidia hat diesen Trend bislang verschlafen. Das kann man aber Laut sagen. ATI an die macht :D. Bei ATI stimmt wenigstens die Preisleistung im Gegensatz zu nivida
 
@dercooly: nur wie lange noch, wenn es keine wirkliche konkurenz mehr gibt. wir wissen doch alle wie es im graka sektor ab geht, da kauft sich einer ne nvidia graka fuer 100 euro und denkt die ist der absolute bringer, weil das top modell von denen die schnellste ist. wie sich das in zukunft entwickeln wird ist fraglich, aber eines wird gewiss sein, ati wird die preise sicherlich nicht so human lassen, wenn sie die inovationsfuehrerschaft besitzen...
 
@dercooly: Dazu müssten die HD58x0 aber auch lieferbar sein. Stand heute: Fehlanzeige.
 
@dercooly: Hinzu kommt das ATi gute 4-5 Monate Vorsprung hat! Das heist, wenn nVidia mit ihren Fermi auf den Mark kommt, ist ATI schon bei der zweiten Generation fast an gekommen. Sodas hier das Wettrennen nicht gut für nVidia enden wird.
 
@Tjell: Das liegt nicht an ATI sondern am Auftragsfertiger TSMC, die haben derzeit anscheinend große Probleme bei der Fertigung von 40 nm Chips. Ärgerlich ist das natürlich für die Kunden und für ATI, aber derzeit wohl leider nicht zu ändern. Das wird bei nVidias neunen Chips auch nicht anders laufen.
 
@chronos42: Ich weiß. Der Grund ist allerdings aus Käufersicht irrelevant. Und bis zur Massenproduktion des Fermi könnte es sein, dass die jetzigen Probleme mit der 40 nm-Fertigung behoben sind. Damit wäre praktisch nur ATI betroffen, sodass sie ihren zeitlichen Vorsprung nicht in Marktanteile umsetzen könnten.
 
@SpiritOfMatrix: Du verdrängst da aber die Treiberproblematik, denn was nützt die schönste Grafik-Hardware, wenn sie nicht, oder nur unzulänglich genutzt werden kann? Zwar wird seit einiger Zeit an OpenSource Treibern für ATI Grafikkarten entwickelt, aber das ist noch ein weiter Weg. Wenn man also schon jetzt zuverlässiges und stabiles 3D benutzen möchte, fährt man mit den proprietären Nvidia Treibern auf vielen Betriebssytemen deutlich besser. Und wem der OpenSource Gedanke die oberste Direktive ist, der weiß, das Intel diesbezüglich die längste Tradition pflegt. Die optimale Lösung gibt es aber schlichtweg leider nicht, denn gerade bei Grafikhardware ist immer irgendeine Kröte zu schlucken.
 
@Fusselbär: Ich habe ehrlich keine Erfahrung mit nVidia-Treibern und es soll kein geflame oder Fanboypost sein, aber ich habe mit meiner HD5770 unter Windows 7 keinerlei Treiberprobleme. Spiele wie GTA IV laufen völlig problemlos. Wo sollte ATI denn deiner Meinung nach Probleme haben?
 
@ SpiritOfMatrix: Vorsprung ? gähn. Ich denke nicht! Wer sagt denn das die Graka von Nvidia nicht zum wiederholten mal nach erscheinen auf Anhieb in den Schatten stellt ? Weißt du was wir nicht wissen ? Was soll überhaupt nen Dx11 Graka ohne Software. Wenn man sich etwas mehr Zeit läßt kann ein Produkt eben noch reifen. Das hat ATI schon öfter nicht begriffen, diesmal ist es sicher genauso. Das ist nur eh eine billige Masche von ATI mit Gewalt die ersten zu sein. Das die im Moment sowieso das nachsehen haben ist ja wohl bekannt. Wer auf Leistung und Qualität wartet, der wartet bei Nvidia nicht umsonst. Nvidia wird ganz sicher ATI wieder in die Schranken weisen. ATI ist genauso bescheiden wie AMD auf dem Prozessorsektor. Ich bin wahrscheinlich mit der GTX 285 noch lange Zeit bestens bedient, also habe ich es eh nicht so eilig mit Dx 11 Grakas mit derzeit ohne echten nutzen.
 
@followMe: Die Nvidia Karte liefert prächtig 3D Hardwarebeschleunigung unter Linux, FreeBSD, OpenSolaris und Windows. Jetzt führe mir doch mal vor, wie zum Beispiel NeverwinterNights auf FreeBSD mit einer HD5770 läuft, nämlich gar nicht, denn der radeonhd Treiber hat keine 2D & 3D Hardware Beschleunigung, noch bietet der Xvideo Unterstützung (fürs Filmchen gucken). Intel würde etwas 3D liefern, aber zum Spielen wär' es nicht optimal, dafür sind die Intel Dinger ziemlich sparsam im Stromverbrauch, also ideal für Netbook und Notebook. Ati ist bislang eher nur für Windows-Daddelkram brauchbar und selbst da habe ich viel Gejammer im Bekanntenkreis über die Ati Treiber hören müssen. Mir persönlich wäre nur Windows-Daddelkram machen zu können, zu öde. Bis die freien Ati Treiber so richtig gut werden, dürften wohl die gerade aktuellen Grafikkarten Generationen schon wieder veraltet sein. Ganz ohne Nachteile sind aber auch die Nvidia Grafikkarten nicht, denn leider will Nvidia den 3D Treiber mit Hardwarebeschleunigung weiterhin geschlossen halten und die Treiber des Nouveau Projekts werden wohl auch noch Zeit zum reifen brauchen: http://nouveau.freedesktop.org/wiki/FeatureMatrix Also die ideale Grafikkarte gibt es schlichtweg noch nicht.
 
@Flecky: Boah, wenn ich so was lese! Zumal ja einer den Anfangen machen muss. Denn wenn keiner eine DX11-Karte auf den Markt bringt, werden auch keine Spiele entwickelt! Dann zum anderen: Wenn nVidia mit seiner auf dem Markt erscheint, muss sie mindestens die 2 fachen Leistung haben, von dem was sie jetzt mit ihren alten schaffen. Gibt da eine Faustformel jedes Jahr x2. Dann schläft ja AMD/ATI nun auch nicht. Die werden bis dahin auch weiter sein und das heist das sie mindesten um die Hälfte schneller werden. Außerdem sind 2 Milliarden Transistoren auf einer DIE nicht mal so unter zubringen(besonders nicht in der Fertigungsgrösse). Hinzu kommt das ATI, so viel ich weis, ab nächstes Jahr in den ausgelagerten Fabs von AMD produzieren wird und das auch noch in 32nm oder gar 28nm. Was auch ein Vorsprung sein wird. Also nVidia hat es Sau schwer im Moment.
 
@Fusselbär: Das sind natürlich in der Tat massgebliche Betriebssysteme, die den Markt völlig unter sich aufteilen. Linux hat auf dem Desktop unter 1% Verbreitung (und dafür gibt es 3D-fähige Treiber von AMD/ATI), und FreeBSD ist ein OS für absolute Unix-Puristen. Was nützen mir den 3D-Treiber für solche Betriebssysteme, wenn ich keine Spiele dafür bekomme? Andererseits kannst Du unter Windows oder Linux jetzt schon eine HD5XXX hernehmen, dafür OpenCL/Compute Shader Software entwickeln und die entsprechenden massiven Leistungszuwächse mit diesen Karten geniessen, und da sehen NVidia-Anwender in die Röhre (deren aktuelle Grakas bringen in double precision gerade mal 1/8 der sp Leistung - das konnte ATI mit den HD4XXX schon zweimal so gut).
 
Fermi ist keine Gamer GPU...wer interessiert diese Karte in Verbindung mit D3D 11? Dieser Markt wird weiter von ATI bedient...
 
@bluefisch200: Sagt wer??
 
@bluefisch200: das glaube ich nicht, sobald Nvidia wieder anschluss gefunden hat, werden genug Fanboys die Karten kaufen....
 
@bluefisch200: welcher DirectX 11 Markt!?
 
@Navarro: genau welcher markt eigendlich XD aber man muss auch zugeben das dx11 schon verdammt goil ist, freu mich schon auf gute dx11 spiele
 
@XenoX: OpenGL 3.0 kann auch alles. Und wegen der Konsolen seh ich in der Richtung mehr Potenzial :-) So langsam erholt man sich ja auch von der Patzern der Khronos-Leute.
 
Wie schnell sich die Blätter wenden können... Hauptsache ist am Ende, das die Konkurrenz erhalten bleibt!
 
"Die Gerüchte, wonach noch in diesem Jahr DirectX-11-fähige Grafikkarten auf den Markt kommen, dürften damit widerlegt sein." Von Nvidia schon > "AMD verkauft bereits seit einigen Wochen die ersten DirectX-11-fähigen Grafikkarten "
 
So bisschen Schadenfroh bin ich ja schon. Alleine wegen den ganzen Nvidia Fanboys. Ansonsten bin ich aber auch für zwei konkurierende Hersteller....
 
@n3xus_2k4: Bin derzeit sozusagen ein nVidia-Fan. Mich störts aber ganz und gar nicht, dass es noch keine neuen Chips und dazu passende Karten gibt. Q1/10 ist nicht mehr lange hin und bis dahin komm ich noch über die Runden. Wenns sein muß auch noch länger. Entscheidend ist doch immer dass man Auswahl hat. Also warte ich bis Auswahl da ist. Dann kann man sich seine Karte nach Preis, Leistung oder Stromverbrauch aussuchen. Ich finde wenn man derzeit nicht gezwungen ist ne neue Karte zu kaufen, sollte man es auch lassen.
 
@n3xus_2k4: Mir tun ja eher kurzsichtige Leute leid die anscheinend nur in 2 Jahreszyklen zu denken vermögen. :P AMD, Intel, Nvidia - wayne! Einbauen, Gehäuse zu und gut ist. xD
 
@n3xus_2k4: so geht es mir auch :) ...die schrottvidia fans sind halt was besonderes und imemr wieder schön anzusehen wie dich sich hier aufregen :)
 
@DennisMoore: Q"1"? Naja, die Hoffnung stirbt zuletzt ... har har.
 
Wer weiß, vielleicht ist die Verfügbarkeit gar abhängig von der trödelnden Konkurrenz. Warum sollte ATI nun massenhaft 5er Karten auf den Markt werfen und sich so selber die Preise kaputtmachen. Die bekommen doch aktuell ihre UVP locker rein und manch Inethändler verkauft eine 5850 im lieferbaren Zustand für unfassbare 400 Euro. Das kann nicht nur an TSMC liegen.
 
@sirtom: Ich denke ATI würde deutlich mehr einnehmen, wenn sie die komplette Nachfrage auch befriedigen würden. Ob die überhöhten Verkaufspreise nun bei ATI liegen oder eher beim Händler, der endlich ein paar Exemplare ergattern könnte weiß auch keiner so genau.
 
Ne ne, wenn ATI könnte, würde ATI massenhaft liefern bis der Arzt kommt. Diese Lücke die nVidia da lässt müsste ATI eigendlich so schnell und nachhaltig wie auch immer geht füllen. Die werden sich schön in den eigenen Hintern beißen das sie den Markt nicht ausreichend mit HD5xxx Karten sättigen können! Wer würde sich schon eine Fermi kaufen wenn er eine HD5870 erst vor 2 Monaten gekauft hätte?!
 
Also ich warte gerne auf den Fermi. Alleine schon um einen Vergleich zu haben und mich zwischen 2 Herstellern entscheiden zu können, statt jetzt ne Karte von ATi zu kaufen und mich hinterher zu ärgern weil evtl. doch ne nVidia Karte besser für mich gewesen wäre. Außerdem macht mich die Aussage "Fermi soll sowohl in den Geforce- als auch in den Quadro- und Tesla-Grafikkarten eingesetzt werden" neugierig. Ein einziger Chip und drei verschiedene Leistungsklassen.... Das muß schon ein ordentlicher Hammer sein. Vielleicht kann man da auf nromalen Grafikkarten per Modding noch ein paar mehr Features freischalten als jetzt schon. Wir werden sehen.
 
@DennisMoore: Es wird doch jetzt auch schon ein und derselbe Chip im Gaming- und im Workstation-Bereich eingesetzt. Sowohl bei ATI als auch bei nVidia. Und GPGPU können die Chips auch alle. Weiß nicht, wo jetzt der "ordentliche Hammer" sein soll.
 
@satyris: Es steckt ein normaler GPU-Chip in Tesla? Das glaube ich kaum. Zudem gibts für die neuen Fermi-Chips (und auch eingeschränkt für aktuelle GPUs) neues im Bereich Raytracing -> http://tinyurl.com/ycjum9n . Beispiele zu dieser Technologie gibts auch schon bei nVidia.
 
@DennisMoore: Dann lies mal das hier: http://de.wikipedia.org/wiki/Nvidia_Tesla "Nachdem die ersten Karten Mitte 2007 auf Basis der G80-GPU vorgestellt wurden, folgten ein Jahr später die aktuell schnellste Tesla-Karte mit dem GT200-Grafikchip, der auch für Desktopgrafikkarten der Geforce-200-Serie genutzt wird."
 
@satyris: Komisch. Auf der nVidia-Seite ist immer von speziellen Einheiten die Rede -> http://www.nvidia.de/object/product_tesla_m1060_de.html Mag aber sein, dass die einzelnen Recheneinheiten wirklich etwas mit den "normalen" GPUs zu tun haben. Direkt stehts da nicht. EDIT: Ach, jetzt kapier ich das erst richtig. Stand aufm Schlauch. Die Einheiten beherbergen eine Anzahl an G80 oder GT200 GPUs und sind bloß ein Rahmenwerk drumrum.
 
wikipedia würde ich aber auch nicht unbedingt als seriöseste und zuverlässigste quelle betrachten. kann ja sein, dass es korrekt ist, was bei wikipedia steht, aber wetten würde ich nicht drauf. denn wenn ich nur so manche andere artikel da lese und feststelle, was dort manchmal steht,... naja, schade dass viele dann etwas falsches erfahren.
 
@laboon: Da gebe ich dir recht, was Wikipedia angeht. Hatte es aber aus der c't im Kopf, der traue ich meist schon mehr zu. Habs aber auf der Wikipedia schneller in zusammengefasster Form gefunden. Also dieser Wikipedia-Artikel sollte eigentlich schon stimmen.
 
@DennisMoore: Na Du hast ja den Durchblick ... der wesentliche Unterschied bei Quadro-Karten und Tesla-Systemen sind Speicher (-ausbau) und Treiber-Validierung, dazu bekommst Du bei den (überteuerten) Tesla-Workstations ein Stand-Alone-Subsystem mit je nach Ausbaustufe mehreren Grakas drin. Tja, wie heisst es doch: "Glauben heisst nicht wissen."
 
@Aspartam: Ich beschäftige mich halt nicht sooo dolle mit Dingen die ich eh nicht brauche und mir auch nicht leisten kann. Wäre es interessanter für einen Normalsterblichen, hätte ich sicherlich genauer hingeguckt.
 
Nvidia ist so blöd und läßt sich das Weihnachtsgeschäft vermasseln. Da wird dicher auch viel verkauft.
 
@jediknight: Hättest du lieber ein unausgereiftes Produkt mit vielen Fehlern und hoher Ausfallrate? (OK, schafft nVidia ja auch bei Notebookgrafik, aber vielleicht haben sie ja daraus gelernt).
 
@jediknight: NVidia kriegt es nicht schneller hin, das hat mit blöd nicht unbedingt was zu tun. Ich finde es sogar gar nicht blöd, dass sie ihren Ruf nach den Fiaskos der näheren Vergangenheit nicht noch mehr ramponieren, indem sie verfrüht ein unfertiges Produkt auf den Markt werfen (das wahrscheinlich noch so unfertig ist, dass es sowieso nicht ginge).
 
NoooOOOoo! die sollen aus dem Arsch kommen, ich wollte mir nach dem Weihnachtsrummel nen PC zusammenstellen und nun sowas :( Keine Konkurrenz, kein Preisverfall. Und auch kein Leistungvergleich aaaargh
 
@Ikilu: Noch mehr Preisverfall? Die GraKa-Preise sind lächerlich, wenn man bedenkt, dass es nichtmal Konkurrenz gibt. 310€ das absolute Top-Model im Moment, die 5870 (im Moment kaum lieferbar, aber das sollte sich bis Weihnachten ändern). Und sobald du unter der 5850 bist, sind die Preise ja noch untertriebener. Unter 100€ für eine 4870...
 
Naja, immerhin hat Nvidia ja noch SOFTWARE, ne? Weil es ja ein Softwarebude mit Hardwaresupport ist. :P
 
Jaja, Fermi der PapierTigscher...
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte