Fermi: Nvidia führt neuen Grafikchip live vor

Grafikkarten Nvidia arbeitet derzeit mit Hochdruck an seinem neuen Grafikchip "Fermi". Auf der Supercomputer Convention 09, die in Portland, Oregon stattfindet, wird man Fermi erstmals live vorführen. Ab 17. November kann man sich drei Tage lang von der Leistung ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"10 Prozent der Kosten" ?? 10 Prozent der Kosten für was?? Herstellung, Personalkosten? Mal abgesehn davon, selbst wenn Herstellungskosten gemeint sind, würd sich das NV trotzdem fürstlich bezahlen lassen!
 
@Adam_West: "...gleiche Leistung wie aktuelle Quadcore-CPUs..." Es bezieht sich also auf 10 Prozent der Kosten einer aktuellen Quadcore-CPU. In diesem Fall könnte man also mal eine Core i7-860 ansetzen. Dann kostet der Fermi 23 Euro und verbraucht unter 5 Watt. DAS will ich von nVidia mal sehen :-)
 
@satyris: genau das würde ich auch gern mal sehen... :-)
 
@satyris: Die GPU 23 Euro. Die komplette Karte kostet trotzdem 400 Euro.
 
@Mister-X: Na, ich glaube da kann man bestimmt noch 100 Euro drauf tun so wie ich Nvidia kenne, wenn man damit auskommt.
 
@Mister-X: Das Zusammenbauen und v.a. die Entwicklung kostet nunmal Geld.
 
@Jack21: Ich rede vom Basismodel
 
@Mister-X: Für die gleiche Leistung (bei gewissen Dingen) braucht man für eine Grafikkarte viele Quadcores. So gesehen kann das ungefähr stimmen.
 
@Adam_West: Heißt im Prinzip, dass wenn man die Leistung von Fermi mit QuadCores erreichen will, man so viele QuadCores braucht, dass der Fermi nur 5% des Strombedarfs hat und nur 10% der Kosten gegenüber den ganzen Quads verursacht. Sehr interessant für HighEnd-Computing Serverfarmen.
 
@satyris: Vor allem will ich dann mal die Preise für die Fermi-Grakas sehen! Bei 23 Euro für die GPU sollten die Karten doch deutlich unter 200 Euro an den Endkunden zu bringen sein, oder? Erleben werden wir das aber sicher nicht. Na, der NVidia-CEO war schon immer ein großes Heißluftgebläse ...
 
@satyris: ... nur 10% der Kosten .. für Nvidia ... für den Endverbraucher ändert sich nix. Es wird weiterhin kaum bezahlbar sein. ^^
 
Hat irgendeiner von euch schon mal von einem Vergleich gehört? Dass die 5% Strom verbrauchen bedeutet bei vergleichbarer Leistung. Klar ist natürlich das man bei einer Fermi nicht nur einen Quadcore braucht sondern einige, somit sind die 5% Strom auch nicht 5W sondern halt auch an die 100W, genauso isses dann beim Preis. Ob das jetzt Wahrheitsgemäßig ist, ist eine andere Sache, das aber vom Hersteller selber kommt, sollte mans halt vorsichtig geniessen.
 
@Aspartam: nur falls ihr es immer noch nicht gemerkt habt. Es ist hier die Rede von 5% und 10% bei GLEICHER Leistung. Eine GPU ist extrem stark in Gleitkommaoperationen, wenn man die gleiche Leistung wie 1 Fermi Chip mit CPUs erreichen will, braucht man mehrere Quadcores und Mainboards usw. Und ein Chip kostet bei weitem keine 23€. Da habt ihr anscheinend was nicht verstanden. Angenommen 1 Fermi Chip hat die Leistung von 10 Quad Cores, dann müsst ihr auch 10% der Kosten von allen 10 Quad-Cores nehmen. Also ist eine GPU genauso teuer wie eine CPU.
 
@satyris: die Rechnung stimmt schon...bei der Konstante Leistung. Aber der Fermi wird weit sträker sein und mehr kosten und mehr Verbrauchen...ist eben nur runtergerechnet.
 
Hoffen wir mal, dass es nicht eine Luftnummer wird.
 
Wenn man schon zugesägte Altmodelle als Fermi-Karte bewerben kann, steckt in dem Testsystem bestimmt ne ATI 5xxx
 
Hört sich gut an! Aber ich denke wenn die Preise bekannt gemacht werden, wird mir wohl das Brötchen im Hals stecken bleiben :-)
 
@Jack21: Was Grafikkarten für Spieler anbelangt wirst du dein Brötchen gemütlich zu Ende essen können. nVidia wird die Preise so setzen, dass Spieler auch Karten kaufen wollen. 500-600 Euro sind da vielleicht drin für High-End Modelle, aber nicht mehr. Dann solls ja auch noch MidRange-Karten geben. Und man darf auch nicht vergessen dass nVidia in Konkurrenz zu ATi steht. Die haben ja schon preisgünstige Karten auf dem Markt.
 
@DennisMoore: Exakt und diesmal ist die Situation ja umgekehrt, ATI hat bereits gute Karten auf dem Markt und Nvidia zieht nach. Wenn sie nicht drastisch mehr Leistung bringen müssen sie als zweite wie damals ATI bei DirectX10 über den Preis verkaufen. Das ist ja auch der Grund weshalb ich definitiv mit meiner DX11 Karte warte bis von beiden Firmen was erhältlich ist und von unabhängigen Testern verglichen wurde. Konkurenz belebt ja bekanntlich das Geschäft.
 
Das mit den 5% klingt für mich zweifelhaft. Immerhin die die Grafikkarten derzeit der schlimmste Stromverbraucher im PC und moderne CPU's glänzen durch Bescheidenheit, was den Stromverbrauch angeht. Egal, ich lasse mich gerne überrasche und hoffe das der Preis das Ding nicht gleich zum Flop degradiert.
 
@silentius: du vergisst aber, dass man mehrere CPUs braucht, um die Leistung einer GPU zu erreichen. Wenn man das beachtet, könnte diese Schätzung durchaus stimmen.
 
@silentius: Die meinen das anders. Angenommen du brauchst 50 QuadCores um die Leistung eines Fermi-Chips zu erreichen, dann verbraucht der Fermi in Relation zu den ganzen Quads nur 5% des Stroms und kostet nur 10% von den QuadCores.
 
@DennisMoore: So habe ich das auch verstanden.
 
@DennisMoore: Ah danke, so hab ich es nicht betrachtet. Das ergibt dann natürlich Sinn. Aber @Link: Die GPU's sind hochspezialisiert auf Fließkommaberechnungen, eine normale CPU hat schon ein wenig mehr drauf. Daher ist der vergleich evntuell nicht so ganz perfekt.
 
@silentius: Finde ich auch. Aber mit irgendwas muß man ja vergleichen.
 
@silentius: Das will ja eben NVIDIA jetzt bewerben, dass die karten super für Berechnungen geeignet sind (Dank techniken wie cuda oder computeshader kann da auch durchaus einiges an Berechnungen durch eine Fermi o.ä. übernommen werden)
 
@ZECK: Wo wir aber wieder beim Problem sind, das GPU's für Fließkommaberechnungen optimiert sind. Du kannst damit wunderbar rendern. Ach Video kannst fix umrechnen, auch wenn das ja fast immer illegal ist *hust*. Generell fehlen den Herstellern der GPU's Jahre an Erfahrung im Bereich der normalen CPU's. Daher würde ich das alles noch nicht so für bare Münze nehmen. AMD / ATI haben da mehr potential gute Kombinationen aus beidem auf dem Markt zu bringen. Das was NVIDIA in den Bereich fehlt, bekommt ATI durch AMD :-)
 
na dann hat wenigstens der osterhase was zu lachen. vorher kommt die nicht auf den deutschen markt raus. in der zwischenzeit hat ATI die nächste generation am Start.
 
@Tiesi: Wer glaubt denn noch an den Ostermann, oder den Weihnachtshasen ? :D
 
Mir wäre es viel lieber, wenn die mal im Notebookbereich ein paar anständige Karten zu (für mich :D) bezahlbaren Preisen anbieten würden... oder die Grafikkarten auch wirklich, wie schonmal angekündigt und so gut wie nicht im freien Verkauf erhältlich, als Steckkarten. Meines Erachtens wäre hier noch einiges zu machen, dürfte aber den Notebookherstellern nicht so gefallen. Die bieten ja ohenhin nur "geschlossene" Systeme an, mit eigener Software etc. So ne Art OpenSource Notebook wäre mal was feines... :)
 
@pandabaer: Es gibt bereits Grafikkarten in so schwarzen Boxen die man an Notebooks anstöpseln kann. Ob die für dich bezahlbar sind oder ob du ein passendes Notebook hast, weiß ich allerdings nicht.
 
@DennisMoore: Ja, die kenn ich. Ab er einbauen wäre mir lieber, deswegen auch die Idee eines "OpenSource" Notebooks :)
 
@pandabaer: Was ist denn ein OpenSource-Notebook? Kriegste da die ganze Hardware für lau, oder holst du dir Platinen, Elektrobauteile und Lötkolben ausm Bastelladen und fängst selber an Platinen zu produzieren? ^^ Abgesehen davon hätte es doch nur Nachteile einen Grafikkartenbrecher in ein Notebook fest einzubauen. Hoher Stromverbrauch, hohe Hitzeentwicklung, schweres Kühlsystem, etc.
 
@DennisMoore: Open Source heißt nicht gleich kostenlos.
 
@Okkupant: Nee, aber irgendwas muß ja "offen" sein. Entweder die Hardwarespezifikation wo man sich die Komponenten selbst zusammenlötet oder man bekommt irgendwo ein fertiges Hardwarepaket zum Selbstkostenpreis.
 
@DennisMoore: Aye, hab ich mich nicht klar genug ausgedrückt :) Damit meine ich eine Hardwarebasis, ähnlich Barebones, womit ich mir ein Laptop selber bauen kann. Mit der Software für die Funktionstasten. Für Lau is nix außer der Tod ^^ ... Wahrscheinlich ist OpenSource ohnehin der falsche Ausdruck. Eine Auswahl an Hardware mit der ich mir ein Laptop zusammenbauen lassen kann oder es selbst tun... wie bei Barebones. Nur noch RAM, CPU, Festplatte und nach Wunsch ne Graka drauf oder rein und gut is. Das Hardwaregerüst aus Netzteil, Gehäuse und Platine werden komplett angeboten. TFT kann ich mir auch einen Aussuchen oder ist eben beim Grundgerüst mit dabei :) .. So war das gemeint, aber von mir bescheiden ausgedrückt ^^
 
@pandabaer: Ja. Es ist der falsche Ausdruck. Was du meinst sind "Notebook Barebones". Auch die gibts schon zu kaufen. Natürlich sind da TFT, Akku usw. fest vorgegeben. Aber man kann schon aus einigen Optionen wählen.
 
"...arbeiten mit hochdruck daran". die würden sich besser zeit lassen und etwas richtiges rausbringen, als so halbpatziges zeugs, was nachher ständig mit updates etc. korrigiert werden muss.
 
Warum redet ihr hier von fertigen Grafikkarten? Die Fermi GPU wird an OEMs verkauft, mit diesem neuen Teil spricht man eben nicht nur Grafikboard Hersteller an, sondern auch Produzenten von Spezial-Hardware. Hier wird wie so oft nicht über den Tellerrand geschaut, sondern nur typisch für PC-Kiddis über Gamer-Hardware gesprochen.

Die GPU von Nvidia soll nicht nur den Gamer-Markt ansprechen (der beim PC sowieso mehr und mehr weg bricht), sondern auch für Rechner gedacht sein, welche spezielle Berechnungen mit großen Fließkommazahlen schnell ausführen müssen. Eine typische CPU von Intel oder AMD ist gerade bei komplexen Berechnungen arsche Lahm, da wo die GPU von Nvidia gerade mal gähnt ist eine Quad Core x86 CPU bereits am Feuer spucken.
 
@rAcHe kLoS: Das ist faktisch falsch. Eine moderne CPU (sagen wir Core i7) ist auch einer Fermi-GPU bei komplexen Berechnungen (double precision) und Programmabläufen (Branches, Loops) deutlich bis weit überlegen. Die GPU punktet nur bei massiv datenparallelen Anwendungen (selbst bei prozessparallalen Aufgaben ist sie unterlegen).
 
@Aspartam: Bei double precision ist eine GTX 285 mit 35 Gflops gegenüber einem Intel Quad Core mit 2,66 Ghz überlegen, bei single precision sind es gar 290 Gflops.
 
"Parallel-Prozessoren für den Massenmarkt" hört sich irgendwie so an, als ob der Fermi eigentlich gar nicht für Spielegrafik gedacht ist, sondern das einfach nur so nebenbei mitmacht.
 
Uiii, eine Grafikkarte die DirectX 11 unterstütz. Und das nachdem nvida noch vor gar nicht langer Zeit behauptet hat, das währe für die Käufer gar nicht so wichtig :)
 
@Joerg01: Es ist im Moment auch noch nicht so wichtig, wird es aber werden.
 
"AMD hat mit der Radeon-HD-5000-Serie bereits seit einigen Wochen entsprechende Produkte im Angebot."

auf dem papier vielleicht.
 
@fli7e:
Nö auch in diversen Shops. HD 5770
 
@fli7e: Zwar häufig ausverkauft, aber dennoch wurden schon einige Karten verkauft.
 
lasst doch die kiddis von ihrer super gamerkarte träumen :-), berichte richtig lesen, oder googeln ist zu viel arbeit als hier was zu posten oder minus klicken.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles