Nvidia-Chef stellt die Nachfolger von Fermi vor

Grafikkarten Der Nvidia-Chef Jen-Hsun Huang eröffnete in der letzten Nacht die GPU Technology Conference im kalifornischen San Jose. Dabei gab er einen ersten Ausblick auf die Nachfolger des aktuellen Grafikchips Fermi. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
ich verstehe langsam Nvidia nicht mehr :( selbst zurzeit sind gute Directx Grafikkarten von Nbidia Mangelware und wenn man eine bekommt, dann frisst sie mehr Strom als alles andere und ATI wird zurzeit immer besser und hat sogar nicht nur die komplette 5000 Serie herausen, sondern ist bald mit der 6000ter schon am Start. Was bitte macht Nvidia da zurzeit? Schlafen? kann ich als alter Nvidia-Fan langsam echt nicht mehr verstehen :(
 
@mangosun: Versteh ich auch nicht. Niedrigerer Energieverbrauch bei höherer Leistung wäre ein Ziel gewesen, mit dem Nvidia hätte punkten können.
 
@egal8888: Mehr Flops pro Watt ist auf jeden Fall erstrebenswert. Entweder sinkt der Energieverbrauch, oder die Leistung steigt. Oder eben beides.
 
@mangosun: Haste die GTX460 übersehen? Gutes Preis/Leistungsverhältnis und der Stromverbrauch geht auch i.O.
 
@DennisMoore: Nein die GTX460 verliert in allen Punkten gegen der Konkurenz.
 
@Menschenhasser: Ja sicher. Wenn man die nächsthöhere Leistungsklasse als direkte Konkurrenz nimmt bestimmt. Meine Zotac GTX 460 AMP liegt jedenfalls im Performancerating von Computerbase 3% über der ATi Radeon HD 5850. Und PhysX gibts noch obendrauf.
 
@DennisMoore: pff PhysX
 
@DennisMoore: Zitat"Und PhysX gibts noch obendrauf." = kein Argument PhysX wird sich nie durchsetzen wenn Nvidia es nicht auf OpenCL oder Directcompute (DX11) umstellt. Ein Standard ohne breite Hardwareunterstützung ist für die Tonne. GPU Physik wird bei der steigenden Anzahl von CPU Kernen immer bedeutungsloser werden, wenn sowohl ATI als auch Nvidia nicht endlich eine herstellerunabhängige (GPU)Physikengine auf den Weg bringen. Die Spielehersteller bringen ja auch nichts wirklich zustande, selbst PhysX Spiele haben nicht gerade eine hochwertige Physikdarstellung.
 
@mangosun: Ich als ATi user finde es aber schade, dass die 6xx0 nicht im 28nm Verfahren gefertigt wird... Da ist nvidias weg schon der bessere...
 
@maatn:Hö? Die 28 nm ATI Karten kommen ebenfalls 2011. Die 6000er Reihe ist doch der Refresh der aktuellen Serie und startet im Oktober und wir haben nicht 2011 falls du denkst das Nvidia dann in diesem November mit dem Termi Nachfolger in 28 nm startet.
 
@maatn: Na ja liegt halt an TSMC. AMD ist halt gerade etwas schneller im rausbringen. Und da kann man entweder warten oder aber die 6000er ohne 28nm rausbringen. Ich persönlich denke es ist strategisch besser sie ohne 28nm, aber dafür eben früher rauszubringen. Und dann mit Nvidia zusammen die 7000er in 28nm zu fertigen.
 
@mangosun: So gehts mir aber auch. Ich hab aktuell eine GTX260 und ich frag mich ehrlich, was mir Nvidia anbieten kann das wirklich attraktiv wäre in Punkto Preis/Leistung und Stromverbrauch/Wärmeentwicklung. Ich seh die 5000er Reihe aktuell besser aufgestellt als die 400er Serie.
Wen scherts denn bitte ob er in Crysis 100 oder 120 fps hat?
Dann lieber 10% weniger Leistung bei 20% weniger Preis und Stromverbrauch. Aber dann kommen und mit Zahlen protzen, ohne die Masse anzusprechen. Ja ne, is klar.
 
Sollten lieber auch weniger Leistungsaufnahme als Ziel haben, dann wäre Nvidia z.B. für mich wieder interessant.
 
@Fallen][Angel: Wenn du die doppelte Rechenleistung pro Watt erreichst, hast du quasi nur noch die halbe Leistungsaufnahme für eine gleiche Rechenleistung. Dummerweise wird diese halbierte Leistungsaufnahme nicht als Weiterentwicklung verkauft. Es wird einfach die doppelte Rechenleistung bei gleicher Leistungsaufnahme verkauft. BTW: Gemessen an der Rechenleistung sind Grafikkarten wahre Energiesparwunder. CPUs hingegen sind daran gemessen schlimme Stromfresser.
 
@DennisMoore: Das mag stimmen. Jedoch verbraucht eine Grafikkarte im Moment unglaublich viel Strom (im High-End Bereich). Natürlich leistet sie viel aber mehr als 300 Watt im Lastbetrieb lassen mich einfach nur würgen.
 
@Fallen][Angel: Vielleicht hilft es dir den Würgereiz zu unterdrücken wenn du bedenkst, dass sich die >300W unter Last fast in allen Tests immer auf die Leistungsaufnahme des gesamten PCs beziehen. Eine PS3 braucht ebenfalls 300W (erste Generation), nur ist sie dann nicht mal annäherend so leistungsfähig wie ein gleich viel verbrauchender PC.
 
@DennisMoore: http://www.computerbase.de/artikel/multimedia/2007/test-sony-playstation-3/24/
 
@lawlomatic: Ja, stimmt. 200W. Hatte ich mit dem Maximalwert der Leistungsaufnahme verwechselt. Aber der liegt auch nicht bei 300W, sondern bei 380W. Dafür braucht sie im Idle nur 20W weniger als unter Last. Auch irgendwie traurig.
 
@Fallen][Angel: Probier mal Benchmarks, die nur mit CPU oder zusätzlich mit GPU laufen. Dann bemerkst du ganz schnell, dass 300W extrem wenig dafür ist. Beispielsweise gibt es inige Brute-Force Passwort Cracker, die sich die GPU zur Hilfe nehmen. Sicherlich arbeiten nur wenige Programme mit der GPU, doch die anderen sind viel schneller.
 
@DennisMoore: @DennisMoore: Zitat "Wenn du die doppelte Rechenleistung pro Watt erreichst, hast du quasi nur noch die halbe Leistungsaufnahme für eine gleiche Rechenleistung. "

(Du meinst bei gleicher Leistungsaufnahme doppelte Rechenleistung.)

So gesehen schon, trotzdem ist es schwachsinn eine Grafikkarte zu bauen die insgesamt mehr als 200Watt Abwärme produziert. Das Problem ist einfach das niemand ein Heißluftgebläße im Pc haben will. Von daher ist die Forderung "weniger Leistungsaufnahme" schon gerechtfertigt, dafür würde ich auch eine geringere Gesamtgrafikleistung pro Grafikkarte inkaufnehmen. Es gibt numal thermische und akustische Grenzen die möglichst nicht überschritten werden sollten. (im Profibereich sieht das natürlich ganz anders aus)
 
@X2-3800: Gut, dann hast du prinzipiell die Wahl zwischen mehr Leistung pro Watt oder eben weniger Leistungsaufnahme bei gleicher Leistung. Ich denke für ersteres hat man die Highend-Grafikkarten am Markt und für letzteres die Lowend-Grafikkarten. Außerdem kenn ich keinen der sich eine Grafikkarte kauft die die gleiche Leistung hat wie eine bestehende, nur weil der Stromverbrauch geringer ist.
 
Kepler, 27.12.1571-15.11.1630, Astronom, Planetenbewegungen um die Sonne im Zentrum. Soll wohl auf den Energiebedarf des neuen Grafikchips hindeuten. Der Chip als gleißender...
 
wie immer alle auf dem Stromverbrauch rum hacken sicher verbraucht Nvidia mehr aber wenn man jeden Tag im Jahr 5 Stunden am Tag zockt ist das ein unterschied von 16 Euro im Jahr bitte wenn interessiert das?
 
@wolver1n: Die Lautstärke und vlt auch Haltbarkeit bei den hohen Temperaturen leiden und wenn jeder so denken würde, könnte die nächste Grafikkarten-Generation ja auch wieder mehr verbrauchen. Weitere 16 € zusätzlich im Jahr interessiert ja keinen. Ich denke das ist der falsche Weg. ATI machts ja besser, wieso kann Nvidia das nicht?
 
Jetzt scheint bei nVidia aber echt Panik auszubrechen. Kurz nach dem Fermi Start schon anfangen über die Nachfolger zu spekulieren und das nur, weil der ATI Refresh vor der Tür steht... Ein kleiner Dämpfer nach gewisser Arroganz schadet niemanden. ATI hat es vor einigen Jahren genauso getroffen, nachdem erste Höhenflüge eingesetzt hatten.
 
"Nvidia hat sich das Ziel gesetzt, bei gleichbleibender Leistungsaufnahme die Performance zu steigern." Eine höhere Leistungsaufnahme wäre mit einer konventionellen Luftkühlung auch kaum noch in einer akzeptablen Lautstärke realisierbar.
 
Ganz egal ob Nvidia oder ATI. Es bleibt ein Katz und Maus Spiel.

Auch wenn Nvidia Fehler macht, bleibe ich ihnen trotzdem treu.

Will jetzt nicht sagen das ATI schlecht ist, nur kann ich mich mit deren

Treibern nicht so anfreunden. Aber ist bekanntlich alles

Geschmackssache.
 
@Googlewolf: Wo bereitet dir denn der Treiber von ATI Kummer?
 
ATI ist halt im mom besser und das sage ich ob wohl ich eine Nvidia habe (GTX 470)
 
Tja, ein deutliches Zeichen gegen Nvidia und für ATI war wohl auch vor einigen Wochen, dass APPLE jetzt im MAC PRO keine Nvidia Grafik mehr verwendet, sondern auf ATI setzt. Und das bei einem so starken Desktoprechner.
 
"Nvidia hat sich das Ziel gesetzt, bei gleichbleibender Leistungsaufnahme die Performance zu steigern." Eigentlich ja logenswert aber da hier Fermi als Reverenz dient ist es alles andere als lobenswert. Denn Fermi ist ein Backofen der verbrät Strom wie nix anderes.
Kommentar abgeben Netiquette beachten!

Weiterführende Links