Nvidia-Chef: Fermi-GeForce wird bereits produziert

Grafikkarten Nvidia hat auf der Consumer Electronics Show (CES) in Las Vegas in der letzten Nacht eine Pressekonferenz abgehalten. Viele Besucher hatten sich neue Informationen zur neuen GeForce-Generation mit Fermi-Chip erhofft. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Naja ich bin gespannt, ob die Versprechungen denn auch eingehalten werden. Und vor allem, ob das Preis/Leistungs-Verhältnis stimmt. (War in letzter Zeit immer ein Problem.) Meine letzte Nvidia Karte war die GeForce4 Ti 4200, unglaublich, was die Karte damals vollbracht hat. (Zum Sparpreis)
 
@web189: Nvidia und Preis-Leistungsverhältnis passt nicht wirklich zusammen. ATI zeigt, wie so etwas gemacht wird :)
 
@EL LOCO: Naja die 8800 GTS-320 hat schon ein gutes Preis/Leistungs-Verhältnis gebracht. Besonders hat sie für ein generellen Preissturz gesorgt.
 
@Mudder: Und für FPS-Einbrüche durch den nie richtig behobenen V-RAM Bug - Schon ne tolle Karte mit der man etwa 30-60 min am Stück spielen kann..
 
@Mudder: und die 8800 gt erst. läuft immer noch bei mir und hat immer noch genug leistung wie ich finde.
 
@Stratus-fan: du übertreibst da sicher etwas. habe auch diese karte, aber von problemen wusste ich erst, als ich news dazu gelesen habe. konnte es davor und danach nicht wirklich bemerken. was nicht heißen soll, dass es diesen bug nicht geben würde, er wirkt sich einfach nicht zwangsläufig so dramatisch aus. und schon gar nicht so dramatisch, wie du es gerne hättest. also die 30 - 60 minuten sind doch nur gebashe von dir!
 
@EL LOCO: Geforce 4 Ti, Geforce 6600 GT, Geforce 8800 GT waren Top Karten für ihren Preis. Mit meiner 8800er kann ich heute immer noch alles spielen.
 
@Freezer: Wow. Ist ja genau mein GraKa-Werdegang :)
 
@Stratus-fan: sagt das atifanboy bübchen :)
 
NVidia hat halt auch nichts um etwas vorzuweisen. Sonst hat NVidia doch immer angegeben mit Ihren tollen Grafikkarten. Warum sollte sich auf einmal die Strategie ändern? Ganz Klar...ATI hat diesen Kampf erstmal gewonnen!
 
@Steffen1988: ja schade nur, dass die TMSC ihr geschäft vermasselt.
man darf gespannt sein.
 
@Steffen1988: Den Kampf um die ersten Karten mit DX11, ganz klar. Den Krieg aber noch lange nicht. Wenn der Preis stimmt, kommt mir wieder ne NVidia-Karte ins Haus, und meine jetzige 9800GT erstezt dann meine 8600GT als PhysX-Karte. Wobei ich sagen muss, dass NVidia mich wegen ihrer "Altes Kind - neuer Name"-Strategie ankotzt. Vielleicht hat das ja mit "Fermi"/GF100 endlich ein Ende.
 
@Steffen1988: ! und etz kommt nur noch heise Luft, um den ach so tollen Fermi, ich weiß net, Nvidia labert und labert und labert und ATI machts einfach, Die letzen paar Tage in den News, Fermi gebaut, Fermi best, ATI sucks, Fermi vorstellen, und was is -> nix. Für mich rutscht das Unternehmen immer mehr ab. Is ja fast wie ne Firma die ein Perpetuum Mobile ankündigt...
 
@DSchemhaus: Der Preis stimmte bei Nvidia aber schon lange nicht mehr. Da Fermi ja das neue Flagschiff werden soll, wird der Preis auch dieses Mal wieder knapp am doppelten der leistungsstärksten ATI liegen, die allerdings nur max 10% (*Vermutung*) langsamer ist.
 
@monte: "knapp am doppelten der leistungsstärksten ATI liegen" - Asus EAH5970/G/2DIS 659EUR - Fermi = 1318EUR ?!?
 
@DSchemhaus: Singlekarte, nicht Dualkarte
 
@Antimon: PowerColor HD5870 399EUR - Fermi SingleGPU Karte 798EUR ?!?
 
@DSchemhaus: Die günstigste HD5870 die ich spontan gefunden habe kostet "nur" 324€ (deine Power Color kostet 325€, wobei es da verschiedene Variationen gibt), damit wären es auch nur 648 bzw. 650€. Knapp 600€ für das absolute Topmodel traue ich NVIDIA (wenn sie nichts dazugelernt haben) durchaus zu, wenn der Fermi denn nochmal 15-20% mehr Leistung draufpackt. Allerdings bin ich der Meinung, dass sie das nicht tun werden, da die Marktlage das nicht zulässt. So dumm kann NVIDIA einfach nicht sein. Weiterhin sollte man bedenken, dass die HD5870 im 3D-Betrieb ungefähr 130Watt frisst, der Fermi allerdings über 200Watt ziehen soll. Vorläufiges Fazit: Wartet ab, bis Fermi draußen ist und es echte Vergleichsbenchmarks und fangt erst dann an euch hier zu gegenseitig runterzumachen.
 
@ElDaRoN: So ganz stimmt das nicht, die HD5870 hat laut Datenblatt eine Leistungsaufnahme von 188 Watt. Bei Tests sind teilweise sogar 200 Watt gemessen worden.
 
@Freezer: und das im standard takt, wenn man noch etwas übertaktet... ich freu mich schon auf die stromrechnung oO
 
@Freezer: Ja gut, hast recht. Ich habe mich (der Faulheit wegen) nur auf einen einzelnen Test bezogen. Und der sagte mir, dass die Karte im 3D-Betrieb (Race Driver: Grid) knapp 130Watt verschlang. Unter Vollast (Furmark 1.6.5) dann die 186Watt. Aber selbst wenn andere sogar 200Watt gemessen haben, ist das immer noch weniger als (über 200Watt). Aber mal ernsthaft: Ich behaupte mal, die meisten von uns würden sich so eine Grafikkarte kaufen, um zu daddeln und darum schafft es vermutlich keiner, dass die Karte auf absoluter Vollast läuft. Ich kann ja nicht mal meine ab Werk übertaktete HD4870 völlig ausreizen. Darum noch einmal: Abwarten. Solange wir Fermi nicht kaufen können ist das alles in dieser Richtung nur theoretisches Geblubber unsererseits. ___@ExusAnimus: Die Übertaktung fällt aber auch erst dann richtig ins Gewicht, wenn du die Karte richtig ausreizt. Sonst greifen nämlich diverse Stromsparmechanismen. Wenn du die ausschaltest bist du selber Schuld, wenn deine Stromrechnung explodiert.
 
16 Milionen Pixel a minimum 72 FPS(Das Spiel hat aber keine gute Grafik)...da MUSS Grafikpower dahinter stecken...ob das jetzt 8 Fermi GPUs waren weis man nicht, sooo schwach werden diese aber nicht sein...
 
@bluefisch200: Die Leistung ist beeindruckend, keine Frage. Wirklich interessant wird der Preis - kaum jemand braucht eine 700 Euro (Achtung Übertreibung) Grafikkarte. Da ist die Leistung quasi egal.
 
@web189: Ist doch alles recht günstig geworden wenn man über die Preise von früher nachdenkt z.B bei der NV1 oder Voodo Graphics. Aber da hatte man das Geld noch lockerer sitzen :)
 
Der Konkurrenzkamp zu ATI ist sicherlich wesentlich härter geworden. Ich denke, dass der neue Grafikprozessor die ATI GPUs weit übertreffen wird. NVIDIA will sich vor Veröffentlichung nicht in die Karten schauen lassen, um nach Veröffentlichung der GPU einen möglichst langen Zeitraum Wettbewerbsvorteile zu haben.
 
@max666: Du hättest anstatt "ich denke" lieber "ich glaube" wählen sollen.Denn glauben heißt nicht wissen :).
 
@Carp: und denken heißt etwa wissen?!? aber mal davon abgesehen, kann glauben auch ab und zu mal richtig sein ,)
 
@laboon: Also für mich bedeutet denken das man es sich so vorstellt oder ähnliches.Glauben bedeutet für mich das es für denjenigen definitiv so ist.Wenn jemand zb an gott glaubt sagt er ja auch nicht ich bin atheist und denke es hat gott gegeben gibt ihn.Großer unterschied zwischen beiden wörtern in meinen augen.Merkst du worauf ich hinaus wollte im oberen post?
 
@max666: Klar wird das so sein. Ich meine die hatten auch viel Zeit um eine verbessere Karte zu machen oder? Wäre schon sehr peinlich wenn schrottvidia das nicht packen würde. ATI macht das gleiche, deren nächste Kartengeneration wird auch besser wie die Fermi Karten die ab März kommen und so weiter... apropo weit übertreffen: Der Preis wird alles weit übertreffen - typisch für schrottvidia :)
 
@ReVo-: besuch mal öfter die schule, anstatt hier auf winfuture zu posten. dein text liest sich grausam.
 
Warum kann man eine Grafikkarte, die sich bereits in Serienproduktion befindet, nicht öffentlich präsentieren und mal ein paar Benchmarkergebnisse dazu zeigen? Ich hab das komische Gefühl, dass nVidia die Leute wieder mal weiter hinhalten will.
 
@satyris: Die wurde doch präsentiert. Du bist nicht informiert.
 
@satyris: gut erkannt, so wirds auch sein. wenn er nicht bis zum 10 die bombe platzen lässt. :)
 
@njinok: Du redest nicht von der zurechtgesägten Pappschachtel, oder?
 
@satyris: Wie ich weiter Oben geschrieben habe haben Fermi GPUs einen Screen mit 16 Mio. Pixel mit einer Framrate von minimum (sonst geht 3D nicht) 72 Frames per Second beliefert...das ist schnell, sehr schnell...vieleicht könnten das 4 HD5970 auch, keine Ahnung aber nVidia wird sicher nicht schlecht abschneiden...
 
@satyris: Es wurden Fermies auf der CES gezeigt und die haben die Opengine DX11 darauf ausgeführt. Such mal bei youtube oder google oder so. Gibt massig Bilder und halt Videos davon.
 
@bluefisch200: Also für mich sind drei Full-HD-Bildschirme (3x1920x1080) "nur" etwas über 6 Mio. Pixel, keine 16 Mio. Und wie du auch selber geschriebn hast weiß keiner, wie viele GPU's da zusammen geschraubt wurden. Vielleicht wurd jeder Bildschirm von einer eigenen DUAL-GPU betrieben, vielleicht alle mit einer einzigen. Wer weiß (außer nVIdia).
 
@njinok: Also bei den Sachen, die ich im Netz finde handelt es sich um "sneek peak"-Systeme, kein Blick ins Innere, keine Benchmarkdaten. Und Fotos, bei denen 3 Grafikkarten in einem Rechner zusamengeschraubt sind. Aber sehen, dass es sich dabei NICHT um bspw. drei GTX295 handelt kann ich nicht. Warum die Geheimniskrämerei, wenn man schon in Serie produziert?
 
@satyris: Doch man kann sie sehr gut sehen. Solange die Karte nicht auf den Markt kommen kann zeigt man natürlich auch keine Benchmarkergebnisse. Sonst könnte ATi einfacher auf den Fermi reagieren. Wenn man jetzt weiß, die ist ungefähr 10% schneller als die HD5870, dann bereitet ATi schonmal einen refresh mit 20% mehr Takt oder so.
 
@njinok: Oder weil sich alle jetzt sofort eine ATI-Karte kaufen würden, weil die Leistung doch nicht so der Hammer ist? Es ist und bleibt alles Spekulation, und so langsam wird es für nVidia Zeit, wirklich fertige, lieferbare Produkte und Benchmarkergebnisse zu zeigen.
 
@satyris: klar will nvidia die leute weiter hinhalten. Die verscheissern so gut es nur geht. Denk mal nach: Die Präsentation mit der Fake-Karte, dann die Aussage dass die Karte im Dezember kommt, dann dass die Karte im Januar sicher kommt ... die wollen ihre "grünen Fans" nicht verlieren. Aber da ist man schön blöd wer auf so ein trick reinfällt - da muss man wirklich schrottvidia fan sein, arme leute.
 
So ganz langsam hab ich im Kopf den Begriff Fermi mit dem Begriff Trabbi gleichgesetzt. Qualitativ wirds hoffentlich deutlich besser, quantitativ hab ich da so meine Bedenken.
 
@monte: der war gut :D
 
und ewig grüßt das Murmeltier.
 
NVIDIA hält uns bei Laune mit leeren Versprechungen und zockt uns danach mit schlechten Karten übelst ab. Zum Glück gibts ATI!
 
Naja, wird auch Zeit. Man schaue sich die HD-5xxx Serie an, die total überteuert ist für das was sie leistet. Dazu die Catalyst Katastrophe und den schlechtere Unterstützung der Spielehersteller. Wer kauft sich da noch freiwillig eine ATI. Ich habe mir das zwischen Geforce 3 (Ti-500) bis hin zu Geforce 8 mit ATI angetan (Radeon 9500pro, 9800 etc bis irgendwo X-1900 XTX oder wie der Namen nochmals war). Seither bin ich froh wieder bei Nvidia zu sein, obschon die Windows 7 Treiber eine Katastrophe sind mit einem SLI System (191.07 ist der letzte brauchbare).
 
@JTR: "die Windows 7 Treiber eine Katastrophe sind" Dann solltest du vielleicht mal eine aktuelle ATI ausprobieren. Kann da keine Probleme feststellen. Und zu teuer empfinde ich die Karten von ATI keinesfalls - und du als nVidia-Stammkunde solltest wirklich nichts über überteuertes Preis-Leistungs-Verhältnis sagen :-)
 
@JTR: Du redest Müll. Ich setze auf verschiedenen Rechnern seit Jahren (seit der Radeon 9500) ATI-Grafikkarten ein und habe so gut wie nie Probleme gehabt. Und Probleme gab es mit NVidia-Treibern in den letzten Jahren auch immer wieder, und nicht zu knapp.
 
Zitat:"Alle wollen wissen wann sie die GF100 endlichen kaufen können" - LOL - Nvidia scheint echt völlig durchgeknallt zu sein. Die liegen in jeder Hinsicht meilenweit hinter AMD zurück und machen eine Wichs ! Es ist auch zwingend erforderlich, dass die Serienproduktion bereits läuft, damit bei der miserablen Ausbeute an brauchbaren Chips zum Start wenigstens 100 Karten mit GF100 ausgeliefert werden können ... !Hey, und wenn nicht, kann man ja aktuelle GF-Karten in GF100a umbenennen - mit diesem Nepp hat Nvidia ja Erfahrung !
 
@holom@trix: Mit diesem "Nepp" hat auch ATi Erfahrung. Es ist Gang und Gäbe das Chips die nicht alle Qualitätskontrollen bestehen für das nächst kleiner Modell weiter verwendet werden.
 
@Freezer: Nein es geht mehr darum dass GPUs der 8er Serie sogar unter der GT200 Serie zu finden sind...haben einfach nen neuen Namen...
 
@Freezer: ATI benennt nicht regelmässig existierende, alte GPU-Technologie um, um sie unter neuem Namen unters unwissende Volk zu bringen!
 
@bluefisch200: Rebranding gab es auch bei Ati, z.B. aus Radeon HD 3600 und HD 3800 wurden dann HD 4000er.

Wobei Nvidia da schon schlimmer ist.
 
@Freezer: Ja, _viel_ schlimmer.
 
@Necabo: Ich glaube aus einer 8800 wurde ne 9800 und dann ne 250
 
@wolver1n: Absolut richtig.
 
Mal eine Frage, weil ja auf diesem ominösen DirectX 11 so dermaßen rumgeritten wird: wie viele Anwendungen gibt es eigentlich dafür? 3,4 oder gar schon bis zu 10 Stück? Für das gute und bewährte X11 gibt es jedenfalls tausende Anwendungen und das rennt auch prima mit älteren Nvidia Grafikkarten, oder mit Intel Grafiklösungen.
 
@Fusselbär: http://tinyurl.com/yj5jzsm
 
@Fusselbär: "Um schnelle 3D-Beschleunigung zu ermöglichen, stellt das X-Window-System die Schnittstelle Direct Rendering Infrastructure (DRI) bereit, über die Programme direkt auf die 3D-Hardware zugreifen können. Das geschieht bei freien Treibern durch die OpenGL-Implementierung Mesa 3D, im Fall von proprietären Treibern durch jeweils proprietäre Implementierungen von OpenGL." also Grafik auf DirectX 9c Stufe...ich denke dafür gibt es zehntausende Anwendungen...und die laufen auch auf älteren GPUs...
 
@cH40z-Lord: Also doch tatsächlich schon 3, in Worten: drei Anwendungen für DirectX 11! Und dann wird da so ein Bohei darum gemacht. Bei gerade mal drei Anwendungen sehe ich für DirextX 11 keine Relevanz überstürzt womöglich unausgereifte Grafikkarten Produkte zu kaufen. Besser ausgereifte Hardware-Produkte, nach etwas mehr Wartezeit, die sich dann beim Kunden nicht selbst zerstören, wie es mit einigen früheren Serien wohl schon passiert sein soll: http://tinyurl.com/yzb7mcy
 
Was denn hier los? Wenn man so manche Beiträge durchließt könnte man echt meinen das hier 2 Fanboyfronten aufeinander treffen...

Ich finde, das NV mal machen soll. Hab wirklich nichts dagegen wenn NVidia länger braucht für ihren release der Karten. Habe derzeit selber 3 280 GTXen in SLI und bin VOLL und GANZ mit der Leistung und der Stabilität zufrieden. Da lieber mit dem Release mehr Zeit lassen und dann voll funktionstüchtige Waffen auf den Markt bringen - als irgend einen unausgereiften Müll.

Auf die neuen Karten bin ich natürlich auch schon sehr gespannt. Werden aber definitiv wieder 2 werden - und später vermutlich 3.

MFG LK
 
@LKrieger: Ich hab mir 2 285GTX geholt und diese wieder aus dem PC entfernt. Warum da diese einfach für den Preis zu grottig sind. Ich bin nicht überzeugt von Nvidia die letzte gute Karte war die 8800GTX meiner Meinung nach. Ich dachte da meine 4870X2 defekt war und der Händler nicht liefern kann wechselst wieder ins NV Lager aber nein nicht zu diesem Preis bei der "schlechten Leistung". FPS machen können die aber Qualität sieht anders aus. Das ständige geruckel ging mir auf den Zeiger die treiber 195.58 glaub Katastrophe der 62er whql auch nicht besser. Jetzt hab ich 2 5850 von ATI drin (Gigabyte) und bin wieder glücklich + DirectX 11 und HD Ton Unterstützung via HDMI 1.3.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles