Nvidia Fermi: Gezeigte Grafikkarte war ein Fake

Grafikkarten Nvidia sorgte in der letzten Woche für viel Aufsehen, als man den neuen Grafikchip "Fermi" vorstellte. Der Chef des Unternehmens, Jen-Hsung Huang, zeigte auch eine erste Grafikkarte, die auf diesem neuen Chip basiert. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Also war alles doch nur wieder heiße Luft? Meiner Meinung nach, macht AMD/ATI zur Zeit den besseren Job. Die liefern wenigstens harte Fakten in Form von fertigen Grafikkarten ab, ohne so ein Kaspertheater mit gefakten Karten, halbsaitenen Infos und Vermutungsbenchmarks unter Laborbedingungen abzuziehen. Der erwartete Quantensprung bleibt also wieder einmal aus und der Endverbraucher erhält eine abgespecte Version, damit nVidia die nächsten 3 Jahre noch was zum rumprollen hat, indem sie den Chip nach und nach an seine Grenzen bringen. SO macht man Geld, meine Damen und Herren.
 
@tommy1977:es geht um den GEZEIGTEN prototyp.. -> "Dennoch hat Nvidia erste Prototypen produziert, die auch auf der GPU Technology Conference gezeigt wurden."
 
@tommy1977: auf messen ist es keine seltenheit, dass in den regalen und vitrinen dummies stehen... warum sollte der nvidia-chef auf der bühne mit einer echten graka rumhantieren?...
 
@Conos: Das war auch gar nicht so sehr auf den Fakt ansich bezogen, sondern eher auf den letzten Satz im Artikel. Warum bekommt der Endanwender eine abgespeckte Version? Wenn ich richtig informiert bin, werden doch generell vollwertige Chips produziert, auf denen dann bestimmte Funtionen künstlich limitiert werden. Da könnte man doch zumindest im Highend-Segment die volle Bandbreite anbieten und somit als Obermacker dastehen. Ich habe den Eindruck, dass die Firmen eine Neuentwicklung mit Absicht limitieren, um mit langsamer Ausreizung der Hardware über einige Jahre Gewinn zu scheffeln.
 
@tommy1977: Damit ist wohl eher gemeint, das auch die low-end karten auf diesem Chip basieren werden. stand in einem der anderen Artikel zu dem Thema, ist hier etwas blöd formuliert... winfuture halt.
 
@Conos: Na da bin ich ja mal gespannt, ob die kommende Higend-Variante der nächsten Geforce-Generation die Leistung bringt, die nVidia verspricht. Wenn dem so ist, sollte meine 8800GT ausgedient haben.
 
@tommy1977: Schau dir die Spezifikationen an, die Grafikkarte ist vermutlich nicht wirklich extrem viel schneller als die Vorgänger...das wird sich dann mit der Angabe der Taktrate ergeben...aber aktuell scheint die Architektur nur auf CUDA ausgelegt zu sein...
 
@tommy1977: Nunja, sagen wir es einmal so: ATI hat im Moment einfach Fakten auf dem Tisch, es gibt bereits Tests der 5850/5870, und es gibt echte Grafikkarten. NVidia hat bisher noch keinen einzigen 40nm Chip fertig vorgestellt und Testern in die Hände gegeben. Aber nVidia bekommt anscheinend ein bißchen Probleme sowohl finanziell (mit den ganzen 8xer Garantieproblemen) als jetzt auch noch technisch, da stellt man ganz schnell mal etwas in den Raum in der Hoffnung, die Leute lassen dann vorerst mal die Finger von der Konkurrenz.
 
@tienchen: Ich staune ja, dass von Seiten nVidia nicht auf die Treiber eingegangen wurde. Das war doch angeblich in der Vergangenheit immer das Totschlag-Argument gegen ATI.
 
@tommy1977: Naja, ich habe eine GeForce Grafikkarte auf meinem Notebook und eine ATI in meinem Desktop, und ich wüsste definitiv nicht, was der große Unterschied der beiden Treiber sein sollte. Ja, das Interface des ATI Treibers ist eher suboptimal (doch bekanntlich ist viel wichtiger die Technik dahinter und da erkenne ich außer die Aufkleber "CUDA" und "PhysiX" bei nVidia nicht viel). nVidia mag vielleicht mehr Techniken wie die genannten haben als ATI, doch gibt es dafür nahezu keine Spiele und Anwendungen, ähnlich der DirectX 10.1 von ATI.
 
@tienchen: Diese Aussagen stammen ja auch nicht von mir, sondern werden in allen möglichen Foren verbreitet. nVidia-Treiber=gut, ATI-Treiber=mies. Ich hatte mit der X800pro auch mal eine ATI-Karte und konnte mich nie beschweren, zumal die Bildqualität um einiges besser war als bei nVidia. Aber scheinbar hat doch ein nicht zu unterschätzender Teil Probleme mit ATI-Treibern.
 
@klein-m: Kann ich Dir ganz genau sagen. Um die Glaubwürdigkeit zu festigen! Ganz einfach. In unserer heutigen Zeit ist es doch klar, dass jede Neuigkeit, sprich Bilder, bis ins letzte geprüft werden. Das ein führendes Unternehmen wie Nvidia zu solchen Mitteln greift, ist wirklich ein Armutszeugnis.
 
@tommy1977: Das sagt ein Kumpel auch. Er ist vor kurzem von einer nvidia auf Ati umgestiegen und sagt selbst, dass das Bild besser bei Ati ist.
 
@kinterra: Das ATI in Sachen Treiber nicht so optimiert daherkommt würde ich aber eindeutig sagen. Es gab auch unter anderem im Catalyst (ich glaube 9.1) einen Bug, der AF nicht zulies. Von der Grafikqualität find ich mal NVIDIA und ATI sind ziemlich gleich, es kommt halt auf das Spiel an. Was mich an NVIDIA einfach gestört hat, war das dauernde Umlabeln von alten Grafikkarten mit neuen Namen, bzw. die 260M und 280M die eigentlich den 9xxx Chip verwendet, das hat NVIDIA nicht nötig.
 
@tommy1977: Zitat: "SO macht man Geld, meine Damen und Herren." Glaubst du etwa Nvidia ist ein Wohlfartsverein? Die wollen auch nur Geld verdienen wie jedes andere Unternehmen auch. Und am besten gaaanz viel Geld. Und das schafft man eben nur durch solche Marketingaktionen
 
@ZECK: Du willst einen veralteten Catalyst Treiber als Vergleich hernehmen, dass es da einmal einen Bug gegeben hat? Also bitte... Ich könnte jetzt einmal hier alle Bugs die einmal mit nVidia Treibern aufgetreten sind aufzählen, aber das Scrollen erspare ich hier allen. Und ja, sicher haben auch ATI-Treiber Bugs, aber meistens sind es sowieso die Spiele (siehe so schlecht programmierte und getestete wie GTA IV, die das Spielen erst gar nicht auf einer ATI-Grafikkarte bei Release zugelassen haben). Aber das ist definitiv nicht das Problem von ATI, die sofern es Bugs gibt wo sie selbst schuld sind recht schnell einen Hotfix in der Regel nachbringen.
 
@Turk_Turkleton: Wenn du das so siehst...ok. Mich schrecken solche Schnellschussaktionen eher ab.
 
@tommy1977: Fermi nennt sich die Chiparchitektur und diese wird in verschiedenen Varianten angeboten, untere anderem als abgespeckte Geforce Spielerkarte. Es ist auch kein Problem für ATI eine performantere Karte zu entwickeln, der Chip bekommt ein Paar Transistoren mehr und Rechenenheiten und fertig ist das Ding. Die Begrenzung liegt nur beim Platz im Gehäuse und evtl. noch beim Stromverbrauch. Fermi an sich soll einen ganz anderen Markt aufmischen, Cuda sei hier als Schlagwort mal genannt. Es gibt jetzt unheimlich viele Berichte darüber, lies mal ein bissel...
 
@bluefisch200: Zitat "aber aktuell scheint die Architektur nur auf CUDA ausgelegt zu sein" tolle Erkenntnis: es geht um eine Tesla-Karte. Zitat "Schau dir die Spezifikationen an, die Grafikkarte ist vermutlich nicht wirklich extrem viel schneller als die Vorgänger" mehr als doppelt soviele Shader sind bei gleichem Takt wohl mehr als doppelt so schnell. edit: @Minus-Kind: nicht nur Minus klicken sondern Gegenargumente bringen wenn du das anders siehst.
 
@Turk_Turkleton: Du meinst wohl eher durch falsche Informationen, Geld machen. -.-
 
@c80: Mehr als doppelt so viel Shader != mehr Leistung...siehe ATI HD5000 Serie...und zum Anderen...ja klar geht es nicht um Spiele-Karten...wenn dies aber so dargestellt wird ist dies falsch...
 
@tommy1977: So siehts aus hatte schon öfters zwischen den Marken NVidia und ATI gewechselt, muß sagen ne ATI hat einfach besseres Preis/Leistungsverhältnis.
Bin mit meiner 8800 GTS nicht wirklich glücklich. Werde mir beim nächsten Rechner wieder ATI reinhaun und NVidia den Rücken kehren. Das mit dem NVidia ist ja soviel besser geht mir manchmal echt auf den Zeiger. Die Spieleseiten legen die Benchs eh immer so aus, daß Intel oder NVidia besser da stehn als AMD / ATI, wie früher bei der Autobild als dann ein japanisches Auto im Vergleichstest zum deutschen Auto verlor, weil beim Handschuhfach angeblich die Spaltmaße nicht gestimmt hätten. Das war dann immer der Ausschlaggebende Punkt, warum ein Golf im Test dann besser abschnitt.
 
@bluefisch200: Idiot. Du musst bei ATI durch 5 teilen. Das sind 5D-Shader. Aber die 5xxx hat doppelt soviele wie die 4xxx. Wenn du ATI mit ATI und nVidia mit nVidia vergleichst passt es.
 
@kinterra: ... das sehe ich etwas anders - und ich habe Grafikkarten von beiden Herstellern ausgibig getestet. Gerade bei HQ-Einstellungen kann ATI/AMD immer noch nicht ganz mithalten ...
 
Tja, Lügen hab kurze Beine
 
@laplasch: wohl eher kurze Platinen^^
 
@laplasch: HAHA
 
@laplasch: Schade, dass sie keine kurzen Finger haben, dann könnten uns deine Kommentare erspart bleiben :P
 
@laplasch: Peinlich ist es trotzdem - wäre es mir zumindest.
 
Naja da nichtmal nen GPU auf der Platine war hat man sich gedacht "Warum dann überhaupt noch nen Stromanschluss dran machen?!" - Das erklärt auch die Aussage von nVidia, dass die neue Reihe ähnlich sparsam ist wie die heutige Generation. Wo nichts ist kann man ja auch nichts verbrauchen :D
 
@Stratus-fan: Was? Strom? Läuft doch mit dem puren Verlangen des Users nach Entertainment! Wer braucht da noch Strom?? :)
 
Trotzdem ist es eine Frechheit mit einem Dummie herumzuhantieren, wenn es schon entsprechende Prototypen gibt oder hat er Angst diesen fallen zu lassen. Nvidia will nur allen Kunden sagen, wartet bis Dezember und kauft jetzt ja keine Preis/Leistungs bessere Karte von ATI/AMD.
 
@Drnk3n: Ich denke wenn jemand den Prototypen gesehen hätte, dann hätte er gleich zur AMD/ATI gegriffen. Voodo5... PCO
 
@Drnk3n: Denke auch, dass dies eine Reaktion auf die Vorstellung der ATI-Karten war. Sowas wollte man nicht unkommentiert im Raum stehen lassen. Also hat man direkt aus der Entwicklungsabteilung geplaudert, um die Kunden bei der Stange zu halte...auch wenn es noch eine Weile dauert.
 
Wäre noch anzumerken, dass der echte Prototyp von einem Bündel aus Drähten umgeben und sehr unansehlich war . . . Die Techdemo war jedoch echt. NViDIA ist eben momentan im Zugzwang, der kommenden ATI-Generation sei Dank . . .
 
Verstehe gar nicht, warum sich hier alle aufregen. Es ist seit Ewigkeiten üblich entweder nicht funktionsfähige Prototypen oder speziell für diesen Zweck angefertigte Exemplare (wie es hier der Fall war) solchen Leuten in die Hand zu geben, damit sie es zeigen können. Die funktionierenden Teile kann man schließlich besser verwenden.
 
@Link: Stell dir mal so ein Teil als Auto auf der IAA vor... Das sind auch zukunftsweisende Modelle/Prototypen, die auch funktionieren. Da schweißt auch keiner notdrüftig den Spoiler noch ans Heck und Scheiben oder ähnliches fehlen auch keine. Wo nichts ist, kann man auch nichts vorstellen, so seh ich das...
 
@Drnk3n: Und jetzt erklär mir mal bitte: wenn der Mensch eine Karte in der Hand hätte, die genau so aussehen wurde, aber eben ein funktionierendes Exemplar, was GENAU könnte man sich mehr vorstellen? Und zu deinem Auto-Beispiel: die Teile, die da rumstehen, müssen auch nicht funktionsfähig sein, damit wird schließlich dort nicht rumgefahren. Wenn die Autoindustrie dort voll funktionsfähige Exemplare ausstellt, ist es genau so OK, aber IMO völlig überflüssig. Damit das Teil auf einer sich drehenden Bühne steht, braucht es keinen funktionierenden Motor/Getriebe/sonstwas, nur die Optik muss stimmen. Aber da so ein Autohersteller wahrscheinlich nur ein einziges Exemplar zur Verfügung hat (im Gegensatz zu Hardwareherstellern, die solche Prototypen auch in kleinen Serien anfertigen), wird es auch ein funktionierendes sein.
 
@Link: Naja das Argument das Sie es sehen, lass ich bei einer Grafikkarte nicht zählen, was will man da schon sehen, wie viele Transistoren auf der Platine sind? Zähl mal =) Oder welche Farbe die Platine hat. Ne Grafikkarte sieht doch im großen und ganzen immer gleich. Die sollen lieber Bilder und Zahlen sprechen lassen wie einem ein Teil in die Hand zu drücken das eh nicht funktioniert.
 
@Drnk3n: eben, die Teile sehen immer ähnlich aus. Und da man der Presse gerne beim Reden über die Zahlen etwas zum Fotos machen zeigt, nimmt man so ein Exemplar. Wie gesagt, ist nichts Ungewöhnliches (im Übrigen nicht nur im Hardwarebereich) und IMO auch nichts Verkehrtes, das Teil muss nicht funktionieren.
 
@Drnk3n: Falsch! Wenn auf der IAA ein Prototyp steht braucht er noch Jahre um auf dem Markt zu kommen. Wenn aber ein Auto in 3 Monaten auf den Markt kommen soll ist es die Weltpremiere eines funktionierenden Autos. Sowie mit den Erlkönigen die funktionieren obwohl sie nicht auf dem Markt sind. Und genauso ist es hier wenn nVida nach dem Tape Out, 3 Monate vor Erscheinung der Grafikkarte, nix presentiert. nVidia sagt selber das sie schon lauffähige Muster haben warum werden diese dann nicht gezeigt. Nee das ist Fail³.
 
@Drnk3n: Oh doch, solche unfertige Prototypen gibt es auf der IAA haufenweise. Aber das sagen die Hersteller dann auch gleich dazu. Z.B. der E-Trabi (Trabant NT) heuer.
 
@knuprecht: weil die funktionierenden vielleicht für was sinnvolleres als Hochhalten zum Fotos machen gebraucht werden? Es werden schließlich keine 100te Muster für Tests hergestellt, und für so nen Blödsinn wie eben hier braucht die Karte nicht zu funktionieren, ist das so schwierig zu verstehen? Ihr tut alle so, als ob hier nVidia was ganz neues erfunden hat, dabei macht das eigentlich jeder Hersteller so, nur dass es vielleicht nicht jedes mal auffällt.
 
@Cipher: LOL das sich der NVidia CEO nicht schämt, mit einem Stückchen Plastik vor den Leuten rumzuwedeln. Mir wär das peinlich. Zumal die ersten realen Benchmarks bereits im Netz sind. Hier zum Beispiel : http://www.pcgameshardware.de/aid,696419/Ati-Radeon-HD-5850/5870-Crossfire-vs-Nvidia-Geforce-GTX-285-SLI-im-Test-Multi-GPU-Shootout/Grafikkarte/Test/
 
@Genghis99: die funktionierenden Karten werden für Benchmarks und andere Tests verwendet, für Fotos kann man nicht funktionierende Teile verwenden. Da man angeblich auf den Fotos sehen kann, dass die Platine abgesägt wurde, handelt es sich hier vermutlich um eines der ersten Prototypen, der wohl eine etwas größere Platine hatte und für die Show wurde die an die aktuellen Abmessungen angepasst.
 
@Link: Dann hätte ein überlegenes Lächeln gereicht - aber nicht so ein "Pappblender" - Alles eine Frage des Stils.
 
"Die kommenden GeForce-Modelle werden vermutlich über eine abgespeckte Variante des neuen Chips verfügen. " hä? wie jetzt? GeForce is doch die Top-Reihe von Nvidia die dann diesen neuen Chip erhält, oder wird das ne komplett neue Serie?
 
@legalxpuser: GeForce ist doch nicht die Top-Reihe, GeForce ist Spielzeug.
 
@c80: was bitte dann? Quadro oder wie?
 
@c80: Nicht wirklich. Die Tesla und Quadro Grafikkarten nutzen dieselben Grafikchips wie die GeForce Reihe, lediglich Treiber sind anders und Double-Precision ist dort vorhanden.
 
@tienchen: Nö - das stimmt nur für die Quadros. Der Tesla ist ein eigenes Stück Silizium. Eher ist es so, das der G300 Technologien verwendet die mit dem Tesla eingeführt wurden. zB. Die speziellen CUDA Cores anstelle der alten Shadereinheiten.
 
@Genghis99: Nein, die GT200 Technologie wird verwendet.
 
@tienchen: OK - da bin ich wohl vom Unterschied zur G9x Serie ausgegangen. Aber im Endeffekt unterscheiden sich die Quadro/Tesla Karten oft schon - andere Speicherlatenzen, andere hardwired Optimierungen und was NVidia sonst noch so mit Lasercut anstellen kann. 100% Informatione n dazu werden wir aber niemals bekommen. Steht nur eines fest : Wasser kocht sowohl in Kalifornien als auch in Kanada bei 100°C.
 
@tienchen: Doch, zum Spielen werden die GeForce-Karten verwendet. Die Chips sind fast gleich, das stimmt schon, aber um genau diesen Unterschied gehts doch gerade.
 
@Genghis99: Zitat: "Steht nur eines fest : Wasser kocht sowohl in Kalifornien als auch in Kanada bei 100°C" Kanada und Kalifornien sind so groß, das stimmt nicht überall!
 
"Mit den ersten Fermi-Grafikkarten ist laut Nvidia frühestens zum Ende des Jahres zu rechnen" der satz sagt schon alles aus. das wird vor den 3. Quartal 2010 ganz sicher nichts mehr. und dann soll ich noch ein paar hundert euro für eine abgespeckte version zahlen, wo ich weiß, das in ein paar wochen eine neuere karte rauskommt. glauben die wirklich, die leute sind noch so dumm???
Dann bleibe ich lieber bei ATI! die wollen mich wenigstens nicht für blöd verkaufen.
 
@Tiesi: Hast nicht unrecht. Rein rechnerisch gibt es auch gar keine CPU (nicht mal die Ci7) die schnell genug wäre die volle Leistung des G300 auszureizen. Vielleicht in 2-3 Jahren ist so ein G300 Ding interessant. Die abgespeckten G300 Varianten werden es schwer haben gegen die 800 (RV790) oder gar 1600 Shader einer RV890 sodass auch ich (HD4890), mich entspannt zurücklehne und die Entwickelungen beobachte. DX11 ist auch (noch) kein Grund, nervös zu werden.
 
@Genghis99: Zitat "Rein rechnerisch gibt es auch gar keine CPU (nicht mal die Ci7) die schnell genug wäre die volle Leistung des G300 auszureizen." Bitte erkläre mir wie du das rechnest.
 
NVidia ist wie der Briatore
 
Diese News sind acuh gefaked, weil die Quelle wieder mal SemiAccurate is und die sind nicht gerade bekannt für ihre Zuverlässigkeit...
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles