GF100: Erste Details zu Nvidias DirectX-11-Chip

Grafikkarten Nach langem Schweigen hat Nvidia die ersten Informationen zur kommenden DirectX-11-fähigen Grafikkarten-Serie veröffentlicht. So erläuterte das Unternehmen im Rahmen der CES in Las Vegas den Aufbau des Grafikchips GF100. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ist ja alles schön und gut, ich bin nicht nur auf die Leistung gespannt sondern auch auf den Preis, und der wird bestimmt auch wieder die ATI bei weiten übertreffen. Aber ich glaube am Preis Leistung Verhältnis wird Nvidia nicht an ATI rankommen.
 
@Jack21: Is doch Wurscht! Hauptsache ich kann mit den vier Graphics Processing Clusters, 512 Kernen, 16 Tessellation-Engines, besserem Antialiasing und achtfacher Kantenglättung ruckelfrei Tetris in 16 Farben zocken!
 
@Raiden-2: und dabei 500W/s verschleudern...
 
@Jack21: Kommt drauf an wie du Preis-/Leistungsverhältnis defninierst. Ist Leistung für dich gleich Framerate? Dann wirds sicherlich kein besonderes Preis-/Leistungsverhältnis. Bei mir gehört zur Leistung auch GPU-Computing und wie hoch ich Antialiasing, bzw. Effekte drehen kann bis das Spiel stockt.
 
@DennisMoore: Für mich zählt die Grafikqualität zu einem der Hauptaspekte. Wenn nVidia in dieser Hinsicht AMD ebenbürtig ist und dabei noch schneller, sollte ien kleiner Aufpreis nur gerechtfertigt sein.
 
@tommy1977: Auf CB steht, dass nVidia auf Bildqualität besonderen Wert gelegt hat. Sollte also kein Thema sein. Ob diese Aussage aber nur für 3D gilt, oder obs bei 2D auch nochmal Verbesserungen gibt weiß ich nicht.
 
@DennisMoore: Habs auch gerade gelesen. Hoffen wir mal das beste, damit es einen vernünftigen Wettkampf auf dem Grafikkarten-Markt gibt...uns Kunden soll es Recht sein. :o)
 
@Jack21: du musst ja nicht das topmodell kaufen. ich sage nur 7900 GT damals. von wegen keine preis/leistung... klar werden die topmodelle immer n loch in den geldbeutel reißen, aber das zweit/drittbeste modell langt immer gut.
 
@Raiden-2: Wenn du außer Tetris nichts anderes spielst und keine Prorgamme hast, die Power-Leistung von GPU abverlangen, dann brauchst du so eine Karte nicht. Der Chip ist für was anderes gedacht.
 
@DennisMoore: Gerade wegen der bildqualität habe ich immer zu ati gegriffen.Letzte nvidia war glaube ich eine tnt oder so etwas.Ich war und bin immer noch begeistert von der bildqualität der ati karten auch wenn die nvidia oft einen zacken schneller waren.
 
@Carp: TNT? Das war doch Riva, oder?
 
@voodoopuppe: Die hießen Nvidia Riva TNT alias NV1-5
 
@Carp: Als die TNT aktuell war, hatte ich noch 3DFX-Karten. Hach, das waren noch Zeiten... Ich weiß noch genau als ich das erste Tomb Raider Spiel 3D-beschleunigt spielen konnte. Was das für ein WOW-Effekt war gegenüber dem vorherigen Pixelbrei. Damals hieß die Schnittstelle auch noch Glide :)
 
@DennisMoore: Versteh ich nicht, Wenn du das AA hoch drehst und die Framerate in den Keller geht hat doch die Framerate mit dem antialiasing sehr wohl etwas zu tun, Leistung :). Wer kauft sich dann so eine Karte und zockt nicht damit?. Also ist hat Leistung/Framerate doch die höchste Priorität.
 
@DennisMoore: *schwelg* 2 Voodoo2 im SLI-Verbund und die Welt war in Ordnung...ich allerdings um einge hundert DM erleichtert. NFS war für mich damals der Hammer unter 3D-Beschleunigung...einfach nur geil!
 
@Moe007: "W/s" xD Selten so gut gelacht xD Watt ist schon Joule (also Energie) pro Sekunde (also Zeit xD). Das nächste Mal wenn du von Watt redest, dann doch besser ohne durch die Zeit nochmals zu dividieren. Edit: I am WinRar! xD
 
@Moe007: seit wann gibt man Netzteile mit Watt/s an, das wäre ja eine mächtig gewaltige ladung die einem hochgeschwindigkeits geschoss entspreche :) wattsekunde ist doch joule das heißen würde dein netzteil verbraucht 500watt in der sekunde für eine stecke aber das steht doch und arbeitsleistung verrichtet es auch nicht so wie dein herz das könnte man noch mit watt/s angeben. Sagt Ohm Watt Volt ihr,,,,, oder wie oder watt. 500 ist auch mächtig gewaltig da brauchst ja dickere kabel :) ich glaub das war nur ein spassel. EDIT: zu spät qa729 war schneller :(
 
@Smoke-2-Joints: Die Framerate kann ohne AA noch so hoch sein. Das sagt gar nichts über die Framerateverlust bei Zusachalten von AA aus. Kann sein dass du 7% Leistung verlierst oder auch 20%. Mir ist es z.B. wichtig dass ich immer um die 30fps habe. 60, 120 oder 180 bringen mir gar nichts. Und 30fps sollten eben auch mit 8-fach AA möglich sein. Wenn ich da aber nen astronomischen Framedrop habe weil das Chiplayout nix taugt und es Flaschenhälse gibt, find ich das eben blöde.
 
Habe gerade den weitaus genaueren Artikel auf Computerbase durch. Da gibts auch Bilder, Diagramme und Grafiken zu sehen. Ich finde wenn sich das alles auch nur annäherend so bewahrheitet wie es behauptet wird, werde ich mir die Karte kaufen. Möglich, dass die ATi-Karten billiger bleiben als die von nVidia, aber für den Aufpreis bekommt man ja auch etwas geboten. Und dabei gehts nicht mal primär um Frameraten. Zudem reizt mich die CUDA-Technologie, zu der es mittlerweile ja auch .NET-Wrapper gibt *freu*. EDIT: Oh, fast vergessen... Läuft Crysis darauf flüssig? ^^
 
@DennisMoore: Man darf dabei aber auch nicht vergessen, dass mehr als ein halbes Jahr nach der ATI Grafikkarten der Fermi-Chip herauskommt... Wenn ATI klug ist werden sie den Vorsprung für sich nutzen.
 
@tienchen: sehe ich genauso das halbe jahr ist um und es könnte sein das ATI nur auf das erscheinen der neuen Nvidia wartet um dann ganz schnell nach zu ziehen. ich bin mir sicher das es keine 2 monate dauert dann ist ne neu revision der 5000ner reihe da und schon ist wieder alles beim alten oder zumindest auf gleicher höhe sein. ich glaube das Nvidia noch eine ganze zeit an ihrem verpennen des dx11 zuges zu knacken hat, da ATI ja nun ein echten vorsprung hat und ganz locker auf die neue karte von Nvidia warten kann.
 
@tienchen+SiritOfMatrix: Nun ja. Das könnte sein. Aber ich glaube nicht dass sich ein Refresh so aufbohren lässt, dass es die angedeutete Leistung des Fermi erreicht. Mal ganz davon abgesehen, dass es ja noch mehr Funktionen im Fermi als reinen DX11-Support und hohe Framerates gibt. Schon mal nen HD-Film über die Grafikkarte per CUDA konvertiert? Das ist extremst schnell. Hab im Moment nur nen G80, aber der rennt schon Kreise um meinen Intel QuadCore mit 3,6 GHz (übertaktet).
 
@DennisMoore: Encoden kann ATi schon lange und das sehr gut. Technisch ist NV eben weit zurück.
 
@jediknight: Höhö ... Mit diesem Stream-Zeugs was kaum eine Software untersützt? Nee, lass mal.
 
@DennisMoore: das ist nicht nur ein halbes jahr... bevor die nvidia kommt ist schon ein jahr locker rum. ich glaube immer noch daran das diese news immer noch werbeprobaganda ohne fretiges produkt sind...
 
@DennisMoore: na das wird schon openCL und co regeln. CUDA und der kram ist zur zeit ein reine Nivida domäne und wird sich nicht weiter duchsetzen. da nun einheitliche software kommen wird(dx11). die auf beiden gleichermaßen gut bzw schlecht laufen wird. hier wird nur die reine rechenleistung einen unterschied machen. wir haben es ja schon bei sse und 3dnow gesehen.
 
@SpiritOfMatrix: CUDA und Stream werden als Voraussetzung für OpenCL und ComputeShader immer wichtig bleiben und wohl sogar noch wichtiger werden. OpenCL und DirectCompute hängen vom Vorhandensein von Stream oder CUDA ab.
 
Toller Chipaufbau! Und was LEISTET die Karte jetzt? Ist das so schwer bekannt zu geben, wo es doch eine echte "Hammerkarte" sein soll!?!
 
@satyris: Schau auf Computerbase nach. Da steht alles. Dies ist nur eine sehr knappe Zusammenfassung der verfügbaren Informationen.
 
@DennisMoore: Stimmt schon, dass es nur eine knappe Zusammenfassung ist. Aber auf Computerbase stehen auch keine tatsächlichen Leistungswerte für Spiele zu den neuen Karten. Lediglich, dass das Pathtracing bis zu 4 mal schneller ist. Aber das bringt einem in Spielen wohl nix.
 
@satyris: Da steht auch für fast jeden Bereich um wie viel Prozent der Chip schneller sein soll als eine GT200 und als der RV870. Mußte nur noch ein bißchen rechnen und schon weißt du es. Mehr Infos sind halt noch nicht freigegeben. EDIT: Wer gibt eigentlich hier die Minusse? Der Bewertungskobold? :D
 
@DennisMoore: Die Kinder, die ganz dringend auf ihre ach so übertolle neue NVidia-Karte zum 14. Geburtstag warten :-)
 
@satyris: Mit 14 sollte man aber schon rational und in geordneten Zügen denken können. Das ist bestimmt wieder mal so ein frustrierter Keller-Affe, der sich nen Spaß draus macht und selber nix Vernünftiges beizutragen hat. Daher bin ich für einen Begründungszwang, sobald man ein Minus vergeben möchte.
 
@tommy1977: Bloß nicht. Da kommt doch eh nix bei raus. Höchstens ein paar pwned, lool, ftw oder sonst nen Quatsch. Wenn die Leet bewertet, hat das keine Begründung nötig *Muahahaahaaaa*
 
@satyris: Gamebenchmarks wurden schon rausgegeben von Nvidia ( ebenfalls cb http://www.computerbase.de/bildstrecke/27754/4/), in anbetracht der rohleistung (also 512 cuda cores usw.) sieht das nicht allzu übertrieben aus, aber trotzdem nicht vergessen ist von nvidia selbst herausgegeben worden.
 
wann kann ich mit den tests bei CB und co rechnen? ich will FAKTEN sehen!
 
@sapphire_fan: Ab März. Steht zumindest auf CB.
 
http://www.gamestar.de/hardware/praxis/2311885/geforce_gtx_300_mit_directx_11.html auch sehr interessant. Also der angepeilte Preis und die Leistungsaufnahme gefallen mir gar nicht. Das ist nicht Umweltfreundlich ^^
 
@kinterra: Tja...wer Porsche fahren will, muss mit 20L/100km leben und die Folgen akzeptieren. Aber mal im Ernst...was erwartest du? Brachiale Leistung mit Mini-Verbrauch? Ich hab bei mir im System 2x8800GT im Sli-Verbund hängen und bin mir durchaus bewusst, dass sich meine Stromrechnung um ein paar Cent jeden Monat erhöht und mit Sicherheit auch das eine oder andere Microgramm Feinstaub oder was weiß ich mehr erzeugt wird. Aber was soll's...der Spielerechner läuft nicht den ganzen Tag und für Büroaufgaben und Surfen gibts noch meinen zweiten PC , welcher bewusst mit stromsparenden Komponenten ausgestattet wurde.
 
@tommy1977: Wenn du mich so fragst, was ich erwarte, dann sage ich es dir. Also ich erwarte eigentlich das bereits vorhandene Technologie bzw. Leistung besser ausgenutzt wird. Das wird momentan gar nicht wirklich sinnvoll gemacht. Wozu braucht man die Brachiale Leistung, wenn die schon jetzige, das alles Super erledigt. Klar es geht noch besser, aber das ist momentan mit mehr Nachteilen verbunden als mit Vorteilen. Meine RadeonHD 3870, schafft viele Neue Spiele ganz ohne Mühe, WENN das ORDENTLICH programmiert würde. Die hat noch immense Power, welche aber in Hinsicht der Hardware verkäufe keine Rolle spielt.
 
@tommy1977: Aktueller Porsche Carrera 911: Durchschnittlich 9.8 Liter bei 345 PS gemäß Euro5 :-). Vielleicht in Zukunft lieber Ferrari oder Lamborghini als Vergleich nehmen, Porsche ist im Bereich "Perfektion bis ins Detail" der sonstigen Sportwagen-Konkurrenz weit voraus und beim Verhältnis "Verbrauch zu Leistung" halt ein echter Deutscher.
 
@kinterra: In gewisser Weise gebe ich dir ja Recht und ich bin der Letzte, der stromsparenden Komponenten mit vernünftiger Leistung gegenüber abgeneigt ist. Allerdings stört mich diese "Ich-will-nix-bezahlen-und-trotzdem-alles-haben-wollen"-Menthalität...du siehst das meinem Eindruck nach allerdings recht praxisbezogen und realistisch. @Zebrahead: Ich wusste, dass sowas kommt! :o) Sollte eher als Metapher zu verstehen sein.
 
Die Frage wird genau wie bei ATI sein, wie gut die Verfügbarkeit der Highend-Karten sein wird. Die Antwort wird voraussichtlich - wie in den letzten Jahren auch - sein: Eher später als früher und eher weniger als mehr.
 
Nvidia steckt im selben Dilema wie Ati vor 3 Jahren. Damals hat Ati ihr Chipdesign aufgrund von problemen mit Dx10 komplett umändern müssen und war später als Nvidia beim Endkunden.
Heuer/2009 musste Nvidia für Dx11 anpassen und nun sind sie später dran.
Besser spät und dafür super performance anstatt unzufriedener Kunden wie damals mit der Radeon HD2900 Serie.
 
@Duskolo: Bla Bla
 
@Duskolo: Es gibt aber einen riesigen UNterschied. NVidia führt heute wie damals eine komplett neue Architektur ein. AMD baut auf ihre "klassiche" Architektur und erweitert sie stets (in diesen Fall um DX11). Doch wie weit kann AMD das Design noch treiben ?
 
Rein von den Spezifikationen und den von nVidia gezeigten Benchmarks kann man wohl mit 20-30% mehr Leistung der GTX380 gegenüber einer HD5870 rechnen. Wir vergessen aber was, seit der HD3870X2 legt ATI all seine GPUs darauf aus in eine DualGPU Version gesteckt zu werden und hier haben wir schon wieder der Fall...der HD5970 wird nVidia wohl kaum was zeigen können...wie bei der GT200 oder der 9000 Serie...sie haben es immer mit einer eigenen DualGPU Version(9800GX2 und GTX295) geschafft und das nur mit sehr hohem Stromverbrauch...
 
Der Knackpunkt ist halt: Die 5000er sind schon seit einiger Zeit erhältlich, von Fermi hat man noch nix gesehen. ATI/AMD macht da sicher aktuell Boden gut, denn wer AKTUELL eine Höchstleistungsgraka will, kommt um eine 5970/5870 nicht herum.
 
Und schon wieder heiße Luft ohne wirkliche Fakten. Ich finde adas verhalten von nVidia wirklich lächerlich. Es wird bei nVidia weiterhin nur bei Ankündigungen bleiben. Da können sich die Spielkiddies die Situation noch so schön reden. Einfach mal die rosa-rote Brille abnehmen und der Realität ins Auge sehen.
 
die Leute dies einfach net abwarten können, weil sie süchtig sind, kaufen sich natürlich jetzt eine HD5870 oder HD5970, wenn sie gerne Mikroruckler haben wollen. Ich kann warten, aber mal ehrlich, es war einfach klar, dass NVidia alles dran setzen wird, dass sie eine schnellere Karte bauen als ATI und das schaffen sie auch, dass es noch keine Femi zum Kaufen gibt, ist eh nicht wild, man kriegt ja auch kaum eine HD5870 oder HD5850 zu nem fairen Preis oder überhaupt nichts. Ihr dürft auch nicht vergessen, dass ATI eigenltich herzlich wenig an ihren Karten gemacht hat, NVidia hat die ROPs, TMUs und die Recheneinheiten umgebaut, dazu noch etliche andere schöne Sachen integriert. Die Anzahl der Recheneinheiten die sich um Tesselation kümmern ist auch höher als bie ATI
 
@HeyHey: :D
der der preis ist natürlich auch höher als bei ati ^^
und ob die dann auch lieferbar sein werden ist ein anderes thema . mal schauen was da noch kommt. vorallem benchmarks.
jedenfalls hat ati 4870,5800er viel die bessere bildqualität mir gefielen die games auf der 4870 viel besser als jetzt. ich würde meine GTX275 sofort mit einer 4890 tauschen :) und das nach 13 jahren nvidia
 
@HeyHey: Das lässt sich auch anders rum sagen: ATIs Architektur hat sich ohne grosse Probleme für DX11 erweitern lassen, während NVidia da in einer Sackgasse war und sehr viel neu entwickeln musste. Was double precision Stream Computing angeht, ist ATI NVidia bis zur tatsächlichen Verfügbarkeit von Fermi-Karten um Faktor zwei überlegen (also doppelt so schnell). Das weiss ich sowohl von eigenen Benchmarks als auch aus dem NVidia-Forum. Und was soll das Gerede von Mikrorucklern? Das ist doch längst erledigt, wenn ich mich nicht täusche.
 
@Aspartam: Ist es, zumindest bei ATI, auch wenn es viele nicht wahrhaben wollen...
 
die ATIs mit R600, RV670 und RV770 haben alle den selben Anisotopischen Filter, der NVidia´s Filter deutlichst unterlegen ist, erst der neue RV870 hat nen besseren Filter als die ATIs der HD4xxx, HD3xxx und HD2xxx Reihe,

Die Bildqualität ist eigentlich bei NVidia besser
 
@HeyHey: also ich hatte ca. ein jahr die 4870 und jetzt die GTX275 und bereue es sehr das ich die nvidiaa gekauft habe. games schauen einfach geiler aus und nein es ist kein billig TFT oder sonst was :D
 
@HeyHey: Bildqualität hat zunächst mal nichts mit irgendwelchen Filtern, sondern mit der Elektronik (Hardware) zu tun. Und da ist ATI NVidia über, und nicht erst seit gestern.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles