Nvidia: GeForce GTX 480 ab 29. März lieferbar

Grafikkarten Nvidia hat auf der CeBIT in Hannover bestätigt, dass die GeForce GTX 480 auf Basis des neuen Grafikchips Fermi/GT100 ab dem 29. März erhältlich sein wird. Wann das kleinere Schwestermodell GTX 470 erscheint, wurde nicht angekündigt. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
na ich weiß gar nicht warum so ein hype um DX11 gemacht wird, gibt bis heute kein Spiel was das nutzt, wird ja gerade mal für DX10 programmiert, aber das sehen die meisten ja nicht das die entwicklung von Spielen zur Hardware meißt etwas hinterher hinkt, also mich störts nicht das Nvidia so lang brauch, hat halt dies mal AMD was schneller hinbekommen und beim nächsten mal sieht die welt wieder ganz anders aus
 
@Iceblue@C4U: Doch doch gibt es schon ... Aliens vs. Predator und Dirt2 zum Beispiel.
 
@Prince Porn: und sowas packt man dann zu den DX11 Karten in die Retailpackung, weil's sonst keiner kaufen würde ;) Schon clever unsere Marktstrategen, egal wo sie sitzen.
 
@Prince Porn: Wobei man bei Dirt2 schon ein Standbild schießen und gegen den gleichen DX10-Screenshot vergleichen muß um Unterschiede zu sehen.
 
@DennisMoore: Ja, dem haben ich nichts entgegenzusetzen. Aber ging ja auch erst einmal nur um die Unterstützung.
 
@Prince Porn: Unterstützen ist das eine, aber ausreitzen wäre das richtige. Was brignt es mir, wenn ansatzweise dx11 features genutzt werden, wenn wesentlich mehr potential enthalten ist? mir schaudert ein ähnliches debakel mit dem damaligen wunderkind dx10 und crysis - wo man auch keinen unterschied sah (zu beginn!)
 
@Iceweasel: Das ist doch aber meistens so, dass neue unterstützte Features nicht direkt bei Einführung perfekt genutzt oder ausgereizt werden.
 
@Iceblue@C4U: Das neue Battlefield BadCompany2, was morgen rauskommt, supportet auch DX11 ...
 
@Iceblue@C4U: Battleforge, Stalker: Call of Pripyat, Dirt 2, The Lord of the Rings Online und Dungeons and Dragons Online, Alien vs. Predator, Battlefield BadCompany2. Wenn man keien Ahnung hat gelle ? ;) Diverse Andere games kommen dieses Jahr noch, z.B. Starcraft 2, Crysis 2, ach und keine Ahnung welche noch alle
 
@Iceblue@C4U: Kann nur einer sagen, der sich nicht wirklich mit der Materie auskennt. Für DX11 zu entwickeln bedeutet, für DX11, DX10 UND DX9 gleichzeitig zu entwickeln. Zwar muss man für die Kompatibilität ein wenig mehraufwand treiben als für reines DX11, aber vom Konzept her wird dieses total gut unterstützt. Daher wette ich, dass alle Spieleherrsteller, die heute mind. DX10 brauchen, die DX11 API benutzen werden. Selbst wenn man nur DX10 unterstützten möchte, eignet sich die DX11 API dafür besser. Und unterschätze Tesselation und die compute Shader nicht. Die sind leicht zu implementieren und bringen sehr viel. Spieleherrsteller, die DX9 oder DX10 Spiele rausbringen in heutigen Zeiten, sind entweder nach langer Zeit fast fertig mit dem Spiel und wollen an der Engine nix mehr ändern, oder sie benutzen eine 3rd Party Engine und implementieren selbst nix mehr mit DX. Beispiel dafür wäre Mass Effect 2. Geiles Spiel übrigens :)
 
Tja freunde, das ist Marketing. Wenn eure Konkurrenz mit Features glänzt die zwar im moment sinnlos sind, aber der Kunde es eher kauft, da es das zukunftsorientiertere Produkt ist, schaut ihr auch zu das Feature zu supporten...
 
@Iceblue@C4U: Das ist Schwachsinn. Es gibt schon eine ganze Reihe an DX11 Spielen und da DX11 hardwaremäßig abwärtskompatibel ist wird es sich schnell durchsetzen.
 
Oh Mann, ich hab mich aus diesem Grafikkarten-Wahn sowas von ausgeklinkt. Und es geht mir gut dabei! :-) Eigentlich läuft alles noch ganz gut auf meiner 2 Jahre alten Karte, und die meisten spiele die richtig SPaß machen brauchen eh nicht sooo viel Rechenleistung (L4D etc.). Meine Meinung ;-)
 
@borbor: Ich kann dir da beipflichten. Ich besitze eine 4 Jahre alte Radeon X1900GT und zocke damit u.a. MW2 in prächtiger Grafik... Man muss zwar manchmal Abstriche machen (z.B. bei den Schattendetails) aber ansonsten klappt das noch super...
 
@dynAdZ: Also ich kann dir nicht ganz beipflichten - ich bin mit meiner x1950 unter Win7 "dank" der besch* Treiberunterstützung nicht mehr glücklich. Ausserdem hat ATI keine vernünftigen Treiber für das aktuelle X.ORG unter Ubuntu - somit ist zocken unter Linux mit der GraKa nicht möglich!
Werde mir daher bald die günstige HD5770 leisten - damit habe ich wieder ein paar Jahre Ruhe!
 
@borbor: Bis vor kurzem kam ich sogar mit einer X1800 aus - sogar Left4Dead lief bequem. Da soll mal einer was zum Aufrüstwahn sagen, man kann erstaunlich lange mit einer Grafikkarte leben wenn man es will. Die meisten Spiele, die nicht laufen sind ohnehin schlecht programmiert. Durch Optimierungen kann man eine Ganze Menge rausholen - ich erinnere mich noch an eine Zeit, in der die Entwicklung noch nicht so schnell stattfand.
 
@web189: "Die meisten Spiele, die nicht laufen sind ohnehin schlecht programmiert" ... Kann aber auch einfach sein dass sie ne höhere Füllrate brauchen oder einfach einen höhrer Anzahl an Dreiecken/s erfordern weil die Modelle viel feiner gemacht wurden als es bei alten Spielen der Fall ist. Man sollte nicht immer mir "schlecht programmiert weils bei mir nicht läuft" kommen. Mein Golf fährt auch keine 300, aber nicht weil der Motor schlecht gebaut ist, sondern weil er für eine Maximalgeschwindigkeit von 190 km/h ausgelegt ist.
 
@DennisMoore: Da hast du natürlich Recht - daher sag ich auch "die meisten" ;) Natürlich gibt es auch Spiele, bei denen hohe Anforderungen gerechtfertigt sind - im Gegenzug fragt man sich aber bei vielen Titeln, wohin die Leistung eigentlich verschwindet (wenn Spiele mit wesentlich besserer Grafik problemlos laufen).
 
@DennisMoore: natürlich kann der 300 bringen
 
@hjo: Jo. Die Grafikkarte auch wenn ich sie übertakte. Fragt sich halt wie lange die das durchhält, bzw. wie lange ich die 300 halten kann bis mir die Kiste um die Ohren fliegt.
 
@DennisMoore: Vom Golf gibt, gibt es auch Spitzenmodelle (meist nur abgeregelt), die halten das aus.
 
@borbor: Sehe ich ebenso. Ich habe mir vor einem Jahr eine (damals ja schon nicht mehr supertolle) 4850 für unter 100 Euro gekauft, und spiele jedes Spiel mit einem zwei Jahre alten CPU (E8400) auf hoher Auflösung. Sicher, wer irgendwelche Auflösungen jenseits von FullHD haben muss (aus welchem Grund auch immer...) "braucht" natürlich die tollste, neueste Grafikkarte, aber das ist irgendwo Unfug. Die Zeiten, wo man für einen Spiele-PC 1500€ + X ausgegeben hat (oder 5000DM, wer sich noch an die alte Zeit erinnert) sind endgültig vorbei. Selbst ein 600€ PC ist 2 Jahre später immer noch aktuell.
 
@borbor: Kannste so nicht pauschalisieren. Heutige 24" Displays sin echt günstig, die jedoch in der nativen Auflösung von 1920x1200 oder x1080 zu befeuern kostet da einiges an Leistung. Ist natürlich was anderes wenn man lieber mit seinem 19" 5:4 Monitor "arbeiten" möchte...
 
@borbor: Tja also ich habe sogar eine uralt ATI X1600 (lüfterlos). Wenn ich mir in einem Jahr, oder so, einen neuen PC kaufe, werde ich sogar ernsthaft über eine Oneboard Grafikkarte nachdenken, solange damit Desktopanwendungen und Filme in HD laufen. In den letzten Jahren wird die Kluft zwischen Graka für "Office" und Spiele immer größer, das war früher nicht so.
 
@borbor: Ich werde in Zukunft wohl auch nie mehr eine High-End Karte kaufen... ein Mal und nie wieder. Ist zwar ein tolles Teil, meine HD4870, aber sie wird sowas von hässlich heiss. Zudem spiele ich nicht genug fordernde Spiele, um sie ansatzweise auszulasten (die Zeiten sind auch vorbei). Müsste ich jetzt eine neue Karte kaufen, es würde eine HD5750 oder HD5770, vielleicht sogar HD5570 oder sowas. @Lastwebpage: Ich würde eher sagen dass die Kluft kleiner wird, denn schliesslich kann man mit einer Office-Graka immer mehr der fordernden Dinge auch erledigen, ohne eine High-End GraKa zu kaufen. Wenn du dir einen PC holst, sieh dir mal die 790GX und jetzt bald 890GX Chipsätze von AMD an, deren GraKas liegen auf dem Niveau einer HD3200 bzw. HD4200 und haben mehr als genug Leistung für HD-Filme. Alternativ kannst du dir ja mal eine S3 Chrome GTX holen, die ist für HD-Filme auch sehr gut geeignet. =)
 
@3-R4Z0R: oder so... auf jeden Fall war es früher so, das man sich karte X für Office gekauft hat und sagen wir mal +150-200€ zum zocken. Wenn ich mir heute so die Preise bei Amazon oder Alternate so anschaue. :|
 
@3-R4Z0R: Wenn ATI, dann unbedingt eine Karte mit Vapor-X-Kühler. Die Kühlung ist wesentlich besser aufgebaut als bei Standardkühlern (betrifft auch die sekundären Hitzequellen der Karte), Vapor-X-Kühler sind leise und kühlen sehr viel besser als die Standardkühler. Habe selber eine HD 4890 Toxic (werksübertaktete Vapor-X gekühlte Karte) und bin hoch zufrieden.
 
@Aspartam: Ich habe meine Karte von Gainward, ebenfalls mit speziellem Kühler, der sehr gut ist (leise und kühlt gut). Dass ich mit der GraKa mein Zimmer innerhalb von einer Stunde etwa auf 30 Grad heizen kann, werde ich damit aber leider nicht verhindern können. Wie auch immer, ich habe mir heute die noch fehlenden Teile für eine gute WaKü bestellt, damit der PC unhörbar sein sollte.
 
@borbor: same here, ich hab ne XFX Geforce 9600 GT XXX Alpha Dog Edition (von haus her übertakt) und kann GTAIV auf 1920x1080 mit mittleren details zocken, call of duty mw2 auf höchsten einstellung flüssig laufen usw....
 
Vielleicht sollte NVidia langsam aber sicher mal Angaben zur Leistung machen, wenn sie innerhalb dieses Monats noch ihre Karten auf den Markt werfen. Kauft doch keiner die Katze im Sack ^^
 
@citrix: Preise wären auch interessant - irgendwie sehr merkwürdig deren Informationspolitik.
 
@citrix: Es wird schon noch genügend Leute geben, die die Karten kaufen werden. Schon allein, weil NVIDIA kaum Rückschritte in ihrer Entwicklung machen wird, wird man nicht die Katze im Sack kaufen. Einzig Besitzer aktueller GraKa`s werden wohl noch auf techn. Daten warten, um zu sehen wie groß der Leistungsunterschied ist.
Wie auch immer... die werden ihre Karten schon noch loswerden.. ;)
 
@citrix: Gerüchten zufolge sollen die FERMI nicht mit den zum Ziel gesetzten Taktraten herausgebracht werden. Wenn das stimmt, dann sollte die GTX 480 auf dem Niveau einer 5870 liegen.
 
@citrix: Hm, ich könnte mir vorstellen das die garnicht so toll sind, wie Nvidia das möchte, denn sonst würden die sicherlich schon mit der leistung prahlen um dadurch potentielle Käufer von AMD fern zuhalten.
Schon eine merkwürdige Politik....
 
ich will endlich preise sehen^^
 
@Shellshokk: Ich will endlich Preis UND Leistungsdaten sehen. Bei mir ist auch eine neue GraKa fällig, aber ich kann mir jetzt unmöglich eine ATi holen wenn bald die neue Nvidia kommt und ich nicht weiss wie gut sich diese gegen die 4850/70 schlägt. Aber all zu viel erwarte ich eigentlich nicht von der Fermi... wenn ein so grossmäuliges Unternehmen wie Nvidia auf einmal still wird, kann das nicht viel gutes bedeuten.
 
@Zebrahead: Bis jetzt sieht es zumindest ganz danach aus, als wenn ATI zumindest 2010 die Leistungskrone behalten wird.
 
@Zebrahead: Habe auch noch eine 86erGT :/ die will auch eingestampft werden :D
 
@Shellshokk: Und ich Benchmarks. Gibt's die schon irgendwo?
 
"Ab diesem Tag sollen die Nvidia-Partner die Grafikkarte bei Onlinehändlern bestellen können." Heißt das, Asus, Sparkle & Co. können ab dem 29.03. die Karte bei Amazon ordern um ihr Label drauf zu kleben oder heißt das, da hat wieder jemand seinen Artikel vor der Veröffentlichung nicht gelesen?
 
@satyris: Habs mir auch grade gedacht :D
 
@satyris: Sicher. Ich steh auch schon Gewehr bei Fuß. Der DennisMoore-Aufkleber liegt schon in 1000-facher Ausführung hier rum ^^
 
Wenn ich die Kommentare hier so sehe, glaub ich echt ich bin der einzige der sich auf die Dinger freut... und zwar in zweierlei hinsicht. Weil entweder sind sie vom P/L so gut dass man sie auch kaufen kann oder man kauft dann halt die aufgrund verlorener "Performance-Krone" zwangsweise günstiger gewordenen HD5850 oder 70. Win-Win situation für den Kunden :).
 
@RocketChef: Oder AMD kündigt am 29.03. eine 5970 an, die sich gleich wieder der Performance-Krone holt und 20% günstiger ist als Nvidias Flaggschiff.
 
@satyris: Ich habe die dual-GPU Lösungen bewusst aussen vor gelassen. :) Ich rede nur von single-Lösungen. @sneak72: Geht mir mit dem Stromverbrauch (Wärme) ähnlich, nur hab ich irigendwie das gefühl das AMD da nicht zu toppen ist :).
 
@RocketChef: Preis/Leistung wird Nvidia sicher nicht knacken können, haben sie noch nie, werden sie auch nie. Für den hohen Preis waren sie zumindest oft ein klein wenig schneller als AMD-Karten. Einziges Argument, was mich zu einem Kauf treiben würde, wäre das Drücken meiner Stromrechnung. Gute Leistung, wenig Strom, leiser Betrieb - da würde ich glatt den einen oder anderen Euro mehr zahlen.
 
@sneak72: "haben sie noch nie, werden sie auch nie" ... "wollen sie auch nicht" haste vergessen. nVidia stand schon immer für Leistung. Diese Firma ist beleidigt wenn sie nicht die schnellste Karte haben, aber nicht wenn sie teuerer sind als die Konkurrenz. Irgendwie der FC Bayern der Grafikchiphersteller. Wenn die nicht in der Tabelle 1. sind sind sie auch beleidigt. Der kostspielige Kader spielt hingegen eine zu vernachlässigende Rolle. AMD/Ati müßte dann das Bayer Leverkusen unter den Grafikchipherstellern sein. Die Saison über stark dabei, öfter mal Tabellenführer, aber unterm Strich doch immer nur Zweiter ^^
 
@RocketChef: wirtschaft.
 
hab ich was versäumt, oder haben die die 300er Nummern übersprungen?
 
@BachManiac: Mercedes Benz hat ja auch nicht zuerst die A-Klasse und dann die B-Klasse usw rausgebracht oder ?
 
@citrix: Doofes Beispiel, welches zeigt, dass du von der Namensgebung bei Grafikkarten/CPUs keine Ahnung hast. =)
 
@BachManiac: die 300er sind ein x'ter Aufguss der 92er Chips und die haben wohl Angst, das der Fermi in diesem Fahrwasser Schlagseite kriegt ;-)
 
Ich vermisse die Anzahl der zu Beginn verfügbaren Karten - nämlich 5.000 Stück. (News von Konkurrenzseite mit Computer und Base drin). D.h. die 4xer von nVidia werden zu Beginn noch schlechter verfügbar sein, als die 58er von ATi. Ich habe mir letztes Jahr schon eine ATi 5850 zugelegt und wenn nun irgendwann die Karten billiger werden, kaufe ich mir noch eine und bastel mir ein Crossfire :)
 
@sirtom: Wenn die mit 5.000 Stück auf den Markt kommen, dann kann ich mir den Einstiegspreis gerade gut vorstellen - und dann werden 5.000 Stück erst mal mehr als ausreichend sein.
 
aber müssten die online händler nich eigentlich bei den nvidia partnern bestellen^^
 
Wenn die aktuelle Konsolengeneration noch 3-5 Jahre halten soll, dann brauch wohl kaum ein Gamer eine neue Grafikkarte oder 6 Kern Prozessoren in nächster Zeit.
 
@Ajantis: Kommt drauf an was der Gamer aktuell in seinem Rechner stecken hat. Spiele werden in Zukunft sicherlich nicht genügsamer. Ich brauch nur ne neue wenn ich mir nen größeren Bildschirm kaufe, denn Auflösungen für 24-Zoll Bildschirme bringt meine Karte nicht wenn ich die Grafikeffekte etwas zu hoch einstelle.
 
@DennisMoore: Ja das stimmt natürlich. Etwas Luft nach oben ist noch. Da aber fast alle großen Titel heutzutage parallel für Konsole und PC entwickelt werden denk ich mal das die Hardware-Entwicklung in dem Bereich schon stark eingebremst wird wenn die wirklich noch 3-5 jahre an der aktuellen Konsolengeneration festhalten wollen. Es schont zwar dann unser aller Geldbeutel aber irgendwo ist es auch schade.
 
Wird bestimmt nicht preiswert, wenn man dann bald einen Wafer für einen funktionstüchtigen Grafikchip bezahlen muss. Ob sich Nvidia da nicht etwas übernommen hat mit der Komplexität ... mal schauen, wie es da mit der Verfügbarkeit aussieht. Ich bin gespannt.
 
Also ich finde die Geschäftsstrategie von Nvidea sehr kontraproduktiv. Irgendwie war ich immer Nvidea-Fan. All die vielen jahre die ich schon am PC sitze, hatte ich nie eine andere Grafikkarte im PC. Habe auch jetzt eine GTX 285 im Rechner. In letzter Zeit hat sich meine Denkweise über Nvidea extrem verschlechtert. Irgendwie verbreiten die einen Todes-Odem, der mich an das Aussterben der Voodoo-Karten erinnert.
 
@alphanostrum: Die Firma, von der du Fan bist, heisst Nvidia, nicht Nvidea.
 
Ich denke auf dieser Karte wird dann Crysis endlich auf hohen Auflösungen flüssig laufen.
 
@Smoke-2-Joints: das ist das problem ihr denkt zu viel.
 
@Sir @ndy: ++ andy danke... :D:D:D: rofl hast recht xD
 
Seit TNT Zeiten kenne ich Nvidia und hatte immer eine Karte dieser Firma.Seit dem ständigen umlabeln Ihrer "alten" Chips machen Sie sich nur noch lächerlich.Ich glaube an das Erscheinen des "Fermi" genau so wenig wie an das Erscheinen von "Duke Nukem for ever".Vieleicht bringen Sie das Spiel "Duke Nukem for ever" gebundelt mit dem "Fermi".:-))
 
@obersuperdicker: Da gebe ich dir absolut recht. nVidia ist am Ende. Mit diesen ständigen Pressemitteilungen will man nur auf sich aufmerksam machen und evtl. Geldgeber finden. Für mich ist das wirklich nur heiße Luft und ein solches Verhalten habe ich schon bei sehr vielen IT-Firmen gesehen, die dann über kurz oder lang Konkurs anmelden mussten. Bestes Beispiel ist hier die Firma Commodore.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles