Spitzenmodell: Nvidia kündigt GeForce GTX 295 an

Grafikkarten Der Grafikkartenhersteller Nvidia hat heute sein neues Spitzenmodell vorgestellt, das auf den Namen "GeForce GTX 295" hört. Damit will man ATI vom Leistungsthron stoßen, was laut ersten Benchmarks auch gelingt. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wer braucht sowas?
 
@loedl: der Ruf, die schnellste Karte zu haben, macht marketingmäßig durchaus was aus
 
@CruZad3r: Haben sie doch, zumindest in den Single-Karten.
 
@DARK-THREAT: single core oder singel karten(sprich eine karte im rechner)??
 
@Otacon2002: Eine Karte mit 2 GPU's, da ist AMD die Topkarte. Und bei den mit einem GPU halt nVidia.
 
@loedl:

alle die auf ihrem PC Computerspiele haben und die beste Grafikkarte dafür haben wollen.Und es muß jeder für sich entscheiden ob er sowas braucht oder nicht.Das was die Spiele heute auf den Bildschirm bringen ist ja wohl ertse Sahne,da hat man das Gefühl manist mittendrin.
 
@n.i.p.: Das blöde sind nur die Mikroruckler. Hoffentlich bekommen sie das noch irgendwann in den Griff. Für alle, dies nicht wissen: Bei den Microrucklern werden 2 Frames (fast) gelichzeitig ausgegeben, ansatt in einem regelmäßiegen Abstand auf die sekunde verteilt. Da das zweite Frame mit dem 1. ausgegeben wird, wird eines davon quasi unbrauchbar. Das heist, wenn die Dual GPU Karte 60 FPS in einem Spiel schafft, fühlt sich das (wegen gleichzeitiger Ausgabe 2er Frames) wie die hälfte, also 30 FPS an. Dies entspreicht dann wiederum der Single GPU Karte, wodurch sich die theoretisch doppelte Leistung in Luft auflößt. Schade.
 
@loedl: Also ich würde Sie mir kaufen wenn ich nicht schon zwei 260GTX hätte!
 
@KiffW: yaarrrrrr.... und dazu den Matrox TripleHead2Go :-P *ich bin begeistert über die leistung besonders in games :-P
 
@Fatal!ty Str!ke: gut zu wissen. na dann isses ja doch nicht sooo zu empfehlen.
@minusverteiler: WTF? "bloß keine infomationen bitte!!"
 
@Fatal!ty Str!ke: mööööp, fast richtig^^. Es stimmt soweit alles, nur das Microruckler ab (so sagt man auf diversen seriösen Seiten, auch CB^^) ab 60FPS Microruckler nur noch sehr schwer ausgemacht werden können. Zudem passiert das nicht in jeden Spiel (wie zu lesen nur bei Spielen wo nicht immer "alles" neu berechnet wird, sondern nur ein Teil von z.B. eines Objektes. Gutes Beispiel für sowas ist UT3). Es tritt auch nicht "konstant" auf, nur im schlimmsten Fall fühlen sich 60FPS wie 30 an (oder 30FPS wie 15). Natürlich ist es auch eine sehr ärgerliche Sache (die aber wohl eher was mit den Programmieren für SLI/Crossfire zu tun hat und nicht auf Treiber etc. zurück zu führen sind). Dieses Problem tritt auch bei "3-Waysli" auf, ist also kein AMD/ATI exklusives Phänomen. Dieses Problem aber jetzt groß zu veräußern dürfte aber wohl die Commentlänger hier überschreiten, da es verschiedene Probleme nach sich zieht (nicht nur das ein Frame zu schnell geliefert wird, genausogut kann auch eins "zu langsahm" geliefert werde. Sieht genauso bescheiden aus, hat aber ein anderen Urpsrung). Bei spielen wo aber ein SLI/CF-Gespann nicht mehr ausreicht um 60+FPS darzustellen dürfte sich auch eine GTX280 Singlekarte die zähne ausbeissen^^.
 
500$ und ein eigenes Atomkraftwerk -.-
 
@HNM: naja, sind ja nicht mehr als ca. 340 Euro. Und bei ca. 4 Stunden Spielen pro Tag auf voller Leistung ca. 260 Euro pro Jahr an Stromkosten. Dafür reicht auch ein Windkraftwerk :)
 
@HNM: Mister Burns wirds freuen! :o)
 
@Real_Bitfox: spaßkanone
 
@Smoke-2-Joints: danke..
 
Leute die in full hd zocken wollen ?
 
@W4NN1: 1. benutz den blauen pfeil. 2. um full hd zocken zu können muss aber net nur ne hammer graka im rechner stecken. 1680*1050 reicht mir z.b. vollkommen
 
@W4NN1:
Für ne Auflösung von 1920x1080 reicht selbst bei Crysis Warhead ne GTX260 mit 216 Streamprozessoren

Zumindest auf meinem 24"er
 
@W4NN1: Da reicht meine HD4870 auch für, um mit rund 30FPS Crysis auf 1920x1200 in DX9 Very High zu zocken. Rund 15 - 20FPS in DX10 Very High. @peter1812: Stimmt. ATi/AMD ist mir aber lieber. *flamewerfer zünd* :D Edit: -2? Da ist wohl jemand neidisch. Kein guter Charakterzug. Und noch was: Ich hatte bis zu den Sommerferien eine alte Radeon 9600 Pro, falls ihr etwas braucht, womit ihr eure eigenen... hrm... als länger betrachten könnt. :-)
 
@peter1812: Mal ne blöde Frage, warum sollt die Full HD Auflösung die nunmal 1920x1080 ist, auf nem anderem Bildschirm andere Leistungen von deiner Graka abfordern. =D
 
@peter1812: mit AA und AF? das würde mich stark wundern, hab 9800gtx SLI, ist nicht sooo weit von deiner entfernt, und hatte damals probleme damit Oo auf 1680x1050
 
@max.: Nunjo meiner Ansicht kann man sich bei Full Hd AA sparen, Auflösung ist so schon geil genug. Ich persönlich strebe eher immer eine höhere Auflösung an als nen tollen AA Setting.
 
@Reaper36: Aber auch nur wenn das Rohmatierial in der Aulösung vorliegt, was eher selten der Fall ist. Bei Hochskalierten Bildern sieht es eher bescheiden aus. Man kann auf AF verzichten bei diese Auflösung, für ein Grafikphilen ist aber AA unverzichtbar (wie gesagt nur für die extreme Gruppe von Spielern, nicht für den "normalo"-Gamer).Diese Grafikphilen sehen auch bei 40-50FPS ein derbes Ruckeln bei egal welchen Spiel^^.
 
Meine extrem übertaktete 8800GTS reicht noch...
 
@DARK-THREAT: fragt sich wie lange deine "extreme" karte das noch mit macht
 
@Otacon2002: Ist der Arctic Cooling Accelero Xtreme 8800 drauf, die Karte läuft mit max. 48 Grad.
 
@DARK-THREAT: mag sein....aber es hat ja nicht immer was mit den temparaturen zu tun das die teile die biege machen. aber solang es läuft
 
@Otacon2002: Meine 6600GT war auch mehrere Jahre übertaktet, und wurde auch noch gut verkauft (inkl. Zalman Vf-700-CU). Und selbst eine ganz alte FX5200, die auch immer übertaktet wurde läuft noch in einem anderen PC. Also nVidias haben bei mir immer ganz gut gehalten.
 
@DARK-THREAT: Meine 6600GT hat diesen Sommer ihren Geist aufgegeben und zaubert ein interessantes Spinnennetz auf den Bildschirm, wenn ich mal was spiele. Meine umgelötete Radeon 9600 macht sowas nicht. :-)
 
@DARK-THREAT: Jo. Ich hab im Zweitrechner auch ne 8800GTS 640MB von EVGA Extreme OC (ab Werk) ACE.
Die packt Crysis LOCKER in DX10.
 
@TomX: sorry... das packt "sogar" meine 8800GTS 512MB (oced @ MSI) von daher.... bevor ich mir neue Grafikhardware inklusive benötigten Kraftwerk zulege muss sich noch einiges tuen :-P
 
Da steht die Bezeichnung wohl für die Leistungsaufnahme hehe
 
-i> Da braucht man wohl bald einen "SLI oder Crossfire Verbund" von Netzteilen <i-
 
@Elvenking: nö. dafür gibts die 1200W Netzteile mit Starkstromanschluss <.<
 
@Elvenking: alternativ gibts im zubehör shop auch n cluster aus 20.000 Hamstern für die greenline von nvidia
 
@schumischumi: da kommt das futter teurer als der rechner^^
 
ich finde es ist nicht mehr zeit gemäß ders tromverbaruch bei solchen garfikkarten
 
Zitat:In Crysis Warhead zum Beispiel kommt Nvidia durchschnittlich auf 38,6 Frames pro Sekunde, ATI dagegen "nur" auf 32,3. /Ende .. Wow Nvidia, was für eine Leistung! gigantische 6.3 Frames mehr und das bei minimalem Stromverbrauch. Und das zu so einem Schnäppchenpreis. Ich bin Beeindruckt, aber sowas von. *rofl*
 
@Pegasushunter: Der obligatorische S......vergleich unter den Mega-Super-Duper-Hardware-User. Kennt man doch...^^
 
@Pegasushunter: diese gigantischen 6.3 FPS sind hier immerhin 20% und das ist eine menge.
 
@Air50HE: Man kann sich das auch schön reden. Innovation, Gigantische Leistungssteigerung bedeutet für mich in Full HD mit 8x Antialiasing und 16x Anisotropische Filterung minimal!! 60 Frames, bei einem stromverbrauch von maximal 150 Watt. Alles andere ist Schnickschnack. Ein Grafikshooter unter 50 Frames/ Sekunde macht keinen Spass.
 
@Pegasushunter: Das unser Gehirn aber nur um 25-30 Bilder die Sekunde verarbeiten kann weiß kaum einer? :-) Dann brauch man auch keine 60 und mehr Frames.
 
@DARK-THREAT: Das mag auf das echte Leben zutreffen, das mit "unendlich Frames" läuft. Hier kompensieren wir die begrenzten Aufnahmefähigkeiten durch "interpolieren" im Gehirn, was sich als Bewegungsunschärfe niederschlägt. Bei dem Monitorbild mit diskreten Bildern funktioniert das nicht, so dass man den Unterschied zwischen 30 und 50 fps durchaus merkt. Probiers doch mal aus.
 
@lumpi2k: Ja, aber ich habe Benchmarks mit 30 Frames und mit 50 und mehr gesehen. Sie bewegen sich gleich, meiner Meinung nach. Wenn etwas flüssig ist geht es doch nicht flüssiger?
 
@DARK-THREAT: CSS -> de_inferno mit 32 Leuten, 16 im Angriff, mit Smoke, HE, Flash, dann wirst Du sehen wie weit Du mit 30 Frames kommst, nämlich Ruckel-Mäuse-Kino.
 
@Pegasushunter: Naja, kommt eh nicht in Frage mit meiner Ping von 100-500ms.
 
@Pegasushunter: cs(s) ist immer eine eigene sache. jeder spielt anders.. die einen treffen mit 85 frames am besten, die anderen mit 60 oder die anderen, wie ich, mit 100. das muss man einfach austesten. das einzige was ist.. schonmal versucht fps_max auf 99999 zu stellen und danach mit 600 frames zu spielen? Einmal springen, landen und du stehst optisch 2 sekunden =)
 
@Pegasushunter: das kannst du auch haben. nur nicht in crysis...
 
Darum kaufe ich mir die Teile nicht mehr, um das Geld bekomme ich eine PS3 und eine XBOX 360 sowieso, mit Ausstatung!
 
@HatzlHotzl: Naja, und dann 60-70 Euro pro Game, statt 40-50... Dann kosten noch Zusatzteile für die Konsolen ein heiden Geld, und wenn man in HD Zocken möchte ein passenden HD-Fernseher, was auch noch um 800 Euro kostet...
 
@HatzlHotzl: lass die konsolen in konsolen foren
 
@drphake: ... and don't feed the trolls!
 
@HatzlHotzl: die dark threat schon gesagt hat.. 60-70euro pro game, oder Chip einbauen,............statt 0euro pro game (ausser die die online gespielt werden, die kosten auch um die 30-50euro) und 56euro/jahr für rapidshare :P
 
@HatzlHotzl: Vollkommen Recht!
 
@DARK-THREAT: Ach und mit nem PC kannste HD-Spiele zocken ohne HDTV oder was?^^ Den brauchste da genauso. Ja und du meinst jetzt du hast nen LCD-Monitor am PC der HD packt...jaa an den kannste die XBOX etc aber auch anschliessen :)
 
289 Watt, die sind doch nicht mehr ganz sauber. Mein gesamter PC verbraucht unter Last 30x Watt. Bei den CPUs geht es ja in die richtige Richtung, aber was die Grafikkarten angeht... Die spinnen doch. da brauch man ja bald nur für die Karte ein eigenes Netzteil. Dann wieder diese mülligen 2 Chips auf einer Karte. SLI Profile, Mikroruckler usw. Einfach nur Murks.
 
@stt: Schließe mich an.
So ein Strommonster setz ich mir auch nicht rein.
Da kann ich ja noch eher zwei 260er im SLi betreiben.
 
@TomX: Jop, habe auch die GTX260 und wie gesagt mit dem gesamten System gerade mal 306 Watt maximal.
 
@stt: ich kann dir nicht ganz folgen. ich komm mit 385 Watt nichtmal aus. hab aus meinem 500er (billig netzteil mit 77% effizienz - also 385W) ein neues 750er gemacht (Thermaltake ToughPower) früher hatte ich unter belastung (3DMark) screenfreezes bei CPU auf 3,6 (Q9550) und GraKa (GTX260 Core216) auf standard, jetzt mit dem 750er hatte ich den 3DMark mit CPU@4080, GPU @ 700/1100/1500 laufen ohne Probleme. natürlich hab ich dann die lüfter auch noch hochdrehen müssen, also noch mehr Stromverbrauch.
Aber da ich nicht weiß welche CPU du hast, und ob du wie ich 4 Ramriegel á 2GB am Laufen hast, kann ich mir vorstellen, dass du mit den 306 Watt, ohne GraKaübertaktung auskommst. kannst du mir mal deine anderen Komponenten sagen?
 
500 Dollar ist schon heftig.Ich kaufe nie Karten die mehr als 200 € kosten eher weniger.
 
Fakt ist nun mal das es diese High End Karten nicht geben würde, wenn die gewisse Zielgruppe dafür nicht vorhanden wäre. Warum werden High End Teile gebaut? Z.b. in der Auto Industrie, Hifi, TV, Hobbys wie z.b. Bowling, Tennis usw. Wenn sich da jemand was für 500 Dollar oder Euro gönnt wird dies kaum noch brachtet und eher als normal angesehen. Aber da sich die etwas andere Altersgeneration gegenüber PC Systeme, und letzten Endes PC Spiele, verschließt weil deren intelekt nicht einmal für die Installation ausreicht, die Spiele reihenweise wieder zurück gegeben werden, weil der Kunde nicht merkt das sein AVG die Installation blockiert, können solche Leute auch kaum beurteilen was solch eine Grafikkarte für Ihn für einen Nutzen hätte. Meines erachtens wäre es schön Nvidia mit dieser Karte zurück an der Spitze zu sehen, weil mir zum einen deren Firmenpolitik gefällt und die Treibersoftware schlichtweg strukturierter und Userfreundlicher aufgebaut ist. Dass sich der Wechsel von einer aktuell erwerbbaren GTX260 oder 280 drastisch lohnen würde, kann ich nicht erkennen, da es in den meisten bekannten Shootern zu keinem spürbaren WoW Effekt kommen würde. D.h. um aktuelle Spiele flüssig spielen zu können reicht eine Karte der etwas niedrigeren Kategorie völlig aus.
 
@aedmin: Wenn diese Karten wirklich erfolgreich bzw das Ding werden sollte, das fast jeder in seinem Rechner hat (quasi der Nachfolger der HD4850), na dann werden sich die Energiekonzerne aber freuen. Du arbeitest nicht zufällig für einen? :)
 
Zitat
"HD 4870 X2 von ATI ist die GeForce GTX 295 überlegen. In Crysis Warhead zum Beispiel kommt Nvidia durchschnittlich auf 38,6 Frames pro Sekunde, ATI dagegen "nur" auf 32,3."

Das ist ein Armutszeugnis für Nvidia, denn wenn man sich mal die Leistung in Relation zum Preis anschaut verliert Nvidia hier klar.
http://tinyurl.com/55asno weitere allgemeine Infos

Was auch nicht mehr Zeitgemäß ist, ist die Verwendung von zwei Platinen für zwei GPUs. Das ist nicht nur sauteuer sondern kostet zusätzlich Wirkungsgrad bei den Spannungsreglern. Außerdem dürfte die Karte immer noch mit DX10 herumgurken. Nächste Anschaffung wird bei mir allerhöchstens eine DX11 Karte.
 
@X2-3800: Sehe ich ähnlich...ABER! NVidia hat den Vorteil, dass sie in ihren Treibern die PhysX-Unterstützung drin haben. Damit dürfte das Ergebnis um einiges besser ausshen. Das wurde bei den Benchmarks aber scheinbar nicht beachtet.
 
löl strom abzapfen vom nachbarn oder evtl. noch vonner firma so wie meiner einer.........und die ati 4870 x2 rotzt rest its for FREE :-)
 
Hmm, Stromverbrauch ist verdammt viel. Braucht man für ein 1500 Wattnetzteil eigentlich Starkstrom?
 
Von der Geschwindigkeit überlegen, technisch aber ein Armutszeugnis für Nvidia. Nichts, aber absolut nichts Neues. Aber immerhin haben sie es geschafft, die 55nm-Fertigung einzuführen, echt klasse, aber auch schon ein alter Hut. Und der Preis ist der absolute Witz. Für ein technisch überholtes Produkt diesen Horrorpreis zu verlangen ist schon eine Frechheit !
 
@holom@trix: Wegen dem "Horrorpreis": Vodoo 2 mit 12MB im Jahre 1998 599,99DM. Gute PC's gabs um 3000DM usw.... ,-)
 
@DARK-THREAT: D-Mark! richtig! D-Mark.
 
@Pegasushunter: Jo, und ein PC in der Klasse heute kostet um 1700 Euro, was eine "geringe" Teurungsquote mit sich führt. Aber Lebensmittel wurde in der Zeit 100% teurer, Nachtstrom war 8 Pfennig, jetzt 12 Cent....usw. Also PC Hardware ist nicht extrem teurer geworden wie alles Andere.
 
@Pegasushunter: 599DM sind umgerechnet 300€.. wenn ich mir die Inflation ansehe die mit 3% pro jahr noch sehr human ist, komm ich da in 10 jahren.. auf 403€. sind auf Dollar (1,4243 ist der aktuelle kurs glaub ich) 574$ und somit wären wir beim gleichen bzw höheren Preis.
 
Haha, und wieder ein FLOP nur um den Gamern und nVidia Fanboys zu zeigen, wir sind die schnellsten...aber es wird bald heissen: "ATI presentiert den RV870, die erste Grafikkarte mit DirectX11 Support" oder noch bissel früher: "ATI presentiert den RV790 und R790(X2), noch schneller bei noch tieferem Stromverbrauch"...
 
@bluefisch200: genauso ist es
 
also ne heizung ist bei dem teil überflüssig
 
Wenn dann wenigstens die 280er und/oder die 260er billiger werden würden, freud mich das. Wird nämlich mal wieder Zeit aufzurüsten. Mal sehen was preis-/leistungstechnisch nächstes Jahr zu diesem Zeitpunkt meinem Geldbeutel entspricht. Bin nämlich auch nicht abgeneigt, erneut eine Radeon zu kaufen... Nur dieses Teil hier wird es eher nicht...es sei denn die Preisschraube wurde sehr stark gedreht.
 
@Fr3@K: wart auf nach weihnachten =) Februar ist wieder n gutes Monat zum umrüsten. ich habs leider Ende November gemacht (musste das weihnachtsgeld ausnützen :P)
 
interresanter währe odchmal ob die karte in GTA auch hohe texturdetails schafft, den das schafft bis jetzt noch keine Karte flüssig...
sihe: http://gamestar.de/specials/spiele/1951654/technikcheck_grand_theft_auto_4.html
 
@xxMSIxx: GTA 4 setzt doch nur auf den VRAM der Karte, diese Limitierung kann man ausschalten und schon hat mein die volle Graphikpracht mit bezahlbarer Hardware.
 
2x 896Mbyte? Das sind 2x GTX260! Also wenn man die fetteste Single GPU oder überhaupt die fetteste GraKa bauen will sollte man a) die neusten Fertigungstrukturen (denke 32nm ist noch nicht möglich, aber 40 bzw. 45nm!) setzen und b) nen richtigen GT200 Chipsatz nehmen und nicht so ein "GTX260² x2" dreck!
 
@DUNnet: e=mc² x2!
 
Nicht genau die Karte, aber immer wieder passend :D http://tinyurl.com/46sxru
 
lieber eine karte mit guter 'leistung-zu-watt-verbrauch-ratio' , sonst kostet das nicht nur 500$ wenn man sich dauernd karten in dieser klasse kauft, sondern noch mal mindestens 500$ jährlich was man nur für den spaß an stromkosten draufzahlt.

da sind mir 30+x fps bei crysis eigentlich dann auch wieder völlig latte.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles