Nvidia stellt DirectX-11-Karte Geforce GTX 465 vor

Grafikkarten Nvidia hat auf der Computex in Taiwan die Grafikkarte Geforce GTX 465 vorgestellt. Sie basiert auf dem Grafikchip GF100 und ist damit auch DirectX-11-fähig. Die Leistung soll knapp unter einer Radeon HD 5850 liegen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ach ... erinnert sich noch einer an damals, als 130 Watt Leistungsaufnahme ein Skandal waren? ... PCO
 
@pco: In der Tat, wenn man bedenkt, dass manch einer mit 700 Watt Netzeilen herumrennt, da geht durch die Computer einiges an Energie drauf. Und wenn diese Rechner dann nur für ICQ und Email laufen (denn Spiele laufen ja nicht die ganze Zeit), dann kann man schon von enormer Verschwendung reden.

Im Vergleich hatte ich beispielsweise ein MacBook mit ~11W Aufnahme (unter OS X, unter Win7 ~18W) und ein PC mit 400Watt Netzeil, der im Leerlauf gute 90 - 100 W zieht.
 
@AnMarb: Bei meinen dicken Kisten sind im Normalfall Desktop (ohne Adobe Flash) die CPU Kerne auf 250 MHz runter getaktet. Erst im Bedarfsfall wir dynamisch auf entsprechend höhere Leistung rauf getaktet. Die Grafikkarte taktet ihren Kern ebenfalls dynamisch. Klar ist eine EeeBOX mit nur einem Intel n270 2,5 Watt Atömchen als CPU und mit nur Intel GMA 950 Chipsatzgrafik noch viel sparsamer, aber für Adobe Flash ist gerne mal ein fetter Vierkerner und eine "Hardcore" Gamer Grafikkarte angebracht, anstatt der schlanken Intel GMA. Adobe Flash will fette Stromschlucker Kisten und fette Stromschlucker Grafikkarten!
 
@Fusselbär: Interessant wird's doch erst, wenn du die Spannung auch absenkst - denn das spart wesentlich mehr, als ein paar MHz Takt.
 
@AnMarb: also mein Phenom x4 und meine GTX295 etc, läuft der Rechner im IDLE nur mit ICQ usw und surfen bei 95 watt, das geht doch ^^ Wieviele lieber im Hausflur ihre Lampenkram anhaben und überall licht anlassen da verbraten die viel mehr Strom, eine Glühlampe a60watt dann davon 4 im flur. Oder Aussenbeleuchtung schöne 90watt birne. :D
 
@AnMarb: Ferrari fahren und über Sprit preise jammern? Wette: Der zieht im Stop n Go mehr Saft, als auf der Bahn.
 
Preisgünstige DX11 Karte, die eine Alternative zur 470/480 darstellt, wie ich finde. Bin mal auf die ersten Benchmarkergebnisse gespannt, wenn es von den neuen Treibern mal ne finale Version gibt.
 
@Mister-X: Die Also die aktuelle Beta schafft im Schnitt dann doch ganze 2% bessere Perfomance. Zur Final-Version werden sie dann noch dafür sorgen, dass PhysX zusammen von ATi-Karten nicht standardmäßig funktioniert (sie müssen diese Weiche vergessen haben, es ging bei der aktuellen Version. Bei den vorherigen Treibern musste man es vorher mit einem einfach Patch erst aktivieren). Die Karte ist btw. nicht preisgünstig, sondern kostet im Moment 280€, mehr als eine schnellere 5850 (die auch deutlich weniger verbraucht und weniger Wärme abgibt.)
 
@Mister-X: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_465/
 
für 220 währ sie mein aber sicher nicht für 280 wenn sie weniger leistet als eine 5850...
 
@wolver1n: lol alternate hat die lagernd von 3 Herstellern für 299 und die 470 kost 312...
 
@wolver1n: Da stimm ich dir voll und ganz zu! Im unteren 200-Euro-Bereich wäre die Karte gut angesiedelt. Naja, sie wurde jetzt erst vorgestellt - man kann nur hoffen, dass die Preise bald purtzeln.
 
Zur Zeit hat AMD/ATI einfach die bessere Preisleistung.
Wer auf CUDA und GPU Physik verzichten kann greift besser zu ATI !
Leiser , sparsamer , billiger und meist nicht wirklich langsamer !
 
@Berserker: Und gerade auf dem PhysX-Sektor ist es momentan wirklich interessant. GTA IV nenn ich schon mein eigen und finde die Umsetzung wirklich toll. Hätte ich ne ATI Karte, würde meine CPU da nicht mehr mitspielen. Klar ist ATI günstiger, aber wenn ich mir mal den Trailer zu Mafia 2 anschaue, bin ich trotzdem am überlegen, ob sich der höhere Preis nicht doch lohnt.
 
@Mister-X: Klassicher Fall von Placebo. Es gibt bei GTA IV kein PhysX Support. Du hättest mit einer ATI nicht höhere Prozessorbelastung als mit deiner nVidia. Und selbst von den vielen PhysX-Titeln, die es geben soll, haben nur 15 oder so überhaupt die Möglichkeit die GPU dafür einzubinden. @DennisMoore: Das ist nur eine Werbeaktion von nVidia. Man sollte sich nicht täuschen lassen. Viele PhysX-Effekte, mit denen geworben wurde, hätte man locker über die CPU geschafft. Und natürlich funktioniert heterogenes PhysX, selbst wenn der Treiber das offiziell nicht unterstützt, ist das eine einfache Weiche, die sich über einen Patch deaktivieren lässt, im CB-Forum gibt es einen Riesensammelthread, in dem die Erfolge mit ATI+nV-Lösungen präsentiert werden.
 
@tinko: Werbeaktion oder nicht. Fakt ist, dass man diese Effekte ohne PhysX nicht sieht. Und dass sie ebenfalls in der Fülle und Genauigkeit mit der CPU zu berechnen sind, ist ein Märchen. Patches sind immer mit dem Risiko verbunden dass es auch mal nicht funktioniert und dann hat man > 200 Euro quasi zum Fenster rausgeworfen und kann sich nicht mal beim Hersteller beschweren. Unterm Strich nehm ich darum lieber ne nVidia-Karte als ne Ati.
 
@DennisMoore: Naja, es ist wie das Knacken eines Kopierschutzes, das hat die Community immer geschafft. Und >200€ zum Fenster raus ist auch eine interessante Rechnung. Wenn eine Grafikkarte in dem Moment wertlos ist, in dem man ein paar Zusatzeffekte bei 15 Spielen auf dem Markt (von denen ich z.B. 0 habe) nicht mehr darstellen kann, dann gehört man schon zu der Art von Kunden, die sich ganz schön melken lässt. Lässt sich nicht über CPU berechnen? Du würdest staunen, was man alles über CPU berechnen kann, wenn man es nur wirklich will. Wir sind inzwischen bei 6Kern-CPUs und die kosten nicht unbedingt 300€. Natürlich kann man immer eine Situation mit 100000 Partikeln schaffen, die nur bei extrem parallelisiserten Geräten darstellbar sind, aber ob das alternativlos ist, sei mal dahingestellt. Außerdem unterstützen ATI und nVidia OpenCL, darüber kann man auch Physikeffekte berechnen. Nach dem sich offensichtlich PhysX nicht durchgesetzt hat, kann man ja hier mal die Aufgen offen halten.
 
@tinko: Wenn man die Karte extra für PhysX dazukauft und an sich schon ne 5870 hat, ists zum Fenster rausgeworfenes Geld. Und wenn man realistische Physik darstellen will, dann geht das nicht mehr über die CPU. Ich bin erstaunt dass das immer noch behauptet wird obwohl es schon zig mal widerlegt wurde. Ich finde es überdies ziemlich alternativlos wenn man z.B. bei Mafia 2 ein ganzes Cafe physikalisch korrekt in Schutt und Asche legt und dann von der Explosion weggeschleudert wird. Ein paar CPU-berechnete Splitter vom Putz und ein schnödes Zusammenfallen des Rest-Hauses ist dagegen irgendwie nicht so doll. Was OpenCL angeht, so denke ich nicht dass es in nächster Zeit großartig in kommerziellen Projekten genutzt wird. Dafür ist es immer noch viel zu schlecht dokumentiert. DX11 und PhysX haben da an Doku und Samples viel mehr zu bieten.
 
@DennisMoore: Hast du denn Mafia2 getestet oder glaubst du den ganzen Versprechungen, die der Gamestar von der Marketingabteilung von nVidia aufgezwungen wurden?
 
@tinko: Stimmt, er hätte mit ner ATI bei GTA IV keine höhere Prozessorbelastung, weil das Spiel garnicht erst gestartet wär :D
 
@lutschboy: Das ist falsch, es gab nur anfangs Probleme und ist schon seit Monaten behoben. Aber was kann ATI dafür, wenn die Programmierer und die QM von GTA IV versagt haben?
 
@tienchen: Witzig wieviel du in meinen Kommentar interpretierst. Hab ich gesagt dass ATI schuld war? Dass es heute auch noch die Probleme gibt? Ich habe gesagt "gestartet wär", nicht "starten wird". Weil ich mich auf den Release von GTA IV bezog halt. Aber merk schon, Späßchen sind in Fanatikerdiskussionen unerwünscht :)
 
@lutschboy: Wenn man einen Spaß zum vierhunderachtunddreizigsten Mal wiederholt geht es einfach langsam auf die Nerven.
 
@tienchen: Pardon dass ich nicht rund um die Uhr im Netz nach deinen Diskussionen suche und zähle wie oft jemand einen Spaß macht. :) Aber drauf geschissen.
 
@Berserker: Full Ack. Hab mich nach langem hadern doch für eine HD5870 entschieden, meine erste ATI Karte für den amer PC, und ehrlich gesagt vermisse ich PhysX nicht.
Wenn es denn doch irgendwann ein Spiel gibt das deutlich schlechter aussieht, muss dann wohl oder über noch eine GT240 in den Rechner, die sich nur um PhysX kümmert.
 
@DarkRhinon: Dan nfreu dich schonmal auf Mafia 2, wo PhysX richtig was bringt, wie man auf Gamestar.de lesen kann. Und ne nVidia Karte neben deine Ati-Karte Pflanzen dürfte nicht gehen, weil die Treiber da nicht mitspielen.
 
@Berserker: Wer zu ATI greift, greift in vielen Fällen in den Eimer. Aktuelle ATI Grafikkarten ziehen eine Menge Strom ungeregelt und müssen auf vielen Betriebssystemen mit dem VESA Treiber in zu niedriger Auflösung betrieben werden. Das heißt die ziehen dann Strom ungeregelt bis zum Anschlag und geben nur ein verschwommenes Bild auf TFTs aus, wegen der viel zu niedrigen Auflösung die sie dann nur bringen. Der aktuelle OpenSource ATI Treiber ist noch nicht so weit und ist wegen KMS auch sehr beschränkt, nämlich nur auf Linux verwendbar. Ob das nun die "schuld" der Linuxer ist, weil die unbedingt alles auf KMS (Kernel Mode Setting) umbiegen, oder ob es die Schuld von ATI ist, die zum Beispiel weder für Solaris noch für FreeBSD native Treiber mit anständiger Hardwarebeschleunigung zur Verfügung stellen ist im Endefekt völlig schnuppe, Tatsache ist jedoch: Nvidia bietet da vorzüglich Hardware beschleunigende Grafiktreiber an, mit denen es diese Probleme nicht gibt und mit denen sich die Nvidia-Grafikkarten vorzüglich nutzen lassen, inclusive dynamischer Taktung, so das die im Desktop-Betrieb Strom einsparen. Insofern ist das was Nvidia Grafikkarten etwas mehr kosten ziemlich gut angelegt in größere Systemkompatibilität. Wem nur Windows alleine reicht, dessen bescheidene Anforderungen mögen auch von ATI Grafikkarten mehr oder weniger befriedigt werden.
 
@Fusselbär: Entweder trollt jemand mit Deinem Account oder Du bist verwirrt, Alleine Dein erster Satz ist eine Aneinanderreihung von Unwahrheiten. Was los mit Dir ?
 
200Watt, wow, wahnsinn. nein da muss ich passen. schafft mein rechner wirklich nicht ^^
 
@james_blond: Schafft wohl eher dein Netzteil nicht.
 
@DennisMoore:

mein rechner und mein netzteil nicht, dafür fehlt mir einfach der platz^^
 
@james_blond: Wer 250 Euro für ne GK hat, der hat auch noch 50 Euro fürn Netzteil. PCO
 
Sollte der GF100 Chip revolutionär sein und ATI weit in die Schranken weisen? Bislang lese ich aber immr nur: arbeitet auf Niveau von ... liegt knapp unter ... etwas schwacher als ... usw. Die Preis/Leistung dagegen ist eine Frechheit wenn man sich das Preisbeispiel von ATI dagegenhält.
 
@Kungen: Der einzige Mehrwert ist PhysX
 
@Mister-X: Es gibt seit 4 Jahren PhysX und trotz langer Werbelisten mit PhysX-Titeln, gibt es tatsächlich nur ca. 15 Titel, die PhysX-Hardwarebeschleunigung nutzen. Alle anderen nutzen überhaupt keine PhysX-Hardware. @DennisMoore: Sehe ich aber anders. Selbst in seiner Paradedisziplin, der Tesselationleistung, ist die Perfomance/Watt schlechter als bei der 5870, die ein halbes Jahr vorher veröffentlicht wurde.
 
@tinko: Kommt natürlich dann drauf an, ob mich die 15 Titel überhaupt nicht interessieren. Mirrors Edge hat mir sehr gefallen und da war PhysX wirklich sinnvoll implementiert (meine jedenfalls nicht nur ich). Batman Arkham Asylum, was ebenfalls PhsyX unterstützt, soll ebenfalls ein gutes Spiel sein (hab ich bisher noch nicht getestet, nur von Freunden empfohlen bekommen). Auch klar ist die eindeutig hohe Rechenleistung (wie z.B. bei Metro2033 wo HW-Tesselation sehr viel benutzt wird) bei der Fermi von Vorteil. Aber rein vom zocken her wird sich erst zeigen, ob den ATIs die Luft wegbleibt bei neuen Spielen, oder ob Nvidia da zuviel Reserven eingebaut hat. Persönlich überlege ich mir schon eine Fermi zuzulegen, dafür muss halt der Preis sinken und vor allem die Lautstärke massiv gesenkt werden (durch andere Kartendesigns z.B.). Bei mir wäre es auch PhysX, weil in meinem Interessensbereich einige Spiele dies unterstützen.
 
@ZECK: Ich würde dir von Fermi abraten. Die Hoffnung stirbt zu letzt, mit deutlicher Lautstärkesenkung ist aber nicht zu rechnen. Anders als bei normalen lauten Referenzkarten, ist das Problem bei nVidia kein schlechter Kühler (im Gegenteil, der GTX 480-Kühler ist sehr leistungsfähig). Das Problem ist die allgemein viel zu hohe Leistungsaufnahme (über 300 Watt, mehr als 100 Watt über anderen Karten in diesem Leistungssegment). Die kann man ohne starken Lüfter nicht abführen (selbst mit dem riesigen VGA-Kühler Spitfire und Extra-VRM-Towerkühlern (das muss man sich mal vorstellen) ist ein 120mm-Lüfter bei 1600 Umdrehungen nötig (dabei wurde sogar der Heatspreader entfernt!)). Wie wäre es damit eine 5870 mit einer kleinen nVidia-Karte für Fermi zu koppeln (GT 240 oder so).
 
@tinko: Mit PhsyX(nicht Fermi;))? Klingt ja ansich nicht schlecht, aber da würde ich mir eher ne kleinere Fermi kaufen oder gleich auf die nächste Generation kaufen. Ich hab immer noch die 4850 im Rechner, die für mittlere Einstellungen (grade bei HD und nicht FullHD) reicht und warte lieber auf eine ordentliche Nvidia. Sag ich jetzt so, weil ich eher enttäuscht von der Karte bin. Zwar am Papier gute Daten und auch in Spielen nicht allzu schlecht (Preis/Leistung stimmt ja), aber in der Praxis zu oft Probs mit Spielen, wo die Nvidias das nicht hatten. Da braucht jetzt auch keiner kommen mit die Hersteller sind schuld und der böse Herr Nvidia programmiert ja bei vielen Spielen mit, das interessiert mich als Kunde herzlich wenig, wenn das Spiel dann nicht funktioniert.
 
@tinko: 15 titel mit physx? es gibt etliche spiele, sogar weit über 100 in denen physx seine muskeln spielen lässt! oft zwar erst per patch nachgereicht (wie in sacred 2) aber dennoch dann ein unterschied wie tag und nacht. ich will nie wieder auf physx verzichten
 
@ExusAnimus: Richtig. PhysX-Funktionen werden von sehr vielen Titeln unterstützt, es handelt sich um sehr verbreitete Physik-Bibliotheken. Allerdings ist PhysX nicht gleich GPU-PhysX. Meine Zahl bezieht sich auf Titel, welche die Grafikkarte für PhysX-Berechnungen nutzen können. Alle anderen Titel (welche ja zum Teil auch Konsolenportierungen sind) sind nicht in der Lage eine Berechnung über CUDA oder sonstige Hardware auszuführen, sie nutzen die CPU.
 
@ExusAnimus: ... und was für Vorteile hast du dann durch PhysX in Sacred 2? Richtig - gar keine ... :-)
 
@Thaquanwyn: vorteile? spielerisch keine, richtig, aber eine deutlich bessere und realistischere atmosphäre durch herum fliegende steine, herumwirbelndes laub und viele zauber haben deutlich mehr effekte wie herumwirbelnden staub usw. wenn ich mir schon 2 gtx285 kaufe, will ich auch diesen mehrwert haben, sonst hätte ich mir auch eine ati kaufen können
 
@Kungen: Es gibt noch mehr Anwendungsgebiete als Zocken. Und da ist der GF100 revolutionär.
 
@DennisMoore: die wieviele Privatanwender wirklich nutzen? Den dafür ist die Karte ausgelegt.
 
@Kungen: Du hast dich auf den GF100 bezogen und der ist auch in anderen Produkten verbaut die nicht den Endanwender als Ziel haben.
 
@DennisMoore: Dennis, chill doch mal. Es wird langsam peinlich wie du dich als nvidia fanboy ausgeben willst. Ließ dir lieber die tests über die Karte durch (zb. auf Computerbase). Da steht nähmlich: EPIC FAIL. Und jetzt nicht gleich wieder heulen, nur weil jemand dein Schatzifirma beleidigt hat. Get real.
 
@ReVo-: Was hat das mit Fanboy zu tun wenn ich einfach eine Aussage kritisiere die man so nicht stehen lassen kann? Get mal lieber selber real und heul nicht gleich wieder wenn jemand deine Hassfirma gut findet.
 
@ReVo-: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_465/ no EPIC FAIL
 
@Sir @ndy: CP Fazit: "Nvidia möchte, dass die GeForce GTX 465 mit der Radeon HD 5830 verglichen wird, lässt dabei aber eine Variable völlig außer Acht: Den Preis." ... "gegen die ATi Radeon HD 5850 - den wirklichen Gegenspieler- muss sich die GeForce GTX 465 aber deutlich geschlagen geben" ... "In Sachen Lautstärke sind beide ATi-Konkurrenten leiser und ähnlich ergeht es der GeForce GTX 465 in Sachen Leistungsaufnahme. Unter Windows in Ordnung, unter Last dann gar mehr als eine Radeon HD 5870." ... "Für die anvisierten 280 Euro raten wir aktuell lieber zu einer Radeon HD 5850 oder gleich zu einer kaum teureren GeForce GTX 470." -> klingt für mich aber ebenfalls wie: EPIC FAIL
 
@Kungen: Wolle mehrs mal so sagen: Von den vielleicht am Ende des Jahres 12 Titeln, die auf einer nVidia besser performanen, als auf ATI und von denen die Hälfte auch Spaß machen und ich die Hälfte zocke.. also für rund 3 Spiele kaufe ich mir keine neue Grafikkarte. Das war mal. Ich bediene mich mittlerweile im Mittelfeld und kaufe mir Dinge, die im täglichen Computereinsatz echten Mehrwert bringen. Mehr als 200 Euro für eine Grafikkarte = für den, der sonst schon alles im Rechner hat. PCO
 
Sollte mir auch mal überlegen so ne GeForce 4xx zu kaufen. Hab zwar nen kleinen Monitor und meine 8800GTX reicht noch, aber wenn man PhysX zuschaltet wirds doch auch bei mir schon arg knapp mit der Leistung. Dark Void ruckelt dann schon und Mafia 2 wird wohl kaum drauf laufen, wenn man sieht was die an Effekten raushauen wollen.
 
@DennisMoore: Ja und jetzt? Spart man sich wenigstens die Heizung im Zimmer für eine GeForce 480 und hört den Regen auch gleich nicht mehr dazu, bei dem Wetter ist das durchaus ein Vorteil. Öh... Und sonst sehe ich gerade auch keine für die Fermi.
 
@tienchen: Ne GTX 465 dürfte für kleine Monitore reichen und die ist auch sicher nicht so laut. Außerdem gibts schon Passivkühler für die Dinger.
 
@tienchen: ich hab für einen kunden einen high end rechner mit 3 gtx480 gebaut, die leistung war der wahnsinn und mir ging schon beim bauen einer ab. stell dir vor, ich konnte mir unter last sogar noch "verdammte scheiße ist das geil" sagen hören, die sind gar nicht so laut wie du hier herum erzählst, das klingt schon nach trollversuchen deinerseits
 
@ExusAnimus: Tut mir leid, für solche Rechner habe ich keinerlei Verständnis. Aber gut, die einen spielen mit Autos, die anderen mit PC-Hardware... Aber wenn man nicht weiß wohin mit dem Geld - warum auch nicht, Wirtschaft ankurbeln ist besser als auf der Bank liegen lassen. Das ist aber das einzige Argument, das ich für so einen PC gelten lasse, etwas technisches nicht.
 
@tienchen: das ging am thema völlig vorbei, ich sprach über die von dir bemängelte lautstärke und du geilst dich drann auf dass der kunde 2600 euro bei mir gelassen hat?
 
Wow nvidia bringt eine Karte raus, der schlechter ist als eine Radeon 5850 aber genau so viel kostet. Wenn man jetzt noch bedenkt, dass nvidia ein halbes Jahr mehr Zeit hatte die neue GTX reihe zu entwickeln, dann ist es schon krass ^^. Jaja so ist das: fail, epic fail, nvidia.
 
Der Test der MSI & Zotac GTX 465 auf CB ist interessant, gibt aber derzeit verfügbare Berichte wieder - mit knapp 300Euro zu Teuer, zu Laut, zu hohe Leistungsaufnahme und keine Konkurrenz zum ATI-Segment. Nee Nvidia, so wird das mit der neuen Generation nischt. http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_465/
 
alles toll.. aber wie siehts bei den games aus? bin da nicht auf dem aktuellen stand, aber ich kenn es so, dass ein neues spiel dann eh wieder nicht mit voller quali läuft, weil auch die aktuellste hardware es nicht schafft. und das ärgerte mich damals immer wieder. man kauft etwas für teures geld und trotzdem kann man nicht das maximale rausholen. wenn man von very high auf high schalten muss, um flüssig zu spielen, dann passt doch wieder was nicht.
 
@hjo: Die Situation besteht momentan nicht. Mit einer 5850 zum Beispiel, für weniger als 300€, kannst du selbst Dirt 2 oder Crysis Warhead mit Very High Settings auf FullHD-Auflösung darstellen.
 
@hjo: Also ich kenne deine derzeitige Konfig nicht aber wenn ich als Beispiel meine nehme, dann finde ich keine Gründe meine GTX280 zu tauschen. Klar, die Leistungsaugnahme hätte mich bei neueren Modellen interessiert aber die ist ja nun nicht so schlimm das ich mir den Neupreis einer aktuellen ATI oder Nvidia ans Bein binden muß und die PhysX nun schon mal garnicht, weil da nix ist, was die ausreizen würde. Nebenbei liege ich mit meinen Q6600 auch etwas abgeschlagen...also, ich warte mal gediegen bis es erforderlich wird und dann sind die Preise gefallen oder es ist bereits eine weitere Evolution auf dem GraKa-Markt vonstatten gegangen. Wenn sich das bei dir ähnlich verhält bleib ruhig und lies ab und zu die News dazu. Derzeit ist das alles nur ein großer Sch.w.anz-Vergleich der beiden großen Hersteller, der deinen Geldbeutel garnicht treffen sollte.
 
@hjo: Das "Maximale" gibt es doch garnicht wirklich. Werte wie "High" und "Very High" sind erstmal nur subjektiv, du stellst die grad so'n bißchen als Konstanten dar. Manche Entwickler bauen halt in ihr Spiel Effekte ein, die ihrer Zeit voraus sind, da ist doch nichts verkehrtes dran. Wenn du dann 'ne High-End-Karte verbaust, trotzdem aber "nur" auf "High" statt "Very High" spielen kannst, ändert dass nichts daran, dass du grade auf dem momentanen höchsten hardwaretechnischen Level spielst. Es gibt also keinen Grund sich zu ärgern, nur weil einem ein Wort nicht gefällt. Die Alternative wäre dass der Entwickler das Maximum schröpft und runterfährt, um bei den Spielern einen psychischen Effekt auszulösen, sie wären voll absolut mega modern, se best for se best, ein Plazebo. Was Soft- und Hardwaretechnisch möglich ist, wird sich immer unterscheiden, und mal ehrlich, es gibt 'ne Menge die sich Crysis ein Jahr später mit ner neuen Graka installiert haben und sich freuten dass man aus dem Titel dann noch soviel rausholen konnte, dass er immernoch aktuell aussah.
 
"Dank der neuen Beta-Treiber wird sich die Geforce GTX 465 auch für die Wiedergabe von 3D-Blu-rays eignen. Stereoskopische Spiele sind ebenfalls möglich" Äm schreibt doch bitte dabei, dass hier ein geeigneter Monitor (Röhre >=100Hz, TFT >= 200Hz) erforderlich ist um Stereoskopie wirklich genießen zu können ohne dass einem gleich Speiübel wird. Zudem ist es möglich diese Inhalte auch mit ner > 8800er zu sehen. Meine Empfehlung ist jedoch >= 260GTX
 
Ich finde die neuen Bezeichnungen einfach nur noch verwirrend. Früher war das ganz klar, GeForce 2-, 3- ,4- , 5- , 6-, 7-, 8-, 9-, Series. Dann eben die Unterscheidung MX oder TI und so und jeder wusste, welche Karte die stärkste der Serie war. Jetzt blickt das doch kein Mensch mehr.
 
@Memfis: Ist bei beiden Herstellern total einfach. ATI: Radeon HD [x][y][z]0. X ist die Generation (2,3,4,5), y ist die Oberkategorie bzgl. Leistung (höher ist besser), z ist die Unterkategorie bzgl. Leistung (höher ist besser). nVidia: GTX [x][y][z]. x ist die Generation (2,3,4), y die Leistungsklasse (höher ist besser) und für z gilt auch, höher gleich besser, aber die Nutzung von z ist unterschiedlich. Ab und zu, werden mal Chips aus einer Generation in die entsprechenden neuen Leistungsgefüge der nächsten Generation eingeordnet und kriegen einen neuen Namen, mit höherer Generationsnummer. Innerhalb der Generation kannst du aber immer ausgehen von: höher --> mehr Leistung.
 
@Memfis: 465, 470, 480... wo liegt dein Problem?
 
@Memfis: Immer nach dem Prizip "der mit dem längsten gewinnt" bzw hier mit dem höchsten. GS, GT, GTS, GTX, Ultra, Super und wie auch immer sind immer sondermodelle mit mehr Leistung als ihre "normalen" Freunde. GS ist idR. eine höherwertige Karte die wegen fehlerhafter Chipsertien heruntegetaktet wurde.
 
@Stefan_der_held: ... und je weiter Du nach "hinten" in der Zahlenkollonne kommst, desto weniger lohnt es sich einen Aufpreis zu zahlen. PCO
 
@pco: Da muss man jedoch beachten: x0000 - x5999 > Office, x6000 - x7999 > Mainsteam, x8000 - x9999 > High-End. Selbst bei aktuellen Serien ist dies nicht anders. Eine Office-Karte wird so oder so nur gegen das günstgste Modell bei HW-Ausfall ersetzt.
 
@pco: Ansichtssache. Man kann sagen, 20% Mehrleistung sind keine 40% Mehrpreis wert, aber wenn es diese 20% sind, die den Unterschied zwischen spielbar und nicht spielbar machen, dann sieht das anders aus.
 
@tinko: Bei einer modernen Kartenserie? In welcher Detailstufe? Wenn heute ein Spiel erscheint, welches nicht MINDESTENS auf einer GT9800/4850 in mittleren Details flüssig spielbar ist, ist es schlicht schlecht programmiert. "Spielbar sind 24 bis 30 FPS. 20% mehr sind maximal 5 FPS. PCO
 
@pco: Die Durchschnitts-FPS sind nicht alles, man sollte auch keine zu krassen Einbrüche haben, welche Ruckler produzieren. Wenn es in irgendeinem Test heißt: 24 FPS, lässt sich leicht vermuten: flüssig. Aber wenn nach einer Weile der Karte im Praxiseinsatz der VRAM ausgeht und es Nachladeruckler gibt oder die Karte aufgrund von anderen Limitierungen alle paar Sekunden einen FPS-Einbruch/Ruckler hat, dann hat das wenig Einfluss auf die Durchschnitts-FPS, aber eine Menge auf das Spielgefühl.. Und während sich der Unterschied in FPS zwar in % darstellen lässt, lässt sich der Unterschied zwischen Mittleren und Hohen Settings nicht in Zahlen ausdrücken, sondern ist ein subjektives Empfinden, dessen Wert (in Euro) jeder für sich selbst bestimmen muss.
 
@tinko: Sagen wir mal so: Eine 300 Euro-Karte hinterlässt bei mir vor allem einen Einbruch an ganz anderer Stelle. Insbesondere, da man bspw. dafür eine komplette Konsole bekommt, oder wie wäre es mit einem chicken Monitor? Was hebt wohl mehr die Grafikpracht, 5% mehr FPS oder ein chickes Panel mit richtig guter Qualität? Ich kenne (sehr) viele, die ihr 150 Euro 21" LG-Monitörchen mit einer 350 Euro Graka füttern. Nichts für ungut, ich war vor 10 Jahren genauso. Da wurde jedes FPS gejagt. Ich bin vor lauter Benchmarks lesen, übertakten, selber benchmarken, gar nicht mehr zum Spielen gekommen. Heute spiele ich... auf einer 9800GT und weisst Du was? Das macht Spaß! PCO
 
... war ja wohl auch nicht anders zu erwarten! Schließlich stand der Grafikchip GF100 Pate, und der ist, meiner persönlichen Meinung nach, für eine reine Gamer-Grafikkarte einfach viel zu überladen. Da warte ich dann doch lieber auf den GF104, der möglicherweise das rundere Paket darstellen könnte ...
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles