Nvidia: Erste Informationen zum neuen Grafikchip

Grafikkarten Obwohl Nvidia in diesem Jahr die ersten Grafikkarten der Serie GeForce 9000 auf den Markt gebracht hat, handelt es sich dabei noch immer um die Technik aus den alten GeForce 8000 Karten. Der G92 genannte Grafikchip basiert auf dem G80 und hat als ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Na wenn das mal gut geht. Bei den CPUs hat der weg zu den Mehrkernern ja geklappt nachdem die Grenzen der Einkerner erreicht waren. Aber bei den Grafikkarten scheinen sich mit jeder Zusatzeinheit energieverbrauch und hitzeentwicklung drastisch zu steigern. Hinzu kommt, dass selbst SLI / Crossfire Grafikkarten noch oft unausgereift arbeiten, und spiele oft nur eine einfache Karte erkennen.
 
Beachte! CPUs sind keine GPUs! "Which brings us to a point NVIDIA made later in the day: GPUs are already multicore to the point where NVIDIA likes to refer to them as manycore (as we saw Intel do with 100+ core concepts a few years back when they were first starting to push parallelism). It's a stretch for me to think of the 128 SPs in a G80 or G92 GPU as "cores" because they aren't really fully independent. But with the type of data GPUs normally tackle it's effectively very similar. Certainly no matter how you slice it GPUs are much wider hardware than any current multicore CPU." (Anandtech: "Nvidia Analyst day")
 
Okay. Aber irgendwann könnten die mal wieder Ruhig ne Pause einlegen und nicht immer neue rausbringen >.> Da kommt doch keiner mehr mit
 
@BiG-BennY: stimmt man hätte beim 386ger und der 1 Mb grafik aufhören sollen. wozu auch Fortschriftt .
 
@BiG-BennY: Nur weil du dann wieder "alte" Hardware hast? Das ist doch nicht unser Problem...musste halt neue kaufen und hier nicht rumheulen. Wie stellst du dir bitte Alan Wake oder Far Cry 2 auf einer heutigen Single GPU Karte vor? Geht nicht wirklich gut...und wozu eine dual GPU Karte kaufen, wenn der GT-200 dann vielleicht schneller ist? Strom- und Platzverschwendung!
 
@Conos: So hat er das bestimmt nicht gemeint. Aber fändeest du es nicht auch besser wenn du ir eine Graka für e4inen längeren Zeitraum, dafür aber mit sehr ausgereifter Technik kaufst.
Längere Entwicklungszeit=bessere Produkte?
Ich weiß es nicht, aber vielleicht ja doch.
Außerdem wer kauft sich den alle 3 Monate ne neue Graka, um aktuelle Games auf High zocken zu können.
 
@programmajr: Also die war mal einfach: Deppen.
 
@BiG-BennY: Ich glaube zwar zu verstehen, wie du es meinst (damit man einen Punkt hat, an dem man Sagt "jetzt kauf ich mir eine neue GraKa, weil ich nicht befürchten muss, dass die neue Generation in 2 Monaten draußen ist und die aktuelle wesentlich billiger wird.") _________
ok, der Post wurde hier abgeschnitten, also nur kurz:
Nvdia macht Pause -> keine entwicklung -> keine ernste konkurrenz für ATI/AMD -> Preis steigt_____
Vergleich mit Microsoft: Würde jedes Programm gleichermaßen ohne Portierung etc. auch auf Linux und Mac laufen könnte Microsoft nicht 150-700 Eur für Windows verlangen (Nicht OEM Version)
 
@BiG-BennY:
Du musst dir doch deshalb nicht alle 3 Monate ne neue Karte kaufen. Wenn man jetzt ne aktuelle Karte kauft, kann man die Spiele, die in den nächsten 1,5-2 Jahren rauskommen trotzdem gut spielen, ohne das man gleich eine Auflösung von 640x480 verwenden muss.
Ich denke, dass sich die Spiele sonst auch nicht auf heutigem Niveau befänden, wenn nich ständig neue Karten rauskämen.
Gruß dknetz
 
hmm... na dann warten wir mal bis Mai. vielleicht lernt ja Nvidia von VIA und bringt nicht nur leistung sondern auch öko in den Chip!
 
@dergünny: Lieber nicht von VIA lernen... die mögen ja was von Öko verstehen, aber Leistung ist für die immer ein Fremdwort gewesen :-)
 
@ MicBoss: So ein Blödsinn. Die KT-Chipsätze waren mit die besten ihrer Art.
 
@TomX: So, so... die Chipsätze waren die Besten im BSOD darstellen, aber sonst nix. Du Schwachkopf!
 
ihr immer mir eurem ÖKO.... ma erlich wer sich eine 9800er karte kauft dem is das relativ egal wie viel watt sie verbraucht weil irgendwo muss die leistung der karten herkommen :> oder wollt ihr nen hamster und nen laufrad in pc stecken ? :)
 
@omenshad: Ist ja auch egal - wir haben ja noch eine Erde im Keller...
 
@omenshad: Nein,der Hamster im Laufrad kommt selbstverständlich NEBEN den PC. Ist ein cooles Modding-Accesoire ^^. Oh, es sei denn man hat im Gehäuse ein Sichtfenster drin. Dann kann der Hamster auch rein :D
 
Der GT200 wird interssant werden, der G92 ist ja nichts außer eine weiterentwicklung vom g80. AMD bringt dennächst seinen RV770 raus, der soll doppelt so schnell sein wie der G92. Also viel Erfolg mit dem GT200
 
@merkur_5: "AMD brint demnächst heraus" ... lol. Das war ja wohl n ganz Kalter :P
 
solange die Teile nicht mehr kosten als ein mid class pc wäre ich zufrieden !!

Performance standardisieren das wäre mal was...

zu bezahlbaeren Preisen.. nicht 20000 versch. Versionen auf dem low price sektor suw unterwegs haben...
 
"Der G92 genannte Grafikchip basiert auf dem G80 und hat als wichtigste Verbesserung die Video-Engine "Pure Video HD" spendiert bekommen. "
das pure video hd machen doch auch schon die 8xxxer __ oder ??
 
@dcom: Ja. Aber "NEU" und "BESSER" klingt besser im Marketing.
 
SLI läuft gut !

nur der Stromverbrauch ist "krank"

Habe 2 x G80 GTS im Einsatz
 
Was soll ich den sagen mit zwei Ultras und einem OC Quad NT ist ein 850W Teil.. weniger Stromverbrauch für mehr Leistung find ich gut. mfg
 
@SOLDIER: Wenn du weniger Stromverbrauch bei mehr Leistung willst, kauf dir eine gute Graka von ATI. Die sind super und haben modernere Technik.
Kommentar abgeben Netiquette beachten!

Weiterführende Links