Nvidia stellt Ende des Monats neue Grafikchips vor

Hardware Der Grafikkartenhersteller Nvidia wird auf den Computex in Taiwan, die Ende des Monats beginnt, seinen neuen G70 Grafikchip vorstellen - sagen laut DigiTimes taiwanesische Mainboardfabrikanten. Die Chips werden bei TSMC im 110 Nanometer Prozess ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
doppelte leistung vonna gf6800, O.o, FETT^^
 
@Jedi123: fette leistung zu einem fetten preis ^^.
aber doppelt so schnell wie eine normale 6800 ist schon ganz gut.
da muss ati erstmal dagegen halten.
 
@kuhlschmid: doppelte Leistung wird doch immer von den Hersteller behauptet und am Ende sind es nur paar Protentpunkte.
 
@Jedi123: "Doppelte Leistung" heist _nicht_: Nimm spiel X und tausche NV6800 gegen die neue und erhalte statt 100 fps jetzt 200 fps ...
 
cool
nun schon doppelt realistisch
die gf6800 ist schon super
aber reicht die nicht langsam aus ?

aber irgenwann muß es doch nicht weiter gehen ?
oder kann man dann in den Monitor nach den Objekten greifen
 
@eltonno: es wird immer weiter gehen, Guck dir mal die Grafik von Spielen vor 5 oder sogar 10 Jahren an. In 10 jahren wirst du über FarCry @ Co nur lachen!
 
@H4sche:

Das wage ich stark zu bezweifeln, denn irgendwann kann die Darstellung für das Menschliche auge nicht detaillierter werden. Allerdings kann an der Sichtweite noch gefeilt werden :)
 
@eltonno: jop, wie hört beim fernsehr auf, wenn die gerechnete grafik diesen standart erreicht, gehts nicht weiter. realistischer als das fehnsehbild o. fotos geht ja nun mal nicht. Um sowas zu erreichen sind derzeit großrechner nötig die einzelbilder rendern, sowas wie alien vs predator, wenn wir dahin kommen wollen, dann dauert das noch scheiß lange. selbst U3 is von realistisch noch meilen entfernt. die unterscheide von den game-engines werden so gering werden, das es selber nicht mehr auffällt. die entwicklung is ja nun das man physik-chips einbauen will, kommt man auch nicht drumherum, wenn es um realismus geht. es gibt technologien die theoretisch unendlich viele polygone darstellen können, man brauch halt nur dann die grafikkarten die die realistischen texturen draufhaun und da muß man noch gewaltig entwickeln um das zu erreichen. die derzeitigen grakas liegen ca. bei 20% der leistung um das zu bewerkstelligen (gerechnet im cluster). ich denk mal 2015 2020 kann man schon staunen, aber bis dahin werden noch viele grafikkarten-generationen kommen und gehen.
 
Aber welche GeForde 6800?

Die normale 6800
Die 6800GT
oder die 6800Ultra ?
 
@ConiKost: hab ich mich auch gefragt.
wahrscheinlich ist dann die neue ultra doppelt so schnell wie die jetzige ultra.
und die neue gt doppelt so schnell wie die jetzige.
 
@ConiKost: Es geht um Den Chip!! Der ist bei allen 6800er der Selbe, bloss dass die Ultras Fehlerfrei auf höheren Taktraten laufen und besseren Speicher verbaut haben! Daher haben NV GraKas so enormes Overclock Potential
 
Steht doch da: die normale , d.h. die GF 6800.
 
also hat das teil 24 pipes und somit 2 quads mehr als die 6800 ultra
 
@LordDeath: Das ist wohl eine reine Vermutung..."doppelte Leistung" muss nich gleich doppelt so viele Pipes heissen...da war doch auch mal was mit Taktung und so weiter...mal drüber nachdenken!
 
@Benze: das wird nur ein refresh chip der nv40iger reihe. und ohne gravierende etwas zu ändern wird es schwer, die quads zu zu schalten und dabei gleichzeitig den takt hochzuschrauben. ich halte es für realistisch, dass man nur eine dieser möglichkeiten zum machbaren hält und daher hat man sich für das einfachere entschieden, um mehr leistung raus zu bekommen: mehr pipelines. also soviel spielraum seh ich im takt wirklich nicht. und der speicher wurde diesmal auch nicht mitbedacht. also lasst uns nicht über blödes marketinggeblubber von irgendwelchen mehrwissenden diskutieren und lieber bis ende mai warten :)
 
Und die verbraucht auch doppelt so viel Strom und hat auch die doppelte Verlustleistung und Abwärme und braucht deshalb doppelt so laute Kühler. Yeah! Ich freu mich. Vor allem an 4 Stromanschlüsse auf der Graka und ein Satz Ohrenschützer :)
 
@mokak:
Warum doppelt so laut ?
Da bau ich doch einfach den Kühlkörper meiner Wasserkühlung von der alten VGA um. Und ruhe ist :P
 
Ist ja alles schön und gut, nur was sagt der Stromverbrauch!
Die sollten mal langsam drüber nachdenken mehr Leistung mit weniger Strom.
Ich selbst habe eine Geforce 6800U aber die is schon hungrig wie sonstwas.
 
für 589€ hol ich mir lieber nen zweiten rechner als "nur" ne grafikkarte...
 
@I Luv Money: Der Preis ist doch net hoch. Die kosten und kosteten immer am Anfang über 500 EUR in den letzten Jahren. Schon die GF5 FX Karten.
 
Zunächst ist es mal ein Papiertiger. Doppelt so schnell wurde zwar bei GF6 tatsächlich erreicht, war also net nur Marketing Geschwärtz, aber das muss nicht immer stimmen. Laut Quellen und Gerüchten im Internet soll er ja 24 Pipes haben, also dürfen wir mit vielen Abspeck-Karten mit weniger Pipes rechnen. Ist eigentlich schon der Hammer, wenn man überlegt, wie lange wir mit 4 und 8 Pipe auskamen.
 
@The_Jackal: die Vorgängerserie war ja auch nicht so der Bringer
 
Wahnsinn, wie schnell die Entwicklung ist! Jetzt habe ich mir erst zu Weihnachten eine Top-Karte gegönnt und kaum 1 Jahr später wird die schon wieder zur "alten Generation" gehören und nur mehr halb so schnell sein, wie die beste Karte am Markt.
Da muss ich mich beim zocken beeilen, damit ich noch möglichst viel auf einer Top-Karte spielen kann :-)
 
Leute was jammert ihr eigentlich immer über die Preise ??? - es ist doch bei jeder neuen Generation so das die in etwas in der gleichen Preisklasse liegen und sich ein Kauf eh erst nach 1/2 bis 1 Jahr lohnt (zumal man erstmal nen game braucht das die auch wirklich ausreitzt wie UNreal 3 oder so *g*)
 
Sorry, finde ich voll bekkloppt. Was soll man mit so einer Karte ? Ich meine, derzeit wird ja nichtmal die 6800 Ultra von irgendwelchen Spielen gefordert. Naja, der G70 wird wohl auch erst mitte 2006 zuhaben sein. Also können sich die Spieleentwickler ja nochwas einfallen lassen. Ich seh schon beim 3dmark06 gibt nurnoch 100 punkte für meine 6800 GT :(
 
@Riplex:"Was soll man mit so einer Karte ?"
ich bin froh das die industrie auf entwicklung neuer produkte und technologie setzt, sonst hätten wir noch immer einen xt ! es kann doch keiner etwas gegen neue teile haben ?
 
@inHeaven:
Ja, ich bin ja auch für die Entwicklung, aber muss es den wirklich jeder Jahr ne neue Grafikkarte bzw. Grafikchip sein ?
 
@Riplex: solange es der firma gut geht und sie es finanziell vertragen, warum nicht! wir leben nicht solange das wir uns es leisten können 10 jahre mit derselben gurkentechnologie herumzuwerkeln
 
...dann sollte ich mit dem Kauf einer neuen GraKa wohl doch ein wenig warten. Denn dann werden die aktuellen Modelle wohl (um einiges) billiger.

Vielleicht aber auch nicht!? Denn sonderbarerweise kostet eine 5900XT immer noch kaum weniger als eine 6600GT !?!
 
das einzige was mir daran gefällt das dann die "alte" 6800 Biliger wird. Für mich ist es eh eigentlich wurst da ich immer nur mit 1024x768 Spiele da reicht meine 6600GT locker aus.
 
hmm... ich weiss gar nicht was sich hier einige ueber die Preise aufregen... ihr muesst euch dieses mit verlaub... mordsdinger doch einfach nicht hollen :), aber irgendwann wenn ihr sie dann wirklich mal in den haenden habt, dann werdet ihr euch nicht mehr aufregen :)

und BTW: komme ich hier mit meiner hochgezuechteten FX 5200 gut zu recht, aber mir kommts nur recht, denn dann wird die 6800 Ultra hoffentlich n bissl billiger :)
 
psylix, ne Radeon 9800 pro kriegst Du inzwischen für relativ wenig Geld, und das ist immer noch eine sehr gute Graka. :)
 
jo, ohne SM3 das für zukunftige spiele schon fast vorraussetzung ist :P
 
Vielleicht ist damit auch die Leistung gemeint die die Karte verbraucht :-). Eine G70 kann dann nur noch mit einem Kühler betrieben werden der drei oder vier PCI-Slots braucht :-(.
 
kann man sich getz e net leisten!
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.