Nvidia GeForce 7800 GTX offiziell verfügbar

Hardware NVidia hat wie bereits mehrfach angekündigt heute die sofortige Verfügbarkeit von Grafikkarten, die mit dem neuen G70-Chip ausgestattet sind, bekannt gegeben. Der neue Chip soll eine neue Ära von Realismus in Computerspielen einläuten. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
zu teuer wie immer :P
 
Wer is den so Dusselich und kauft ne graka für 550 Euro
 
@NeverRenderingStory: solche Leute gibt es genug!!! die 6800 hat zu Anfangs auch so viel gekostet und ist weggegangen wie warme semmeln!
 
Für im Schnitt 30% Mehr Leistung 100% mehr Geld zu zahlen.. darin sehe ich keine relation.
 
luxus hat ebend seinen preis :D
 
@.Omega.:Jemand der keine Heizung hat, oder jemand der auf nichts als heiße Luft steht!
 
@snooktag: Ja bitte?
 
@nixn: bau dir lieber ne heizung ein, is billiger :P
 
immer diese qualifizierten kommentare.... das ist doch nur die einführung des chips, wer ihn jetzt braucht soll auch dafür zahlen (+entwicklung) und wer das nicht tut der gibt sich mit seiner karte zufrieden und hält dich schnauze!
 
@nixn: trotzem kann man sich drüber auslassen weil man so neidisch ist und das tollste haben will :-)
 
und es gibt immer ein paar die ihn bezahlen, ne 6600GT reicht doch zum zoggn locker aus und die kostet 170€. aber is ja bekanntlich gut fürs ego wenn man statt 60frames 100 hat
 
@macbeth_xp: Naja, ganz so kann mans auch nich sehen. Wenn man bei hohen Details 60FPS haben möchte braucht man für einige Titel schon eine 6800XX.
 
@macbeth_xp: war auch nicht so ganz objektiv gemeint von mir :-)
 
bf2 läuft auf meiner X800XT (CPU 3700+ san diego) mit allem gedöhns (6x MSAA & 16x AF) gerade mal flüssig, ja bf2 ist seit heute auch legal erhältlich http://tinyurl.com/dcbd3
 
@macbeth_xp: na ja ich warte noch ne weile dann kostet die7800 gtx auch "bloß" noch 170€ :-)
 
@macbeth_xp: ist gut fuer den penis :-)
 
Also ich werd von meiner 6800er Ultra nicht so schnell umsteigen. Der Preisverfall der 6800er Reihe war übelst. Knapp 50% in 6 Monaten... Einfach abwarten bis Weihnachten dann bekommste den Scheiss hinterher geschmissen. Und für 300€ würde die Performance im Vergleich zu jeder anderen Karte (mal von den Features abgesehen (Shader 3.0, HDR etc.)) sich auszahlen. Schönes Geschenk vom Weihnachtsmann.

@macbeth_xp : es soll sogar noch Leute geben die 3D Rendering betreiben oder nen Photoshop zuhause haben, Sprich damit arbeiten dürfen/müssen, da isses schon angenehm wenn das Ding zackig alles abwickelt und du statt 8h Arbeit nur 4h investieren musst.

Wer viele Details beim Zocken haben möchte kommt um eine teure Karte nicht drumrum. Was bringt es mir FarCry oder HL2 zu spielen wenn das Game nachher aussieht wie mit ner Voodoo1, übertrieben gesagt? Die Details sind natürlich nur das Sahnehäubchen und nicht für jeden elementar.

 
mmmh preisfrage - wieviel strom frisst die? wieviel strom anschlüsse hat sie und wieviele einsteckplätze wird sie wohl brauchen???
leistung hat das ding sicher ausreichend (natürlich die aktuelle generation ebenso) aber in puncto ergonomie kann diese monster hardware nich punkten. stromfresser, platzfresser - daher nicht für barebones geeignet. wird zeit das man dahingehend mal was erarbeitet was effizient kühlt, wenig platz brauch und nich so viel strom frisst.
 
@Rikibu: bei den kühlkörpern stimm ich dir zu!
 
@Rikibu: Sie braucht 120 Watt, also 30 mehr als die Geforce 6800Ultra...

Mir iss das sowieso so teuer und Internet schafft auch meine TNT2 Ultra noch locker :D
Und mein PII ist sowieso top *gg*
 
@Popel: Nein es sind keine 120W sondern 95W !
 
Wie schaut es den mit einer AGP version aus?
 
@Tomelino: schlecht siehts aus, weil agp bald diese datenmassen nicht mehr förden kann. darum wird es wohl kaum noch high end karten für agp geben
 
@Tomelino: "AGP-Variante mit Bridge-Chip ist ebenfalls geplant". Wobei bei dieser Karte AGP wohl durchaus an seine Grenzen stoßen wird. Dies wird dann wohl auch die letzte Grafikkartengeneration sein, die für AGP erscheint. Wobei AGP laut den ursprünglichen Planungen der Grafikkartenhersteller, besoners bei ATI, schon viel früher aussterben sollte, denn selbst die Radeon X8xx sollte ursprünglich ja nicht für AGP erscheinen (wobei dieser Schritt nun wirklich zu früh gewesen wäre).
 
Für jemanden der zuviel Geld hat sicherlich was Tolles, und für die Sparsamen nur gut, da die älteren Grafikkarten wieder billiger werden....
 
Mein jetziger Rechner wird in 2 jahren noch hier stehen.Wer es sich leisten kann sich so eine teure Karte zu kaufen kann es doch tun.Ich werd es ja bald wissen wie die Karten sin hab da jemanden im Bekanntenkreis der sich immer das neuste kauft und so wird es auch jetzt sein.

MFG
 
@Powerreptile: 3dcenter haben gerade ihren artikel veröffentlicht http://3dcenter.de/artikel/nvidia_g70_benchmarks/ ___ ist aber noch nicht komplett
 
wieder mal ein stromfressernivida karte:-)
 
Offizieller Treiber zur neuen GeForce: http://www.nvidia.com/object/winxp_2k_77.72.html

Kartenpräsentation: http://www.nvidia.de
 
http://www2.alternate.de/html/shop/productDetails.html?artno=JAXV10&

jo die treiber ohne karte ????? von 550 euro
 
hier nochn bechmark für die geforce!!also so viel schneller is die auch nicht zur ati x850xtpe von 3fps- 15 is ja nicht so der hit für ne neue grakaund 3dmark zählt eh nicht !! da hoff ich doch mal das ati diesesmal alles gut macht und nen schönen vorsprung da rausholt mfg http://www.gamestar.de/magazin/specials/hardware/26253/7.html
 
omg nach den Benchmarks is die nicht wirklich schneller als ne ATI X850 XT PE
Ich glaub da hat ATI die Chance Nvidia mal richtig den Marsch zu blasen
 
BA Baracus

Genau so siehe ich das auch.
 
Guru3D haben auch einen guten Test ersrellt. Hier der Link: http://guru3d.com/article/Videocards/229/
 
Also wer sich die Karte kaufen will,bitte schön: Hier noch ein Link: http://geizhals.net/deutschland/a154750.html
 
nvidia hat aus gedient, wenn ati´s karte kommt da wird man kein netzteil mit 400 watt brauchen, und alder mal ehrlich ich hab kein geldscheisser zuhause um mir irgnend eine graka von nvidia zu leisten geb ich lieber bisschen weniger geld aus und hab die gleiche wenn nicht sogar bessere leistung als so ne nvidia, und bald kommt eh cross fire raus dan kann nvidia gleich den laden schliessen
 
@user112233: du hast von tuten und blasen keine ahnung stimmts?
 
@user112233: du muss ich LiveWire uneingeschränkt rechtgeben... Wo is denn die Shader3 unterstützung in der tollen Ati Karte? Mal ganz von CineFX 4.0 abgesehen? Mit ersterem hat Ati es total vermasselt und es einfach kurz vor Produktionsstart wieder rausgenommen.
 
Auf die eierlegende Wollmilchsau kann ich wohl noch ne Weile warten. Ich will keine Heizung - Ich will keinen exorbitanten Stromverbrauch(habt ihre alle ne Stromflat? Hotel Mama?) - Ich will von der Graka auch nichts hören - und ich will eine die man auch eine zeitlang nutzen kann (das heißt technisch Dx9/10 als auch leistungstechnisch.
 
@Darkone: es gibt kein dx10 aber das zeigt mir wie toll du aufpasst (stichwort WGF)
 
@Darkone: Mach in doch nicht gleich fertig
 
@Livewire: Hab ich das behauptet? Ich habe nicht nur vom Augenblick gesprochen, weil es diese "Sau" eben zur Zeit nicht gibt, vielleicht irgendwann wenn Dx10 da ist, also in X-Jahren. Naja wieder mal zuviel Schall und Rauch für euch verschwendet...
 
@LiveWire: ich glaube was Darkone sagen wollte ist, dass er damit auch noch DX10 betreiben will wenn es mal rauskommt ohne wieder ne neue kaufen zu müssen.
 
@vvjy2k: noch eine zusätzliche Anmerkung wäre auch zu erwähnen, dass es sich hierbei um eine GT(X) Variante handelt und noch keine ULTRA/EXTREME/MEGA. Zudem kann keine ATI Karte im Bezug auf 3D Rendering in Programmen wie 3DSMax oder Cinema4D einer Nvidia in der Performance trotzen. Ich kann auch nicht verstehen warum jedem immer einer abgeht wenn FPS dran steht. Zeitschriften wie die Gamestar dienen nicht als Referenz für Applikationen sondern Spiele heisst ja auch nicht APPZStar :-). Nvidia gibt in diesem Segment uneingeschränkt den Ton an. Mir ist zumindest auch kein Model von Ati bekannt das den ProBusiness Sektor abdecken kann wie ne Quatro oder 7800 welche eben neben dem SpieleSektor auch gewerblich einsetzbar wäre. Über den Preis lässt sich streiten und es geht mir auch gegen den Strich das diese neuen Karten so teuer sind. Wer aber damit arbeitet gibt da gern Geld dafür aus, um Zeit und wiederum dadurch Geld einzusparen.
 
Schonwieder diese dummen Kommentare! Wenn man keine Ahnung hat, einfach mal F***** halten. Der Stromverbrauch wurde verbessert gegenüber der 6800, und auch die Lautstärke sowie die Temperaturentwicklung verringert! Also lasst eure Vorurteile!!! Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/nvidia_geforce_7800_gtx_sli/
 
ich glaub den meisten kritikern hier geht es um den neid, diese karte nicht sofort besitzen zu können. andernfalls würde ich vieles nicht verstehen. einen neue karte ist wie ein neues leben...! ich stimme vvjy2k zu. wer sie braucht wird den geldbeutel öffnen, wer sie sich leisten kann wird ein paar scheinchen wandern lassen. der rest ist entweder vor neid oder vor geltungsdrang zermürbt und findet sich in einer gleichgesinnten gesellschaft wieder. in diesem fall lautet der verein "anti-nvidia-geforce 7800-fan-club"! die einführung dieser karte brint eine preissenkung aller anderen geforce karten. man bedenke...geforce 6800GT und 6800ultra kosten in der agp-variante rund 100 euro weniger als einen monat zuvor! schön, dass es dich gibt...
 
Naja spare ich halt ne Weile um mir die leisten zu können. :-)
Gibt es auch wieder eine GT Variante wie bei der 6800er Reihe?
 
@Fox123: das ist die GT(X) Variante die Ultra soll erst in 2-3 Monaten auf den Markt kommen... Wahrscheinlich weil sie wieder den globigen Schrottlüfter der 6800er drauf bauen müssen. Erstmal noch ein Weilchen vergehen lassen 2 unnütze Features mehr einbauen 5 Hz höher takten und den alten Kühler als wunderheiler drauf klopfen :-).
Wobei ich hab ausser meiner Graka keine anderen Karten mehr im Recher, wegen mir kann die auch alle PCI Plätze verbraten.... wenn sie mal nen ordentliches Kühlsystem entwickeln würden
 
Uiuiuiui soviele qualifizierte Aussagen :) Liebe Leute vergesst mal nicht, daß der limitierende Faktor die CPU ist und nicht die GPU. Das diese Internetseiten alle mit dem 4000+ testen, anstatt einen FX Chip oder einen 4800+ Dualcore heranzuziehen, ist für mich nicht ganz verständlich. Desweiteren muß man fast alle Internetseiten rügen. Denn der Gebrauch von CPUlastigen Benchmarkprogrammen bzw Spielen ist einfahc nur ein Witz. Das gleiche kann an beim Review z.B. auf Hartware.net sehen. Dort wurde von den Usern ein Quake 3 Benchmark gefordert. Zum totlachen. Klar gibt das kaum mehr fps, da die CPU am Ende bei einem so alten spiel die Hauptarbeit übernimmt. Die GPU hingegen langweilt sich. Wie auch immer Seit nicht so fps/benchmarkgeil. Meiner Meinung nach hat Nvidia wieder auf den richtigen Weg umgeschwenkt. (So wie Intel es noch vor sich hat. Aber bemerkt haben sie es mittlerweile auch schon, daß man nicht mit GHz und 130Watt Abwärme Käufer gewinnen kann.) Denn das ist doch das tolle. Immer mehr Menschen kennen sich immer besser aus. Folge: Eine besser informierte Kundschaft und Hersteller die sich mehr anstrengen müssen.

LG
corn
 
hm weiß ja nicht,habe meine Athlon 64 4000+ auf 2,9Ghz laufen,....normal taktet sie mit 2,4Ghz..Und was den preis der Graka angeht,habe für meine 6800 Ultra vor ein paar monaten auch noch 480 bezahlt.Zu 550 is der unterschied ja nicht so hoch,...

Nur die frage ist,Laufen die 7er auch schneller als 2x 6800 Ultra !? Bin am überlegen ob ich mir lieber 1 7er zulege oder lieber noch eine 6800 ultra,..!?!?!?!
 
@hardstylebabe.de: Schneller schon, nur die Frage ist was willst du damit machen?
Zocken? oder Arbeiten? ... Beim Zocken kannste dann gleich wieder 2x 7800er reinbauen. Die Leistungssteigerung liegt mit 1x 7800 ca. 10-35% höher als bei ner 1x 6800er. Dafür aber eben CineFX4 und nen Shader 3 der in der Leistung auch um 30-50% schneller arbeitet. Im Moment gibts leider nur noch keine Spiele (zumindest kenn ich keines) welches diese Features unterstützt.
Beim Arbeiten siehts ähnlich aus auch nur max. 50% Leistungsgewinn gegenüber der Vorgängerversion. Je nach dem zu was du die Babies benutzen möchtest. Bleib lieber noch bei deinem 6800er Array das taugt. Mehr Features brauchste nicht. Wenn dann mal paar Spiele die neuen 7800er Features richtig untersatützen kommt sowieso die 8900UTX(G72 od. G75)
 
also wenn 7800 rauskommt wird die 6800 automatisch noch billiger und fuer 200€ kann man sich auch getrost zweite leisten. aber hab gehoert, dass eine 7800 (gtx zumindest) schneller sein soll, als 2x6800 ultra sli. und das von mehreren unabhaengigen quellen.
 
@Empath: das kann nicht korrekt sein, dann würd ich gleich 4x des ding verbauen...
du meinst wohl eher ne 7800GTX im vergleich mit 6600GT das mag sein aber nicht im vergleich zu ner Ultra oder Golden Sample von Gainward... Kann aber morgen mehr dazu berichten dann haben wir eine hier und ich werd das ding mal im 3dsmax und cinema 4d antesten
 
Naja ich zocke :) Wobei mit einer 6800 ultra und 19zoller 1280x1024 mit höchsten einstellungen 8x antia. und 16 mal anisoptro. filtern alles flüssig läuft hm.

Das komische ist nur das die 6800 Ultra von Gainward bald nirgendwo mehr zu finden sind...mix Computer hatte sie erst noch im programm für 330 ebay sind auch nur noch wenige hmpf,..
 
@hardstylebabe.de: Lol ja ich weiß hab gestern meine beiden bei ebay verklopft, allerdings noch agp.... und selbst für die noch nen guten preis bekommen. nun bin ich echt am zweifeln was ich mit meinen beiden pcie machen soll? Auch verklopfen solange es Kohle dafür gibt? oder behalten bis die 7800er nen humanen Preis erlangt haben? Allerdings arbeite ich damit hauptsächlich. Wegen den beiden Games die ich mein eigen nenne die DX9 haben (HL2 und Panzers) lohnt es sich definitiv nicht. Hab bei beiden über 160 FPS in allem voll aufgedreht 8x + 16x...

Aber immerhin ist zu begrüssen, dass die ATI Fraktion nach anfänglichem getönse verstummt ist :-) *freu*
 
eine mir geben wenns ne Gainward is :)
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles