Weitere Informationen zur Nvidia GeForce 8800 Serie

Hardware Nachdem in der vergangenen Woche erste Bilder von Vorserienmodellen der neuen Grafikkartengeneration aus dem Hause Nvidia aufgetaucht waren und bekannt wurde, dass es sich dabei um die ersten Grafikprozessoren mit voller DirectX10-Unterstützung ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Aber vom Stromverbauch gibt´s keine Angaben! - Schade!
 
@Fuchs: doch, hier: http://dailytech.com/article.aspx?newsid=4442
 
@Witi: THX!
 
Wow, 800 Watt bei SLI... da freuen sich die deutschen Energieprovider :D
 
@Fuchs: hab den text entsprechend ergänzt.
 
@Witi: Da kann ich auch gleich ein Kraftwerk anzapfen. 400W für eine Graka das kann ich wohl in meinem Barebone Vergessen. Da brauch ich echt nichts anderes mehr an elektrogeräten, da diese graka den Stromverbrauch von Mikrowelle, Fernseher, etc ersetzen würde. Meine frage gibt es strom in den staaten zum nulltarif, dass die Amis solche Karten entwickeln??? Rolleyes
 
@Skip_2: Zwar nicht zum Nulltarif, allerdings extrem billiger. Dort schaltet man Rechner & Co erst gar nicht mehr ab.
 
@ Skip_2: Die 400W (andere Quellen nennen 450W) beziehen sich auf das Rechner-Netzteil. Die 400W sind damit die Obergrenze für das komplette System incl. Grafikkarte. Die 8800er GTX wird damit wohl bis zu 200W unter Last brauchen - was auch zu den 2 zusätzlichen Stromsteckern der Prototypen passen würde (max. 75W über PCIe plus 2 x 75W pro zusätzlichem Stromstecker = 225W als absolutes Limit auf allen drei Stromschienen).
 
@X.Perry_Mental: Wo steht das??? Da steht unter Last sollen die Karten im SLI Betrieb 800Watt brauchen. Das ist 400 pro Karte. Ich habe gedacht, dass dx10 weniger hardwareanforderungen benötigt?!? Davon sehe ich hierbei aber nichts! Aber wenn du deine these wiederlegen kannst, so bitte ich um die Bezugsquelle
 
@Skip_2: Hier spricht man von einer 400W-PSU für eine 8800GTS, 450W für die GTX, sowie 800W-PSUs für SLI-Betrieb: http://www.dailytech.com/article.aspx?newsid=4442
Wohlgemerkt PSUs, also PC-Netzteile. BTW: Das ist die einzige Original-Angabe die durch die Presse geht, Inquirer, Register, VR-Zone und die anderen üblichen Verdächtigen bedienen sich dort.

 
@Skip_2: *lol* Bisschen gesunden Menschnverstand bräuchte man schon beim Lesen von Deutschen und Englischen Texten... Mal davon abgesehen, dass 400W für eine GraKa etwa utopisch ist, so hat X.Perry_Mental vollkommen Recht, dass es sich um das Rechner-netzteil handelt, welches mindesten ein 400Watt NT sein sollte (was aber schon Standard heute ist). Die Leistung der G80-GraKas sollte also noch unter 100 Watt liegen (Vgl.: G70 um die 40-45 Watt) ... Rechne Rechne ... gehe ich von maximal 90-100 Watt (was sehr viel ist, finde ich) aus... MfG Fraser BTW: Wie komme ich auf den Wert? Ganz einfach, in der G70 Serie war ein 350 Watt Netzteil Pflicht... Nun sind es 50 Watt mehr, die 'gefordert' werden...
 
Und was wird das Teil an Strom fessen? 150Watt? :)
Edit: da war einer schneller.
 
endlich haben will
 
150 watt auf alle fälle

wird aber wie bei der 7ener serie sein, das sich erst lohnt die karten zu kaufen, wenn die 8900er serie im handel ist
 
Kostet die Karte auch soviel wie ein ganzer Rechner ?
 
Bei der nächsten Serie, also 9800er wird dann gleich ein kleines Kraftwerk mitgeliefert, so das ein reibungsloser Betrieb ohne Durchbrennen der Hausinternen Panzersicherung möglich ist. :)
 
@pico696: Die 9800er hab ich schon sie verbraucht sehr viel weniger Leistung, ich hab "gerademal" ein 350W NT (achja die 9800 ist von ATI xD )
 
Meiner Meinung nach geht da die Entwicklung in die völlig falsche Richtung. Das Schlagwort der heutigen Zeit heißt: Stromsparen !
Auf die Art hat ja Intel endlich auch AMD abgesägt.
 
@Dario: Von machen und tun keine Ahnung. Das steht bei dir fest.
 
@Micha598: das heißt "von tuten und blasen"...^^
 
@ kabuko: boulette heisst ja auch frikadelle 8P
 
@Mich598: Wer keine Argumente liefern kann muß sich wohl auf Prosa beschränken. Fakt ist, dass bei den Grafikkarten von Nividia wie auch von ATI der Strom einfach mal verbraten wird. So lange Du bei Mutti wohnst, ist klar - stört das ja auch gar nicht...
 
Die aktuelle ATI hat da schon höhere Taktraten, sie gehen wohl auf Shadereinheiten. Und wenn es echte Angaben sind, dann... wird das eine SEHR schnelle Karte. Bin mal auf die anderen Neuerungen gespannt (AA + HDR? usw.).
 
@d2kx: es geht um DX10 nicht um die geschwindigkeit o0
 
jo cool bald hab ich nen extra netzteil für die gpu oder was :/
 
die Spinnen ja, 400 Watt für eine Karte und 800 Watt für 2 Karten. mir wäre es lieber wenn die Grafikhersteller nicht nur auf den Speed und Features schauen sondern auch auf den Energieverbrauch. bei den heutigen Strompreisen ist das ja purer Wahnsinn. habe erst vor kurzem ein 500 Watt Netzteil gekauft, das wird dann wohl nicht mehr reichen für 1 Karte oder ?
 
backsteinkandidat XD....
 
Ich habe auch tag und nacht mein Rechner laufen, aber wenn ich in zukunft so eine Hardware verbauen sollte wird das wohl nichtmehr gehen oder ich gewinn im Lotto =)
Aber ist schon verständlich irgendwoher muss ja die Power kommen. Bin mal gespannt wie diese graka in verbindung mit DX10 laufen wird.
 
bei dem Stromverbrauch muß mein Hamster viele Runden drehen
 
gibt es schon News zu den neuen ATI Karten für dx10 ?
 
na ja vor ein paar jahren war das prob beim online daddeln, dass die internet gebühren zu hoch waren (keine flat und dsl), in 2 jahren kann man nur noch 2 stunden am tag spielen weil man sich den strom nicht mehr leisten kann :-)
 
Ich verzichte wieder darauf und warte auf nächste Generation gegen (Fress)Stromverbrauch wieder. Ich kann ohne AA, AF und hohe Auflösung leben. (-:
 
Die weltweit verfügbaren Energieressourcen sinken mit jedem Tag. Wenn ich dann lese, dass die kommenden Grafikkartengenerationen von Nvidia und ATI schon wieder mehr Strom verbrauchen sollen, kann ich nur den Kopf schütteln. Intel hat's doch auch mit seinen Prozessoren geschafft, die Performance zu steigern und gleichzeitig den Stromverbrauch zu senken. Da könnten sich andere Hardware-Entwickler mal ne gehörige Scheibe von abschneiden. Viele haben -den Energieverbrauch betreffend- wirklich die Einstellung "Nach mir die Sinflut".

Zumindestens habe ich mal irgendwo gelesen, dass bei der Entwicklung der übernächsten Grafikkarten-Generation der Stromverbrauch durch Optimierung der Architektur reduziert werden soll. Daher werde ich diese Grafikarten-Generation auf jeden Fall boykottieren bzw. auslassen.
 
@macp: Du hast völlig Recht. Es ist obszön, sowas verkaufen zu wollen - oder es zu kaufen. Die Karte an sich wird schon teuer sein, aber der Hammer kommt mit der nächsten Stromrechnung. Man sollte sich mal auf der Zunge zergehen lassen, wieviel auch nur 400 Watt schon sind. Das ist Energie, die aus dem Boden geholt wird zum Klimawandel beiträgt.
 
Also unterm Strich geht mir mal folgendes sofort durch den Sinn: Meinen CRT habe ich um Strom zu sparen gegen ein TFT getauscht, ein C2D werkelt im System um selbigen zu sparen, ja meistens nutze ich nur noch das Notebook wegen den geringen Betriebskosten...ganz nebenbei habe ich alle Birnen in der Wohnung gegen Energiesparlampen getauscht und alle Geräte an Ein/Ausschaltbare Steckerleisten gehangen um dem Verbrauch im Stand-By Betrieb entgegen zu wirken. Die Menschheit macht einen riesen Bogen um Radial/Rippenheizgeräte mit Stromaufnahmen von 1000 - 2000 Watt und verdammt alte Küchengeräte die nicht modernen Anforderungen entsprechen. Was machen wir...? Den PC zum grössten Stromfresser im Haushalt erkoren und am ende des Jahres dumm aus der Wäsche schauen wenn die Stromrechnung 300,-€, 400,-€ oder noch mehr € gestiegen ist. Klar dass das nur die Schuld der Energieanbieter ist und nicht die eigene Unachtsamkeit, oder? Mir soll bitte niemand erzählen das für ein "rundes" Multimediasystem 800 bis 1100 Watt Netzteile von nöten sind bzw. nötig sein werden müssen. Wieviel Watt Stromaufnahme hat ein X360 oder Gamecube NT? ...um mal nur bei dem "spielen" zu bleiben :-)
Meiner Meinung nach eine komplette Fehlentwicklung...aber was weiß ich schon...
 
http://images.google.de/imgres?imgurl=http://www.3dnews.ru/_imgdata/img/2006/10/01/28295.jpg&imgrefurl=http://www.3dnews.ru/news/nvidia_g80_pervye_fotografii-185790/&h=278&w=500&sz=30&hl=de&start=7&tbnid=MEZTlHJroaqxAM:&tbnh=70&tbnw=127&prev=/images%3Fq%3DGeforce%2B8800%26svnum%3D10%26hl%3Dde%26lr%3D%26sa%3DN

wenn ich mir diese Bilder angucken sieht das schon wieder verdächtig nach Geforce 5800 Ultra FX Flow aus, na hoffen wir das beste :S
 
Die soll mit einem externem Netzteil kommen, hab ich gehört.
 
ANGEBOT: nVida Geforce 8800 GTX mit SLI! Heizkörper gratis! Was will mann mehr?!? Spart Heizkosten um ein vielfaches!!!! LOL (8-P)
 
@nikivista2005: Mein Nachbahr schaltet gar nicht mehr die Heizung an, is so'n Freak,hat immer die neuste Hardware, sein Zimmer ist durch den PC schon heiß genug (dazu halt noch andere Elektro-Teile im Zimmer...) rofl
 
Naja ich hab mir mehr vom ersten G80 versprochen.. naja ich warte sowieso noch n gutes jahr bis ich mir mal wieder ne neue karte kaufe.. aber dann aufjedenfall mit GDDR4 speichern und vllt auch mit nem besseren stromverbrauch.
 
@conroe@3.7GHz: vieleicht haste glück und der zweite G80 is schneller ... löl o man
 
das ist Hart!

Aber ich schätze das nur die TOP Graka solche Energiemengen verschluckt und das auch nur unter ganz speziellen Bedingung. Die GTS wird dann wohl wieder "normal" auf dem niveau einer 7900GTX sein.

Zu den Rechnungen: alle Grakas ab 7900GS verbrauchen in spitzen mehr als 75 Watt, sonst bräuchte man keinen Extra Stecker.(auch alle 7800ter)

Die 50Watt für ne 7900 ist unterdimensioniert. Sie lieghtr bei ca 85Watt. die 8800GTX wird so ihren 150Watt haben.

Achja der G80 wird HDR+FSAA gleichzeitig unterstützen, FSAA soll in Hardware implementiert sein und eine bessere Qualität als jetzt bringen.
 
Tjaaa... was soll ich dazu sagen... ich freue ich auf die Geforce 8... aufjedenfall! Das sie mehr Verbraucht ist shit! Aber sagen wir es mal so... auf der einen Seite sinkt der Verbauch (CPU RAM etc) auf der anderen Seite steigt er aber wieder durch die Graka... bleibt doch alles beim alten ^^ Verbauch steigt nicht... sondern gleicht sich wieder durch andere Hardware aus! ^^
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte