Nvidia zeigt erste Grafikkarte mit Fermi-Chip

Grafikkarten Nachdem wir heute bereits über den neuen Chip "Fermi" aus dem Hause Nvidia berichten, hat der Chef des Unternehmens, Jen-Hsung Huang, jetzt auf der GPU Technology Conference eine erste Grafikkarte gezeigt, die darauf basiert. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Dass nenn ich auf die Folter spannen...grr. Die sollen endlich mal paar Infos zum Vergleichen runterrücken
 
@Viceinator: Genau das ist ja der Plan von Nvidia, sie Leute hinhalten, damit sie nicht zu ATI abwandern, nachdem diese nun einen Karten-Knaller auf den Markt gebracht haben.
 
@Viceinator: Infos zum Vergleichen waren noch nie hilfreich... Nur echte Spiele Benchmarks zeigen den Unterschied
 
@satyris: Und das wird auch nicht nur bei mir funktionieren :D
 
@Viceinator: Meinst du Infos im Vergleich zur GT200 (oder so)? Auf http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/ ist zumindest sowas angegeben.
 
@satyris: lol, knaller.ein knaller ist was anderes.
 
Bis zu 300 Watt? Öh, nein danke!
 
@borbor: ...es kommt bal soweit, das die Desktop-Gehäuse mit Spezifikationen versehen werden, dass ein 2. Netzteil verbaut werden kann, ganz exklusiv für die Grafikkarte....
 
@borbor: Die bei der Vorstellung gezeigte Karte war eine Tesla-Karte, das steht hier nicht in der News. Diese ist nicht für den Heimgebrauch, von daher kann man davon ausgehen dass die Karten die wir kaufen können weitaus weniger Saft brauchen.
 
@borbor: Zwingt dich ja keiner
 
@borbor: am besten einen Graka + Netzteil bundle anbieten!
 
@borbor: Nur weil über so einen Kaltgerätestecker 3680W Watt fließen dürfen stellst du dir wahrscheinlich auch keinen PC mehr ins Haus oder was?
 
@borbor: Wer gibt denn hier ein Minus, 300W verbraucht mein kompletter PC nicht unter Vollast (ohne Fernseher)
 
@gonzohuerth: es gibt Minus fuer borbor weil noch niemand weiss wieviel Strom die Grafikkarte verbrauchen wird, lediglich die beiden Stecker sind fuer bis zu 300 W spezifiziert - d.h. das ist die Obergrenze welche die Karte aufnehmen koennte! Jetzige Grafikkarten wie z.B. die Geforce GTX 280 haben auch einen 8-pin + 6-pin Stecker und koennten somit auch 300 W ziehen - tun sie natuerlich nicht. Also erstmal abwarten.
 
@borbor: Wo ist das Problem? Ich zocke eh nur im Winter. Jedes Watt, das die Grafikkarte heizt spare ich bei der Elektroheizung wieder ein. Von den Kosten also kein Unterschied.
 
Naja wenns ja nur kurze monate sind gehts ja noch, wenn jetzt die monate 40 oder 50 tage lang wären, dann würden die schon einige Kunden an AMD verlieren :D
 
"kurze Monate" :D Wie viele Tage hat wohl ein nVidia-Monat? ^^
 
@pool: Die Tage werden mit so einer Grafikkarte eben schneller gezählt. :o)
 
@pool: kurze Monate haben meist 30 Tage, lange haben 31 Tage.
 
@c80: dummerweise wechseln die sich meist ziemlich genau ab. Besonders gegen ende des Jahres.
 
@pool: november ist kurz dann erst wieder Februar
 
@c80: Ach was... -_-
 
@pool: wie "ach was"? du scheibst "besonders gegen Ende des Jahres". Das ist schlicht falsch. Dezember und Januar sind beide lang.
 
@c80: Meine Güte guck dich doch mal an. Du versuchst flapsige Bemerkungen logisch auseinander zu nehmen. Ich bin ja fast schon dabei gewesen sowas wie "Januar ist aber schon wieder das nächste Jahr" zu schreiben aber ist mir wirklich zu blöd soetwas überflüssiges toternst weiterzuführen.
 
@pool: dann eben nicht
 
Wenn die wüßten wie lang ein Monat durch Warten werden kann ... ^_^
 
Das mit dem2.Netzteil,isst garnicht so unrealistich. aber nicht fürs PC Gehäuse, sondern als externe Version für die Grafikkarte.
Die legendäre Firma 3dfx hatte bereits in den `90er Jahren eine Voodoo Karte mit externem Netzteil im Angebot.
Am Schluss noch eine kleine Verschwörungstheorie:
Oder wurde Nvidia bei der Entwicklung der Karte, von denn AKW Betreibern unterstützt, um die AKW's länger am Netz Betreiben zu können :).
 
@levancs: dann lass dir dein netzteil schmecken :)
 
@levancs: 3dfx wurde von nVidia aufgekauft
 
Das ist keine Grafikkarte. Der hat eine Tesla Karte gezeigt. Winfuture= DAUs
 
@HeyHey: Wieso? Brauchen die auch so eine Karte?
 
@tommy1977: Dieses Wal-zurück-ins-Meer-bringen Spiel soll auch in guter Qualität aufn Bildschirm kommen.
 
Zitat: "Trotzdem soll die Leistungsaufnahme gering sein. " Mehreren Berichten zufolge soll sich der neue GT300 die Leistung mit einem Horror-Stromverbrauch von bis zu 300 Watt erkaufen. Also schon mal ein Atomkraftwerk mit bestellen ....
 
@holom@trix: Da steht nur das der Anschluß soviel ziehen könnte aber nicht muss!
 
@holom@trix: So erklärte der Nvidia-Chef, dass die Stromaufnahme der neue Karte gleich oder sogar geringer ausfallen wird, als bei den aktuellen GeForce-Modellen. Eine GeForce GTX 285 benötigt im Leerlauf rund 30 Watt.
 
@holom@trix: ein Kilowattstunde kostet ca 13 ct d.h. selbst wenn der gesamte PC 1000 Watt hätte (extrem unwahrscheinlich) würde ein Stunde zocken 13 ct an Stromkosten verursachen. Etwa soviel wie eine Minute mit dem Handy telefonieren oder eine SMS. Wo ist das Problem? edit: wie doof seid ihr denn? wenn ihr schon auf Minus klickt dann schreibt wenigstens dazu warum.
 
@c80: Tolle Milchmädchenrechnung.. Bei einem GamerPC mit 700 Watt Netzteil bei 4-5h Leistung pro Tag, bezahlt man über 250 Euro im Jahr. Dabei ist noch nichtmal der Monitor/TFT/Peripherie eingerechnet.. Naja, wer es sich leisten kann.. Achnee, Mama bezahlt das ja ^^

Also ich könnts nich.. Schätze mal, dass dieses Teil gut und gerne 250-270 Watt aus der Dose ziehen wird.
 
@cushame: 1)700Watt Netzteil heißt nicht 700Watt Verbrauch. 2)4-5 Stunden Zocken pro Tag ist wohl etwas viel wenn man einen normalen Job mit 40 Wochenstunden hat. 3)250 Euro pro Jahr sind nur etwa 20Euro pro Monat. Ich finde 20 Euro pro Monat ist nicht viel Geld. Vier Päckchen Zigaretten kosten soviel. Dafür geht man keine Stunde arbeiten wenn man was Richtiges gelernt hat. Wer sich das nicht leisten kann hat wohl damals in der Schule nicht aufgepasst.
 
@holom@trix:
Vielleicht sollten die Graka-Hersteller bei den Stromversorgern anklingeln, ob sie von denen noch gesponsort werden. Dann könnten sie die Preise für die Karten senken und fast alle hätten was davon (außer der Natur).
 
1) Das ist mir schon klar.. Habe bewusst nur 700 Watt gewählt, weil für die neuer GrakaGen. ja schon mind. 800 Watt gefordert werden. Da krepelt das 700W NT schon an der Grenze..

2) Das sehe ich genauso wie du. Solche Höllenmaschinen stehen ja auch eher bei Schülern / Studis, die etwas mehr Zeit haben :)

3) Für den einen mag es nicht viel sein.. Ich finde, das hat schon schlimme Ausmaße angenommen.. Strompreise steigen im Durchschnitt jedes Jahr um mind. 5-6 %. Dann darf man sich auch später nicht über die Rechnung aufregen ^^

4) Hab in der Schule immer gut aufgepasst, aber Geld zu verschenken habe nichtmal ich :P
 
@cushame: wenn ich von einem realen Verbrauch von 500Watt ausgehen sind das in zwei Stunden 1kW also etwa 13ct. Also ca 50Euro im Jahr. Wenn ich dagegen rechne dass ich alle zwei Jahre einen neuen PC brauche für ca. 1500Euro und jeden Monat 2-3 Spiel a 40 Euro dann sind die Stromkosten zu vernachlässigen. Würde ich z.B. rauchen hätte ich die gleichen Kosten.
 
@c80: Der Durchschnittspreis für eine KWh liegt in D 2009 derzeit etwa bei 20 Cent, (davon kassiert der Staat 3,19 Cent Umsatzsteuer, 2,05 Cent Stromsteuer, 1,14 Cent EEG-Abgabe und 0,119 Cent KWKG-Abgabe)..

Außerdem sind 500W zu niedrig gegriffen.. Man halte sich nochmal dieses Graka-Geschoss vor Augen..

Auch gehts hier nicht nur um das Geld, was da verpufft.. Manchen ist der Stromverbauch halt Wurscht - mir halt nicht. Für meine Zwecke langt die ATI 4770 noch lange Zeit. Jedem das Seine :)
 
@cushame: ok, ich hatte bei Wikipedia nach den Preisen geschaut. Die waren noch auf dem Stand von 2008 und ohne Steuern. Dann lag meine Schätzung ca. 25Euro/Jahr daneben. Warum sind 500W zu niedrig? Graka ca 250W CPU ca 50W Chipsatz ca 30W Platten ca 30W, Moni ca 30W. Effizenz des Netzteils: 80+ gold
 
Traurig das hier der Strombedarf von vielen auf die Kosten reduziert wird.
 
@pool: wenn du damit auf die Umweltverschmutzung anspielst ist die Produktion der Karte schlimmer als ihr Strombedarf. Ob das low- oder high-end ist spielt da fast keine Rolle
 
@c80: Das ist kein Argument. Außerdem gibt's noch soetwas wie Hitzeentwicklung und Lautstärke. Das steht auch meist mit dem Strombedarf im Zusammenhang.
 
@pool: wenn dem so wäre dann wären aktuelle Karten ja auch laut. Die haben die gleichen Anschlüsse, können also auch theoretisch bis 300W ziehen. Die bauen die extra so, dass sie nicht laut sind. Bei den meisten Karten kannste 20-30% übertakten wenn du die Lüfter mit 100% ansteuerst. Du musst auch bedenken, dass richtige Zocker (nur die kaufen solche Karten) fast nur mit Headset spielen.
 
@c80: Umso mehr Strom gezogen wird, desto aufwändiger sind auch die Kühllösungen. Hoher Stromverbrauch + dicker Kühler = erträglicher Lärm.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles