GT300/Fermi: Nvidia lässt das Monster aus dem Sack

Grafikkarten Nachdem gestern die ersten Gerüchte rund um Nvidias kommende Grafikkarten-Generation auftauchten, hat der Chef des Unternehmens die Gerüchte nun größtenteils bestätigt. Demnach wird die Architektur komplett umgekrempelt. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Nvidia lässt das Monster aus dem Sack? Das macht Lexington Steele jeden Tag.
 
@Mister-X: *habenwill* DITO :)
 
@SkyScraper: nicht haben will =O
 
@SkyScraper: HIAAA Ich geh kapott.
 
ich würd lieber erstmal nen direkten Vergleich abwarten und dann entscheiden was ich haben will. Preis/Leistung spielt da ein nicht unerheblicher Faktor
 
@Yaku79: preis/leistung spielt vllt für einen großteil der leute eine rolle aber für manche nicht. denen ist egal wie teuer hauptsache neu und schnell (den stromfaktor lassen wir mal draußen).
wobei ich durchaus gespannt bin wie sie sich in den tests schlägt.... ATI hat ja bei der 5870 auch bedeutend mehr leistung versprochen als sie eigentlich hat......
 
@seppe0815: Da das aber die wenigsten sind, sind diese Leute weniger Marktrelevant. Der meiste Gewinn wird mit Midrange Karten und darunter erzielt.
 
@seppe0815: Einfach mal die (den) DX11 Spieletest mit ner ATI anschaun, da kommen nochmals 20% Leistung obenauf von daher ist das Ergebnis nicht schlecht und die DX9/10 Spieleleistung der neuen ATI Karten ist schon mehr als genug.
 
@seppe0815: Den Stromfaktor lassen wir mal nicht draußen! Das ist für mich ein Killer-Kriterium. Ich ziehe mir keine Karte rein, die im Windows Desktop Modus sinnlos 200 Watt frisst. Mehr als 2 Slots sollte sie auch nicht belegen. Dieses Jahr sollen die Karten auf den Markt kommen? Heute ist der 1. Oktober, das glauben die doch wohl selbst nicht.
 
@SkyScraper: Wie doof bist du denn? Nenn' mir eine Karte die 200 Watt im Idle braucht. Übrigens hat deine Mama dich verarscht als sie gemeint hat Strom sei teuer. Damit wollte sie nur erreichen, dass du mal zur Abwechslung was für die Schule tust statt zu zocken. Zur Info ein Kilowattstunde kostet ca 13 ct. Wenn man schon arbeiten geht ist das nicht viel. Oder willst du mir erzählen dass du deinen Strom selber von deinem Taschengeld bezahlen musst?
 
@c80: Jungchen, ich bezahl meinen Strom schon seit 25 Jahren selber. Die 200 Watt waren 'ne Übertreibung, trotzdem sollte man nicht so die Klappe aufreißen wie du, es gibt NVidia Karten die brauchen doppelt so viel Saft wie mein ganzer Rechner, und bei uns kostet die Kilowattstunde 21 Cent. Außerdem geht es beim Strom nicht nur um die Kosten, sondern darum, dass man die Verlustleistung in Form von Wärme wieder aus dem Gehäuse blasen darf, was unnützer Aufwand ist. Wer ist nun doof?
 
@SkyScraper: Ok, mit den 21ct hast du recht. Ich hatte das bei Wikipedia recherchiert und da waren nur Zahlen von 2008 ohne Steuern. Trotzdem musst du doof da deine Argumentation keinen Sinn ergibt. Wenn du mit deinen Zahlen so übertreibst, dich aber nur auf diese Zahlen stützt wirkst du wie ein dummes Kind. Und wenn du schon seit 25 Geld verdienst musst du wirklich dumm sein wenn du so wenig verdienst, dass 21ct für dich viel Geld sind. Wenn dein Rechner wenig Saft braucht kann er wohl auch nichts.
 
Und gleich nochmal: Boah! Da läuft Crysis bestimmt voll flüssig! :D
 
@rockCoach: Niemals 15fps bei alles hoch :-) EDIT: Man darf echt nich die ironie-tags vergessen hier...merkt anscheinend keiner *ironie aus*
 
@rockCoach: im (tripple)sli sicher :D wie gern würd ich so ein system zusammenbauen und ausgiebig testen, leider kenn ich keinen kunden der sich sowas leisten würde :(
 
@ExusAnimus: irgendwer leistet sich sowas bestimmt. man muss nur knete haben^^ hätte ich paar tausender mehr würd ich mir sicher son ding holen^^ am besten noch mit dual-sockel board für 2 i7 cpus und 32GB RAM. dann reichts erstma wieder für nen halbes jahr^^
 
@Viceinator: für ein halbes jahr, du sagst es :D
 
@Viceinator: Och seit dem Artikel wegen der Nutzer die isch nich um Ihr Internetauftreten scheren is mir des egal ob ich nu "-" oder "+" krieg^^
 
Hab die News eben gerade schon auf ner anderen Seite gelesen. Ein Vergleich wäre echt Bombe. Am besten mit den besten Grafikkarten der letzten Jahre wie 8800GT, ATI4670 usw.
Die muss ja schon enorme Leistung haben. Bin gespannt wie teuer die sein werden
 
@Viceinator: Der Preis wird sich mit der Zeit sicherlich reduzieren^^ mir machen mehr Stromverbrauch, DX11 Kompatbilität, Lautstärke, Wärmeentwicklung und die Frage "Welche CPU dieses Monster nicht ausbremst (evtl im SLI)" sorgen : D
 
@max.: Also DX11 Kompatibilität soll komplett gegeben sein hab ich gelesen in einem Bericht
 
@Viceinator: besten GraKas der letzten Jahre? Da gehören aber 8800GT und ATI4670 nicht dazu^^Eher GTX280 und HD4870
 
@JasonLA: Denn halt HD4870. Kenn mich mit ATI nich mehr so aus. Aber die 8800GT war ja wohl wirklich gut. Die hat sich ja verkauft wie warme Semmel weil Preis/Leistung einfach gestimmt hat
 
@JasonLA: Du meinst wohl eher 275/285 GTX und HD4890 :D @Viceinator: Die 8800GT war sicherlich nicht schlecht, aber in meinen Augen war ein richtiges Prachtexemplar damals die 8800 GTS 1024 :) *Nostalgie*
 
@Viceinator: Wäre echt bombig, meinst Du wohl...
 
ist das atomkraftwerk, welches man für den betrieb dieser karte braucht, auch gleich dabei? :)
 
@Limpo: Da is bestimmt nen kleiner Naquader-Reaktor drauf gebaut oder son Teil wie bei Ironman^^
 
@Viceinator: nen zpm würde mir besser gefallen^^
 
@Limpo: Dafür gibt es jetzt einen Wandanstrich, der deine WLAN-Sendeleistung von den Wänden reflektiert und somit die GPU mit zusätzlicher Energie versorgt. PS: Naquada(h) imho.
 
@monte: jo heißt naquadah (http://de.stargate.wikia.com/wiki/Die_Naquadah-Mine)
 
@Viceinator: Wohl eher Naquadria :)
 
ich hab eine n9400gt von nvidia mit 1 gb und bin sehr zufrieden dammit. Bauch keine bomben teure grafikkarte hauptsache ich kann ohne ruckler spielen
 
@BonnerTeddy: du spielst mit einer 9400gt ohne ruckler? oO /ironie: kann das ding überhaupt 3d? :D
 
@ExusAnimus: [ironie]vielleicht 2.5D^^[/ironie]
 
@ExusAnimus: 800x640 oder 1024x768 :)
 
@Viceinator: 2.5D *rofl*
 
@Luk3: höchstens VGA^^
 
@Bösa Bär: Hey lach net, den Begriff gibts wirklich *lach*
 
@BonnerTeddy: Nicht jeder gibt sich mit Hearts zufrieden.
 
@Viceinator: Ich *lach* ja ned, ich *rofl*, tscheckstas? xD
 
@Bösa Bär: bayer? :D
 
@ExusAnimus: Ja, a bösa.
 
@Bösa Bär: ja grias di, i hon ma scho immer denkt dass`d ned vom ausland bist wia de andan ,-)
 
@Bösa Bär: Wir müssen wohl wieder unsere Allohol 120% Pulle rausholen wa^^
 
@Veceinator: Nix Pulle Allohol, Wiesn is grad, da sauf ma Maß, Saupreis! @ExusAnimus: Griabig! Saxndi!
 
@Bösa Bär: do draf miasad ma direkt oan heb`n :)
 
@Bösa Bär: Und jetz auf deutsch^^ PS.: Hier is schon wieder ein fieser Minusklicker unterwegs...Schnappt Ihn!!!
 
@ExusAnimus: Ned lang Schnack´n - Kopf in Nack´n! xD
 
@BonnerTeddy: it's just lol
 
ich finds cool, dass das Teil volle Kompatiblität für C++ bietet.
 
@HeyHey: Was für Vorteile hat man eigentlich, wenn die Graka CPP kann? Für Hardwaresteuerung oder wofür braucht man das bei ner Graka?
 
@Viceinator: D.h. nVidia bietet eine Schnittstelle (API) an, über die man die Grafikkarte zum Berechnen verwenden könnte.
 
@Luk3: Ahh das wär nich schlecht. Dann könnte man die Graka ja auch zum rendern in 3D-Software verwenden(3DS, C4D, Maya...) Was die dann für ne Performance hätten *grins*
 
@Luk3: CUDA wird bald überflüssig sein...jede Karte die DirectX 11 kann unterstützt dank MS GPGPU...
 
@bluefisch200: Leider ist CUDA aber nVidias Voraussetzung für GPU Computing. Von daher wird es sicherlich nicht überflüssig werden. DX11 und OpenCL sprechen CUDA an und CUDA spricht dann die Grafikkarte an.
 
mhm aber das ist keine karte mit 2 prozzis? .. dualdings ? so nur 1 ding ? mhm.. xD mal sehn.. :P ich denk die liefern schon nen generator mit der graka hier mit... :P
 
exusanimus ja klar alles auf hoch bei nem x2 amd 2 gb ram system xp. Ist eine garka von msi
 
@BonnerTeddy: aber keine neuen spiele? es gibt übrigens einen blauen pfeil zum antwort, das erhöht die chance dass man deine antworten sieht und sorgt für einen besseren überblick :)
 
Lasst euch nicht von den Daten blenden das wird eher ein Numbercruncher als eine Gamerkarte. Nur eine abgespeckte Version ohne L1 und L2 Cache wird der Gamer sehen. Und dieser L1/L2 cache nimmt ca. 30% der karte ein. Wenn dann ist dieser Fermi ist eine Quadro mit Gamereigenschaften und keine Geforce mit Quadro instruktionen.
 
Wie schon gesagt...die Karte sieht zwar wie ein Monster aus, aber nur für CUDA. Für Gamer wird diese Karte nichts sein denn 1. kommt da nicht so viel Leistung raus wie alle denken (man vergesse nicht, die GTX295 hat auch 2.8 Mio Transistoren). Die 6GB VRam kann man nur bei CUDA ausnutzen und deshalb sollte man nicht von unglaublichen Leistungsboots träumen...auch sehr interessant sind die wenigen Kommentare auf CB (die zwischen den nVidia ist besser als ATI und ATI ist besser als nVidia Kommentaren)
 
@bluefisch200: sagt ich doch, cuda = ( hab dafür gestern noch n blödes kommi bekommen
 
@hARTcore: Aber nicht von mir oder? Hilfe...fühle mich gerade schuldig :P
 
@bluefisch200: "[re:1] Genghis99 am 30.09.09 19:00 Uhr
@hARTcore: Jo - und wir sind alle Hardcore Wissenschaftler die ihren eigenen Rechnercluster brauchen. Ironie aus.." Nö, keine sorge^^
 
auf den Hinweis seid ihr bestimmt ganz alleine gekommen... ts...
 
@xploit: Wovon redest du grad????
 
@Viceinator: keine Quellenangabe.
 
@Viceinator: ich wundere mich nur, da ich den Hinweis zu der News bereits gestern Abend eingesendet habe und als Kommentar unter die ersten GT300 News gesetzt habe... knapp vor 23 Uhr.
 
Und mit dem nächsten Modell lässt NVidia den Knüppel von der Leine.
 
@localghost: *tihi*
 
@localghost: arrrr *peitsch* :D
 
@ExusAnimus: I brich no zam mit dia! *prust*
 
@Bösa Bär: moch des :)
 
Bin gespannt wann die ersten Quad-GPU Grakas kommen. Wundert mich schon, dass sich die X2's nicht soo doll durchsetzen. Ist es der Preis? Oder gibts einfach noch zu wenige Spiele die das unterstützen?
 
@Viceinator: Von der HD5870 soll es laut Gerüchten ja noch ein X3 Modell geben...dann wäre es nur noch 1 GPU...
 
@bluefisch200: Dann gehts ja langsam voran
 
@Viceinator: Microruckler bei den Dual-GPUs. Sehen aus wie FPS-Einbrüche....und der Preis....und das passende Mainboard...Netzteil...Hitzeentwicklung...Stromverbrauch...Know How..usw. Mir reicht die GTX280 noch massig. Alles läuft super fein...und Burnout Paradise sieht auch supergut damit aus...
 
@Bösa Bär: Jo kann ich mir vorstellen, dass die GTX280 ausreicht noch. Ich kann mich auch noch net beschweren mit meiner 88er GT. Sind die Probleme denn noch so arg bei Dual-GPU's ich mein wenns da wirklich ständig Microruckler gibt, dann machts ja echt kein Spaß
 
@Viceinator: Hauptsach des langt noch für NFS-Shift.
 
@Bösa Bär: Na das sollte wohl kein Problem sein mit aktuellen Grakas. So viel Leistung brauch das game gar net.
 
@Viceinator: ich kann dich beruhigen, ich hab 2 gtx285 im sli und absolut keine microruckler :) die treten bei neueren karten (ati und nvidia) meist nur noch bei unter 30 frames auf, aber dann ists auch schon wurst weils eh ruckelt :)
 
@ExusAnimus: Dann is ja gut =) Achja nur mal so nebenbei. Wie wärs wenn ich dir meine 88er GT geb und ich eine deiner GTX285 krieg^^ Bei dir rennen die Games bestimmt alle wa?
 
@Viceinator: ich hab noch ne alte 8800gt mit 1gb speicher bei mir rum liegen, kannst dir ja daraus ein sli bauen^^
 
@ExusAnimus: Ich könnt heulen...Mein Board hat leider nur Crossfire.
 
@Viceinator: die erste Quad-GPU Graka hat schon einige Jahre auf dem Bückel: Voodoo 5 6000. Leider nie auf den Markt gekommen.
 
@Link: Yup, die Karte eignete sich besser als Surfbrett...und da gabs noch kein Internet! (mal schaun, ob das einer richtig versteht). Das Gehäuse musste man auch umbauen, damit die Platz hat.
 
@Bösa Bär: wenn man ein Gehäuse von einem Hersteller hatte, für den Karten mit voller Länge nicht existierten, dann ja. Ansonsten nein.
 
@Viceinator

es gibt immernoch massivste Probleme mit der Synchronisierung von 2 GPUs, solange die beim System bleiben, dass jede GPU ein komplettes Bild berechnet wird sich das auch nicht ändern. 3dfX hats meiner Ansicht nach besser gemacht, jede GPU berechnet eine Bildzeile.
 
@HeyHey: ja himmel, wann kapierts es zipfeklatscher das's an blauer pfeil gibt? oder für dich, benutze doch den blauen pfeil, er dient der übersichtlichkeit und der besseren zuordnung der texte :)
 
@HeyHey: Wer will kann ja mal bei Wikipedia nach "Alternate Frame Rendering " und "Scan Line Interleave" suchen...
 
@ExusAnimus: *aarrrrhhh!* Ich bin doch heute schon am Boden gelegen......mein Herz!!!
 
dem Namen nach zu Urteilen hat das Ding auch 4 Räder und ein Lenkrad :-) kein Wunder das Sie schneller sein soll als alle anderen ^^
 
@Kuririn: Hmm GT300...Mustang?
 
@Viceinator: lieber gt500 *einerabgeh* :D
 
@ExusAnimus: GT500 Shelby inkl. Foose-Tuning. *höschenganzfeucht*
 
dass der Zipfelklatscher ExusAnimus endlich seinen beschissenen Pfeil hat.

Ne, der alte Ford Mustang ist immernoch besser :D
 
@Bösa Bär: du mochst mi fertig *nachluftring*
 
@HeyHey: ich find jeden mustang geil :) wenn wir schon bei ford sind, der gt40 hat auch was :)
 
@ExusAnimus&HeyHey: *brüll* jetza heats hoit auf ihr Zipfischwinger, i hob nua oa Zweachfay!!! xDDD
 
@ExusAnimus: Oda da GT90...oda..oda..oda..die neue Chevelle *lecka*
 
@Bösa Bär: locha is gsund! :D mi schaun`s do a scho ole bled o, ko ma nix mocha^^
 
@ExusAnimus: Du siehst die???? Das will ich auch!
 
@Bösa Bär: ich mein die bei mir in der arbeit :D
 
Eieieiei ... Das scheint ja ein Überhammer zu werden. Allerdings wohl nicht nur in Sachen Leistung, sondern auch in Sachen Geräuschkulisse, Stromverbrauch und Preis. Aber nVidia wird sicherlich nicht nur so ein Monster herausbringen, sondern auch ein paar kleine Mönsterchen ^^
 
@DennisMoore: Also bei mir hat nVidia im Moment nicht den besten Ruf... Stromverschwenderisch, immer ein Aufguss von alten Teilen unter neuem Namen, der Versuch nur durch Zahlen zu protzen... Ich weiss nicht, mir liegen doch eher die Karten, die das beste Preis/Leistungs-Verhältnis haben. Aber vielleicht kommts ja wieder :)
 
@gonzohuerth: Bei mir haben sie nen guten Ruf (wenn man das mal so sagen will). Ich habe eine 8800GTX die seit Jahren ohne murren und immer mit akzeptablen Frameraten arbeitet. Außerdem bietet mir nVidia mit dem TWIMTBP-Programm eine gewisse Sicherheit das meine Hardware mit dem Spiel möglichst gut zusammenarbeitet. Ich hab mit der 8800GTX zwar nicht den Stromsparmeister gekauft, aber dafür halt so viel Leistung das ich jedes Spiel das innerhalb von 3 Jahren rausgekommen ist mit hohen bis sehr hohen Details spielen konnte. Und zu guter Letzt ist der Treibersupport von nVidia sehr gut geworden.
 
Was mir imemr auffällt ist die Tatsache das jedesmal wenn es um eine neue Grafikkarte geht, die Leute über Geschwindigkeit, Stromverbrauch etc. sprechen aber nie über eine leise vernünftige Kühlung! Ich hoffe Nvidia arbeite auch mal daran!
 
@Cornelis: wieso, man muß doch hören das ordentlich Leistung unter der Haube ist, am besten auch gleich mit alle Nachbarn. :-)
 
Ich warte noch auf die X2 Version von der Karte ^^
 
@Chrisber: und daraus machen wir ein 3way sli? :D
 
@Chrisber:

von so ner Karte kann ich mir nicht vorstellen, dass es eine X2 Version geben wird. Zum einen sind da die Specs von PCI-E, zum anderen würde eine Dual Version von so ner Karte, wohl so nen derbe hohen Stromverbrauch haben, dass man die Wärme kaum noch abführen kann.
 
@BonnerTeddy: seh ich genauso!
 
"Im Optimalfall kann die Double-Precision-Leistung um den Faktor acht gegenüber dem GT200 verbessert werden" Und der Preis geht um den Faktor acht auch gleich mit hoch...
 
Das Monster lässt den Sack aus nVidia...
 
ich hab ne 285 gtx und bin voll zufrieden. hatte vorher eine 7800gt. es war einfach bitter nötig für mich aufzurüsten. wenn ich das höre, 3 x 295 gtx verbaut. oh man da dreh ich mich doch im kreis :D ich kann so schon alles zocken, wieso brauchen dann welche so ne karte 2fach oder 3fach in ihrem pc. jetzt kommen wieder neue karten raus. is ja alles schön und gut, aber wenn wir ehrlich sind.... ob das sinn macht?! ich mein wenn die "alten" karten doch noch locker reichen (gtx) reihe. aber wer auf das geld nich achten muss, ok dann würd ich mir auch nen rechner zusammen basteln der es in sich hat. und directx 11 und der ganze kram, es zu haben ok dann biste im trend aber mit direct x 10 oder 9 lässt es sich auch zocken. man muss ja nich jede welle mit machen. ich zock bis es nich mehr geht und dann weiß ich aha wird zeit für was neues....
 
@Reeloop1983: Mein Rechner geht derzeit auch in die Knie bei simplen Flashspielen sogar...Deswegen schicke ich meinen Pentium in Rente :)
 
Die ganzen Nvidia-Fans sollten mal auch andere, seriöse Newsseiten lesen und jemanden bitten, Ihnen den Text zu erklären. Die neuen Nvidia-Flagschiffe haben ihren Schwerpunkt bei GPGPU!sagt jedenfalls Nvidia, diese Monster werden in die neuen Nvidia-Quadro Karten verbaut. Für den normalen Gamerbetrieb werden einige teure Sachen reduziert(Cache), man hofft aber, ATIs neue Flaggschiffe überrunden zu können. Weniger Cache, erheblich weniger Leistung aber auch weniger Stromverbrauch. Also leute, mal ganz entspannt durch die Hose atmen. Nvidia ist ja immer ganz groß bei Ankündigungen. Wie war das ? Nvidia macht kein DX11 ? Oder doch ? oder .. Ich persönlich vermute, dass die neuen Nvidia um 10-20% die neuen ATI schlagen werden. Aber zu einem viel höheren Stromverbrauch und zu viel höheren Preisen. Aber das interessiert die Kiddies eh nicht, Mami wirds schon richten.
 
Wir kennen die Preise, die Nvidea in der Vergangenheit verlangt hat. Ich werde mir in 2 Wochen ne 5850 zulegen und werde es auch dann nicht bereuen, wenn Nvidea ihr "Monster" auspackt.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles