Bericht: Nvidias GT300 wird ein wahres Monster

Grafikkarten Noch in diesem Jahr will Nvidia eine neue Grafikkarten-Generation in den Handel bringen. Sie hört auf den Codename "GT300". Jetzt tauchte ein verschleiertes Architektur-Diagramm im Forum von 'Beyond3d.com' auf, das die Gerüchte ins Rollen brachte. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wenn sie jetzt noch Dx 11 einbauen würden...
 
@Arnagos: Braucht doch laut nvidia keiner. HAst die news verpasst? War "lustig"^^.
 
@Arnagos: Ich glaube kaum dass NVidia die Karten ohne DX11 auf den Markt bringt. Dann könnten sie die Karten auch gleich vom Produktionsband direkt auf die Müllkippe verfrachten.
 
@Arnagos: Der GT300 unterstützt DirectX 11 komplett.
 
@Arnagos: OMG, ist doch schon von anfang an bekannt, dass das teil dx11 kann... -.-
 
@Arnagos: DX11 soll wohl emuliert werden, gilt also ab zu warten wie gut es läuft im Gegensatz zu den ATI Karten welche ja über einen Hardware-Tesselator verfügen. Ansonsten wird der GT300 zwar ein gigantischer Chip, allerdings ist er bei weitem nicht nur auf Grafik ausgelegt sprich die Features kommen nicht alle der Grafikleistung zu Gute. Siehe auch: http://www.heise.de/newsticker/GTC-Nvidia-enthuellt-die-Architektur-der-naechsten-GPU-Generation__/meldung/146158
 
Und die wird sicherlich 2-3x so teuer wie die von ATI.
Wenn man mit den ATI Karten alle Aktuellen Spiele auf guter Auflösung zocken kann wer brauch dann sowas für nen Gamer PC?
Wenn die billigere ATI Karte nichts mehr taugt dann kann man sich halt ne neue kaufen. Dann hat man 2 Ati Karten mit den man gut zocken kann anstatt eine von Nvidia für den doppelten Preis zu holen. Bald kommen sowieso spiele die man mit der Karte nicht mehr zocken kann.
Das ist wie bei einem Gamer PC man kann mit einem 500E teil aktuelle Spiele zocken. Mit dem 2000E PC auch aber für 500E kann man sich 4 stück davon Kaufen also dann jedes Jahr einen neuen PC anstatt etwas sehr teuers zu kaufen das bald nicht mehr akutell ist.
 
Und kosten wird die Karten dann auch wieder 600 - 1000 €uro. Bin mal gespannt was für ein Kraftwerk man diesmal braucht. sicher wieder um die 600 - 800 Watt oder so.... Naja wers braucht.
 
@merlin1999: Übertreibe mal bitte nicht...
 
@merlin1999: 1000 € sind bei Nvidia durchaus denkbar, die drehen beim Preis ja gerne mal durch:)

Ich habe die letzten 10 Jahre nur Nvidia gehabt, aber jetzt wird wohl schluss sein. Ich habe keine Lust mehr so viel Geld zu zahlen. Da kaufe ich mir nach zwei Jahren lieber eine neue Karte.
 
@Anti Vista: ich denke mal das ist durchaus realistisch bei der Leistung :)
Unter 500Euro wirds nichts werden, und bei den Taktungen und der Speichermenge....Stromfresser! :)
 
@k.schweder: Also wenn du dir alle 2 Jahre ne neue Karte kaufst kommst du wohl aufs gleiche raus wenn du dir 1x so eine Monsterkarte holst und dann 5-6 Jahr Ruhe hast. Es sei denn in 2 Jahren kommt DX12 ^^
 
@DennisMoore: DX12, kommt das nicht mit Windows8?
 
@DennisMoore: 5-6 jahre ruhe soll wohl auch ein witz sein oder?
 
@DennisMoore: Ok oder alle drei Jahre, wer spielt denn 5 - 6 Jahr mit so einer Karte. Genau das ist das Problem. Es kommen neue Titel, die dann entweder neue Grafiktechnik beinhalten, die eine so alte Karte nicht unterstützt oder schlimmer, die Games nicht flüssig darstellen. Wobei bei DX11 könnte das auch anders aussehen. Müssen ja erst mal Titel auf den Markt
 
@merlin1999:

1KW *GG*
 
@Carp: Nö, wieso? Ich habe meine Grafikkarte seit 2006. Und wenn DX11 nicht einschlägt oder ich nicht auf die Idee komme einen 30"-Monitor zu brauchen, reicht die auch noch für die nächste Spielegeneration.
 
Bin mal gespannt ob man mit der Karte dann auch GTA IV auf hohe Einstellungen bringen kann.
 
@Jolka: GTA IV ist die schlechte Portierung eines Konsolentitels. Ein schwacher Grafikchip mit großem VRAM und einer entsprechenden 4-Kern-CPU reichen schon aus. GTA IV ist eher CPU-limitiert.
 
@tinko: naja, speicher genug hätten sie ja ^^ xDD bis zu 6GB nicht schlecht
 
@tinko: Allerdings, mein Intel Q9450 läuft während des Spiels auf 85-90% Auslastung, und zwar auf jedem Kern. Das ist dann schon recht heftig.
 
@mh0001: Solange deine CPU die GPU mit Daten bedienen kann, ist doch alles OK! Wenn nur noch 100 % Auslastung dastehen, übertakten :)
 
Nvidia hat nichts daraus gelernt das große Chips wie der GT200 nur Verluste einfahren .
 
@~LN~: Durch diese Karten polieren die Hersteller ihr Image auf. Dann steigt der Umsatz der anderen Karten. Gleiche Taktik, wie sie in der Wirtschaft immer wieder angewandt wird.
 
Bei so viel VRAM braucht man sich garkeinen "echten" RAM mehr kaufen....
 
@puffi: doch klar =) da macht es doch gerade das 64 bit Betriebssystem zum rennen bringen =) also ich finde es super.
 
in was für einer relation zum stromverbrauch stehen derartige grafikkarten eigentlich? ich meine rechnet sich denn das ganze überhaupt wirklich wenn man bedenkt was man da für stromnebenkosten erzeugt?
 
@kompjuta_auskenna: In gar keiner! Das sind mehr oder weniger "Liebhaber" Karten.
 
Wow, ein Monster. Wird es grün? Bildfuture.de
 
@Holz: Ich spiele schon seit Längerem mit dem Gedanken, mir die Domain bildfuture.de zu registrieren und auf winfuture.de weiterzuleiten. Wenn man hier nur die Artikel und insbesondere die Überschriften ließt, wird die Gefahr in letzter Zeit größer, sich zu verlaufen.
 
Irgendwie erscheint mir das doch recht unrealistisch...
 
Voodoo5. PCO
 
ich warte, bis die gt600 kommt. dann kann ich mir die bis dahin günstige 300er leisten.... tja, gewusst, wie !
 
@hjo: Ich hoffe du hast aktuell keine Grafikkarte, ich hab da nämlich noch eine Geforce Ti4400 zum Verkaufen :-P.
 
@Zebrahead: ne, hab ein 9600GT overclocked-model im hauptrechner und im anderen eine 5700 :P
 
Nvidias GT300 wird ein wahres Monster - Ähh preislich oder leistungsmäßig?!
 
@Hellbend: wahrscheinlich alles... preislich, leistungsmäßig, verbrauchsmäßig, größenmäßig, lautstärke, abwärme, gewicht, speicher - da waren die Ideen alle - wie sonst soll man ein monster bauen
 
Da NVIdia immo Probleme mit dem 40nm Prozess haben, würde ich vorschlagen, das Teil "Heizkraftwerk" zu nennen. Die genannten Spezifikationen implizieren auch den Namen "Stromschleuder". Jetzt rate ich mal - man wird einen heftigen Kühler brauchen - dadurch kommt auch "Haarfön" in Frage. Alles in Allem dürfte meine HD4890 nach dem Erscheinen des GF300 zu den kühleren und leiseren Karten zählen. LOL. Bleibt wie es immer war - von NVidia bloss keine neue Chipgeneration kaufen - das "Refresh" ein paar Wochen später ist Leistungsfähiger und besser überarbeitet (meist auch billiger). PS : Wird das die Erste NVidia Karte mit einem externen Netzteil ?
 
@Genghis99: warum sollte nVidia mit ihrem 40nm-prozess probleme haben wenns tsmc fertigt!? das eine solche architektur auch einen gewissen verbrauch an den tag legt sollte einleuchten
 
Warum denkt ihr den bei Grafikkarten immer gleich noch an Videospiele^^ man kann doch Videos..Grafiken darüber Rendern.. Wissenschaftliche berechnungen dadurch laufen lassen.. usw usw .. und dafür hatt diese karte eben sehr viel potenzial
 
@hARTcore: Jo - und wir sind alle Hardcore Wissenschaftler die ihren eigenen Rechnercluster brauchen. Ironie aus.
 
Schon wieder eine Neuauflage der uralten Geforce 8000er langsam wirds langweilig. nVidia sollte sich mal darüber Gedanken machen es ein wenig wie AMD ATi anzugehen und von Grund auf neues Design entwickeln. Schade Schade eigentlich.
 
@Meyerling: Genau - und für AMD und Intel wirds Zeit sich von der 20 Jahre alten x86 Architektur zu lösen ... Oder baut man ein Haus besser vom Keller aus und Stein für Stein ?
 
@Meyerling: Wieso eine Neuauflage der 8000'er Reihe? Wo haste den Stuss denn her?
 
@Genghis99: So war das nicht gemeint. Ich wollte damit nur sagen dass ATi es immer wieder schafft die Architektur sinnvoll weiter zu entwickeln während nVidia eigentlich immer dem der selben Architektur mehr und mehr Transistoren verpasst und die MHZ erhöht.
 
@Genghis99: Ja mann baut ein haus am besten immernoch stein auf stein wenn es nicht so eine "windige" bruchbude werden soll!Wie das bei frau aussieht kann ich dir nicht sagen.
 
@Meyerling: Na - da schenkt ATI nix - RV770 auf 790 : paar MHz interne Optimierung - das nächste "Update" macht mehr Shader plus paar DX11 Einheiten. Nix neue Architektur. Die letzte Architekturverbesserung war die Einführung des neuen Speicherbus mit RV770.
 
hmm...wie wärs einfach mal mit Abwarten und auf die offiziellen Specs warten? Genausogut könnten wir hier jetzt über die GT400 oder HD6870 spekulieren...
 
@|Freeman|: also die HD 6870 wird dem GT400 in jedem Aspekt haushoch überlegen sein. Und das sind Fakten. Schliesslich habe ich eine Glaskugel! :P
 
Wenn dann noch eine 8800 daher kommt, die nach 20 Monaten einfach im Idle Betrieb den Geist aushaucht - kann selbst ein alter NV-Fanboy mal auf die Idee kommen, eine ATI zu kaufen. Und dann nicht enttäuscht zu sein.
 
@Genghis99: ATI und Nvidia nehmen sich seit der 4xxx Reihe von ATI absolut rein gar nichts mehr. Sie sind beide vergleichbar - wo der eine ein bißchen schneller ist, ist der andere dafür etwas günstiger usw. Ich verstehe nicht, wie man "Fanboy" von einem der beiden sein kann, zumindest seit beide wirklich gleichauf sind.
 
Yeah. Das hört sich doch schonmal gut an. Allerdings find ich das 6 GB VRAM dann doch etwas zu viel des Guten für Gamer ist. So viel Speicher wird wohl doch eher auf die Profi-Quadrokarten gepackt die von 1500 Euro aufwärts kosten.
 
"Monster" ... was haben wir denn da? LAUT, GROSS, PELZIG(?), und wie jedes "MONSTER" ein sehr großer NAHRUNGSBEDARF (a.k.a. Strom :P).
 
Zufällig durchgesickert? Pfff Wollen wohl eher, dass die Leute warten und sich keine ATI kaufen... Ich hoffe, dieses mal zieht Nvidia den kürzeren. Stromfresser, die wie hölle fiepen und dann noch sau teuer sind, brauch ich nicht mehr. ATI geht den richtigen Weg und dass wird von mir belohnt. GTX285 fliegt raus ne neue ATI kommt ins Gehäuse. ATI hat mich mit ihrem Konzept überzeugt. Da muss Nvidia schon mehr bringen als ein "Monster"...
 
@sneak72: Wenn du nicht das ATI BIOS wegen der lüftersteuerung selber optimieren kannst, achte darauf eine Karte mit Nicht-Referenzkühler zu kaufen. Sonst hast du beim Spielen ein Bodenstaubsaugergekreisch. Erst wenn man selber Hand angelegt hat, sind die Referenzkarten von der Lautstärke erträglich.
 
@Genghis99: Ich hatte als letzte Ati-Karte eine X1900XT und das erste, was ich drauf gepackt habe, war ein Accelero. Danach hab ich von der Karte eigentlich nix mehr gehört. Meine jetzige GTX285 hat so lautes Spannungswandlerfiepen, da würde ein Lüftertausch auch nix bringen.
 
@sneak72: Kühlerumbau = Garantieverlust. Hohes Risiko bei einer neuen Karte. Habs bei meiner 4890 gelassen.
 
kkB: *habenwill*
 
schaisse!!! voll krass alda!!! mussich habn!!!!!111
 
Nicht schlecht. Ich hab noch 128MB... *schäm* aber ich brauch auch eigentlich nicht mehr=) Wobei ich das Ding auch nehmen würde, wenn es mir jemand schenken würde(den Strom am besten auch:P)
 
... immer wieder interessant, dass ein paar Gerüchte, die einem Wunschdenken entsprechen, eine solche Massenwirkung haben können! Schon mal darüber nachgedacht, dass diese News bewußt gestreut worden ist ...
 
@Thaquanwyn: Was erwartest du von den meisten Kiddies hier. Diese leben doch in einer Traumwelt, fernab jeglicher Realität. Anders läßt sich doch auch nicht dieser Microsoftfanatismis erklären. Mittlerweile ist das Verhalten vieler WF-User wie das Verhalten von Sektenmitgliedern. Solange nicht negatives gegen Microsoft sagt, ist alles in Ordnung. Übt man allerdings berechtigte Kritik an Microsoft, wird man beleidigt und bestraft. Die Pisastudie hat wirklich Recht. Sehr viele Jugendliche sind nicht mehr in der Lage, rational zu denken und leben fernab jeglicher Realität in einer Traumwelt. Diese Traumwelt heißt hier Microsoft. Wenn ich manchmal Aussagen wie "Linux ist sch.." lese und diese Aussage nicht begründet wird, dann zeigt sich wieder, das hier wieder irgend jemand mit Computerbildhalbwissen am Werk war. Ich vermisse hier wirklich Objetivität und Realitätsnähe. Mir ist klar, das ich für diesen Beitrag wieder eine Menge negativer Bewertungen bekomme. Das ist logisch, weil hier viele die Wahrheit nicht vertragen können. Vielleicht sollten diese Leute einfach mal nachdenken, bevor sie diesen Beitrag negativ bewerten. Oder, erwarte ich da zu viel?
 
@kfedder: Wieder mal ein bischen verwirrt heute? Es geht hier nicht um MS Bashing sondern um eine neue Chipgeration von nVidia. Deine Ausflüsse zu MS kannst du ja bei Gelegenheit in einem anderen Thread unterbringen.
 
Mittlerweile kein Gerücht mehr, Nvidia hat jetzt offizielle Specs vorgestellt:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/offiziell_fermi_gt300/
 
Damits niemand vermisst: Da läuft Crysis dann bestimmt flüssig :D
 
nix gegen "crysis" - aber spieleentwickler haben selber den meisten einfluss darauf wie ihr kram läuft. übertreibt man es mit polygonen und texturen, ist halt nix mit fps.
 
@Genghis99: Da muss ich Dir rechtgeben. HalfLife 1 sah für die damalige Zeit echt gut aus und hatte wirklich minimale Systemvoraussetzungen. Ich denke wenn man nach Fertigstellung des Spiels nochmals 3 Monate Arbeit reisntecken würde um einige Abläufe zu glätten dann läufts auch mit mehr Polygonen auf schwächeren Systemen ganz ok...
 
@rockCoach: Ich bin ja immer noch großer Fan von half life 1 und es gehört für mich mit zu den besten Computergames aller Zeiten, ABER:
HL1 sah NIE wirklich besonders gut aus, als es 1999 auf den Markt kam gab es bereits grafikmäsig deutlich besseres (Unreal z.B.)
Und ein (damals) leistungsfähiger Rechner war durchaus auch empfehlenswert, ein Pentium 1 oder K5/K6 Prozessor waren genau so notwendig wie eine 3dfx Grafikkarte, um es problemlos in hoher Auflösung flüssig spielen zu können.
 
Und nun bevor jemand meinst nur weil da 6GB VRAM drinn sind und 3. Mio Transistoren drauf stecken sei das Ding super schnell...dem ist nicht wirklich so...denn viel geht für den Speicher (welcher für Spiele eigentlich brach liegt) drauf und ATI hat auch die Shadereinheiten verdoppelt und "nur" 50% auf die Vorgängergeneration raus geholt...weiter wird dieses Monster wohl so viel Strom ziehen dass man 2x8Pin einstecken darf...die Karte wird wohl mer für CUDA (siehe auch den L1 und L2 Speicher) gedacht sein und auf den Gamer Markt nicht wirklich viel reissen...mit 2 HD5850 im CF ist man sicher besser bedient was Performance angeht und was den Preis angeht...
 
was ich cool finde, ist die volle Unterstützung für C++
 
@HeyHey: Das bringt dir das? Hardwareübergreifende Lösungen wie Compute Shader oder OpenCL sind gefragt...
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles