Nvidia GTX 480 & 470: Spezifikationen aufgetaucht

Grafikkarten Kurz vor dem geplanten Launch Ende März sind die finalen Spezifikationen der beiden Fermi-Grafikkarten Nvidia GTX 480 und GTX 470 aufgetaucht. Die Website 'vr-zone.com' bietet zudem ein Foto des Spitzenmodells. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Kann mir wer erkären, wie die immer auf solch komischen MHz-Zahlen kommen?... hätte es nicht 1.400 MHZ und 1850MHz auch getan?...
 
@klein-m: na bin ich froh, dass du keine anderen sorgen hast...
 
@k1rk: In was für einer Welt wir doch leben, wo man nicht mal von seinen alltäglichen Sorgen und Problemen Abstand nehmen kann...Und allzuviele scheinst du ja auch nicht zu haben, wenn dich meine Fragen sorgen...
 
@klein-m: Das liegt vielleicht an irgend so einem Basistakt (wie früher im CPU-Bereich mit 133 MHz) der dann "vervielfacht" wird und dann ergeben sich diese krummen Werte.
 
@drhook: Korrekt. Und dieser Basistakt scheint bei 152 MHz zu liegen. Ist zumindest der grösste gemeinsame Teiler. :)
 
@klein-m: das gleich kann man auch beim RAM sagen 1280 MB ?
 
@Schattenfell: liegt am speicher interface. ;)
 
@klein-m: Die Zahlen sind nicht komisch sondern wie schon erwähnt Multiplikatoren von Basiswerten. Das einzige was wirklich komisch ist sind Leute, die mit den Taktraten ihrer CPUs und Grakas Sch'wanzvergleiche machen und sich ärgern, wenn sich die 'uncoolen' Zahlen schlecht vergleichen lassen. Mit dem Problem solltest du dich an die NVIdia Marketingabteilung wenden, vielleicht helfen die dir.
 
@SkyScraper: Hast du irgendwelche Wahrnehmungs- und Urteilsstörungen oder wieso kommst du drauf, dass ich Probleme damit habe, Schw'anzvergleiche mit 'uncoole' Zahlen durchzuführen, weswegen ich mich an die Nvidia-Marketingabteilung wenden sollte?
 
@klein-m: Bei ner Frequenz ist das noch so, dass nicht nur ein Multiplyer an der Zahl "schuld" ist, sondern auch die Basistaktraten schon krum sind. Und das kommt meist dadurch, dass man mehrere Taktgeber miteinander kombiniert um einen stabilen Takt zu kriegen. Ich kenne mich da eigentlich nicht aus, Elektronik ist zwar einer meiner früheren Hobbys, aber ich hab mich mit den PC-taktraten nicht beschäftigt. Im Prinzip gibt es ja Schwingkreise, die niedrigen mit Quarzen, die höheren Taktraten mit anderen Oszilatoren, die z.B. ihre Frequenz abhängig von der Spannung regulieren (ich glaube, so funktionieren die Multiplayer einer CPU). Und mit eben dieser lässt sich einfach die Taktfrequenz in kleinen Schritten bestimmen. Dann rechnet man nochmal aus, mit welcher Taktfrequenz eine Schaltung als stabil gilt, und zack, schon hat man nen krumen Wert ^^. Denn auf einen optimalen geraden Wert zu kommen, nur damit wir Menschen sagen können "hey, cool, ist gerade, lässt sich gut vermarkten", ist wie ein 6er im Lotto. ^^
 
@klein-m: Scheinen einige nicht zu begreifen oder sie wollen es nicht hören. Dieses Herumreiten auf Taktfrequenzen höre ich jetzt seit 20 Jahren täglich und die Diskussionen darüber sind noch genau so unsachlich wie damals. Eigentlich sind die Taktraten völlig uninteressant, ganz egal wie gerade oder krumm sie sind. Den Anwender sollten die realen Leistungsmessungen / Benchmarks interessieren, denn nur darauf kommt es an. Wie die Karte die Leistung erzeugt ist mir doch völllig Wurscht. Wie gesagt, es sei denn man spielt den Überlegenen, weil man 'ne Graka mit 200Mhz mehr Takt hat als der Nachbar, das ist aber kindisch.
 
@SkyScraper: Du scheinst nicht zu begreifen, dass das gar nicht Gegenstand meiner Fragen ist. Wo geht es darum, im welchen Verhältniss die oben angegebene MHz-Zahlen zu der eines Konkurenzproduktes steht, sondern darum, warum die Zahl so krumm ist Mir ist schon klar, worauf du anspielst, doch das ist gar nicht Gegenstand der Sache. In der Schule hätte man dir gesagt: Thema verfehlt. 6.
 
@klein-m: Und dir muß man bescheinigen dass du selbst nicht weisst worüber du dich beschwert hast und dass du die Unwichtigkeit dieser Zahlen einfach nicht einsehen willst. Warum jemand die Zahlen ausgerechnet nach deinem ästhetischen Empfinden 'gerade biegen' sollte kannst du auch nicht erklären. Meine Lehrer sind übrigens alle schon tot, deine Annahme bleibt deshalb Spekulation :-)
 
@SkyScraper: Wo habe ich mich beschwert und wo steht, dass sie unbedingt gerade sein sollen? Ich habe lediglich gefragt, warum die Zahlen so krumm sind und nicht gerade! Und wo habe ich geschrieben, dass ich glaube, dass du noch zur Schule gehst? LESEN und VERSTHEN ist echt nicht dein Ding, aber das Phantasieren.
 
@klein-m: Deine Fragen kannst du dir selbst beantworten, lies einfach deine Posts und du siehst wo du was behauptet hast. Ich sehe es sehr gut, du scheinbar nicht. Lesen und verstehen, genau das mache ich. Na lassen wir das Thema besser, dein Ego lässt offenbar keine Einsicht oder Kritik zu, da sind Argumente sinnlos.
 
@SkyScraper: Achso, meine Posts (Mehrzahl) lesen, wo ich doch nur in einem gefragt (nicht behauptet) habe, warum es so ist. Und von welchen Argumenten redest du? Zeige mir die mal bitte in deinen Kommentaren auf (keine wirren Anschuldigungen, sondern belegbare).
 
"Die Leistung soll aber nur knapp über der Radeon HD 5870 liegen." Da hätte ich deutlich mehr erwartet. Na hoffentlich sinken dann die ATi Preise noch ein bissel.
 
@OSi: Muss wohl. 500$ für die lang erwartete Fermi wäre ja fast ein Schnäppchen. Mal sehen wie sich der Preis in Europa verhalten wird.
 
@Cop75: 500 US$ = 500 € , was auch sonst.. *scnr*
 
@Spooky: Dafür ist der Preis bei uns Netto, auf den Dollar Preis kommen ja noch mal Steuern.
 
@Spooky: dafür kann die gtx285 physx, worauf ich zur zeit mehr wert lege als dx11 ;) aber das müsste sich in den nächsten monaten ändern
 
@OSi: Wenn das so sein sollte, werden diese neuen GeForces Rohrkrepierer und sich nicht sonderlich gut verkaufen. Vor allem nicht zu höheren Preisen als die Radeons. [EDIT] Wie kann eine GTX 470 nur knapp besser als eine 5850 sein? Eine GTX 285 liegt schon auf ähnlichem Niveau. Würde das eintreffen, wäre die Leistung der 1D-Shader im Vergleich zum GT200-Chip massiv zurückgegangen.
 
@Tjell: lol die 5850 putzt deine 285 gtx in allen lebenslagen weg.
informier dich bevor du hier was schreibst ^^
 
@sapphire_fan: Aussage korrigiert. Nur ist Deine erst recht unhaltbar. "in allen lebenslagen" ... schon klar.
 
@Tjell: naja in den meisten fällen, zufrieden ^^?
 
@Tjell: Naja, so Unrecht hat Sapphire nicht. Gegen eine HD5850 sieht deine GTX285 wirklich alt aus. ^^
 
@Neeko: Ja, ziemlich genau 8½ Monate älter. 8)
 
@Tjell: Also mal die Fakten auf den Tisch. Die HD5850 ist einer GTX285 in etwa um 10% Leistung überlegen, das erreicht sie mit einer leicht besseren Leistungsaufnahme im Idle und einer erheblich besseren Leistungsaufnahme unter Last. Daraus folgt allerdings auch, dass der Chip nicht so warm wird wie bei der GTX285 und man dadurch leichter/besser übertakten kann. Im übrigen macht sich die niedrigere Temparatur auch bei der Lautstärke bemerkbar. Und dann kommt halt noch der üblich Kleinkram wie Directx 11, Eyefinity usw.
:P
 
@Neeko: Alles andere wäre ja aber auch eine Enttäuschung gewesen, da die HD5850 ein viel jüngeres Produkt ist. Das Leistungsniveau hat sich übrigens erst mit neueren Treibern derart eingependelt. Eine Enttäuschung werden jedenfalls die GTX 4x0er Karten sein, wenn mit dem Overkill an Hardware tatsächlich nur eine so geringe Leistungssteigerung herauskommt.
 
@Tjell: stimmt ^^
 
@Neeko: Hm..und wie ist aktuelle ATI Treiber so? Stabil? Oder immernoch instabil für Windows? Ich habe ATI damals abgewogen, weil ATI-Treiber ständig probleme machte...
 
@fegl84: Sagen wir mal so, ich hab nen alten Rechner mit einer x1950Pro und dem Treiber 10.2. Bisher läuft da alles glatt, kann mich nicht beschweren.
Und bei den letzten Computerbase-tests kamen die Treiber auch gut weg.
 
@fegl84: Ja damals, 44/45 in den Ardennen, da bin ich auch vom Tiger auf den Königstiger umgestiegen, weil ich mit dem Tiger immer daneben schoss. Warum sollten die ATI-Treiber nicht stabil laufen? Einmal 'nen Dieb, immer ein Dieb?
 
@Tjell: die Karten werden sich trotzdem gut verkaufen, es gibt einfach zuviel Leute die auf eine Marke fixiert sind. Mein Arbeitskollege würde z.B. nie eine Ati kaufen.
 
@Dexter31:
schönen gruß an deinen arbeitskollegen ... tststs, immer diese fanboys^^
 
@KoeTi: Fanboy nicht direkt, obwohl ganz paar Jahre jünger lebt er eher nach dem Motto "Was der Bauer nicht kennt, frisst er nicht".
 
@KoeTi: Naja, gibt halt Leute die meinen, das alles was teurer ist, auch besser ist ... Hatte mal nen Kunden dessen "GamingPC" unter anderem einen Xeon und eine Matrox beinhaltete ... fand ich sehr amüsant als er mich fragte ob man eine Matrox in SLI schalten kann, weil das voll ruckelt ...
 
@Dexter31: Dann hat dein Arbeitskollege jede Menge Komplexe und kann als Konsument überhaupt nicht argumentieren. Was sagen denn seine Eltern? Darf er überhaupt ohne Erlaubnis den Munde aufmachen?
 
@OSi: Es wurde von vielen mehr erwartet, obwohl genügend Leute eigentlich schon die ganze Zeit gesagt haben, dass die neu Nvidia kein Leistungsmonster wird, da sonst schon viel früher Leistungswerte veröffentlicht worden wären. Und die heiße Luft die Nvidia bisher um die Karte verbreitet hat, wird die Karte selber in Zukunft dann auch noch verbreiten: 250 Watt für eine Single-GPU-Karte ist schon ein starkes Stück.
 
@OSi: Warum sollten dann die Preise der ATi Karte sinken, wenn ATi eigentlich das bessere Produkt hat. Hier muss eher nVidia nachziehen mit den Preisen. ATi sitzt derzeit am längeren Hebel. Alleine die TDP ist ja schon ein No-Buy Kriterium. Naja, solche teuren Karten kaufe ich mir schon lange nicht mehr. Wofür braucht man derzeit solche Potenten Karten.
 
@Seth6699: Wenn man diese Karten mit Konsolen wie der PS3 oder der X-BOX vergleicht wird die ganze Absurdität deutlich. Die ganze PS3 samt HDD und BluRay Laufwerk ist billiger als so 'ne schice Grafikkarte und braucht halb so viel Strom. Und dass die Spiele dort schlechter aussehen wird wohl auch keiner behaupten wollen. Soviel zum Preis/Leistungsverhältnis. Seit der 8800GT hat sich NVidia nur noch rückwärts entwickelt. Die Mehrleistung der Nachfolger wurde nur mit Gewalt aus den Chips und dem Speicher herausgedroschen, mit den bekannten Folgen für Abwärme und Stromverbrauch. Die Radeon 5870 ist die einzige Karte, die für mich z. Zt. in Frage kommen würde, die GTX 480 wird wohl nur von Leuten gekauft die blinde NVidia Fans sind und bei denen Papa oder Opa die Rechnung bezahlt.
 
@SkyScraper: [Zitat]... Und dass die Spiele dort schlechter aussehen wird wohl auch keiner behaupten wollen. ...[/Zitat] Doch, ich. Matschige Texturen, fehlende Kantenglättung, Nachladeruckler oder alternativ stark beschränkte Sichtweite... und zur Krönung eine berechnete Auflösung von 1024 × 600 bei manchen neuen Spielen. Die Konsolen sind KEIN Garant für HD-Gaming! Und zum Stromverbrauch: die erste PS3 "glänzt" mit einem Stromverbrauch von über 200 Watt beim Spielen, selbst im Leerlauf sind es knapp 175 W. Das reicht, um einen guten PC zu betreiben, der vielseitiger und leistungsstärker ist. Eine High-End-Grafikkarte hat an sich wiederum eine Rechenleistung, die die der PS3 um ein Mehrfaches übersteigt, die Rechenleistung pro Watt ist weit besser: PS3 204,8 GFLOPs (14 GFLOPs bei doppelter Genauigkeit), HD5870 2720 GFLOPs (544 GFLOPs bei doppelter Genauigkeit).
 
@Tjell: Ok, da senke ich mal mein Haupt und gestehe, dass ich noch nie eine Konsole besessen habe und die Qualität nur vom zuschauen kenne. Mein Eindruck war allerdings bei weitem nicht so schlecht wie du das beschreibst, gerade bei der PS3. Das kann natürlich täuschen, den direkten Vergleich mit dem PC hatte ich nicht. Zum Stromverbrauch muss man sagen, dass man die Konsole nach dem spielen ausschalten kann, während der PC (zumindest bei mir) sehr viel länger läuft. Zumindest der Verbrauch im Leerlauf ist für mich ein wichtiges Kriterium, da sich jedes Watt in Form von Abwärme und nervenden Lüftern negativ bemerkbar macht. Da glänzt NVidia in letzter Zeit wirklich nicht, die 58xxer ATIs treffen da schon eher meine Vorstellungen.
 
@SkyScraper: Wer ernsthaft meint, dass Konsolen mit nem PC mithalten können, der ne 58x0 oder Fermi hat, dem ist wohl echt nicht mehr zu helfen. Selbst die GT200 oder 48x0 lassen jede Konsole alt aussehen.
 
Schade Nvidia. Auch als überzeugter Nvidia-Kunde sehe ich für meine nächste Gra.Ka. von Euch schwarz! Zu spät, zu teuer und schlechter als AMD/ATI. Ziel wurde leider verfehlt. Aktiendividenden sind eben nicht alles.
 
@Kobold-HH: als dx10 raus kam sahs genauso aus nur eben andersherum... es gibt eben nicht DEN Hersteller nvidia wird auch wieder gute Karten bringen zur richtigen zeit...
 
@Kobold-HH: Doch! Aktiendividende ist am Ende doch alles das ist so bei Aktiengesellchaften!
Die hollen sich ihren Gewinn schon allein in der Quadro Sparte. Da muss ATI viel verkaufen um allein da mitzuhalten!
 
@Kobold-HH: Was heißt denn zu schlecht? Mal angenommen die nVidia-Karte ist 10% langsamer als die Konkurrenzkarte von Ati. Was ist da genau das Problem? Schmerzt dich dann die Tatsache dass du flüssig mit 63FPS statt 70FPS spielst? Ich würde nicht nur die FPS betrachten, denn heutzutage kommts bei Grafikkarten schon längst nicht mehr alleine darauf an. Sieht man ja schon an den Benchmarks die gemacht werden. Da wird zwischen immer mehr Optionen und Einstellungen unterschieden.
 
@DennisMoore: Zu schlecht heißt, dass die Dinger dir tierisch Saft aus der Steckdose ziehen ohne dabei nennenswert schneller zu sein als ihre ATI Pendants. Zu schlecht heißt, dass die Dinger durch den höheren Stromverbrauch sehr warm werden, was ein effizientes kühlen und vorallem übertakten schwieriger macht als bei ihren ATI Pendants. Und zu schlecht heißt, dass die Dinger vermutlich genausoviel Euro wie Dollar kosten und damit das P/L-Verhältniss ein absoluter Witz ist.
 
@Neeko: Schnell ist relativ, weil die Karten nicht nur für eine Auflösung mit bestimmten Grafikeinstellungen und bestimmten Technologien gedacht sind. Wer sagt z.B. dass sie bei der Konvertierung von Filmen z.B. unter PowerProducer nicht zig-fach schneller sind als ATi? Wer sagt mir wieviel Strom sie wirklich aus der Dose ziehen wenn sie (bei mir die meiste Zeit) im Desktopbetrieb laufen? Wie kann ich ein Preis-Leistungsverhältnis beurteilen, wenn ich diese Dinge gar nicht weiß weil sie a) nicht kommuniziert und b) nicht gebenchmarkt wurden? Um das alles zu beurteilen brauch zumindest ich erstmal offizielle Infos, offizielle Tests von unabhängigen Stellen und offizielle Benchmarks ebenfalls von unabhängigen Testern.
 
@Kobold-HH: sehe ich auch so, lönnte meine erste AMD/ATI Grafikkarte werden (Wenn man von meinem HTPC mal absieht).
 
die verbrauchstwerte sind jenseits von Gut und Böse
 
@sapphire_fan: + von mir. Der Verbrauch von heutigen Pixelbeschleunigern ist allgemein auf einem chaotischen Weg, dafür solltes kein Minus geben. Ich hoff halt mal, dass die Grafikkartenhersteller genauso wie es bei den CPUs vor einiger Zeit passiert ist, wieder mal mehr auf den Verbrauch wert legen und nicht nur doppelte Shader reinbauen ohne Rücksicht auf Verluste.
 
@ZECK: was wollt ihr eigentlich? das Verhältniss von Rechenleistung zu Verbrauch wird doch immer besser: Bsp: [GeForce 8800 Ultra - 576GFlops : 171W = 3.37 : 1] - [GeForce GTX 285] - 1063GFlops : 204W = 5,21 : 1].. Und wenn ihr sowas nicht braucht, dann holt euch doch eine Mainstreamkarte...
 
@klein-m: Mag sein, dass die Effizienz steigt. Ändert aber nichts daran, dass der absolute Verbrauch Irrsinn ist. Wenn der Verbrauch sich mit aktueller Technik nicht senken lässt, muss man eben die Rechenleistung beschneiden. Dann gibt es fotorealistische Grafik eben etwas später oder die Softwareproduzenten müssen effizientere Software schreiben.
 
@TiKu: Glaubst du wirklich das die Hersteller ihre Software optimieren werden? Hier gabs doch mal einen Artikel, das optimierte Software das (AFAIK) 3fache in der Entwicklung kosten soll! (Nein, das Minus ist nicht von mir. Ich stimme dir ansonsten zu!^^) MfG
 
@Mandharb: versuchts es mal mit undervolten! Da U*I=P sinkt die Leistung ums 4 Fache von der Spannung ... also Zahlt sich extrem aus! So kann man mit bisserl Fingerspitzengefühl und Hirn eine 250W Karte auf 190W ohne Probleme und Leistungsverlust runter Regeln!
 
@TiKu: 1. Der Verbrauch ist bei den High-End Modellen hoch, das ist richtig. Wenn man aber das Geld hat, sich eine solche Karte zu kaufen, dann ist das für die Leute wohl auch kein Problem den benötigten Strom zu bezahlen. Zum Vergleich: wenn ich das Geld für nen Ferrari hätte, wurde ich den Verkäufer auch nicht nach dem Verbrauch fragen, denn wenn ich das tun muss, dann kann ich mir den Wagen eh nicht leisten. Für Leute, die kein Geld für High-End haben oder nicht so viel ausgeben wollen, gibts die langsameren Varianten. Und die fallen dann wohl unter "Verbrauch mit aktueller Technik senken". 2. Softwareproduzenten bzw. in dem Fall besonders interessant Spieleproduzenten schffen es nicht mal halbwegs fehlerfreie Software vor dem Release hinzubekommen und du erwartest, dass sie noch optimieren? Wäre sehr wunschenswert, wird wohl aber leider nicht passieren.
 
@Link: und wenn der strom von mama & papa gezahlt wird ist es den meisten sowiso egal. q software - hab es bei meiner tochter gesehn, hat nen kleinen pc wenig strom wo das für ihr alter alles gut läuft, nun kamen von den selben programmen und games neue versionen raus, selbe speichermenge kaum etwas mehr aber ? extrem komprimiert somit das ding nur am arbeiten, entpacken usw.. ist kaum spielbar, so ist es mit den meisten hersteller die mindestens eine dualcore mit 2x 2,4 - 2,6 voraussetzen, was mich dann extrem ärgert weil der kleine mit tft nichtmal 90 watt vollast frisst.
 
@sapphire_fan: Ich versteh nicht warum ihr euch alle so wegen dem Verbrauch aufregt. Es ist nunmal so das die besten Karten auch Strom fressen, daran können wir nichts ändern. Wenn euch der Verbrauch stört dann kauft einfach eine Karte mit weniger Verbrauch, ihr werdet nicht dazu gezwungen diese Karten zu kaufen...
 
@sapphire_fan: Der absolute Verbrauch ist tatsächlich Irrsinn, da gebe ich recht. Aber der Weg bei den ATI HD5000er Karten geht schon mal in die richtige Richtung. Wenn ich nicht spiele, dann benötigt sie gerade mal 20 Watt für den Desktop. Den Wert finde ich gerade noch akzeptabel, kann aber gerne weiter sinken. Die Mittelklasse-Karten brauchen ja eh nicht ganz so viel Energie.
 
Die Leistungsaufnahme ist mit 225 Watt etwas niedriger. Die Performance soll knapp über der AMD Radeon HD 5850 liegen. <-- LOL, eine HD5850 hat eine TDP von 170W, das ähh... ist ein bisschen viel weniger.
 
@KnolleJupp:
lies mal genauer. die 225w sind bezogen auf die 250w von der 480er. nur die leistung im nähsten satz ist auf die ati bezogen.
 
@KoeTi: Die 470 verbraucht 225W und eine ähnliche schnelle HD 5850 verbraucht 170W. Somit hat KnolleJupp Recht!
 
Viel Glück mit der neuen GTX trotz der harten Preise.
Ich hoffe nVidia wird nicht zu tief ins Klo greifen, stille Örtchen sind tief.
 
slowfuture - schon seid Tagen bekannt.
 
@myremix: Noch viel länger ist bekannt, dass man in diesem Falle seid mit t am Ende schreibt und nicht mit d.
 
Mal schauen, wie sich die preise entwickeln: Ich muss aufjedenfall eine neue Graka kaufen. Egal ob ati oder nvidia. Hocke noch mit ner 86ergt rum und bei einem 24" (1900x1200) geht die performance ganz schnell in die Knie. :(
 
So hoher Verbrauch wie die schnellste Karte der Welt(HD5970) und das auf einem Leistungsniveau einer HD5870. Wenn das der sagenumwobene ("Are you ready?" Slogans muss man dafür nicht bringen) Fermi ist und nicht irgend ein Trick um alle zu verwirren dann kann ich dem guten Unternehmen auch nicht helfen. Mit einer HD5850/70 ist man sicherlich besser bedient...schade...wenn sie nun irgendwie die Preise drücken können wäre es toll aber es sieht nicht so aus...
 
Auch wenn die Zahlen jetzt nicht so berauschend sind, warten wir doch mal die ersten Tests und Zahlen ab. Erst dann wissen wir, wo sich die neuen Karten einreihen und können sie verdammen oder lobpreisen. Für mich selber sind die Karten nicht sonderlich interessant, da meine 4870 noch eine Weile gut mithalten kann.
 
Also nach so ner langen Zeit "nur" so eine Karte abzuliefern ist schon recht mau! Es wird sich zwar erst noch zeigen müssen, wie sich die Karten im Alltag schlagen, aber mich haut das alles nicht vom Hocker... Da hätte man auch energietechnisch mehr erwarten können! Ati ist einfach ne ganze Ecke voraus und hat selbst nach dieser langen Zeit die (meist) bessere Karte. Ich hoffe nicht, dass Nvidia wie 3Dfx endet, bei denen das damals auch so angefangen hat. Das einzig Positive das ich sehe, ist der Preiskampf, der jetzt los geht, damit ich meine 4770 (mein persönlicher Preis/Energie/Leistungssieger) günstig mit einer 5770 oder höher ersetzen kann.
 
@Pistolpete: nv hat doch 3dfx aufgekauft um ihre technologie zu bekommen. Oo
 
@Pistolpete: Guck dir die Geforce FX an, die war auch Müll und in der Zeit hatte ATI mit ihrer 9er serie die Nase vorne. Und Nvidia hats damals ja nicht viel geschadet haben danach immer noch gute Karten rausgebracht. Ist halt immer ein hin und her. Nur bei den Treibern unter Linux lag Nvidia immer vorne und das obwohl ATI die spezifikationen rausgegeben hatte.
 
@Kn3cHt: Nur dass die GF FX serie nicht so lange in der Entwicklung steckte, wie die Fermi-Karten (meines Wissens).
 
@Pistolpete: Die Ironie dabei wäre, dass NVidia damals 3dfx kaputt gemacht hat.
 
Hätte mehr erwartet. Bei diesem Energieverbrauch eigentlich eine Totgeburt.
War nicht anders zu erwarten bei dem Brimborium, was Nvidia in letzter Zeit aufgeführt hat. Die Gefahr den Weg von 3DFX zu gehen ist hoch. Ich traue Nvidia nicht mehr.
 
biiiiiiitte lasst diese karte auch für den mac pro kommen.
 
@Matico: Frühestens wenn der Nachfolger zu haben ist und dann für den doppelten Preis als wie sie jetzt kostet. Einziger Unterschied zur PC-Version wird das BIOS sein.
 
so wie immer habe ich das gefühl dass es bei uns dann 500 € sind... mit den europäern kann man ja sowat machn >.< is mir eigentlich zu happi! wenn genug leute dieses ding kaufen gibtz nen neues atomkraftwerk ^^
 
Ein Absolutes "No Go" zu der Stromaufnahme ... der neuen NVIDIA Karten!!! vorallem wenn ich dann schaue das sie nicht weit von den ATI Karen weg sind... Ich hätte da mehr erwartet.

Vorallem Frage ich mich wie es sich mit der Hitzeentwicklung verhaltet...
 
@mdee: TDP heißt nicht dass sie die ganze Zeit 250W verbraten. ATi und nVidia sollen ja für diese neuen Karten auch gute Stromsparmechanismen eingebaut haben.
 
@DennisMoore: das ist mir schon klar aber wenn eine Nvidia Karte mit einem GPU soviel verbraucht wie eine ATI mit 2 GPU muss man sich die Frage stellen und ob die Stromsparmechanismen wirklich greifen ... und so weiter!!!
 
@mdee: Sicher, aber wir wissen noch gar nicht was sie "verbrauchen". Das ist ja gerade der Punkt. Wir wissen quasi nur wie viel Watt sie verbraten können ohne kaputtzugehen.
 
@mdee: TDP hat mit dem Stromverbrauch erstmal nix tuen. Da bringt der Autor des Textes etwas durcheinander. Eine 5970 hat einen Verbrauch von 250W aber eine TDP von 295W. Jetzt kommt es aber drauf an ob die 250W der 480er für den Verbrauch oder für die TDP stehen. Sollte es so kommen das die 250W die TDP darstellen kann man von einem Verbrauch ~200W ausgehen, bei 250W Verbrauch muss man von einer TDP von ~295W ausgehen.
 
@knuprecht: also von der TDP einfach mal 50W abziehen ist ziemlicher Blödsinn, siehe hier: http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php. Und die 5970 hat ne Leistungsaufnahme von bis zu 291W, http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5970/index11.php
 
@Link: Im Furmark geht jede Grafikkarte an ihre TDP Grenzen das ist klar. Blödsinn ist was der Autor verzapft:"Die Karte kommt auf eine TDP von 250 Watt und liegt damit auf dem Niveau einer AMD Radeon 5970" Das stimmt doch so nicht. Ich hatte meine 250W nur pi mal Auge bei CB nachgeschaut und lag sogar weit über dem Verbrauch beim zocken. Des Autor Kompetenz sollte man aber dringenst in Frage stellen, bei dem die TDP=Verbrauch ist.
 
Also wenn, und ich sage WENN, die Preise sich so gestalten oder in Etwa so gestalten, dann freut sich ATI über einen Kunden mehr. Zumal es keine gängige oder großarig kommende gängige Anwendung oder Game gibt, das diese Karte bedingt. Mal sehen wie sich die Preise der jetzigen Schiene verschieben. Übrigens den Stromverbrauch muß man bei der Konzeption ausgelassen haben!
 
rofl... News abschreiben... 1a! :)

http://www.heise.de/newsticker/meldung/Preise-und-Spezifikationen-der-Fermi-Grafikkarten-959845.html
 
Hoffentlich benchmarken die Fachmagazine endlich auch mal die Leistung von Grafikkarten außerhalb von Spielen. Das wäre mir nämlich mittlerweile auch recht wichtig. Wer schonmal nen HD-Film mit Hilfe der GPU und nem QuadCore umgewandelt hat weiß warum. Wenn die Performance in solchen Bereichen besser ist als bei Ati, dann würden mich 5-10 FPS in Spielen nicht weiter stören. Natürlich nur solange Crysis 2 trotzdem flüssig läuft ^^
 
@DennisMoore: Du nimmst wegen ein paar Sekunden für eine Konvertierung eines Videos einen so hohen Verbrauch in Kauf?
 
@bluefisch200: Wäre der Verbrauch niedriger, würde die Leistung wohl auch niedriger sein weil nicht so viele Recheneinheiten rechnen. Pro Sekunde wird dann weniger Strom verbraucht, es dauert aber auch mehr Sekunden bis es fertig ist und somit wird auch länger Strom verbraucht. Was unterm Strich günstiger ist, mußt du selber ausrechnen. Länger weniger Strom verbrauchen, oder kürzer mehr Strom verbrauchen. Ich denke es dürfte sich die Waage halten, weil unterm Strich ja immer die gleichen Eingabedaten vorliegen und auf dem gleichen Wege das gleiche Ergebnis ausgerechnet wird.
 
@DennisMoore: Das wird sich wohl kaum in der Waage halten...die GTX470 gegenüber der HD5850 ist 5-10% schneller benötigt aber 32% mehr...zudem die GPU wohl zu 99% der Zeit rumideln wird (und im Idle sind die ATI ja ungeschlagen) ...ich glaube nicht dass du ununterbrochen Videos konvertierst...wenn dann die nVidia überhaupt schneller sind dabei...
 
@bluefisch200: Ich meine natürlich die Karte verglichen mit sich selber. GTX470 mit GTX470, HD5870 mit HD5870 jeweils einmal in langsam und einmal in schnell. Was einen Wechsel von nVidia zu ATi betrifft, so käme dieser nur im Notfall Infrage. Aufgrund meiner Erfahrungen mit ATi und nVidia bleibe ich so lange wie möglich bei nVidia. Da muß schon etwas mehr passeieren als ein paar Watt mehr Maximalverbraucht und 100 Euro Aufpreis. Mir ist das unkomplizierte und zuverlässige Verhalten der nVidia-Karten wichtiger als ein paar Euro zu sparen. Ich spiel nämlich gern mal ein Spielchen und das sind meistens die wo ATi in der Vergangenheit beim Spielrelease keine funktionierende Treiberlösung präsentieren konnte.
 
@DennisMoore: egal mit welcher Marke, ob ATI oder Nvidia, ich hatte noch nie wirklich Probleme mit den Treibern... Du scheinst ja nur Probleme gehabt zu haben... so macht jeder seine Erfahrung!!! Ich verbaue zurzeit nur ATI weil mir die Nvidias zu viel Wärme als Leistung produzieren. /ironie
 
@mdee: So so, dann hast du also kein GTA IV ab Release gespielt.... Ich schon. Und ich hab mich gefreut das es gleich funktioniert hat nachdem ich gelesen habe dass es mit ATi Karten ziemliche Probleme gegeben haben soll.
 
@DennisMoore: Ich habe eine ATi4850 und habe GTA IV vom Release an spielen können, Social Club ausmachen und dann funktionierte das Spiel auch. Hole doch mal neue Argumente hervor anstatt hier seit 1 einem Jahr nur auf GTA IV herumzureiten. Eines von einer Million verschiedenen Spiele ging nicht, tolles Beispiel.
 
@knuprecht: Es ist immerhin ein Beispiel und zwar ein besonders Ärgerliches weil es ein sehr gutes Spiel betrifft und ich gerade da ziemlich sauer wär, wenns Probleme gebracht hätte. Bei vielen anderen Spielen wärs mir egal gewesen, aber nicht bei dem.
 
@DennisMoore: Ich habe eine HD4870 und habe GTA4 ab Release gespielt - ohne Probleme.
 
@3-R4Z0R: Und tausend andere Leute haben das auch versucht und sind gescheitert. Soll ich jetzt annehmen, dass weil es bei dir läuft es überall läuft und die Warnungen in sämtlichen Magazinen ignorieren? Nö, lass mal.
 
@bluefisch200: Moderne Grafikkarten brauchen den maximal angegebenen Strombedarf nur, wenn sie auch entsprechend belastet werden. Ist mir bei einer fetten Nvidia Grafikkarte aufgefallen, wo ich erwartet hätte, dass in der Jahresstromabrechnung ein Mehrstromverbrauch auffallen würde, aber im Gegenteil: die neue fette Nvidia Grafikkarte trug dazu bei, dass um einiges weniger Strom übers Jahr verbraucht wurde. Offensichtlich sind moderne Nvidia Grafikkarten recht sparsam im Desktopbetrieb, so das auch gelegentliches 3D Spielchen drin ist und trotzdem der Jahrestromverbrauch gesunken ist.
 
Ich werd mal die ersten Tests abwarten und bei uns im Geschäft n bisserl Benchmark betreiben, aber wenn ich mich jetzt für eine Karte entscheiden müsste... käm ne ATI 5870 rein.
 
Ich frage mich nur wer eine solche Grafikkarte allen Ernstes braucht ???
Ich finde 250 Watt Leistungsaufnahme ist einfach zu viel. Wenn die dann noch mit einer 2.ten Karte im Verbund läuft, dann braucht der Rechner soviel Leistung wie eine Kaffeemaschine. Die liegt auch bei ca. 850-900 Watt.
Die Hersteller sollten sich mal lieber darauf konzentrieren, die Hardware zu optimieren und somit ein paar Millionen von den paar Milliarden Transistoren zu elliminieren.
Dazu noch ausgereifte Treiber, dann dürfte die Grafikleistung auch steigen.
Das meine ich unabhängig vom Hersteller. Ich kaufe mir die Hardware die meinen Ansprüchen genügt und mein Geldbeutel hergibt. Der Hersteller ist da eher zweitrangig.
 
@Brassel: Kaffeemaschinen sollten endlich mal Stromsparen, damit mehr Strom für Grafikkarten und Computer übrig bleibt!
 
@Fusselbär: Quatsch. Der GPU-Kühler sollte nach aussen geführt und zum Kaffee kochen verwendet werden. Dann wäre Kaffeepause immer auch gleich Spielpause. <bg>
 
@Aspartam: Also ich trinke mehr Kaffee, als das ich mal spiele. Wenn das Kaffee zubereiten alleine vom Computerspielen abhängen würde, dann sähe es für mich düster aus. Außerdem möchte ich den ersten Kaffee schon haben, bevor ich mich an den Computer setze.
 
Ich denke NVIDIA wird am Wochenende ne Bombe platzen lassen, den werden die neuen Karten mit Teslation gebencht gehen sie besser als die ATIs. Dazu wurde noch die Physx beschleunigt und es soll jo noch HDMI Sound darüber laufen min.Frams sollen auch besser sein, also haltet noch die Füsse bis Samstag still. mfg
 
@SOLDIER: ja abwarten was unabhängige Benchmarks zeigen .... bis jetzt waren die Benchs von Nvidia der Witz schlechthin...
 
Ich gehöre auch zu denen, die es kaum erwarten können, bis nvidia "aus der Suppe kommt". Ich freue mich über ATI´s vorgelegter 5xxx-serie, die wie sich seit einiger Zeit herausgestellt hat, sehr konkurentzfähig ist - vom P/L ganz abgesehn. Vermutlich wird/ist die GTX470/480 ein "Krawallakt" und ende des Jahres wird ENDLICH der "richtige" FERMI verbaut um die Leistung zu erzielen die nvidia grossmäulig versprochen hat. Siehe Sommer 2008 : ATI-4870 vs. GTX280. 6 Monate später kamen ja auch die RE-Fräsches (lol) GTX285. mfg
 
@EinerDerWenigen: Was dann aber einen Refresh (nVidia) gegenüber einer neuen Generation (HD6xxx) zufolge hätte...das wäre dann das Ende von nVidia im Spiele Sektor...
 
Wer kauft sowas ernsthaft? Verbrauchswerte des Teufels bei einer miesen Leistung. Aber hauptache sie ist grün, ne?
 
so ein glump ;) nene. hat schon was , aber halt leider nicht das was ich mir persönlich erhofft habe. gleich schnell wie ATI ist mir einfach zu wenig und ist in meinen augen eine schwache leistung !!! nvidia prallt mit neuer architektur usw. aber was hats gebracht ?? nix. viel geld in die entwiklung gepulfert und dann nicht mal wirklich schneller/sparsamer/ als ATI mit ihrer "alten" archi :)

bin gespannt wie die spiele benchmarks aussehen werden. werde wohl auf fermi verzichten und lieber noch eine 5770 verbauen
 
Sorry, aber die Werte können schon rein logisch nicht stimmen. Winfuture, schaut euch mal die Benchmarks zwischen 5850 und GTX285 an. Die 5850 ist gerade mal 5-10% schneller. Die GTX470 muss also alleine schon vom Takt und der Shaderanzahl wesentlich schneller sein. Ganz zu schweigen von der GTX480. Die News ist total daneben!
 
@humpix: Dann ist die Heise-News also auch daneben? http://tinyurl.com/yhq2xgd
 
Was ich cool finde, ist, dass NVIDIA sich getraut hat das Design einer GPU komplett umzukrempeln. Hat zwar nur zum Anschluss gereicht, keine echte Überholspur, aber in der Idee der neuen Architektur stecken viele gute Ansätze. ATI dagegen hat alles richtig gemacht. Geschaut, was gebraucht wird, bloß nix zu viel machen, und es hat sich ausgezahlt. Rausgekommen ist eine sehr gute Grafikkarte, mit sehr gutem Preis/Leistungsverhältnis. Bei mir wechselte sich das eigentlich immer ab, seit es 3D Karten gibt: 3dfx zusatzkarte ^^, geforce1, ati9700, geforce7800, geforce8800U, und nun ati5870. Wenn man bedenkt, 3dfx ist ja Nvidia, müssten demnach die nächsten Karten wieder NVidia sein. Bei den CPUs verhält sich das ähnlich: seit ich nen PC hab (davor andere): i486DX4 100, P2 233, Athlon 600, P4 1.6->2.2, AMD 4400+ X2, QX6580, i7950. Ok, hier breche ich leider am Ende mit der Tradition, da Intel Leistungstechnisch mir im Moment besser gefällt. Aber ich schweife ab, zurück zu den Grafikkarten und dem Kampf der Gigangen :)
 
@NewsLeser: Mit trauen hat das nichts zu tun, das GPU Design war einfach nicht DirectX 11 oder OpenGL 4 fähig...
 
Hm, also wenn ich mal nüchtern die Zahlen betrachte: Nur etwas schneller als eine HD 5870 und 500Dollar? Wie will man denn so etwas rechtfertigen, wenn das stimmt? Währ ja das selbe, wenn der neue Corsa 5000EUR teurer als der Polo wäre nur weil er 10KMH schneller fährt und 10L mehr in den Kofferraum passen... Also ich warte da mal auf offizielle Zahlen und auf die nur im Angesicht eines guten Konkurrenzverhaltens. Ein Kauf steht ohnehin nicht an.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles