Nvidia GeForce GTX 480M bringt "Fermi" in Laptops

Grafikkarten Der Grafikchiphersteller Nvidia hat seine neue GeForce 400M Serie von Grafikprozessoren für Notebooks offiziell vorgestellt. Den Anfang macht das High-End-Modell GeForce GTX 480M, das fast drei Mal so viele Kerne zur Berechnung von Shader-Effekten ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Ich hab es in den letzten Tagen nicht genau verfolgt, aber ist die Fermi nun im Preis/Leistungsverhältnis angekommen? Die letzten Tests die ich gesehen habe, waren aller im Bereich der ATI Karten, Preislich dafür massiv zu hoch.
 
@Kungen: gute Frage..
Ich frag mich, ob das alles so sauber läuft, weil so hatte die 480 ja sehr viel Abwärme...
 
Uii, Laptops mit integrierter Schnell-Kochplatte :)
 
Ja, was noch gut gewesen wäre, wenn WF erwähnt hätte, dass der Fermi für Laptops bei ner TDP von ~100W liegen wird, ATI's 5870 Mobile bei "nur" 50W (Quelle: http://tinyurl.com/3xln4z3 ). Und das mit "5x mehr Grafikleistung" glaub ich im Leben nicht.
 
@Der_Karlson: Die 5x mehr Leistung wird man sicherlich nur in speziellen Benchmarks erreichen. Ansonsten werden sich die Karten wie eh und je alle im gleichen Leistungsbereich tummeln. Das mit der Leistungsaufnahme ist aber ein Wermutstropfen. Wer braucht einen Laptop, wenn die Grafikkarte in Sekunden den Akku leer saugt? Zum Glück nennen sie die Dinger ja dann Desktop-Replacement-Systeme, da braucht man ja eigentlich keinen Akku mehr. So ein Blödsinn. Wenn die das mit der Leistungsaufnahme in den Griff bekommen, dann kauf ich aber trotzdem lieber Nvidia. Allein schon wegen CUDA. Gibt es da von ATI überhaupt was entsprechendes?
 
@WemmZi: Ja gibts, ATI Stream. Wird aber nicht so sehr unterstützt wie CUDA.
 
@Shiranai: NVidia pusht seine Techniken ja auch mit mehr eigenem Kapital, welches vorhanden ist, weil sie ihre Hardware deutlich überteuert verkaufen. Einen wirklichen Nutzen von CUDA für Privatanwender sehe ich bisher nicht. Die Videoqualität von CUDA-Convertern soll laut einiger Internetberichte deutlich hinter CPU-Konvertierungen zurück stehen. Und sonst kenne ich keine CUDA-Anwendung, die für Privatanwender derzeit nützlich wäre.
 
@SCSI-Terminator: Photoshop etc, arbeiten aktuell auch schon mit CUDA, spiele mit PhysX. Die berechnungszeiten gehen einfach enorm runter da eine GPU/Shader-Einheit einfach um ein vielfaches schneller ist als eine CPU.
Das ATI Stream kenne ich absolut nicht. Noch nie was drüber gelesen. AMD/ATI unterstützt einfach viel weniger die Entwickler. NV dagegen hilft verschiedenen Firmen, in dem sie Engines verbessern. ATI lässt dahingegen leider einiges hängen. In der hinsicht bin ich etwas enttäuscht von ATI.
"..deutlich überteuert...": find ich jetzt nicht unbedinkt. Wer CUDA haben möchte, und ein Teil dieser Technologie nutzen möchte, zahlt halt einen aufpreis ! wer CUDA absolut nicht braucht, der soll halt ne günstigere ATI kaufen.
 
@koila: Naja "enttäuscht von ATI".. das kann man so nicht stehen lassen, finde ich. nVidia hat einfach auch viel mehr finanzielle Mittel um eben die Spielehersteller zu unterstützen, so dass die nVidias PhysX einbauen. ich finde es aber gar nicht mal so schlimm, dass meine HD5870 kein PhysX hat. Ich hab mir mal einige Videovergleiche mit PhysX an/aus angeschaut; oft (nicht immer, aber oft) sieht man den Unterschied wirklich nur im direkten Bildvergleich (mehr Partikel, Rauch, der realistischer verhält etc. pp.). Den "Aufpreis", der nunmal eine 480GTX kostet, bin ich dafür aber nicht bereit zu zahlen; v.a. wenn man dann noch Verbrauch und Lautstärke beachtet.
 
@koila: Die Berechnungszeiten mögen runter gehen, nur leider sind die Caches von Grafikarten gar nicht groß genug, um die immensen Datenmengen mehrerer Videoframes zwecks Berechnung der Bewegungsvektoren usw. zu händeln. Viel von der Zeit, die man mit den Kernen herausholen könnte geht für Kommunikation wieder verloren und belastet wiederum auch die CPU. Aus u.a. solchen Gründen bleibt die Qualität oftmals zurück.
 
@Der_Karlson: schau dir mal einen videovergleich von batman an, unterschied wie tag und nacht ;)
 
@Der_Karlson: Es sollte wahrscheinlich "...die neue GPU könne bis zu fünf Mal mehr Leistung ZIEHEN..." heißen ;-)
 
@satyris: DAS wiederum glaub ich auch *gg* Aber solang sich das Laptop-Plastik nicht bei der Hitzeentwicklung verformt ..... ;-))
@ WemmZi: Ja, "geben" tut's schon was, siehe hier: http://tinyurl.com/38afbxp
 
@Der_Karlson: Danke, jetzt bin ich wieder ein Stück schlauer. ;)
 
schön das die entwicklung da weiter geht, in der praxis ist das meiner meinung nach alles murks. ich habe mal versucht an einem macbook pro zu zocken. so leise und angenehm kühl ein macbook pro auch ist, wenn man zockt gehts ab. die wärme unter den händen und diese ständigen lüfter...ne, das ist nix für mich. ein notebook zum zocken wäre toll, in der praxis scheint mir die technik noch nicht soweit. warum hier in immer mehr power anstatt in praxisnahe technik investiert wird ist mir ein rätsel. jeder wie er mag :)
 
@Matico: Abseits von Apple gibt es ganz nette "Zocker-Notebooks".
 
@web189: hier geht es nicht um apple, ich habe auch andere geräte dieser art getestet. klar, die leistung ist gut aber die wärme und lautstärke ist irgendwie albern ohne externe maus und tastatur.
 
@Matico: hmmm okay, ich dachte du hast nur Macbooks getestet. ASUS kann ich empfehlen, ich besitze eines der teureren Modelle und bin eigentlich zufrieden mit Wärme und Lautstärke.
 
@Matico: Asus G73 "strike in silence" Damit kannst du spielen und hast gleichzeitig ein leises Gerät! Ist aber nicht ganz billig das gute Stück. ;)

http://asusworld.de/#/republic-of-gamers/produkte/notebooks/g73jh/
 
seit wann beherrscht der g92 dx11? ;-)
 
@FloW3184: hab ich mich auch gefragt.. aber nvidia hat da was hinein geCUDArt.. oder so.. ;) bestimmt kann die 8er serie schon DX11 .. .. wenn man die mit dem richtigen code füttert.. ;-)
 
@FloW3184: wo steht denn was von ner g92? War doch schon bei der 300M Serie klar, dass sie die alten Chips los werden wollten. Ich freu mich, denn im Sommer steht endlich ein neuer Laptop an. Und da will ich nicht mit alten Chips abgespeist werden ;)
 
Liefern die auch die entsprechenden Atomkraft-Akkus mit ???
 
@holom@trix: Nö, Plutonium musst du nachfüllen. NV liefert das Zubehör.
Kommentar abgeben Netiquette beachten!

Weiterführende Links