Nvidia zeigt DirectX11 Tessellation auf GTX 480

Sony Konsolen Nvidia hat anlässlich der Game Developers Conference 2010 gegenüber Journalisten einige der in DirectX11 enthaltenen neuen Simulations- möglichkeiten demonstriert, darunter fotorealistische Wellen, Gras im Wind und menschliches Haar. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
ich bin ja schon älter und zocke seitdem ich 10 bin. ich bin soooo gespannt auf die games der nächsten 3 jahre, gute grafik und gute physik flashen mit total. entgegen der meinung vieler sind sie zwar keine spielspass garantie, sie sind aber für mich total wichtig. tetris ist auch toll, klar. aber zerstörung 2.0 aus bad company 2 rockt mich total :)
 
@Matico: Bad Company 2 ist Genial :D am geilsten ist es das man fast alles Zerstören kann ein Großes +
 
@Matico: Wenn man sich mal durch den Hardware-Dschungel kämpft, dann liest man immer wieder, dass man scheinbar gar nicht so sehr aufrüsten soll (und die GTX 480 wäre damit überflüssig), weil sie die meisten kommenden Spiele eher auf dem Level der Konsolenversionen bewegen werden, man also mit einer GF 8800GT z.B. immer noch ausreichend Leistung hat...
 
@elbosso: selbst meine betagte 4850 ist noch für 1650 maxdetails in vielen games ok. kann nur zustimmen. diese konsolengames reizen einfach keine pc-hw raus. daher fordere ich schon eine ps4
 
@muesli: Ich überspringe dx 11 und warte auf dx 12 .
 
@Menschenhasser: Ich überspringe seit DX 10 schon alles ... hab immer noch meine alte 7900 GTO :D
 
@Menschenhasser: geht mir ähnlich, wer brauchst schon dx11? dx12 lohnt aber auch noch nicht wirklich, ich warte auf dx17.
 
@muesli: Zum Glück gibts noch Spiele wie Supreme Commander 1, wo man mit riesigen Mengen an Einheiten bei neuerer Hardware dann doch einen Leistungsschub erwarten kann ;)
 
Leider suckt BC2 auf dem PC tierisch, weil die Steuerung einfach unpräzise und schwammig ist..
 
@elbosso: interessanter ansatz. aber wenn ich mir bad company 2 auf meinem mac pro mit nvidia 285gtx angucke dann muss ich die leistung schon ein bissl nach unten schrauben um im mp keine nachteile zu haben. und ich habe eben aktuelle hardware. ich finds mega wenn die spiele richtig flüssig laufen.
 
@Matico: Dual Core? Konsolenports speziell von der PS3 sind extrem CPUlastig da hilft nur ein Quad! 4850 mit 3,2GhzQuad und alles rennt auf höchsten Einstellungen. 512MB verhindern aber das zuschalten von AA.
@Demirug: Kann ich nicht bestätigen schwammig ist auf unserem Server nix. Aber auf 32er Servern kann es vorkommen wenn einer mit einem Ping von 200 da rummhüpft.
 
@knuprecht: nene ein xeon quad prozessor. bin auch immer der erste auf der map aber mir ist es mit full details nicht flüssig genug, zumindest nicht im nahkampf wenn richtig viel los ist.
 
@knuprecht: Ich hab Probeweise mal alle Einstellungen niedrig gestellt (könnte ja sein, dass die Framerate schuld ist), ist sie nicht. Es ist einfach verkappte Konsolen Steuerung auf dem PC. COD6 spielt sich da präziser.
 
@Matico: da muss ich dir recht geben aber auch sagen, dass dies ein Problem von BC2 sein muss. Denn: Ich hab die Grafikeinstellung von BC2 alles auf Low gestellt und mehr als ca 70-80 fps sollen es einfach nicht werden. Hab dann sogar auf DX 9 runter gestellt und trotzdem werden es nicht mehr. Und ein quad core @ 3GHz und eine GeForce GTX 280 sollten wirklich mehr schaffen.
 
@BrUiSeR: 70-80 FPS oO? haste schon mal gegoogled ob das spiel nicht vll bei so hohen fps werten abriegelt? normal reichen 30 FPS dicke aus, du kannst eh den unterschied zwischen 30 und 80 mit deinen augen nicht sehen... ach und wenn dein monitor auf 72 fps/hz läuft zeigt der auch keine 80 fps an, egal wie oft der grafikspeicher sich dabei überschlägt :p
 
@DataLohr: du musst aufpassen, dass du nicht zu viel blödsinn erzählst. Das Menschliche auge kann weit mehr als 30 Bilder die Sekunde wahrnehmen.
Der Stroboskopische effekt, fängt erst bei 24hz an, die grenze nach oben ist weitaus höher.
 
@Matico: Dummerweise bremsen die Konsolen. D.h. Crysis wird auch noch nächstes Jahr das non plus ultra sein. Traurige Wirklichkeit.
 
Persönlich freue ich mich eher auf die 5870 mit 2 GB VRAM ... am besten noch dann eine Vapor-X ... Aber dank der Lieferschwierigkeiten, die immernoch anhalten, sowohl bei AMD als auch Nvidia, wird dies wohl noch dauern :-/
 
Wenn das so ausschaut hat sich das warten gelohnt oder was meint ihr ? :D
 
@IchwarsNicht: Bleibt abzuwarten diverse Hardwaretester haben ja schon eine der neuen GTX 480 Karten und mal vom besseren tesselation ab, scheint die Leistung zumindest nicht schneller zu sein als ATI (laut einige Aussagen ziwchen HD5850 und 5870).
 
@Keldrim: also hat nur Nvidia diese Parallel Tessellation Engines und kann damit sowas besser berechnen?
 
@JasonLA: Im Bereich Tesselation ist nVidia rund 4x so schnell wie ATi. Nun darf man aber nicht den Fehler machen und meinen dass Tesselation extrem wichtig für Spiele ist. Die FPS-Zahl wirds nicht sehr stark beeinflussen. Der Vorteil ist halt nur dass man mehr realistische Details sehen könnte als mit ner ATi. Würde man da unterscheiden, wehen bei ATi die Grashalme halt etwas anders als bei nVidia. Merkt im Spiel eh keiner und darum wirds wohl auch eher sparsam eingesetzt.
 
@DennisMoore: Das ist so aber auch nicht ganz richtig bzw. beschränkt sich auf Games die quasi nur auf Tessellation setzen (also keine). Hier hat Nvidia den Vorteil, dass man fast die gesamte Rechenleistung der Karte für Tessellation verwenden kann und dadurch schneller / effizienter ist als AMD. Aber kommen dann auch noch andere Dinge, wie bei einem Spiel üblich, hinzu, schmilzt der Vorsprung dahin ;)
 
@DennisMoore: woher haste denn den käse? wer sagt das die fermi 4x schneller ist in tesselation? hast du das aus dem heaven benchmark, wo nv mit einer version testet die noch garnicht auf dem markt ist? wo sie die einstellungen machen fernab jeglicher realität?
 
@Patata: Ich frage mich wie die Tessalation Unit, die für ausschließlich für Tessalation ausgelegt ist, die Berechnungen anderer Dinge nutzen soll.... __________@Odi waN: Dazu kommt noch das es kein unabhängiger Bench war und nur aus einem Teilbereich des gesamtes Benchmark etwas gezeigt wurde, nachdem Motto "woho schaut her, genau dort ist Fermi etwas schneller, aber was mit den anderen Werten ist, ist egal"
 
@Schnubbie: das resultierte ja daraus, anscheind haben das nur nicht viele gecheckt und denken BOAH IS DIE KARTE DER HAMMA. :D bisher isse nen scheiss, denn was jetzt schon feststeht ist das sie einfach zuviel strom nimmt für die leistung die sie nicht haben wird, für euch kinderse leistung pro watt ist unter alle sau.
 
@Odi waN: Ich lache mich gerade schlapp über Dennis Moore. Aber er hat die Rechnung ohne AA gemacht. Die GTX480 scheint wiedermal ein AA Krüppel zu werden. Im HevenBench soll sie schneller als eine 5870 sein und bricht dann bei 8xAA ein und ist 1FPS schneller als eine 5850. Aber ein Benchmark ist so aussagekräftig wie ein Kropf.
 
@knuprecht: Genau sobald aa ins spiel kommt wird sich da bei nvidia wohl wieder nichts ändern.Und ich für meinen teil gehe eher in der auflösung etwas runter dafür werden aa und af aufgedreht.Ich bin der meinung das macht mehr sinn.Ich nutze zwar schon lange jetzt eine kombi aus amd und ati schaue aber auch bei nvidia immer wieder nach aber bis jetzt stimmt da das pl nicht.Und das wird bei dieser karte wohl wieder das selbe sein.
 
@Carp: Das Problem von nVidia ist, daß die Tesselation von den Cuda Cores berechnet werden, und da hat ATi eine eigene Tesselationseinheit. Im schlimmsten Fall zieht bei der GTX die Tesselationsberchnung auf den Cuda Cores auch die FPS runter was bei ATI nicht möglich ist. Und dann nochn 8xAA und die GTX sieht kein Land mehr.
 
@knuprecht: die karten sind mit physx schon am ende, die fps sind augenwischerei. der heaven test hat doch gezeigt was für raketen die fermis sind mit aa. /ironie
 
@Patata: Wollte auch primär darauf hinweisen dass man sich keinen großen Performancesprung bei Games erhoffen sollte, nur weil die Tesselation besser/schneller läuft. @Odi waN: Woher sonst? Andere Quellen gibts derzeit nicht. Außerdem hat es wenig mit Einstellungen fernab der Realität zu tun. Entweder ne Karte kann X-Millionen Dreiecke/s zeichnen oder sie kanns nicht. Entweder man glaubt nVidia hier, oder man tut es nicht. @knuprecht: "Das Problem von nVidia ist, daß die Tesselation von den Cuda Cores berechnet werden" ... Das stimmt nicht. Die Tesselation wird von den Polymorphengines berechnet, von denen es 16 Stück gibt.
 
@DennisMoore: Die Cuda Cores sind zu 16 Paketen zusammengeschaltet und jedes dieser 16 Pakte hat eine PE die die Berechnungen auf den Cuda Cores realisiert. Je mehr die Tesselation für sich braucht um so weniger Leistung beleibt für den Rest. Das bedeutet das die Karte zwar Tesselation viel schneller Berechnen kann als ATi aber wenn mehr als nur Tesselation gemacht werden muss (PhysX,AA) leiden die FPS.
 
@DennisMoore: ein offensichtlich gefälschter benchmark und offensichtlich gefälschte ergebnisse, sind also eine quelle für dich dessen infos du auch so weiterverteilst. arbeitest du bei der bild? ----------------@knuprecht: danke für deine mühe solchen leuten noch was zu erklären, die ja eigt. eine menge fachwissen haben ;)
 
@knuprecht: "Das bedeutet das die Karte zwar Tesselation viel schneller Berechnen kann als ATi aber wenn mehr als nur Tesselation gemacht werden muss (PhysX,AA) leiden die FPS" ... Genau dasselbe, nur einfacher, habe ich schon in meinem ersten Post geschrieben. Schnellere Tesselation != mehr FPS. @Odi waN: Wenns keine anderen Quellen gibt, muß man halt die nehmen oder warten bis das NDA fällt und Benchmarkergebnisse von Dritten veröffentlicht werden dürfen.
 
@DennisMoore: Du hast doch nix verstanden! "Schnellere Tesselation != mehr FPS." Die Karte kann mehr Power für Tesselation erbrigen als eine ATi, weil Ati eine feste Tesselationseinheit hat und nVidia praktisch alle Cuda Cores dafür missbrauchen kann. Aber je mehr Power für Tesselation drauf geht um so weniger Power bleibt über um andre Sachen zu berechnen. Aber du bist auch so Beratungsresistent trägst viel Wissen in dir aber die 1 und 1 zusammensetzten kannst du leider nicht.
 
@Keldrim: So lange sie nicht langsamer ist, hat die 480er dann durch Tessellation einen klaren Vorteil. Ich denke aber dass die Karte, wenn sie dann draußen ist, die aktuellen HD Modelle doch hinter sich lassen wird.
Genaue Tests werden es zeigen, aber auf die werden wir wohl noch ein bisschen warten müssen.
 
@IchwarsNicht: achso es hat sich gelohnt weil die ati das nicht kann? ...... ohne worte
 
@Odi waN: Ne so hab ich das net gemeint ich mag ATI auch und würd mir die GTX 480 oder so nie kaufen bzw jetz noch lange net bin mit meiner Zufrieden ich bin nur gespannt.
Und ich hatte auch mal eine ATI Grafikkarte die hat mir auch wunderbar gefallen also bin eig kein Fan von was ATI und Nvidia beides Super!
 
@IchwarsNicht: ja das warten auf nvidia hat sich mal wieder gelohnt und so wirds auch bleiben. ich bin ein absoluter nvidia & intel fan seit 1999!!!
man bin ich alt geworden :-(
 
@Zenton: Tja, wenn man nicht schlau genug ist und nach P/L kauft. Hast du etwa auch die grottenschlechte nvidia FX5800 / 5900 Reihe der ATi 9700 / 9800 Reihe vorgezogen? Dann tust du mir leid ________ @IchwarsNicht: Ohne UNABHÄNGIGE Benchmarks kann man das gar nicht beurteilen. Was nützt einem eine (laut nvidia) bessere Tessalationeinheit wenn diese in den nächsten 2 Jahren gar nicht ausgenutzt wird. ________@dd2ren: Zu teuer? Das sind sogar noch recht günstige Preise. Ich sage da nur Geforce 2 Ultra 1500 DM bei der Markteinführung, 600€ für die nvidia 8800 usw. Und die Preise sind ja nicht so hoch, weil die ATi so hoch angesetzt hat, sondern weil die Nachfrage höher ist als das Angebot und TSMC (der Fertiger) Probleme hat. Da nvidia bei dem selben Unternehemn fertigt wird das bei der GTX 4xx Reihe nicht wirklich anders werden.
 
@Zenton: Nicht nur alt, sondern auch kein bisschen schlauer. Traurig nich. :-D
 
@IchwarsNicht: das warten hat sich gelohnt ! die sollen die Karten endlich mal auf den Markt bringen damit die ATI mal billiger werden :) will mir die 5870 kaufen ;) momentan noch zu teuer
 
@dd2ren: nene lieber noch länger warten für die ati fanboys damit die mal begreifen was markwirtschaft ist und für ihr gelaber zahlen dürfen.
 
@Sir @ndy: Also wenn man deinen post liest weiß man doch sofort welche seite immer wieder anfängt mit dem kinderkram.Ati fanboy nvidia fanboy blablabla.Grauenhaft und du bist doch gerade wieder das paradebeispiel für einen der nicht nach dem pl verhältniss sondern der marke geht.Aber was solls macht doch einfach so weiter wenn es euch befriedigt aber weiter kommt man dadurch nicht vorallem ist der informationsfluss gleich null.Und auch jemand der nvidia jahrelang nutzt und nicht so engstirnig ist wird sich infos zu ati karten holen wollen.Genau wie andersrum.Außer man ist engstirnig und beharrt auf seine tolle marke was aber absolut hirnrissig ist in sachen von pc hardware.
 
@Carp: nun ja, das würde ich jetzt nicht so sagen. Denn so ein, und das muss man wirklich mal sagen, Fanboy Gelaber, dass man sich freut, dass ne neue Nvidia Karte kommt, damit das eigene liebling (ATI), welches man haben will, billiger wird, ohne sich auch nur mal ansatzweise Gedanken darüber zu machen, ob es sich nicht vielleicht doch lohnt die neue Nvidia Karte zu holen, von der er ja außerdem auch noch gar nicht weiß, wie gut/schlecht sie sein wird, ist absolut engstirnig, kindisch, provozierend usw.! Und das ist doch mal das, was du von Sir @ndy behauptest! Mit diesem Mist hat also nicht Sir @ndy angefangen! Somit solltest du also eigentlich dd2ren ankreiden. Also bitte keine Tatsachen verdrehen ;) Davon mal abgesehen hat Sir @ndy gar nicht so unrecht. denn würde tatsächlich jeder so denken, dann wäre Nvidia weg und die Preise von ATI wären ganz bestimmt nicht mehr nach seinem Geschmack. ATI ist ja wohl ganz sicher kein Wohlfahrtsverein, der rein aus Spaß und Freundlichkeit etc. die Preise momentan so festlegt! Da würde sich dd2ren Nvidia aber ganz schnell wieder herbeiwünschen...
 
@laboon: Die Preise sind so hoch, wegen der hohen Nachfrage und des geringen Angebotes. Das nutzen die Händler gnadenlos aus und bieten verfügbare Karten überteuert an. Das hat recht wenig mit ATi zu tun. Weder die Preise, noch die Verfügbarkeit, letzteres liegt an TSMC, weil die trotz Versprechen ihren 40nm Prozess nicht in den Griff kriegen und felißig Ausgleichszahlungen an ATi abdrücken. Die UVP von ATi für die HD5870 beträgt 349€. Für so eine Karte ein richtig "günstiger" Startpreis. Der Rest wird durch die Händler nach oben gedrückt. Und vor der Preisschlacht waren das "normale" Preise mal 400-500€ für eine Karte zu verlangen. Nur weil es diese Preisschlacht gab, muss sie nicht ewig anhalten. Oder es kommt zu einer neuen, bei der nvidia aufgrund des Monsterchips wieder mal den kürzeren zieht. Und jetzt kommt nicht wieder mit irgendwelchen Geschäftszahlen AMD vs nvidia. Die sagen gar nichts aus über die Grafiksparte von AMD / ATi
 
@Schnubbie: ich habe ja gar nicht ATI kritisiert. ich glaub da hast du mich falsch verstanden. ich wollte nur klarstellen, welche seite diesmal wirklich mit dem kinderkram angefangen hat. es war nämlich ganz klar eine andere Person, als die, die Carp kritisiert hat. Auch zum Schluss meines Kommentars wollte ich nicht ATI kritisieren, auch wenn es vielleicht so aussah. Das was ich beschrieben habe, würde jede andere Firma nämlich genauso machen, sich da also gerade eine Firma xyz auszusuchen und sie schlecht reden halte ich für nicht richtig. Ich hätte auch für ATI Firma x und für Nvidia Firma y schreiben können. ich wollte eigentlich nur das Prinzip beschreiben. Kein trollen/rummeckern gegenüber ATI. Zudem ist mir das, was du geschrieben hast, durchaus bewusst ;)
 
@IchwarsNicht: Ich sehe auf den paar Screenshots nichts, was man nicht schon seit Jahren als TechDemo vorgesetzt bekommt und letztendlich doch wieder in keinem Spiel in der Form umgesetzt wird.
 
Wasser: Sau gut
Haar: Nicht Schlecht
Gras: Beschiss! Sind nur 3 147 337 Halme ;D
 
@rockCoach: stimmt ja das Gras gefällt mir auch Net aber das Wasser und die Haare sind TOP :D
 
Bei hardware-infos.com findet man bessere Screenshots als diese Briefmarkenbildchen. Wen es interessiert, der findet sie unter folgendem Link: http://www.hardware-infos.com/news.php?news=3473
 
@Ferrum: Vielen Dank... die sind um Längen besser.
 
@Ferrum: n Video dazu wär noch hammer
 
Lässt NVIDA vielleicht aus gutem Grund erstmal weg ;)
 
@JasonLA: Gibt es längst: http://www.golem.de/1003/73675.html Die Heaven-Benchmark gibt es hier: http://unigine.com/download/ und ein Video bei YouTube ist dort ebenfalls verlinkt.
 
@Ferrum: Das Video ist interessant, vor allem die Geschichte am Ende (diese 3 Bildschirme mit 3D-Brille und infrarot-Sensor). Die Technik erinnert mich etwas an "Johnny Chung Lee", der auch solch eine realistische 3D-Geschichte mithilfe der Wii-Mote entworfen hat:
http://johnnychunglee.com/projects/wii/
oder direkt das Video (Head Tracking for Desktop VR Displays using the WiiRemote):
http://www.youtube.com/watch?v=Jd3-eiid-Uw

Ich hab das zwar wahrscheinlich falsch verstanden (bei nVidia), aber allgemein fänd ich mal Spiele mit Head-Tracking auf dem PC interessant. Besonders mit atemberaubender DX11-Grafik. Oder direkt mit WiiMote, wie im Video am Ende gezeigt. Ich will so einen Shooter spielen :D
 
@eN-t: Zuviel 3D ist nicht gesund. Nachher wird man von virtuellen Gegnern in der Realität erschossen. :D
 
Das mit den Technikdemos ist immer herrlich, sagt auch sehr viel über die Leistung aus. Wie schnell es dann aber in richtigen Spielen ist, wo NV nichts bzw. kaum was optimiert hat, weiß keiner....Oder gibt es schon irgendwo Zahlen bzw. Vergleiche bei richtigen Spielen?
 
@Angel3DWin: Das ist ja auch gar nicht Absicht der TechDemo. Es sollen dadurch die Vorzüge/Vorteile vom DX11 Feature Tessellation gezeigt werden. Genaue Fakten/Zahlen werden noch einige Wochen auf sich warten lassen.
 
@Angel3DWin: Nicht nur die Optimierung is Beschiss. Man muss sich ja immer im Kopf halten, dass die oben gezeigten Szenen "Stand Alone" sind. Der Computer kann also seine kompletten Ressourcen für diese einzigen Szenen verschwenden. Nun lass uns aber mal denken, wie das ganze wohl aussehen wird, wenn nebenher noch ne komplette dynamische Map, deren Beleuchtung, deren Shadow-Bumber, Models, deren Beleuchtung... etc usw (sprich einfach: ne ganze Masse mehr, weil ein Spiel ja nicht nur aus nem Kopf mit Haaren besteht) berechnet werden muss..
 
@Slurp: Schau mal den Link von Ferrum aus [o5] an. nVIDIA hat auf der Veranstaltung auch z. B. Metro 2033 mit entsprechenden Effekten gezeigt.
 
@DON666: Merci für die Info... Will aber nich wissen, mit was für Maschinen die das ganze haben laufen lassen.
 
@Slurp: Ich galub, da braucht man wirklich nicht drüber zu reden. Dürfte für den Otto-Normal-WF-Leser (wie mich z. B.) jenseits jeder Gehaltsvorstellung liegen...
 
@DON666: minimal :D
 
Hört sich ja schon mal nicht schlecht an, bleibt aber abzuwarten, was bei nicht nvidia optimierten Tests rauskommt. Und als ernst gemeinte Frage: Ist Tesselation nicht ein Feature was nur NVidiakarten können ?
 
@skyjagger: Nein, Tesselation können alle DX11-Karten (Voraussetzung für DX11).
 
@satyris: Danke
 
@satyris: Naja ne ATi 48xx kann auch Tesselation .
 
@Menschenhasser: Ist mir neu, hast du eine Quelle?
 
@satyris: Eine Tesselation-Einheit hat AMD sogar seit der HD2900 integriert ;) http://bit.ly/cnrbWi
 
@Fonce: Das hat aber ja jetzt nichts mit der DirectX11-Tessellation-Einehit zu tun.
 
@Menschenhasser: selfowned, das geht erst ab generation 5 aber bleib mal weiter im glauben. dx11=tesselation
 
@Odi waN: selfowned ;-) Er hat vollkommen recht. Seit der HD 2k Reihe ist eine Tessalation Unit an Board. Allerdings entspricht sie nicht 100%ig den DX11 Vorgaben und kann / wird daher nicht genutzt.
 
@Schnubbie: Also so wie ich das gehört habe müssen nicht alle Grafikkarten die dx 11 vorgaben zu 100% erfüllen aber zum grössten Teil .
 
@Menschenhasser: Die Tessalation Unit enspricht aber nicht den DX11 Spezifikationen und da wird der Hund begraben sein. Natürlich wird sie vermutlich auch nicht so stark sein wie bei der HD5k Reihe, aber es war für ATi mit Sicherheit ein gutes Probespielzeug.
 
@Schnubbie: war kein selfowned, denn ich weiß das aba die kann nicht benutzt werden, weil a) vorgaben werden nicht eingehalten und b) viel zu schwach. sie ist zwar da aber kann nix machen, daher ist meine aussage schon richtig. ;)
 
wie schnell kann die karte videos encodeieren? das ist, was mich interessiert. der rest ist pille palle. ich will nen nutzen daraus ziehen.
 
@medienfux: Mir ist bisher keine Programm-Grafikkarten-Kombination bekannt, die schneller UND qualitativ besser encodiert als eine CPU. Es müssen viel zu viele Daten in viel zu kleine Häppchen zerlegt werden, als das eine Grafikkarte wirklich effektiv arbeiten würde. Die meisten CUDA-Encoder liefern eine "grottige" Qualität gegen eine CPU. Kauf dir für das Geld, welches die GTX480 wohl kosten dürfte, lieber einen Core i7 oder AMD Phenom II X6.
 
@satyris: hm mein linux recorder läuft und stream mit nem x2 3800+ s 939 2 gig ram und ner 9500gt cpu last ist da 15 - 20% den rest macht alles die graka, alles passiv gekühlt auch mein beamer hat ein super bild null problemo.
 
@Sir @ndy: Und was wird bei dem Recorder in welches Format neu encodiert?
 
Hm, bei jeder neuen nvidia Generation die selbe Präsentation: Gras, Wasser und Haare realistisch dargestellt. Also eigentlich müsste nvidia das laut Techdemos alles schon seit dem Riva TNT problemlos beherrschen.
 
@Schnubbie: genial ^^ +
 
Irgendwie ist der Artikel zusammengeschustert und nicht quergelesen worden. Einmal kann man laut dem 1,6 Milliarden Dreiecke mit 40FPS berechnen und dann ist bei der Grasdemo schon bei 48Mio eine hohe Beanspruchung zu verzeichnen, was denn nu? Genauso ist der vorvorletzte und vorletzte Absatz vom Inhalt her fast gleich.
 
wie viel wird die Karte kosten, und wirds die auch für ein MacBook Pro geben?
 
@horstl8070: MacBook Pro braucht keine Grafikkarte, das macht das Betriebssystem vollständig alleine.
 
@tienchen: ok passt danke!
 
@horstl8070: Billig wird sie nicht, und es ist KEINE Notebook-GPU. @tienchen: Na, die Ironietags vergessen?
 
@DON666: Sorry, wird nachgereicht. [ironie]Sarkasmus[/ironie]
 
@tienchen: Ich muss mich bei dir entschuldigen, den Unsinn, den horstl mit seinen "Fragen" hier immer verzapft, hatte ich erst später realisiert, als ich auch noch die News zu "Metro 2033" gelesen habe...
 
Ja das warten hat sich wirklich gelohnt. Karte verbraucht an die 300 Watt und wird am Anfang 500,- Euro kosten. und jetzt die ersten Testbilder. Sollte die Karte nicht am 28. raus kommen?? ich freue mich auch schon !!
 
@Tiesi: nene lieber noch länger warten für die ati fanboys damit die mal begreifen was markwirtschaft ist und für ihr gelaber zahlen dürfen.
 
OpenGL4 kanns auch. :P
 
@PlayX: Wenn die passende Hardware verbaut ist. Bitte nicht mit dem alten rein software Seitigen tesselation verwechseln, das ist nicht ansatzweise so gut wie die neuen Lösungen von ATI oder nVidia.
 
haha echt übel :D
also ich gurke noch mit ner guten alten ATI X850XT auf DX 9c rum.
da soll ma einer sagen in den 5 jahren hat sich nix getan :)
geht alles stückschen für stückschen......
 
@pHo3n!x: Directx 9.0c mit einer ATI X850XT? Das will ich sehen. Die kann doch höchstens nur Directx 9.0b (Direct3d) bzw. das Shadermodel 2.0b.
 
@Dr.Duschlampe: jo hast recht hab grad nachgeguckt und die kann wirklich nur DX 9.0b :)
 
Oh nvidia und DX11... *gäääääähn*, tjo ATI war da um jahre schneller. Aber besser spät als nie.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles