Nvidia will GeForce 8 zu Physikbeschleuniger machen

Hardware Der Grafikkartenhersteller Nvidia hat nun neue Angaben zu seinem Plänen gemacht, was die Verwendung der mit dem Kauf von Ageia erworbenen Technologie für die Berechnung von Physik-Effekten in Spielen angeht. Offenbar sollen auch die aktuellen Chips ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das System habe ich schon letzte CeBit beim ATI-Stand gesehen, nur scheinbar haben die das danach vergessen :/ An für sich wärs ja ne gute Sache. Vor allem sollten dabei auch "ältere" Karten als Co-Physikprozessor möglich sein.
 
@darkalucard: was weiter noch bloedsinn ist, das eine PhysX karte 115€ kostet und eine neue graka im high end bereich wesentlich mehr.... oder kann diese karte dann die physik und grafik berechnen?
 
finde die Idee gar nicht mal schlecht. Wenn die Karte noch genug Leistung übrig hat, kann man sehr gut etwas "abzwacken". Mal sehen wie es mit denen gelöst wird, die bereits SLI und so eine Karte eingebaut haben...
 
@Magnat: Da gibt es nichts mit "Karte genug leistung übrig hat" DU brauchst eine ZWEITE Geforce8 Karte für die Physik Berechnung.
 
@Magnat: was hier alle ueber ihre grafik karten reden, oben im text steht doch ausdruecklich das: "jede CPU" !!! die das untersstuetzt die sofrtware laufen lassen kann... ich dacht immer auf grafikkarten stecken gpu in dem fall... oder wird die gpu zur cpu und raider wird zu twix? ^^
 
Dann lieber doch eine Ageia PhysX-Karte für 100€ im Rechner, als eine 2. Graka für 300€! -Die dedizierte Physik-Karte wird eh mehr bringen, als eine umprogrammierte 8800.
 
@FloW3184: Genau meine Meinung! Vorallem so eine 8800 zusätzlich,...oweia, das wär mal ein schöner Stromfresser.
 
@FloW3184: Endlich einer ders Verstanden hat! Dafür ein + | Das Ganze läuft doch mal wieder auf Abzocke hinaus. Entweder SLI oder kein Physx, was für ein Rotz.
 
@FloW3184: Seh ich auch so. Da ist dann wohl eine schäöne Erfindung in den Schubladen von Nvidia verschwunden und die nutzen nur die Software zur Förderung ihrer GPU-als-PPU-Lösung, denn dazu braucht man nivida-Grakas und Mainboards mit Nivida-Chipsatz .....
 
@FloW3184: na dann schlag mal zu denn von diesen karten wird es nicht mehr viele geben
 
@FloW3184: Rein technisch gesehen ist es eine gute Lösung die zweite Grafikkarte als Pysikprozessor laufen zu lassen aber wenn ich dann den Stromverbrauch beachte fahre ich mit einer PhysX karte vonAgeia besser zumal diese ja auch im Vergleich zur 8800GT oder sonstigem billiger ist. Das ganze riecht also sehr nach Abzocke. Der einzige vorteil den man dann mit der SLI Lösung hat ist dass man vor Frostschäden im PC keine Angst mehr haben muss. Denn es ist ja so dass 99% der PC Besitzer am Nordpol Wohnen und nur Draussen sitzen mit ihrem PC. Da kann ich nVidia schon verstehen dass sie diese Lösung weiterentwickeln wollen. :-D
 
Entwickeln Karten en Massé aber schaffen es nicht passende Treiber zur Verfügung zu stellen. Tut mir leid doch für die "Machenschaften" von nvidia habe ich langsam kein Verständnis mehr. Nun sagen sie offen das man künftig doch bitte zwei Grafikkarten und eine Physikkarte einbauen möge. Grund: Die veralteten Treiber verhunzen 50% der Leistung also braucht man nur mehr Hardware um das auszugleichen. So ein Mist passiert wenn jemand ein Monopol hat (und das ist inzwischen schon eines.. da kann Ati mit ihren Karten auch nix mehr machen)
 
@Mudder: Wer macht es denn besser, was die Treiber angeht? Doch höchstens Intel.
 
@Mudder: Nicht 2Grafikkarten UND 1 Physikkarte, sondern die 2te Grafikkarte für die Physik- und die 1te Grafikkarte für die üblichen Grafikberechnungen. Beim Treiber muss ich sagen: ATI macht zwar gute Produkte, aber nVidia ist mir da 1000x lieber. Der Catalyst ist ein fettes Monster im Gegensatz zum gForce-Treiber (ich kenn beide, hab momentan 4nVidia und 3ATI).
 
@John-C: ... sorry - aber wann konnte Intel schon jemals vernünftige Grafiktreiber anbieten? Und das wird auch in Zukunft mit ein Grund sein, warum ich nicht glaube, daß Intel im Bereich der Grafikkartensparte von Nvidia und AMD erfolgreich mitmischen kann ...
 
@kscr13: Das Grosse Monster hatt nur max. 47MB und ja man kann sogar nur den Treiber ziehen(22MB) Sowas hat Nvidia ja nicht weil der dünne Hering ja auch nur je nachdem welches BS man hat zwischen 57MB(Vista32) und 70MB(XP,Vista64) gross ist. Also wenn NV einen universalltreiber machen würde dann hätte der wohl 100MB+. Also du mit deinen 3 Ati und 4 NV erst informieren dann denken und dann erst posten OK.
 
intel hat die havokengine für die physikberechnung vor einiger zeit gekauft.
das ist wohl eher die zukunft. http://www.golem.de/0709/54781.html
 
@undergroundking: Schade eigentlich. Ich fand damals schon die 3dfx-Zusatzkarten gut. Und wenn man z.B. einen separaten Physik-Chip auf die Graka lötet, spart man sich nen Steckplatz, die 2. Grafikkarte und vor allem das Geld.
 
@undergroundking:
Was hat Havok mit Ageia zutun? Nichts.
 
@undergroundking: Havok ist ne Softwareengine die vom Prozessor berechnet wird und es werden nicht Grundlos in Spielen bisher nur Ragdolls, paar rumstehende Flaschen/Fässer etc. damit realisiert weil das Ding für viel viel mehr nix taugt, die AGEIA Hardwarevariante hingegen schon. Ein weiterer großer Unterschied zwischen den Beiden ist, dass man die Havok-Engine erst SEHR Teuer lizenzieren muss während die AGEIA SDK frei für jeden zugänglich und benutzbar ist (bisher wenigstens) und die sich erhoff(ten) mit den Kartenverkäufen das Geld zu machen. Ich hoffe das bleibt unter NVIDIA genauso während der Support und die Entwicklerliste ansteigt.

Man kann nämlich vor allem bei Flüssigkeitensimulation (Lava, Wasser was man dann mit nem Glas aufheben kann und woanders reintut, Psikräfte etc. um Wasser zu verformen, Wasserfälle zu spalten etc.)
http://www.youtube.com/watch?v=o07KjfBx8GE und Stoffen (wehende Banner, Teppiche die im Wind hängen, Vorhänge, zerreissen von Stoffen etc.)
http://www.youtube.com/watch?v=v8LpC0rrUC8 mit so nem Physikprozessor einiges machen und um einiges besser als ein QuadCore weil er spezialisiert ist, allerdings wird sich für die paar Effekte fast keiner ne 100€+ Extra Steckkarte kaufen, bei mir wär mit GraKa, SoundKarte und TVKarte nicht mal mehr Platz dafür frei aufm Board.
 
@thommy 1977: Genau, das hatte ich gehofft. Geforce 8 per Software zum Not Physikbeschleuniger gemacht, wenn das Game genug übrig lässt, und die neuen dann mit Chip zur Grake und Physikkarte, das wäre schön, aber leider... da war dann die 100e Einzellösung von Ageia doch besser...
 
Also ich finde den Unterschied, den man z.Z. in Spielen mit und ohne Ageia-Unterstützung sieht nichts o groß. Eventuell liegt das ja an dem mangel an guten Physikgames, aber wenn ich überlege was ich alles (ohne Ageia) bei Strangelhold zerschießen konnte, sehe ich da noch keinen Kaufbedarf. Ist die Havokengine nicht eine Softwarebasierende Engine, also auch bspw. mit einer singel HD3850 verwendbar?! lg
 
@MenschMeier:
Eine Physikengine läuft auch ohne Physikbeschleuniger, profitiert jedoch vom Vorhandensein eines solchen, wie z.B bei Ageia.

Siehe auch -> http://tinyurl.com/3bz7os
 
War ja klar, daß Nvidia Ageia hauptsächlich kauft, um die Patenbte für die Physx-Hardware in der Schublade verschwinden zu lassen, da sie ja Physik per GPU bevorzugen. An alle, die gejammert haben, die PHYSX-Karten seien zu teuer: Jetzt dürft Ihr statt der Karten eine zweite (oder drotte) Nvidia-Graka kaufen. Ob das günstiger wird?
 
@Plyfix:
Müssen muss man hier gar nichts. Erstmal abwarten und dann weiter sehen.
 
@Plyfix: Ja so kann man die Entwicklung auch ausbremsen
 
@spooky: Von "müssen" hab ich auch nie was geschrieben!?!
 
Mal ganz blöd gefragt: "Kann man eine 8800GTX und eine 8800GT (oder eine andere beliebige 8´er) für die PhysX Berechnung im SLI-Verbund laufen lassen?"
 
@Garrett: Ich galube nicht! Zuletzt mussten sie ja sogar vom gleichen Hersteller und von gleichen Typ sein!
 
@vij26: naja...kann man auch anders sehen ^^. Aber bei Aplle muss ich dir recht geben!
 
@vij26: hab ich da etwa Ironie rausgehört ? :P
 
@vij26: Ich hoffe auch, daß das ironisch gemeint war .....
 
Was will ich mit Nvidia. Ich hab mir zwei ATI 3870 x2 gekauft. Die gehen ab.
ATI ftw!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
 
@toll: 2 Nvidia sind besser als 2 ati hat mir Oleg erzählt, der hat vol ahnung von pc
 
@toll: Habe zwar nur eine HD3850 von Powercolor, aber diese so OC, dass sie Crysis auf High Settings rockt :)
@Robin: langsam glaube ich du bist garnicht so blöd, tust nur gern so! So unglaublichen Schwachsinn kann doch niemand ersthaft glauben ... lg
 
@toll: Habe zwar nur eine HD3850 von Powercolor, aber diese so OC, dass sie Crysis auf High Settings rockt :)
@Robin: langsam glaube ich du bist garnicht so blöd, tust nur gern so! So unglaublichen Schwachsinn kann doch niemand ersthaft glauben ... lg
 
@toll: Hab ich auch nur ohne das x2 :) Die karten sind schon super dagegen is ne 8800Ultra P/L weit unterlegen
 
die sollen mal alles in einem chip integrieren. cpu, gpu und physik...
 
@mcwild85: und was ist mit sound? :P
 
@mcwild85: Und was soll das bringen? Das du entweder garnich upgraden kannst, wenn du dann zb nur die CPU updaden willst alles upgraden musst oder dann gleich so rießen kosten auf dich zukommen dassus dir eh nich mehr leisten kannst ^^
 
Hmm, bedeutet das, dass ich meine alte 8400GS mittels Software allein zur Physikberechnung verwenden könnte? das wär ja klasse, Kaufe ich mir wenn die 8800GTS 512 günstig wird eine und dann noch die 84er rein und peng...
boah wär das nen Traum, dann müsste meine kleine GS nicht wieder in der schachtel verschwinden...BOMBE@NVIDIA.

WEITER SO, dass nenn ich mal verwertung von Alt-Hardware der guten Art.
 
@DerBaer79: WENN es denn mit zwei unterschiedlichen karten geht und WENN eine 8400 denn ausreicht ...... eine 8400 als ALT-Hardware zu bezeichnen, find ich schon heftig! :-)
 
@Plyfix:
Tut mir leid für dich, aber es ist so!
Eine 8800GTX ist sogar schon "alt". Hardware-Alter ist anders als das Alter von Autos oder sowas, das hat nämlich nichts miteinander zu tun.
Da alle so gerne Crysis als Beispiel nehmen:
Versucht mal auf einer einzelnen 8800GTX und einem QuadCore Q6600 @ 3,2 GHz Crysis auf bester Grafik flüssig darzustellen! (VERY HIGH, DX10, Shader4, Filterungen und 2x AntiAliasing, etc... oder sogar ohne AntiaAliasing) Natürlich nicht auf winzigen Augenkrebsauflösungen, sondern auf 1920x1200! Auf dieser Auflösung sollte die heutige Hardware nicht unter 50 FPS zusammenbrechen. Optimal sollte man immer 60 FPS haben, aber sowas schaffst du einfach nicht.
 
@DerBaer79:

Das ist auch meine Idee, wenn ich mir später eine GForce 9 hole kann ich die alte 8800 als PhysX Karte drin lassen.

Ich denke auch nicht, dass die Karten die selben sein müssen, die Agea PhysX Karte ist doch auch unabhängig von der eingebauten Grafikkarte.
 
ABSAGE NVIDIA
 
@duplex: Die Leute von NVIDIA sind nichts anderes als Geldsäcke, die andere kleinen Grafikkarten/Beschleuniger/phys-x-karten Betreiber aufkaufen und so eine Grafikkarte bauen. Ganz Objektiv gebe ich da ATi meinen Respekt, weil sie ihre Technologie von Grund aus selber entwickelt und realisiert haben. Nvidia haben nichts drauf, als mit Geld zu steuern.
 
"Jede CPU, die CUDA-fähig ist, soll laut Huang in der Lage sein, die Physik-Engine zu betreiben. Alle aktuellen GeForce 8 Grafikkarten unterstützen CUDA, so dass sie künftig zu Physikbeschleunigern werden können." Müsste das nicht "Jede GPU, die CUDA-fähig....." heißen? Denn die Physikberechnung soll ja von der GPU übernommen werden.
 
Ja, laß mich raten und die ollen AMD-CPUs (die eh nur User mit zu kleinen Pimmeln (wie ich) verwenden) sind nicht stark genug dafür!? Man, ich will Monopole, die Vergangenheit zeigt ja, wie Lukrativ das laufen kann. Des weiteren wird demnächst "Zwangsaufrüsten" für "Pseudo-Unbedingt-Haben-Müssen-Features" zur Pflicht erklärt, damit Need for Speed 3326354635454 auch supi-flüssig läuft. Parallel werden die Grafikkarten auch mit einem SLI-Adapter zum Kühlschrank verbunden, falls man bei der spannenden Story von Crysis 6354 mal in Schwitzen kommt. Achja, HABEN SIE ETWA KEIN SLI_SYSTEM!? NEIN? SIE LOOSER! Na dann ist ja der neue "Unter die Haut" RFID-Schipp etwas für Sie, damit die Fluggastdaten für die USA auch für die dauerzockenden World of Warcraft - Anbauwandzombies ausgelesen werden können. Frische Luft ist Giftig! Aufrüsten wird demnächst durch das Grundgesetz fest geschrieben und Computer spielen zum Pflichfach an Schulen erklärt! Außerdem können alle, die einen Plymouth Cuda fahren, die Physikengine in die Grafikkarte walzen. Die neue Technik kann Krebs heilen und entdeckt sogar Steuersünder in Lichtenstein, bevor die überhaupt ein Konto eröffnen. Die Unicef hat ihr Geld nicht veruntreut, sondern plant mit Google die Weltherrschaft. Die HD-DVD wurde zu einem Menschen umgewandelt und heißt ab sofort George Bush junior junior. Microsoft bestraft alle "nicht-Vista-User" mit der Todesstrafe. WOW wird zum Pseudonym für die Massenpanischen Hamsterkäufe von Megawichtigem und Bahnbrechenden Weltneuheiten. Das iPhone konnte das Problem des Welthungers lösen und.. und.. Putin bombt den Raketschild mit Atombomben aus Europa raus und ... und... und.._____________________ Worum gings eigentlich? Hm, habs vergessen. Wie uninteressant. Ups, Tablettenzeit :)
 
@JACK RABBITz: +++++ You made my day.
 
@JACK RABBITz: plymouth cuda... xD... fetter beitarg...
 
@JACK RABBITz: loser schreibt man mit einem o! :) Er bezeichnet dich ja nicht als "lose" (deutsch)
 
... SLI und auch Crossfire, egal für welchen Zweck, wird in seiner jetzigen Form immer ein Nischenprodukt bleiben. Und daran wir auch der Versuch nichts ändern, die User mit einem solchen Taschenspielertrick zu ködern. Physik wird sich sehr wahrscheinlich auf breiter Ebene nur dann wirklich spielbestimmend durchsetzen können, wenn es entweder als Zusatzchip auf Grafikkarten oder Mainboards verbaut wird oder sich softwaremäßig in Mehrkern-CPUs integrieren läßt. Ansonsten wird es garantiert keinen Publisher geben, der sich auf die breite Vermarktung von physikgestützten Spielen einlassen wird. Als bestes Beispiel für eine solche Vorgehensweise sollte eigentlich das vielgerühmte DX10 gelten, daß in seiner jetzigen Form mehr einem Krüppel als einem Sprinter gleicht ...
 
ich denk das ist intressanter http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/februar/details_radeon-hd-4000-serie_amd/
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles