Nvidia: PhysX-Effekte nun auch auf der Wii nutzbar

Nintendo Konsolen Erst vor wenigen Tagen wurde bekannt, dass Nvidia ein Abkommen mit Sony geschlossen hat, in dessen Rahmen die PhysX-Engine für die PS3 zur Verfügung gestellt wird. Nun konnte sich das Unternehmen auch mit Nintendo einigen. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Juhu.... na da bin ich auf der WII aber mal gespannt wofür die Engine benutzt wird...
 
@chrisibook: Na für die Splitter-Effekte beim Einschlag des Nunchuk in den 50" TFT. Wofür sonst?
 
@Sesselpupser: Haben zwar nur einen 32er LCD, aber unsere kleine geht irgendwie immer drauf zu. Irgendwann kracht's ma ^^
 
würden (wenn es so wäre..) sich eigentlich gewisse nachteile ergeben auf einer xbox 360? oder ist es egal, welche grafikkarte letzendlich benutzt wird
 
@hjo: Es wird keine Grafikkarte benutzt, sondern eine "Engine", also eine Software. Diese Software ist für die Berechnung zuständig. Im Moment gibt es zwei große. "PhysX-Engine" und "Havok-Engine". MS hat sich wohl schon auf die Havok geeinigt, weshalb sie nicht nochmal viel geld für eine zweite Engine ausgeben. Aber theoretisch wären natürlich beide möglich.
 
@hjo: Wie ox_eye schon sagte, handelt es sich per se erstmal nur um Software. Du hast allerdings insoweit recht, dass Grafikkarten mit Stream-Prozessoren für die PhysX-Berechnungen genutzt werden können. Ich bin kein Konsolen-Guru, aber ich denke nicht, dass in der Wii ein solcher Grafikchip verbaut ist. Inwieweit nVidia schon PhysX-Berechnungen für ATI-Chips durch haben, weiß ich (ohne weitere Recherche) auch nicht aus dem Stegreif. Da könnte vielleicht jemand einspringen und die Information nachreichen.
 
@Flash32:
HI

Ab Geforce 8xxx (G80) ist es Möglich dies in Harware zu machen. alle andern Grafigkarten in Software. es ist zwar NGOH Gelungen es auf ATI zu portieren aber das scheint nicht richtig zu gehen da gibts noch nix nues.

Dies spiele unterstüten das:
http://www.nzone.com/object/nzone_physxgames_home.html

Es gibt aber noch haufenweise Programme die auf CUDA Basieren:
Adobe Photoshop CS4 usw.

LG
Alex
 
@Alexquad84: Könnte eventuell daran liegen, dass es ab der 8er Generation der Geforce-Karten Stream-Prozessoren mit an Bord sind und es vorher nur die einsatzfixen Shader gab? Gerüchte Gerüchte... Die ATI-Unterstützung wurde von nVidia mal angekündigt, aber von mir nicht weiter verfolgt. Umsetzbar ist es auf jeden Fall, wobei nVidia natürlich nicht verpflichtet ist, die Unterstützung anzubieten. CUDA ist wieder eine andere Baustelle. Hiermit sollen die Stream-Prozessoren für verschiedenste Berechnungen genutzt werden können, die massiv-parallel ablaufen. Erste Anwendungsbereiche: Filterberechnungen in Photoshop, Einsatz in Renderern, Knacken von Verschlüsselungen. Andere werden sicherlich folgen. Mit im Rennen ist aber auch noch OpenCL. Diesem rechne ich langfristig mehr Erfolg zu. Der Ausdruck "Basiert auf CUDA" ist auch etwas irreführend. Es handelt sich hierbei nur um die Auslagerung rechenintensiver (und eben parallel verarbeitbarer) Berechnungen auf die 128-800 (je nach Modell) Streamprozessoren der Grafikkarte. Das Hauptprogramm selbst läuft nachwievor primär auf der CPU.
 
@Flash32:
Ja weis ich!

G80-GT200=Cuda=PhysX

Da PhysX Über cuda Läuft!
Alles andere ist Software!
 
@Alexquad84: Man könnte es so ausdrücken. Es wäre aber ein ziemliches Understatement und würde CUDA keinesfalls gerecht werden.
 
@Flash32:

Wie menst das?

es ist aber so!!

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/nvidia_physx/
 
@Alexquad84: "Intel Pentium-Intel Core2Quad=PC=Briefe schreiben" <- hieraus wird es eventuell klar (ja, ein Prozessor macht noch keinen PC, aber das Problem in der Argumentation sollte durch das Beispiel deutlich werden). Natürlich hat nVidia die PhysX-Engine, nachdem sie Ageia aufgekauft haben, via CUDA implementiert. CUDA ist aber deutlich mehr als nur lustige Physikberechnungen. Es eröffnet Programmierern die Möglichkeit eine komplett neue Quelle an Rechenleistung anzuzapfen. Massive Parallelberechnungen können an die Grafikkarte delegiert werden während die CPU-Kerne frei bleiben für andere Aufgaben. Man könnte es auch etwas abwertend als "Co-Prozessor Reloaded" bezeichnen. Wobei ich nicht weiß, ob hier noch mehr so alte Gestalten wie ich rumlaufen, die sich noch an die Zeiten des Co-Prozessors erinnern können.
 
Damit physikalisch korrekt die schwabbelnden Fettmassen dargestellt werden können die sich auf einem Wii Balance Board tummeln, yeah ^^
 
@stenosis: He he, nicht schlecht (+)
 
@stenosis: muahahaha lol
 
@stenosis: Wär es dann nicht irgendwann einfacher, man würde per Kamera den echten Menschen auf dem Bildschirm schwabbeln lassen?
 
Ein weiterer Anwendungsbereich könnte Wii Sports 2 sein, wo man eine virtuelle Wiimote in einen virtuellen Fernsehr werfen kann, wo daraufhin die Mattscheibe physikalisch korrekt zerspringt oder die Wiimote im virtuellen Fernsehr stecken bleibt. Pownd.. aehm Powerd by PhysX
 
wow, die wii schafft es ja noch nicht mal, 2 spieler splitscreen rennen bei mariokart ruckefrei darzustellen. wo soll da die leistung für physix effekt herkommen? nen weiteren prozessor per USB?
 
@LoD14: Die GPU Leistung der Wii ist schwach, in der Tat aber die CPU Leistung im direkten Vergleich wesentlich stärker, besonders in Anbetracht ihrer Leistungsaufnahme. Würde mich also wundern, wenn diese Effekte tatsächlich über die GPU berechnet werden, die ja von ATi stammt und nicht von Nvid.
 
@stenosis: Ob die GPU von ATI oder nVidia ist, ist eigentlich völlig egal. Die Bauweise ist wichtig. Es müssen Stream-Prozessoren vorhanden sein, d.h. die GPU muss sich für nicht-grafische Allgemeinberechnungen eignen (Stichwort: GPGPU). Wenn dies nicht der Fall ist, bleibt nur die Berechnung über die normale CPU, was zu Geschwindigkeitseinbußen führt bzw. führen kann. Massive Physikeffekte werden auf der Wii jedenfalls mit Sicherheit nicht möglich sein.
 
@Flash32: für die Prognose im Beitrag o3 wird es wohl genügen.
 
Mal ne andere Frage: Gibts eigentlich auch irgendwo ne Auflistung, welche Spiele PhysX verwenden? Ich lese immer über PhysX-Treibe/Fähigkeiten ... nur wer nutzt das eigentlich? Das ist mir nicht ganz klar. Vllt. ging das auch an mir vorbei :-)
 
@Marlon:

Die Komplette LISTE:
http://www.nzone.com/object/nzone_physxgames_home.html
 
@Alexquad84: Man muss unterschieden zwischen Spielen, die die PhysX Engine verwenden, und per CPU berechnen. Das sind sehr viele Spiele, gibts schon lange, und grafisch nichts besonderes, und den Spielen, die GPU Beschleunigung für PhysX verwenden. Das sind nur sehr wenige Spiele - neu und relativ gute Physik effekte, und eigentlich das, was wirklich interessant ist. Letzteres ist z.B. Mirrors Edge, oder Unreal Tournament 3, sowie Warmonger.
 
@Alexquad84: Oh, da ist ja sogar ein Wii-Titel gelistet: "Sonic and the Secret Rings"... und das Ding ist von 2007...
 
Die WII hat überhaupt nicht die Leistung vergleichsweise sinnvoll PhysX Effekte sinnvoll zu nutzen. Als reine Spielkonsole steht sie mit ihrer Hardware absolut unten was Leistung betrifft. Ich bezweifel das PhysX da Sinn machen.
 
@Wolfseye: bei boomblox hätte man es beispielsweise implementieren können. aber hast recht, die leistung des wii ist so unterirdisch, da kann man dann auf 2d umstellen, wenn man physix richtig nutzen will.
 
@Wolfseye: Macht euch da mal keine Sorgen ihr Experten. Die werden schon wissen wieso sie es Benötigen...
 
Ist der PhysX-Effekt auch von der Graka abhängig oder hat dies lediglich mit dem Treiber zu tun? Lese immer wieder vom PhysX-Effekt und weiß nicht mal welche Games bzw. ob meine Hardware dies unterstützt. http://www.sysprofile.de/id26541
 
@KlausM:

HI

Ab Geforce 8xxx (G80) ist es Möglich dies in Harware zu machen. alle andern Grafigkarten in Software. es ist zwar NGOH Gelungen es auf ATI zu portieren aber das scheint nicht richtig zu gehen da gibts noch nix nues.

Dies spiele unterstüten das:
http://www.nzone.com/object/nzone_physxgames_home.html

Es gibt aber noch haufenweise Programme die auf CUDA Basieren:
Adobe Photoshop CS4 usw.

LG
Alex
 
@Alexquad84: Vielen Dank für den Link, edit:: spiele gelegentlcich mal Cod4 welches nicht in der Liste steht...dann hab ich mom. eh nichts von :) Aber vielen Dank für die Info. Grakatechnisch sollte meine Karte also diese Phs. Eff. unterstützen.
 
@KlausM: Ich schreibs auch hier nochmal: Man muss unterschieden zwischen Spielen, die die PhysX Engine verwenden, und per CPU berechnen. Das sind sehr viele Spiele, gibts schon lange, und grafisch nichts besonderes, und den Spielen, die GPU Beschleunigung für PhysX verwenden. Das sind nur sehr wenige Spiele - neu und relativ gute Physik effekte, und eigentlich das, was wirklich interessant ist. Letzteres ist z.B. Mirrors Edge, oder Unreal Tournament 3, sowie Warmonger. Das heist, dass die ganzen Spiele, die PhysX nutzen stink normale Physik Effekte haben, die eben dank PhysX etwas schneller von der CPU berechnet werden können. Es geht aber in den ganzen News über PhysX um die GPU beschleunigung der PhysX Engine. Da die GPU perfekt dafür geeignet ist, kann man viel bessere Physik Effekte darstellen. Und das bieten nur eine Handvoll Spiele, für die dann auch eine nVidia Karte benötigt wird. (währe aber theoretisch auch mit jeder Karte möglich, die Unified Shader hat)
 
wie wärs erstmal mit ner besseren grafik für die wiihhh, ist ja derzeit der reinste augenkrebs. hab ma beim kumpel auffer wiihh gezockt... 1cm große pixelblöcke... nenene... das kanns ja wohl nicht sein
 
@darkangel88: ach komm, die grafik ist nicht schlecht. das problem ist nur, die grafik konnte schon mein gamecube, und den krieg ihc heute für 50 und nicht 250 euro. für die leistung ist das einfach zu teuer oder fürs geld zuwenig leistung. darüber hinaus ist die steuerung auch noch für die tonne, mariokart kann ich mit der wiimote nicht spielen, viel zu unpräzise und träge und mit unerklärlichen sprüngen in der lenkung. jetzt hab cih ne wii mit neuer steuerung, spiele aber mit gamecubegrafik und gamecubecontroller drauf. das macht keinen sinn.
 
@LoD14: Für dich macht es keinen Sinn, aber Nintendo macht damit ein Vermögen. Nintendo hat mich mit der Wii sehr beeindruckt. Veraltete Hardware für viel Geld verkaufen geht sonst nur mit staatlichen Institutionen. Das einzige Unternehmen, dass es ansatzweise ähnlich erfolgreich macht (einigermaßen aktuelle Hardware zu horrenden Preisen), ist Apple.
 
Wii = ATI chip , ATI = nix gut mit physx , jemand erklären?
 
@ReVo-: Wii = ATI/Nintendo Chip = nix gleich PC GPUS
 
@ThreeM: Solange die GPU in der Wii Unified Shader hat (damit kann man beliebeige Berechnungen auf der GPU ausführen) kann damit auch die PhysX Engine beschleunigt werden. Aber da die Wii grafisch eh schon an ihre Grenzen stoßt, bleibt nur noch die CPU. Aber das währe ja dann nix besonderes. Da könnte man dann auch keine besonderen Physik effekte einbauen, sondern nur das standardmäßige Physik zeug, das jedes 0815 Spiel hat. Man siehe sich nur mal Benchmarks von Mirrors Edge an. Wenn man so viele Physik Effekte per CPU berechnen lässt, schafft nichtmal ein i7 eine flüssige Framerate. Da muss einfach die GPU beschleunigung her. Und das wird auf der Wii bestimmt nichts werden, also muss wahrscheinlich die CPU ran = sehr wenig Physik Effekte - nix besonderes - alles wie immer.
 
@Fatal!ty Str!ke: Doch kann die CPU: http://www.youtube.com/watch?v=3xJXvFqhCk0 Physik ist für die Wii nix neues, nur das es halt nun eine weitere Engine gibt
 
@ReVo die habe CUDA für ATI PORTIERT! aber nur für den Zweck!
Zusammenarbeit mit:
www.NGHO.com
 
Gehirnjogging mit PhysX Effekten... wow
 
Hehe, naja Wii mit PhysX, ob die Chips der Wii wirklich ne anständige PhysX-Emulation berechnet kriegen. naja naja...wir werden sehn.

Ich fands megamäßig geil die PhysX effekte aufm PC in Mirrors Edge. Das war einfach dermaßen dick und atemberaubend. Fand ich super.
Vor allem die Konsolenspieler kamen nicht in den Genuß. Das war PC-Exclusiv :_).

Aber gute sache, dass sie es nun auch in die Konsolen bringen. Die PS3 kriegt dadurch nochmal nen funktionsbonus der sich auch lohnt bei der Konsole.
 
Welche Physik Engine ist eigendlich besser, Havok oder PhysX ?
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte