Cell Factor: Beeindruckendes Video der Physikengine

Hardware Im Internet wurde ein Video des Spiels Cell Factor veröffentlicht, das beeindruckende Physikberechnungen zeigt. Es nutzt die HavokFX Engine und eine PhysX Ageia Karte, um die Physikeffekte zu berechnen. Dargestellt wird ein Captur the Flag-Match. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
hm das Game scheint spaß zu machen und die Physik Engine sieht klasse aus ^^ wenn alles zusammengezogen wird und dann explodiert
 
echt nice! kenn dieses game gar nicht!
 
LOL!!!, wie viel soll die PhysX-Karte kosten? Ich weiß nur, dass z.B. Asus welche herausbringen will.
Ich glaube nicht, dass Havok FX alleine so etwas hinbekommt. Hab eine GF 6800Ultra, zusammen mit dieser Physikkarte wird das bestimmt rocken.
Sind die eigentlich für PCI-Xpress oder auch für PCI *beten*.
 
@MiG[Anubis: zwischen 250 und 300 Euro und sind für PCI ...
 
@MiG[Anubis: Ich frag mich, warum das nicht ne normale CPU genauso gut berechnen kann... die CPU's sind heutzutage doch eh fast nicht mehr auslastbar...
 
@MiG[Anubis: bin für berechnung über DualCore, als X2 Besitzer wäre das schön :-)
 
@MiG[Anubis: nur ist der hauptprozzi nicht dafür ausgelegt.
 
@MiG[Anubis: Hey, naja vielleicht bissl spät, aber es kommt zwei Varianten raus..Die 1. im Mai und es wird normales PCI sein..Später kommt eine PCIe Variante heraus..Btw. es heißt PCIe oder PCI-E aber nicht PCI-X(press), PCI-X ist 64 bit und etwas anderes (Server). @rest, Desweiteren wird selbst Quad- oder Octacore so etwas nicht berechnen können.. Selbst schnellste CPUs schaffen nicht viel mehr als 3000 Objekte gleichzeitig am Bildschirm darzustellen (mit Physikberechnung..). Die PhysX Karte bzw. Hardware schaffte aber um den Faktor 10 mehr, also ca. 30.000 Objekte gleichzeitig..
Die CPU ist für die Verwaltung und KI zuständig und mehr als genug ausgelastet, glaub mir.. MfG CYA iNsuRRecTiON
 
Ich bin der Meinung, dass extra Physik-Karten (Ageia) totaler Schwachsinn sind, und bin davon überzeugt, dass sie sich nicht durchsetzen werden. Da geht Nvidia den besseren Weg und ATI zieht auch schon nach.
 
@bioforge: Was nVidia und ATi machen, ist zwar schön und gut, aber keine Qualitätsarbeit. Das wäre als würde die Grafikkarte gleich auch noch die KI oder den Sound mitberechnt. Dafür ist sie einfach nicht konstruiert.
Ich glaube auch nicht, dass sich sonderkarten lange halten werden, aber seperate Phisik-Chips werden sich durchsetzen, ob nun auf dem Mainbord, der Grafikkarte oder als Co-Prozessor im Hauptprpozessor.
Bei Dual- oder Quad-Core Prozessoren könnte man einen der Kerne duch einen solchen Phisikbeschleuniger ersetzen.
Aber derzeit gibt es nur die Zusatzkarten, und ich warte ungern.
 
@bioforge: ich würde mich mit dem Wort "Schwachsinn" etwas zügeln denn sowas entscheidest nicht du sondern die Kunden. Die Karten werden sich eine Zeitlang auf jeden Fall durchsetzen. schon allein die Tatsache, daß die Berechnung der Physik mal wieder eine Reihe an Speicher fressen wirst. Ich glaube nicht, daß Kunden bereit sind dann 800 bis 1000€ aufeinmal hinzublätter weil dann der Speicher auf einer einzigen Karte die 1GB ankratzen werden. Das ist die Variante mit dem Überlegen: "kauf ich mir eine oder nicht?" wesentlich besser.
 
@bioforge: mag sein aber ich hab mir erst kürzlich mal eben so ne 250 Euro teure Grafikkarte angeschafft und werde mir jetzt nicht ne neue kaufen und nochmal 600 Euro für ne Kombokarte holen. Ich warte n halbes Jahr bis die Physikkarten erschwinglicher sind und auch mehrere Games dafür auf dem Markt gibt und dann wird gerockt ^^
 
Ich denke, dass reine Physikkarten sicher nur kurzfristig Erfolg haben werden. Was macht denn diese Physikkarte? Rechenleistung bereitstellen! Das sollte aber mit einem schnellen Dual-/Multicore Prozessor in Zukunft auch Problemlos möglich sein, oder? Dafür wäre dann sicherlich ein 4xCore Prozessor interessant (gibt's sicherlich irgendwann). Ein Core für's OS und Hintergrundanwendungen, Zwei für's Spiel selbst und einer für die Spielephysik :-).
 
@dfx23: oder gar nvidia oder ati integrieren solche physikchips auf die grafikkarte mit drauf
 
@dfx23: Hier mal n Bild zu der Karte ... http://www.gdhardware.com/events/e3/2005/day1/physix_card.jpg

Das Ding ist aktiv gekühlt. Würde man son Viech noch auf der Grafikkarte integrieren, will ich nicht wissen wie Porno dann der Lüfter sein muss der das ganze kühlt ^^
 
hmm also ich finde, dafür dass mich das Video dazu bewegen soll, so ne Physikkarte zu kaufen, dafür ist das Video recht enttäuschend! (kannte es ja schon) Ich meine, die Rohre verhalten sich wie die Boxen, und überhaupt, es sind nur Boxen!! Ok viele davon, aber nichts komplexes! Vor nem Jahr oder so gabs mal "future-videos" (evtl von ner Havok-Weiterentwicklung oder so) wo Wasser realistisch aus einem zuvor in echtzeit beschädigten Bottich floß - das nenne ich dann krasse Physik! ich bin überzeugt, dass neue Grafikkarten "die paar Boxen" alleine per Shader oder wie auch immer berechnen könnten... Und wenn ich mir HL2 anschaue oder eine dieser Physik-Demo-Maps/Mods für FarCry - klar da seh ich dann wie's ruckelt aber wie gesagt ich sehe den großen Fortschritt nicht, der eine eigene Karte rechtfertigen würde... naja we'll see
 
@Leaxim: Na ein Glück, ich dachte schon ich wäre der einzige der von dem Video alles andere als beeindruckt ist. Ich kann dem ganzen nichts abgewinnen, zumindest was dieses spezifische Spiel angeht. Und wie es jemand anderes schon angesprochen hat, wenn die Spieleprogrammierer die DualCores ausnutzen und gescheit programmieren, dann braucht man so eine Zusatzkarte erst gar nicht.
 
@Leaxim: dann spiel mal einen heutigen Standardshooter im MP mit der physik objekt Dichte! Wenn das nicht nur eine Demo ist, sondern echtes Live Spiel, dann bin ich mehr als überzeugt von einer Physikkarte, man vergleiche bloss mal mit HL2DM, wo 2 oder 3 von diesen Objekten übelsten Lag und Slowdowns verursachen.
 
@BigJim188: Das geht aufs selbe hinaus. Keins der heutigen Spiele unterstützt so eine Karte, womit es auch damit genau so ruckelig wäre. Und für zukünftige Spiele kann man die 2 Kerne einer CPU ausnutzen und spart sich die Karte.
 
Grafik und Leveldesign reißens einfach nicht mehr raus, KI und Physik muss her, das ist der nächste große Schritt in den die Games gehen, und dafür brauchts halt ne Card (wie genau weiß ich auch nicht, wie bereits woanders geschrieben, vielleicht onboard etc). und wenn es erstmal die Showstopper games gibt die auch den nörgelnden hinz und Kunz beeindrucken wird es sich auch durchsetzen. die Leute die argumentieren, man bräuchte keine extra karte für sowas, will ich mal Fragen ob sie alle ne Onboard Grafikchip benutzen, denn dort kann man genau das gleiche behaupten, aber nein, auf extra Resourcen bei Grafik will man halt nicht verzichten, und genau so wirds auch bald mit Physikchips sein
 
Irgendwie habe ich ein Deja-Vu. Habe das doch schon mal vor Jahren gesehen. Damals war die Rede von Voodoo-Karten. Das sollte die Revolution werden. Also haben sich viele eine solche Karte gekauft. Ein paar Spiele wurden dann speziell programmiert und dann...... Schluss mit Voodoo. Dies wird genau so werden mit diesen Karten. Die Hersteller werden am ende solche Chips in ihre GRAKA integrieren. Also werde ich mir nicht solche eine Karte kaufen. Mache nicht nochmal diesen Fehler.
 
@bigoesi: Tja leider wurde Voodoo von Nvidia aufgekauft und im tresor versperrt, die Karten an sich waren genial bei bekannten von mir rennen noch welche im SLI modus (Voodoo2) die grafik qualität sucht man heute vergeblich, leider. Naja zu den Karten sie werden eine Zeit lang im Umlauf sein bis sie dann irgendwo integriert werden.
 
Ich spiel ja hin und wieder gerne so richtig brutale Spiele, aber diese Blutsimulation in dem Spiel ist eklig °°
 
@webmaster_sod: richtig brutale ? Also, UT 2004 was ? Ironie*
 
@webmaster_sod: Des was ich unten gepostet hatte ( http://www.gametrailers.com/download.php?id=9941&type=exe ) dort ist des mit dem Blut echt seltsam, als ob die an die 100Liter blut in sich haben ^^, das Video ist leider 400MB groß
 
Der Clips ist glaub ich besser: http://www.gametrailers.com/download.php?id=9941&type=exe
 
Egal was ihr hier alle wieder an der Technik und am Preis und am blablabla zu mäckeln habt. Ich finde das Video total eindrucksvoll. Es die Details sind hoch aufgelöst, grafik ist top, shader sehen geil aus, Effekte sind gut und die Performance der Pyhsikberechnung ist traumhaft!!!!
 
ladet euch das video lieber in high def im original runter .. der verpixelte mist da wird dem ganzen nicht gerecht ^^ .. ich ifnde die physik an sich ist da schon verdammt geil aber die flüssigkeiten die ja mit der karte so verdammt realistisch dargestellt werden sollen finde ich sehen absolut scheisse aus. Was ist daran denn realistisch ?
 
Achso mich würde interessieren von welcher Band der Sound kommt? Ist das Soilwork???
 
@bigoesi: die band finde ich auch interessanter :D ich komme auch nicht drauf^^ soilwork kenn ich nicht :-/
 
@bigoesi: Ich glaube Slipknot
 
@bigoesi: Nein, die Musik ist von Bleeding Through.
 
@pixeltec.ch: hast du slipknot jemals gehört? ich glaub nicht^^ es ist definitiv kein slipknot
 
hehe^^ ich warte auch noch bisschen dann kann ich wieder n1 cs 0hnitschen^^^^
 
auf alle fälle besser aus die offizielle nVidia Demo für die Physik Beschleuniger
 
Immer diese Kinderballerspiele. Hauptsache Peng-puff. Ich würde gerne mal ein anderes, gewaltfreies Video sehen, aber da ist man ja gleich ein Warmduscher. Ich stehe dazu :D
 
der nvidia weg ist für mcih eindeutig der bessere. grade für uns notebook gamer. wir haben ja immer das problem mit der aufrüstbarkeit und den schwächeren CPU`s. dann spiel ich lieber mit ner niedrigen auflösung und flüssig, als das mir fehlende physikunterstützung den ganzen spass verdirbt. und cih muss auch nicht das book wegwerfen.
 
zu allen die oben gesagt haben der physX ist schwachsinn
bitte bitte lest euch mal ein paar sachen zu dem Chip durch ich kanns echt nimmer mehr
das ist nicht zum aushalten was manche so dahinschreiben wenn der tag lang ist
multicore und diesen prozessor ersetzen dass ich net lache und multicore wird sicher auch den grafikchip ablösen ganz sicher :)

zum chip er hat ein vielfaches der rechenleistung einer normalen CPU da er ja auf diese art von berechnung spezialisiert ist und die CPUs net auslasten würd ich net behaupten vor allem weil Spiele die CPU normalerweise immer auslasten aber ok
habt ihr überhaupt mal überlegt was damit alles möglich wäre vor allem in kombination mit ner erhöhten geometrieleistung
schon mal was von haarsimulation gehört und wie extrem genial sowas aussieht also jeder der sowas mal angeguckt hat gitbs z.b. in jedem Spielfilm wo künstliche chars mit haaren vorkommen z.b. Final Fantasy, Kong, Harry Potter3...
oder wie wärs mit Kleidungssimulationen also realistische mein ich
das ist nur ein bruchteil dessen was mit der Karte möglich ist des weiteren könnte man realistischere natur machen also bäume die sich bewegen und blätter die durch berührung oder durch nen steinwurf platt gemacht werden alles ist denkbar
oder wie wärs mit berechnung einer realistischen reibung beim rennfahren oder realistischeren schußverhalten von waffen in egoshootern also ne mg die net gradeaus schießt sondern so wies gehört am besten auch mit dichte berechnungen also wenn ich durch ne wand schieße dass er auf der anderen seite getroffen wird (keine sorge wegen geometrieschäden kann man ja als schwarzes loch tarnen wo man halt net durchguggen kann oder so ähnlich ausser es ist möglich naja :)
also man sieht es gibt viele dinge die die karte realisieren könnte
und wenn es jemanden interresiert der beschleuniger wird von ut2007 unterstützt werden zumindest liest man das auf der unreal3 engine seite
wenn jemand mal fragen hat wieso man diesen beschleuniger braucht kann er ja im forum reinguggen
 
@Lord_Darkstone: naja, die interpunktion ist auch schon seit dem 9. jahrhunder vor christus bekannt und hat sich scheinbar immer noch nciht bei allen durchgesetzt, weil sie einige scheinbar immer noch für schwachsinn halten.
 
@Lord_Darkstone: Man könnte ja vielleicht sogar sein RealLife emulieren.
:-)
 
Das Video ist doch schon Wochen alt! wieso kommts erst jetzt hier rein?
Ausserdem gibts das video in höherer Auflösung.
 
mittelfristig wird sich das zumindest im highend sektor wohl schon durchsetzen - leute die sich immer sofort die neueste geforce 8/900er reihe im sliverbund holen werden paar hunderter zusätzlich auch nicht abschrecken.
der typische 6600 / 7600 kunde wird sich das ganze zumindest solange er nicht absolut darauf angewiesen ist schon dreimal überlegen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles