AMD: Physikberechung mit Grafikkarte? Keine Chance

Hardware AMD scheint nicht mehr sonderlich überzeugt von der Idee, die Berechnung von Physikeffekten in Spielen teilweise von der Grafikkarte erledigen zu lassen. Noch Anfang des Jahres hatte man Pläne verlauten lassen, bei denen bei CrossFire-Systemen eine ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Was ist eigentlich mit dieser Physik-Extra-Karte (PhysX) geworden? Wirklich erfolgreich scheint die ja nicht angenommen zu werden
 
@Mudder: Gibt doch kaum Spiele, bzw. Engines die sie unterstützen. Warum sollte ich sie also kaufen? Hehe,und selbst wenn sie unterstützt wird merkt man kaum Unterschiede, weil die heute aktuellen Mehrkern-CPUs das schon gut genug machen.
 
@Mudder:

In Crazy Machines 2 findet die Karte verwendung. 20 Extralevel nur für die Karte, aber ich denke ohne wirklichen erfolg
 
@Mudder: Unreal Tournament 3 unterstützt auch diese PhysX-Karte... lohnt sich nur leider nicht hier in Deutschland, weil die ganzen Ragdoll-Animationen rausgeschnitten sind.
 
@Mudder: Ihr habt Cellfactor Revolutions vergessen... dort werden die Eigenschaften der PhysiX Karte auch wirklich ausgenutzt...
 
@FloW3184: das stimmt nicht. unreal tournament 3 benutzt kein physx. die engine unterstützt es und es soll eine spezielle map dafür herauskommen, aber das ganz normale UT3 macht alle physik berechnungen auf der CPU
 
@Mudder: lieber die 130 euro was so ne karte kostet, auf cpu und eventuell graka drauf legen, dann braucht man die nicht...
 
Ich halte auch nix von Physikberechungen auf Grafikkarten. Ich brauch jede freie Grafikkartenressource um auf möglichst hohen Auflösungen und/oder Qualitätseinstellungen zu spielen. Darüberhinaus wurde die Auslastung der Grafikkarten durch "Unified Shader" erhöht, so daß kaum noch etwas brach liegt mit dem man Physik berechnen könnte. Und ne dritte Grafikkarte für Physik ist auch quatsch. Da kann ein gleich ne Ageia Physikkarte nehmen. Die CPU macht das schon hinreichend gut und mit Multicore-Systemen gibts auch keine Probleme diese Effekte schnell genug zu berechnen.
 
@DennisMoore: Amen...
 
...wird sich in der Zukunft zeigen, was sich durchsetzen wird :)
 
Villt finden diese Karten in der Industrie verwendung, wenn sie denn noch kommen, aber ich für meinen Teil würde mir wohl nie solch eine extra Karte zulegen.
Die Idee ansich finde ich gut, nur ist es mir das Geld erstens nicht wert und zweitens sehe ich wie sich Dual-Grafikkarten durchgesetzt haben, nämlich kaum. Nur wirkliche bastler mit dem nötigen Kleingeld und leute die keine Ahnung haben, aber das Geld haben sich sowas zugelegt.
 
Naja, ich denk mal dass die Hardware-freaks jetzt eh auf quad-core umsteigen, da der q6600 eh nur noch 200€ kostet.
Dann wär es doch sehr sinnvoll die Physik von einem Kern berechnen zu lassen.
 
@JasonLA: ... wie Crysis es auch tut.
 
@JasonLA: Aber aber der Q6600 ist doch garkein QuadCore sondern ein Dual Dual Core^^
 
Für alle die, die mehr Einzelheiten über die AGEIA-PhysX-Hardware wissen wollen (aktuelle und zukünftige Spieletitel, Demos, technische Daten usw.) kann ich nur folgenden Link empfehlen: http://personal.inet.fi/atk/kjh2348fs/ageia_physx.html ! Meiner Meinung nach wird sich zeigen, ob die Multi-CPUs in der Zukunft bei wirklich (physikalisch) anspruchsvollen Anwendungen mit der Karte mithalten können (vorausgesetzt, die Anwendung nutzt das SDK bis ans Limit aus!)!
 
@Hoozer: Brauch ich mir gar nicht angucken. Mir reicht schon das Produktfoto um mich abzuschrecken. Nicht nur das die Karte teuer ist, die ist auch (wahrscheinlich) dank "Kreissägen"-Lüfter ziemlich laut und frißt recht viel Strom, da sie einen zusaätzlichen Stromanschluß aufweist. Und das für Physikeffekte, die ein Kern einer Mehrprozessor-CPU auch berechnen kann ... Da wink ich mal direkt ab.
 
@ DennisMoore: Wenn Du die Seite schon mal angesehen hast, verstehe ich, dass Du nicht draufschauen willst, aber einfach pauschal zu sagen "das Produktfoto reicht aus, um mich von anderen Infos fernzuhalten", klingt nicht grad überzeugend! Zum Verbrauch der Karte (weshalb der separate Stromanschluss wohl nötig erscheint): "chip = 20 watts (peak), entire PhysX card = 26-28 watts". Im Grunde könnte man sagen, es ist nichts anderes als eine "zusätzliche PCI-Grafikkarte" (um es ganz unprofessionell auszudrücken). Wenn Du jemals eine "Fluid-Simulation" laufen lassen hast, so wie sie in vielen der Videos auf der besagten Website vorliegen, dann wüsstest Du dass, trotz der Muliprozessor-Ausnutzung des AGEIA-SDKs diese Simulation mehr schlecht als recht vor sich hin zuckt! Deshalb sagte ich ja auch "...vorausgesetzt, die Anwendung nutzt das SDK bis ans Limit aus!", denn einfache Dinge laufen mit dem SDK locker im Software-Modus (auch auf Single-Core-CPUs) und ein Unterschied zum Hardware-Modus fällt dann natürlich nicht auf! genauso verhält es sich mit Anwendungen, die eine andere Physik-Engine verwenden, diese werden natürlich nicht beschleunigt!
 
@Hoozer: naja... was ich bereits gelesen habe war nicht so pralle, macht keinen Sinn das es etwas besser ausschaut, aber trotz allem in Dia Schow geschwindigkeit daherzuckelt. Viele Spiele mit extremen Physiksituationen brechen auch bei Ageia Karten regelrecht ein. Denn die bereits erwähnte Kreissäge, der Strom und der Preis. Für 79,90 bin ich dabei, aber nicht mehr. Zu Beginn fast 300E zu verlangen... Hammer... drum, ohne mich
 
@ vancleeve: Im Bereich des Preises gebe ich Dir vollkommen recht, aber es war, ist und wird wohl auch immer so bleiben, dass "neues" Hardwarezeugs am Anfang unverhältnismäßig hohe Preise verlangt (siehe auch die "neue" Optimus-Tastatur als Beispiel) und sich (meistens) im Laufe der Zeit auf annehmbare Preisverhältnisse einpendelt! Aktuell liegen die PCI-Karten jetzt bei ca. 114 bis 120 €. Dass (oftmals) die Spiele oder Anwendungen bei massiver Ausnutzung der SDK-Funktionen anfangen langsamer zu laufen liegt wohl eher darin, dass die Anwendungen (wie z.B. GRAW1) nicht optimal umgesetzt wurden oder eben zu viele zusätzliche Polygone erzeugen, die die Grafikkarte dann zusätzlich schwer belasten, was man dann als weniger Leistung wahrnimmt!
 
@Hoozer: Man muß kein Genie sein um zu merken, dass die Karte mehr als 30 Watt verbraucht. Denn wenn man einen aktiven Lüfter verbaut und einen separaten Stromanschluß braucht, wird das Ding mehr Hitze erzeugen als es ein Passivkühler abführen könnte. Und das geht nur indem ordentlich Watt verbraten werden. Und ich seh nicht ein das ich ein zusätzliches Stück Hardware in den PC stecke um Physikeffekte zu sehen, welche die 3 brach liegenden meiner 4 Cores auch berechnen könnten (Sind zusammen immerhin knapp 5 Gigahertz)
 
@DennisMoore: Wenn Du die Entwicklung bei den Grafikkarten mitverfolgst, dann wüsstest Du auch, dass bis ca. 50 Watt eine pasive Kühlung möglich wäre, aber bei diesem Produkt offensichtlich aus Kostengründen (oder was auch immer) darauf verzichtet wurde. Die Cores "könnten" (wie vorher erwähnt) sicherlich einen Großteil der Effekte berechnen (dank der Multi-CPU-Fähigkeit des SDKs), wenn es denn richtig eingesetzt wird, jedoch würden die Fluid-Simulationen sich weiterhin nur schwerlich mit Multi-CPUs berechnen lassen! (Weshalb wahrscheinlich auch bisher mir kein Spiel bekannt ist, welches die "Fluid"-Effekte im massive Großeinsatz verwendet! Denn damit würden die Entwickler ihr Produkt nur einer kleinen Zielgruppe anbieten, was sich heuzutage keiner mehr leisten kann.) Ausserdem ist es nicht so einfach für Multi-Core-CPUs zu programmieren (wie sich das immer so einige vorstellen), weshalb diese ja auch nur schleppend unterstützt bzw. voll ausgenutzt werden! Deine Aussage "...meiner 4 Cores auch berechnen könnten (Sind zusammen immerhin knapp 5 Gigahertz)" benötigt mal ein wenig mehr Ausführung, denn wenn Du einen "INTEL Core2 Quad Q6600 (2,4 GHz)" hast, dann würde Deine (sinnfreie) Rechnung nur mit 2*2,4GHz=ca. 5GHz aufgehen (wenn man berücksichtigt, dass diese CPU aus 2 Doppel-Kernen besteht und davon ausgeht, dass Du nur diese beiden Kerne einbeziehst)! Aber wenn Du schon den Fehler machst und die Taktungen zusammnzählst, warum dann nicht gleich 4*2,4GHz? :-)
 
@Hoozer: Sehe keine Fehler darin die Leistung meiner Cores so auszudrücken weil die Benchmarks mit jedem zusätzlichen Kern eine lineare Leistungssteigerung hinlegen. Von daher ist das alles andere als Sinnfrei. Und wenn bis 50 Watt eine passive Kühlung möglich wäre, dann frag ich mich warum man bei angeblichen 30 Watt schon eine Aktive braucht (+ Extrastrom vom Netzteil). Kostengründe werdens wohl kaum sein, das Brett kostet schließlich nicht nur nen Euro fuffzig.
 
@DennisMoore: Wenn dem "Sehe keine Fehler darin die Leistung meiner Cores so auszudrücken weil die Benchmarks mit jedem zusätzlichen Kern eine lineare Leistungssteigerung hinlegen." so ist, dann hättest Du ja "4*2,4GHz= 9,6GHz" rechnen müssen! (Wobei man trotz allem lieber nicht so rechnen sollte! Da es absolut falsch ist!) Benchmarks mögen dabei skallieren, aber im Endeffekt hat man nur was von den Mehrkernen, wenn die verwendeten Programme diese voll unterstützen und/oder man mehrere Anwendungen gleichzeitig laufen lässt! Der "extra Strom" wird fällig, weil der PCI-Slot nicht genügent "Saft" liefert für die Karte (wobei deren Verlustleistung für deren Komplexität eher mit einer CPU zu vergleichen wäre, wo ein Verlustwert von ca. 30 Watt doch noch recht gut ist)! Grundsätzlich könnte man (fast) alles passiv kühlen, wenn nur der Platz für den Kühlkörper groß genug bzw. vorhanden wäre, was in einem PC-Gehäuse (meistens) nicht der Fall ist. Die Karte wäre sicherlich auch passiv machbar, nur wären dann die Materialkosten für den Kühler (Allu und/oder Kupfer) teurer als ein aktives "Lüfterchen". Außerdem besteht mit passiver Kühlung immer das erhöhte Risiko, dass es bei einem Hitzestau im Gehäuse eher zu Schäden am jeweiligen Prozessor kommen kann! Oftmals sind passiv gekühlte Karten ein wenig teurer, weshalb viele Hersteller lieber diese Winziglüfter verwenden, weil es preiswerter ist (und die schauen auf jeden 0,5 Ct den sie einsparen können)! Als Beispiel nenn ich mal die "XFX GeForce 7950 GT 570M Extreme", welche doch viel mehr Watt verbrutzelt als die PhysX-Karte und trotzdem passiv gekühlt werden kann: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/3/$abschnitt_xfx_geforce_7950_gt_570m_extreme
 
Ich denke hinter der Übernahme steckt etwas ganz anderes. Intel schaut sich Dinge beim Cell ab das wird klar, wenn man mal die News der des gesamten letzten Jahres verfolgt. So werden zwar keine Prozessorkerne nur für bestimmte Zwecke genutzt, aber die vorhandenen Werden durch neue Befehlssätze erweitert. Ziel von Intel wird es nicht sein eine Erweiterungskarte auf den mark zu bringen, sondern seine vorhandenen CPUs dank der Technologie von Ageia zu verbessern, denn Intel wird sich durchaus darüber im klaren, sein, das Zusatzkarten einen sehr geringen bis keinen Absatz finden werden. Und da Intel dank dem 45um Herstellungsverfahren auch die Möglichkeiten besitzt seine Prozessoren damit ohne weiteres auszustatten ist es nur eine Frage der zeit bis die Integration stattfindet. So glaube ich gar nicht mal, dass Intel damit groß werben wird. Intel Chips werden nur plötzlich bei spielen die die Technik unterstützen die Nase vorn haben. Nur dann denkt keiner mehr an die Aufgekaufte Firma Ageia.
 
@Tarnatos: AGEIA ist weiterhin ein eigenständiges Unternehmen! HAVOK wurde aufgekauft, diese Firma war der "direkte" Konkurrent von AGEIA, da HAVOK sozusagen als einzige Firma eine "vollwertige" Physik-Engine zur Lizensierung anbot (und das angeblich zu sehr hohen Gebühren)! Wobei Deine Ausführung (umgemünzt auf HAVOK) durchaus stimmen könnte, dass Intel das erworbene Wissen in irgendeiner Weise in Zukunkft als SSE6 oder sonstwas in seine CPUs integriert! :-)
 
Immer wieder das gleiche, kaum gehts um Physik werden wieder sämtliche Nacht-und-Nebel Vermutungen ausgepackt: "Der Kern einer CPU kann das doch auch... verbraucht viel zu viel Strom, seh eh kein Unterschied..." usw. usw. *seufz* 1) Der PhysX Chip von Ageia ist hoch spezialisiert auf Physikalische Berechnungen. Das kann er zig 100fach besser wie jeder CPU Kern der eine eierlegende wollmilchsau sein soll. Endlich Verstanden? Eine PhysX Karte macht das Bild nicht bunter und unterstützt auch nicht irgendwelche Blödeleien wie FSAA und Co. Es geht nur darum korrekte physikalische Berechnungen so schnell wie möglich durchzuführen und die Ergebnisse an die Grafikkarte weiterzuleiten damit die dann entsprechend Daten hat wie sich ein Körper oder das Env. verändert, zu verändern hat. Oder eben um Env. Effekte vorzuberechnen. Gruß Pyx
 
@powerpyx: Endlich mal einer, der sich nicht mit Halbwahrheiten zufrieden gibt! Ich bin vollommen Deiner Meinung! :-)
 
@powerpyx: Power hin, Technik her. Fakt ist, dass die Karten keinen Absatz finden werden. Die Spieleentwickler und Konsumenten würden sich niemals in die Abhängigkeit einer Zusatzkarte begeben, somit bleiben die Berechnungen auf dem Level der CPU´s. Könnte sein, das Aigea in ein paar Jahren mehr Erfolg hat, im Moment sind die üblichen Physik Effekte noch zu neu, der Markt ist noch nicht Reif.
 
@powerpyx: ... und genau dieses Feature brauchts bei PC-Spielen nicht, sondern eher bei ernsthaften Anwendungen, z.B. Strömungssimulatione,etc. Das was PC-Spiele an Physikberechnungen brauchen geht locker mit den Mehrkern-CPUs. Diese "hochspezialisierte" Lösung ist einfach viel zu viel für das was in PC-Spielen tatsächlich sinnvoll umgesetzt werden kann. Er könnte die Berechnungen auch 1000mal besser machen. Die Frage ist nur ob sowas für Spiele nötig ist. Ich denke nicht.
 
@JackDan: Deine Aussage: "Die Spieleentwickler und Konsumenten würden sich niemals in die Abhängigkeit einer Zusatzkarte begeben, somit bleiben die Berechnungen auf dem Level der CPU´s." stimmt so nicht wirklich, schliesslich haben sich auch die 3D-Karten (früher: AddOn-Karten: heute: Grafikkarten) durchgesetzt, wo vorher alles im Software-Modus von der CPU berechnet wurde! Also kann es dann und wann schon passieren, dass neue Technologie von anderen (Entwicklern usw.) akzeptiert werden muss, weil es sich (irgendwann) als besser erweist.________________________________________ @DennisMoore: In gewisser Weise hast Du damit recht, dass die Effekte die erzielt werden könnten (z.B. Landschaft mit "echtem" Wasser und nicht nur texturierte/"geshaderte" Flächen) übertrieben wären. Aber es würde erheblich zum Realismus beitragen und "alles möglichst real machen" ist nun mal der Wahn der bei (PC-) Spielen vorherrscht, somit wird es früher oder später doch dazu führen (obwohl es eigentlich unnötig ist)! :-)
 
@Hoozer: Tut mir leid, deine Ansicht ist reines Wunschdenken. Die Rechnung ist ganz einfach, die Entwickler gehen kein Risiko ein (das kann ich dir Versichern) und werden niemals ein Spiel entwickeln, welches ein Physix-Karte vorraussetzt. Somit bleiben die physikalischen Berechnung immer auf dem Level der CPU´s. Das ist ein Todeskreislauf der wahrscheinlich nicht durchbrochen wird. Wenn der Endverbraucher nicht gerade gezwungen wird diese Karte zu kaufen, kauft er sie auch nicht. Aigea Karten waren eine Totgeburt von erster Stunde. Die Entwicklung der Grafikkarten war vollkommen anders, der anfängliche Erfolg von 3dfx kam von den Usern selbst, nicht von den Developern. Der User erkannte die Mehrleistung der Graka und sie wurde immer beliebter. Glaubst du wirklich, dass es den Aigea Karten ähnlich ergehen wird? Außerdem will Mircosoft Physik Berechnungen in DirectX integrieren, wieviel Todesstösse kann Aigea aushalten.
 
Naja, derzeit ist ohnehin klar die Grafik-Hardware der Flaschenhals, nicht die CPU(s).
 
Vielleicht gehen den Intel-Fanboys jetzt mal die Augen auf was es bedeutet wenn es nur eine Firma für ein Produkt am Markt gibt. Havoc ist praktisch tot.
 
@Aspartam: Eigentlich ist nur Havok FX tot, und das zurecht. Weils einfach keinen Sinn macht mit immer optimaler ausgelasteten Grafikkarten auch noch die Physik zu berechnen. Meine Grafikkarte soll Grafik berechnen und das so schnell wie es geht. Ich will hohe Auflösungen und gute Qualität. Und mit den neuen Grafikprozessoren, die z.B. Unified Shader unterstützen (für bessere Auslastung der Shadereinheiten) geht die Entwicklung auch Gott sei dank in diese Richtung.
 
@DennisMoore: Da stimmt ich Dir total zu! Havok FX war in gewisser Weise nur ein Versuch mehr Grafikkarten mit dem "Physik-Wahn" abzusetzen. Bis jetzt ist mir nix (kein/e Spiel/Anwendung) bekannt was diese FX-Funktionen nur ansatzweise (aus-)nutzt!
 
Naja, warum net? Viele Zockerlaptops haben zwar gute Mehrkernprozessoren (wobei auch bei diversen aktuellen Spielen spätestens der zweite Kern nicht allzuviel zu tun hat) aber mässige Grafikchips.
 
Ich glaube bei heutigen Spielen wäre es eher interessanter, dass eine 150 Euro Karte kommt, welche Shader berechnet, das macht sehr viel aus, vor allem bei Shader 4.0 und Crysis ^^
Das könnte die Grafikkarte wenigstens entlasten. Die Physikberechnung schafft auch ein Kern eines QuadCores bei 3 GHz... die ja problemlos mit Luftkühlung erreicht werden.
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter