PhysX auf ATI Radeon Grafikkarten - Mit Nvidias Hilfe

Grafikkarten Vor knapp zwei Wochen wurde bekannt, dass findige Entwickler derzeit daran arbeiten, die Nvidia-eigene Physik-Engine PhysX auch auf ATIs Radeon HD Grafikkarten einsetzbar zu machen. Jetzt gibt es gute Neuigkeiten: Nvidia unterstützt das Vorhaben. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das hört man gerne! Dann wird PhysX bald zum Standard. :-) Bald? In 2 Jahren????
 
@Antiheld: Bei den neuen Modellen von Nvidia (ab GTX 260) ist die Funktionalität schon verbaut. PhysX hat also den Eintritt in den Massenmarkt geschafft.
 
@Antiheld: nur leider haben manche spiele mit der karte eine schlechtere performance als wenn die effekte per cpu berechnet werden. ich halte nix von diesen dingern.
 
@asyncron: Ich persönlich finde es gut... Allerdings hängt der Performance-Verlust an FPS in der gewählten Auflösung. Je höher die Auflösung desto niedriger die FPS, wie es halt so auch schon ist nur mit PhysX noch etwas drastischer^^
 
@Antiheld: Ja,ein Standard der weiterhin unter der Kontrolle von nVidia bleibt. Gar nicht auszudenken wenn sie eines schönen Tages, wenn 80% aller Spiele PhysX unterstützen, AMD/ATi die Lizenz entziehen und fortan der einzige Anbieter von PhysX-Hardware sind.
 
@tennessee84: Wurde auch schon in die 9800GTX und 9800GTX+ eingebaut...
 
@tennessee84: "verbaut" wurde es in allen Grafikkarten seit der 8000er Serie. Offizielle Treiber gibt's zwar nur für die neuen Karten (ab GTX 260) aber auf meiner 8800GT funktionier es auch schon. Nur blöd dass ich nur 3DMark Vantage zum testen habe, das zeigt nämlich einen Performance Sprung der so gar nicht möglich sein kann, da während der Physik-Berechnung keine Grafik gleichzeitig berechnet wird. Was bei Spielen aber der Fall ist.
 
Yeah, gut dass ich ne 4850 habe :) Die wird ja immer weiter zum Preis/Leistungs-Wunder :) Weiter so!
 
@gonzohuerth: Also, ich warte noch, bis es die MSI R4870-T2D512-OC so halbwegs verfügbar ist. :-) Trotzdem halte ich von PhysX für GPUs nicht so viel. Erstens ist PhysX nur dann sinnvoll einsetzbar, wenn ein Spiel derart aufwendige Physik-Berechnungen benutzt und zweitens wird ja ein Teil der GPU zur Berechnung genutzt, die an anderer Stelle wieder fehlt.
 
@gonzohuerth: Würde für mich dann extra PhysX besser sein da ich ja nur ne x1950 Pro habe .
 
@overdriverdh21 : Ich hoffe ja, daß das jetzt keine Frage war. Erstens wird diese mit einem Fragezeichen abgeschlossen und zweitens hättest du dann den Text nicht gelesen, bzw, verstanden.
 
@Helmhold: Da ja meine Grafikkarte nicht zu den auserwählten gehört würde ich doch gerne wissen wie es mit den PhysX Beschleuniger Karten aussieht . Stimmt das Fragezeichen fehlt .
 
@Guderian:
Was soll das, kann man denn nicht ein paar Grundregeln des Umgangs miteinander beachten? Zum Beispiel freundlich sein?

@overdriver:
Das wäre sicher nicht besonders sinnvoll, weil die Physx-Karten auslaufen. Dadurch wird es zum Beispiel in Zukunft keinen Treiber-Support mehr geben. Steck das Geld lieber in eine HD4850, da hast du mehr davon, wenn dann die Kombination AMD und Physx funktioniert.
 
@ Destructor2202 : Sorry, aber da muss ich Guderian ein wenig recht geben. Wenn man den Text nicht liest oder versteht und/oder sich die restlichen Informationen per Suchmaschine beschaffen kann, dann finde ich seine Reaktion nicht übertrieben. Eine PhysX-Karte macht derzeit sowieso keinen Sinn. Erstens, wie Guderian schon beschrieb, gibt es kaum Anwendungen, die es nutzen und zweitens, wie du schon schriebst, werden die Karten auslaufen. Dann schon lieber eine Grafikkarte kaufen, die es unterstützt wie die Nvidias ab G92 und die ATIs aber der 4000er-Reihe. Allerdings wird ein Teil der GPU-Power abgezwackt, was dann den Nutzen des Ganzen ein wenig fragwürdig erscheinen läßt. Dann ist es schon besser, die CPU angemessen zur Graka auszuwählen.
 
@Helmhold:
Tendenziell wäre es natürlich besser, die CPU die Arbeit machen zu lassen, da die meisten Spiele ja sowieso Graka-limitiert sind, die CPU also unterfordert ist (mal von solchen Ausnahmen wie Supreme Commander abgesehen).
Allerdings sind Grafikkarten technisch gesehen durch die ungleich größeren Parallelverarbeitungskapazitäten wesentlich besser für Physik-Aufgaben geeignet.
Sehr schön zu erkennen ist das in der Gegenüberstellung hier: http://tinyurl.com/5gnjxt .
Es ist also ein kleines Dilemma. Aber wenn Intel irgendwann CPUs mit tausenden von Kernen bringt (haben sie ja vor kurzem angedeutet), kann man dann wirklich die CPU die Physik berechnen lassen.
 
@guderian: :p

Guderian am 08.07.08 um 10:13 Uhr
@gonzohuerth: Also, ich warte noch, bis es die MSI R4870-T2D512-OC so halbwegs verfügbar ist. :-) Trotzdem halte ich von PhysX für GPUs nicht so viel. Erstens ist PhysX nur dann sinnvoll einsetzbar, wenn ein Spiel derart aufwendige Physik-Berechnungen benutzt und zweitens wird ja ein Teil der GPU zur Berechnung genutzt, die an anderer Stelle wieder fehlt.
____________________________________________________________________________________
Morgen kommen zwei von den Dingern bei mir an, falls der UPS Laster heute nicht zufällig auf dem letzten Teil der Strecke umgekippt ist.
Hatte letzten Donnerstag bei Hardwareversand bestellt, am Freitag war ausverkauft.

 
Hey echt super! Finde ich einfach spitze! Jetzt kann die Engine "praktisch" zum Standard werden... und somit wäre auch niemand benachteiligt... Ich bin mittlerweile auch schon sehr stark am grübeln ob ich mir nicht eine HD4870 zulegen soll, nur die Treiber verhindern meinen Umstieg noch. Aber die werden auch noch besser :P (hoffe ich^^) Denn das Preis/Leistungs-Verhältnis von AMD/ATI ist Hammer-mäßig, im Gegensatz zu NVidia! (zumindest bei der 48XX-Reihe)
 
@jackdan2405:

Zitat "Hey echt super! Finde ich einfach spitze! Jetzt kann die Engine "praktisch" zum Standard werden... und somit wäre auch niemand benachteiligt... ""

Ich wäre sehr vorsichtig mit dieser Aussage!!!
Oder warum, glaubst du hat Nvidia ein sooo großes Interesse gegenüber dem Entwickler gezeigt, der die Physx Engine auf die Grafikkarten der Konkurenz portieren will?
Ich sehe da das gleiche Problem wie bei den Compilern von Intel (SSE2 und 3 auf AMD Prozessoren), Nvidia wird nicht mehr an Unterlagen weggeben als unbedingt notwendig ist, am Ende sind die ATI Grafikkarten bei Physix wesentlich langsamer als Nvidiakarten, obwohl das gar nicht sein kann.
Ich glaube das Nvidia sich hiermit nur einen Vorteil gegenüber ATI verschaffen will und gleichzeitig die Entwicklung der Havok-Engine (von Intel gekauft) hemmen will.
 
@jackdan2405: Von dem Gesichtspunkt habe ich es noch nicht gesehen, dass es dann auf ATI Grakas schlechter laufen wird... Da könntest du recht haben... Ich denke allerdings auch, dass Nvidia, Intel mit Havok vom Markt werfen will... Mal sehen, wie sich das entwickelt...
 
@jackdan2405: Andere Idee: Havok und PhysX werden eins. Spart ATI und NVidia jede Menge Geld auf dem Nebenkriegsschauplatz. Und sparen ist gerade "in". So können sich beide wieder voll darauf konzentrieren, die etwas "andere" Karte zu produzieren.
Die Spielehersteller sind ebenfalls einer Sorge entledigt und belohnen die beiden mit Spielen, die nur auf den teuren Exclusivkarten der Hersteller ihre volle Pracht entfalten können. :-)
 
Da werden wieder 2 Standards völlig am Endkunden vorbei entwickelt. Anstatt sich auf eine offene Spezifikation (wie OpenGL) sich zu einigen, gibt es 2 Hersteller die versuchen ihr Mittel als das Heiligste darzustellen. Wenn Ati tatsächlich als einziger Hersteller Havok FX und PhysX implementieren sollte, wäre das sicherlich nicht verkehrt. Erstmal abwarten, wie die Implementierung umgesetzt wird.
 
Wenn PhysX und Havok von den großen GraKa Herstellern in ihren Treibern ab sofort implementiert werden, dann werden die Spielehersteller den Rest erledigen. Dann müssen sich Vereine wie ubi oder EA nicht mehr den Kopf zerbrechen, welcher Engine sie jetzt den Zuschlag geben.
Was mich nur fuxt, ist das ATI Karten schon ab HD 2900 unterstützt werden sollen, Nvidia hingegen es immer noch nicht geschafft hat, entsprechende Treiber für die 8**** Serie rauszubringen. Und das nur, um ihre völlig überteuerten GTX Karten pseudomäßig attraktiv zu halten und sie zu verkaufen.
Wobei, AMD und Nvidia liefern sich Entwicklungsschlachten, um nur ja die Nase vorne zu haben und entwickeln auf Teufel komm raus immer wieder neue Karten in immer kürzeren Abständen und der Endverbraucher weiß bald nicht mehr ein noch aus. Aber wen interessiert schon der Verbraucher?!
 
@Garrett: Kann dem Verbraucher doch nur recht sein. Wenn immer neuere Karten zu hohen Preisen in immer kürzeren Abständen rauskommen, verfallen die Preise der ehemals teuren Karten umso schneller und jeder bekommt massig Leistung zum günstigen Preis. Vorausgesetzt man muß nicht durch innere Zwänge oder durch zu kurze Geschlechtsteile immer das absolut neueste haben.
 
@Garrett: Naja du hast schon recht, ABER... Über kurz oder lang hat der Verbraucher die Oberhand... Denn wenn WIR als Endkunden nix mehr kaufen, bleibt alles in den Lagern stecken und die Firmen fahren Riesen-Verluste ein! Siehe aktuell NVidia mit Ihrer 200er-Reihe, die haben sich mächtig mit der 48XX-Reihe von AMD/ATI verschätzt! Folge: Aktien-Preise sinken und die Preise der Graka sinken auch drastisch... -> Da kommt dann wieder der Verbraucher ins Spiel der die Karten dann billiger kaufen kann... Folgedessen hat dann doch wieder der Verbraucher die Oberhand! :)
 
@Dennis: Naja, das ist die eine Seite. Die andere ist die, das es bald keine verbindlichen Standards mehr gibt auf Grund der Geschwindigkeit der GraKa Entwicklung. Imme mehr, immer schneller, immer mega, immer Giga. Bald gibt es zu einem neuen Spiel gleich die passende GraKa mit dazu, denn einen Monat später ist die Karte nicht mehr Shader 901.421 fähig. Aber das ist jetzt mal rein subjektiv spekuliert. 8-)
 
@jackdan2405: Deine Idee setzt aber voraus, das sich "alle" Endverbraucher auch wirklich mal einig sind. Leider wird genau dieser Zustand aber nie eintreten.
Wer soll denn den ganzen neuen Kram bei diesen Preisen kaufen? Die Kosten für Entwicklung und Produktion sowie Vermarktung etc. können doch garnicht mehr egalisiert werden bei diesem Tempo. Die Kosten explodieren. Wie wollen die da noch Gewinne einfahren? Immer öfters neue Karten heißt für mich auch immer höhere Preise. Denn ich kann mir [obwohl ich berufstätig bin 8-)] nicht alle 2 Monate ´ne neue GraKa kaufen. Also muss man die immensen Kosten dadurch versuchen zu egalisieren, dass man möglichst viel Geld durch den Verkauf einiger weniger, aber teurer Karten reinbringt (siehe GTX-Serie), da fängt´s nämlich schon an. 8-)
 
@Garrett: Da geb ich dir allerdings Recht! Es sit schon sehr sehr selten dass sich alle Endverbeaucher mal einig sind... Selbst wenn die Mehrheit sagt NEIN, gibt es immer noch ein Paar (oder mehr) die JA sagen......... Ich kann mir das auch nicht leisten... Ich kaufe mir wenns hoch kommt alle zwie Jahre eine GRaka, dafür aber dann auch gleich eine teurere die auch "länger hält"^^ und dann wären wir auch schon wieder bei den Preisen......... endloses Thema :P
 
@jackdan2405: Ich sehe, wir zwei laufen absolut kondom. 8-)
Genau so handhabe ich das nämlich auch. ^^
Wobei ..... wie lange geht das noch gut? Bald halten die Karten ja keine 2 Jahre mehr, siehe meine Beiträge oben. 8-)
 
@Garrett: "Deine Idee setzt aber voraus, das sich "alle" Endverbraucher auch wirklich mal einig sind. Leider wird genau dieser Zustand aber nie eintreten. Wer soll denn den ganzen neuen Kram bei diesen Preisen kaufen?" ... Wenn der Endverbraucher bereit ist so viel Geld für eine Grafikkarte auszugeben, dann hat sie auch ihre Berechtigung. Also: Kein Problem.
 
@Garrett: Schon richtig, aber es gibt auch hier zwei Seiten. Das eine ist wenn wie z.b. AMD/ATI die Direkt X 10.1 Schnittstelle und SM 4.1 einführen. Das andere ist genau dies auch zu nutzen... Was nützt einem die neuste Hardware wenn man sie im Endeffekt nicht ausnutzen KANN?! Und andererseitz wissen auch die Spiele- bzw. Software-Entwickler dass sich nicht jedermann gleich so eine teure Hardware leisten kann. Direct X 10.1 gibts jetzt offziell seit Februar 2008 und es gab bis jetzt nur ein Spiel (Assassin`s Creed) das dies unterstützt und dies wurde dann sogar noch nachträglich entfernt... Jetzt erst allmählich kommen die ersten Spiele die dies unterstützen... und auch dann ist es nicht unbedingt erforderlich^^ Es wird auch jetzt immer noch DX9 unterstützt... Aber wer will das "alte" noch wenns schon wieder was neues gibt... der Mensch kann nun mal nicht warten :P
 
@DennisMoore: Um dem nachhaltig Gewicht zu geben, müssten wir beide erstmal wissen, wieviele GTX280, bzw. HD4870X2, bereits über den Tisch gegangen sind bzw. noch gehen werden. Wo liegt die Messlatte, das man sagen kann: "Diese Karte war/ist ein voller Erfolg!"
8-)
 
@jackdan2405: Hie hast du nicht Unrecht. Das nennt man den real funktionierenden Kapitalismus. Bedürfnisse müssen geweckt werden. 8-) Wie ich schon weiter oben geschrieben habe, immer mehr, immer mega immer Giga.
 
@Garrett: Nein,müßten wir nicht. Der Erfolg wird bei nVidia, bzw. ATi gemessen. Wir brauchen also keine Messlatte, sondern der Grafikkartenhersteller. Es gibt bei den jeweiligen Karten Ziele, die erreicht werden müssen. Werden diese Ziele nicht erreicht, wirds auch einen Kurswechsel geben. Als Verbraucher müssen wir nur schauen welche Leistung wir brauchen und dann die entsprechende Grafikkarte kaufen. Da wohl momentan kaum jemand wirklich die Leistung einer GTX 280 oder 4870X2 brauchen wird, würden sich diese Karten auch kaum verkaufen und der Hersteller wird aufgrund der nicht erreichten Ziele seine Strategie ändern. Am Ende liegt halt alles am Verbraucher.
 
@DennisMoore: "Wenn der Endverbraucher bereit ist so viel Geld für eine Grafikkarte auszugeben, dann hat sie auch ihre Berechtigung. Also: Kein Problem."
Hat sie nicht zwingend. Mit solchen High-end Karten läßt sich nicht viel verdienen. Die Unkostendeckung erfolgt über die Midrange und Low-End Karten. Die obere Klasse ist doch eher als Prestige-Objekt anzusehen. Der Gegner hat eine, also brauchen wir auch eine. Alles andere ist loses Beiwerk. 8-)
Du hast ja selber geschrieben:" Da wohl momentan kaum jemand wirklich die Leistung einer GTX 280 oder 4870X2 brauchen wird ...".
Mit "Wir" hab ich es so gemeint, dass wir erstmal die Verkaufszahlen von NVidia und ATI haben müssten, bevor wir uns weiter darüber unterhalten. Das der Verbraucher das Grad aller Dinge ist, da hast du Recht. Auch wenn es meiner Meinung nach immer häufiger den Anschein hat, dass den Verbraucher keinen mehr wirklich interessiert. Siehe bitte auch meinen Ausgangsbeitrag ganz oben (05). Da stehts drin, was ich gemeint habe.
 
Ich würde auch auf fotorealistische Grafik verzichten, wenn ich im Gegenzug dazu eine super Physik bekommen würde. Die Grafik von BF1942 oder BF2 würde mir locker genügen :)
 
@s3ntry.de: Du solltest dir mal Battlefield: Bad Company angucken :-)
 
Dazu werde ich wohl so schnell nicht kommen, denn eine Konsole kommt mir nicht ins Haus und ich kenne auch niemanden, der eine Konsole besitzen könnte. Aber auch ohne es selbst anzuspielen weiß ich, dass die Grafik dank Frostbite super ist und die Atmosphäre durch das neue Soundsystem endlich mal lebendig klingt. Bei umfallenden Palmen (die Blätter fallen einfach in den Boden) oder der Umschaltung zwischen normalem Modell und Wrackmodell eines Hauses kann man jedoch nicht wirklich von Physik sprechen :D Aber irgendwo muss ja gespart werden damit es auf einer Konsole spielbar wird.
 
Finde ich gut, dass die sich dort endlich mal zusammen tun und nicht jeder seinen eigenen Scheiss aufbaut.
 
@r00f: Hmmm, das kann man so nicht stehen lassen. In der freien Marktwirtschaft hat sich bis jetzt das durchgesetzt, was besser ist oder noch eher, was billiger ist (ich denke da ein paar Jahre zurück an Beta Max, Video2000 und VHS. VHS hat sich durchgesetzt, weil sie billiger waren, aber nicht besser).
Es wäre doch besser, wenn sich eine Engine durchsetzen würde, weil sie besser ist, nicht weil sie den finanzstärkeren Sponsor hat. Traumkombi wären hier: Bessere Engine und günstiger für die Spielehersteller. Mal schauen, ob Havok oder PhysX das Rennen macht. 8-)
 
@Garrett: eins muss ich berichtigen: vhs wurde sieger, weil der erste p0rno und viele weitere auf vhs erschienen...
 
@Garrett: leider ist es nun mal so, dass sich meistens das durchsetzt, was am meisten Geld bringt! Im Endeffekt geht es doch immer nur um Kohle. Und in dem Punkt hat NVidia nun mal richtig (oder auch nciht (Ansichtssache)) gehandelt und hat sich PhysX geangelt. Und das will natürlich jetzt NVidia auch nutzen (was auch verständlich ist). Wobei ich sehr stark glaube, dass Nvidia, Intel mit seiner Havok-Engine vom Markt haben will... Ob das so einfach geht wird sich zeigen... Immerhin hat auch Intel gleich gehandelt und die Havok-Engine zum testen und "rumprobieren" kostenlos zur Verfügung gestellt... 8-) ^^
 
Gröööllllllllll !
Ati/AMD
Ich freue mich für euch !

Würde aber trotzdem eine eigene Karte dafür bevorzugen, wenn nich teuer.

 
wow, ein weiteres modul, was den catalyst und sein kontrollcenter langsam, instabil und unkompfortabel macht. ruhig weiter so, lieber weitere beta-features implementieren, wer bruacht dann shcon nen gescheiten treiber für grafik
 
Ich seh Nvidias motiviation eher daran das sie dagegen garnichts unternehmen können. Wenn sie nun den Entwickler unterstützen und PhysX auch bei der Konkurrenz ordentlich läuft, dann verdienen sie halt besse an dem Verkauf der PhysX Lizensen.
 
"Damit der Plan, Nvidias Havok FX Physik-Engine auf ATIs Grafikkarten zu nutzen, aufgehen kann, benötigt er auch die Unterstützung von AMD." Ich dachte Havok wäre Intel und PhysX von Nvida.
 
ATI soll ruhig etwas an NVIDIA bezahlen das deren Karten auch teurer werden. mfg
 
@SOLDIER: Das war ein Witz oder?
 
schade dass es bei mir nicht funktionieren wird, habe eine ATI redeon
x2600 XT HD 256MB (PCIe) von sapphire
 
@25cgn1981: Schade, dass ich die gleiche Karte in meinem Notebook habe... Naja, dann muss halt eine externe Grafiklösung per Express-Schnittstelle her. Oder ich kauf mir in den nächsten Jahren keine neuen Spiele mehr.
Ich find die aktuelle Spielegrafik ganz OK, die müssen doch nicht noch mehr verbessern :)
 
Kann man dann auch sagen, dass man doch lieber hätte wenn die Physik auf der CPU berechnet wird? Denn ich will nicht, das meine GPU für solche Berechnungen gebraucht wird...
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles