AMD: Nvidia behindert Physikberechnung mit CPUs

Grafikkarten Der Chiphersteller AMD wirft dem Konkurrenten Nvidia vor, die für die Berechnung von Physikeffekten konzipierte Programmierschnittstelle PhysX absichtlich so ausgelegt zu haben, dass Multicore-CPUs nicht effektiv genutzt werden. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Hm.... natürlich eine Schweinerei, wenn es denn zutrifft. Ohne Quellenangaben und genaue Informationen ist das allerdings kaum nachzuvollziehen.
 
@web189: gegenseitiges angiften... nichts neues :)
 
@web189: Ich glaube AMD. Nvidia hat immer schon Software-/Featuresperren in ihre Treiber eingebaut, bzw. in neuere Treiber eingebaut, die in den älteren Treibern nicht drin waren. Sie zwingen den Kunden immer neue Hardware zu kaufen und beschneiden Vorhandenes. ATI/AMD sind da ganz anders. Sie entlocken sogar alter Hardware neue Features. Hinzu kommt noch der Gipfel der Unverschämtheit und zwar, dass man PhysX nicht nutzen kann, wenn eine Nicht-Nvidia-Karte zusätzlich ins System eingebaut ist, obwohl man ja eine Nvidia-Karte drin hat. Geht nur auf inoffiziellem Wege durch einen sehr netten Programmierer namens GenL, der diese Sperre entfernt hat aus den Dateien. Auch wenn ich Nvidia für einige Features sehr dankbar bin (z.B. Stereo3D was sie jetzt wieder beschneiden z.B. für XP-Systeme), so ist deren Firmenpolitik sowas von daneben. Sie machen sich sehr unsympathisch mit ihren künstlichen Sperren und vertreiben ihre eigenen Kunden.
 
@Dr.DuHuSo!: Wäre ich nVidia, bzw. Boardpartner, würde ich solche Mischkonfigurationen auch nicht supporten wollen. Schon gar nicht wenn sich nach 20x E-mail hin- und herschicken, 50 Euro Telefonkosten und 1500 Euro Mitarbeiterkosten herausstellt, dass nicht die eigene Karte Schuld am Problem war, sondern die andere vom Fremdhersteller. Wär sehr ärgerlich sowas.
 
@DennisMoore: Mein lieber Dennis, hier geht es nicht um Support, sondern um wieder das Gleiche und zwar, dass Nvidia diese künstliche Sperre im Nachhinein eingebaut hat. In früheren Treibern lief es ohne Probleme mit ATI- und Nvidia-Karten in einem System und es gab damals auch keinen Support für andere Karten. Man könnte es DisSupport nennen, was Nvidia hier macht.
 
@Dr.DuHuSo!: Ich glaube ihnen auch. War es nicht Nvidia die bei 3DMark Benchmarks absichtlich geschummelt haben? Wenn es AMD/ATI war, hab ich mir gerade eben selbst ins Bein geschossen (pech gehabt? xD). Übrigens das mit den 2 verschiedenen Herstellern in einem PC. Gibt das nicht Treiberprobleme? Oder war das mal?
 
@sinni800: Die haben beide geschummelt. @Dr.DuHuSo!: Türlich gehts um Problemvermeidung. Dass es in früheren Treibern ging, dürfte damit zusammenhängen das nVidia diese Problematik zu spät erkannt hat.
 
@DennisMoore: Und dabei läuft es wunderbar: http://bit.ly/ATINvidiaPhysX
 
@web189: wow PhysX eine Anwendung um Physikalischen Effekte auf einer [b]GPU[/b] zu berechnen läuft also nicht gut auf ner CPU ... man was für eine Schweinerei ...
 
@serra.avatar: PhysX wurde von Ageia damals aber für eine PPU ausgelegt und zusätzlich für die CPU, da sie genau wusste das sonst keiner die API nutzen würde. Die GPU unterstützung kam erst nach dem aufkauf von Nvidia hinzu welche die Befehle mittels CUDA auf der GPU berrechnen lassen
 
@Dr.DuHuSo!:

Ja tolle Unterstützung von neuen AGP Grafikkarten auf Unified Shader Basis lol. (A)lle (T)reiber (I)nkompatibel brauch hier gar nicht so das Maul aufreißen. Ihr könnt hier Nvidia vorwerfen was ihr wollt denen Ihre Treiber sind das Non-Plus Ultra. Diese angeblich künstlichen sperren sorgen dafür das es auf dem System auch läuft und nicht unter XP abschmiert.
 
@Dr.DuHuSo!: Es geht nicht darum ob es zusammen läuft, sondern wer für sowas zuständig ist wenn es ma lnicht läuft. Gabs schon oft, dass der Kunde vom einen zum anderen Unternehmen geschubst wurde weil sich keiner zuständig fühlte. Man muß auch immer bedenken, dass es nicht nur User gibt die sich selber helfen können oder wollen.
 
@Zero-11: Zitat:"(A)lle (T)reiber (I)nkompatibel brauch hier gar nicht so das Maul aufreißen." Nee, brauchst du auch nicht. Tust du aber trotzdem. Fühl dich nicht so angegriffen. Hier geht es um etwas anderes.
 
@web189: wieso nicht nach zu vollziehen? Nvidia will durch die Begrenzung der CPU die GPU besser aussehen lassen ... für mich ist das logisch!
 
@Dr.DuHuSo!: dich sollte man allein schon wegen deines hirnlosen nicks hier bannen.
 
@NoName!: Klar ist das logisch für nVidia, schließlich profitieren sie davon. Es ist nur nicht ganz fair, da die CPU im ursprünglichen PhysX von Ageia durchaus zur Berechnung vorgesehen war. Diese Funktion jetzt künstlich zu sperren ist eben schlecht für den Verbraucher, da er nun dazu gezwungen ist nVidia Produkte zu nutzen.
 
@Dark9: Wie bitte? Erkläre mir das mal. Deiner ist auch ziemlich hirnlos. Dunkle Neun?
 
@web189: sorry, aber wozu gibt es Grafikkarten? Damit die CPU von speziellen aufwendigen Berechnungen entlastet wird! Mit der Physik ist es doch dasselbe. Wenn Spiele mit der Physik spielst, willst du doch nicht, dass die CPU statt mit der Spiellogik mit der Physik-Berechnung überlastet wird. Eine Technik, die abhängig von der Prozessorlast die CPU für die Physik verwendet, wäre sehr fehleranfällig. Picco hat vollkommen recht.
 
@DennisMoore: +
 
@Guardian@Geißenweide: leider nicht. Schau dir mal die neue Netbook Pinetrail plattform an.. kaum Verbesserungen. Wie es richtig geht hat NVIDIA mit ION gezeigt. Intel will oder kann nicht mehr Leistung bieten in diesem Bereich!
 
@jdoe2k5: Ich meinte damit eigentlich, dass Intel z.B. beim Benchmarking von Prozessoren absichtlich auf Foul gespielt hat, um den eigenen Prozessoren einen Vorteil ggü. AMD zu verschaffen. Allerdings tut nVidia das in einem anderen Markt mit einer anderen Größenordnung.
 
@Guardian@Geißenweide: was benchmarks betrifft, hat das ATI doch genauso gemacht! und dass nvidia lediglich versucht, sich irgendwie über Wasser zu halten, ist doch auch verständlich. schließlich hätte ATI niemals von AMD aufgekauft werden dürfen! was haben wir jetzt für ein markt?! ein GPU hersteller und 2 große hersteller von CPU und GPU. AMD und Intel (in gewissem maße) wollen natürlich alles auch mit deren CPUs berechnen lassen. durch diese Entwicklung haben es GPU Hersteller immer schwieriger, der Konkurrenz erfolgreich widerstand zu leisten.
______________ und letztlich ist das einfach nur marketing etc., wie es jede andere firma genauso macht. warum sollte nvidia in deren lage jetzt den größten Konkurrenten ein Geschenk machen und die eigene Technologie für der Konkurrenz öffnen?! wo siehst du solche Geschenke denn in anderen Bereichen?!? aus welchem nachvollziehbaren Grund, sollte nvidia in diesem Fall also anders halten und sich selbst kaputt machen?!
 
@laboon: Wieso hätte Ati nie von AMD gekauft werden dürfen? Weil du das sagst? Es gibt im übrigen ein wenig mehr Hersteller von Grafikkarten/Chips. :) Auch CPU Hersteller gibts wie Sand am Meer, nur in der x86er Ecke ist es ein wenig eng, aber selbst dort gibt es mehr als 3 Hersteller die eine x86 Lizenz besitzen (selbst Siemens gehört dazu).
 
@laboon: nvidia versucht sich nur über wasser zu halten?! soll ich mal laut lachen? nvidia hat die letzten jahre durch gutgläubige menschen (andere nennen sie nvidia fanboys und pc-einsteiger) genug geld verdient, um AMD incl. ATI aufkaufen zu können! DA hätte dann das Kartellamt dann wirklich (mit grund) was dagegen.
 
@tekstep: diese kleinen fische interessieren dich etwa als normalen enduser? geh doch z.b. mal in den MM und gucke da mal, ob du irgendwas von Siemens siehst. AMD wird man als CPU zwar auch nicht sehen, aber das hat ja einen anderen grund. von größeren GPU herstellern, die bedeutend für den markt sind und hauptsächlich auf kunden abzielen, die man sicherlich auch hier meistens antrifft, gibt es eben wenige. durch aufkäufe sinkt die anzahl weiter. und wenn die aufkaufenden firmen auch CPUs anbieten und diese natürlich verstärkt einzeln oder als GPU in CPU verkaufen wollen, dann haben es hersteller, die nur GPUs anbieten umso schwieriger in zukunft auf den markt zu bleiben! glaubs, oder glaubs nicht... ich rede nicht von z.b. VIA, die nichts auf dem markt zu melden haben. die es eh, denk ich mal, schwer genug haben, sich über wasser zu halten. Hat VIA nicht sogar die Herstellung von x86 CPU aufgegeben und widmet sich nun anderen chips?
 
@FloW3184: bist du etwa ein verbitterter nvidia kunde (gewesen)? du weißt nicht wie hoch nvidias kosten in der herstellung und entwicklung etc. sind/waren, also kannst du auch nicht sagen, wie viel kohle die aus einzelnen produkten gescheffelt haben (und diese angaben von irgendwelchen marktanalyse unternehmen, die die herstellungskosten angeben wollen, sind auch nicht ohne jegliche Skepsis zu betrachten!). so wie es bei nvidia momentan bei den fermi chips ist, sind deren Herstellungskosten ja auch höher als bei ATI. also können die schon mal nicht die preise in den keller drücken. aber mal davon abgesehen, wer schon mit solchen Niveau-losen aussagen, ohne irgendwelche fakten zu haben, ankommt und meint, nvidia hätte so viel kohle, AMD zu kaufen, auf den lass ich mich nicht ein. ist doch eh dann nur stammtisch gelaber! wenn also nvidia so viel kohle hat, weil die die kunden sooo ausgenommen haben, warum kaufen die dann nicht einen der größten konkurrenten?! kartellamt? ein versuch ists doch wert. es haben schon viele unternehmen versucht konkurrenten aufzukaufen, obwohl man im Vorfeld wusste, dass das kartellamt hellhörig wird. mal hats geklappt, mal nicht. also was hätte nvidia dann zu verlieren?!? komisch dass die es dann nicht versuchen, diese super billionäre...
 
"AMD und dessen Grafiktochter ATI bieten selbst APIs zur Berechnung von Physikeffekten an, doch Nvidias PhysX wird in deutlich mehr Spielen genutzt"
Das ist ja toll, beschweren sich darüber das die konkurenz schnitstelle von mehr Spielen genutzt wird dabei unterstützt AMD/ATI noch nicht einmal sein eigenes Produkt vernünftig. Ich beziehe mich hierbei auf den ATi Video Converter der lediglich die 4000 reihe unterstützt nicht jedoch die 5000.
 
@Joerg01: ich nehme mal stark an, dass es irgendwann programme für DX11 geben wird, deshalb wird dieses ATI Stream wohl nicht weiter verfolgt.
 
@Joerg01: windows 7 braucht keinen ati video converter. es hat einen eingebauten, der alle unified shader GPUs unterstützt, welche DX10 können.
 
@FloW3184:
Das ist so nicht ganz richtig. Wenn ich eine Video auf ein mobiles Divice verschieben möchte wird diese Funktion tatsächlich unterstützt. Aber mir ist jetzt keine Windows eigenes Programm bekannt wo ein von einem Format in ein anders Format convertieren kann wo die Stream technik unterstütz wird. Oder habe ich bisher etwas übersehen ???
 
Ist doch paradox. Es gibt also eine "tolle schnelle und CPU-Kompatiblere" Schnittstelle von AMD und trotzdem setzen mehr Spieleschmieden auf PhysX. Was macht nVidia also falsch, was AMD/ATI richtig machen? PCO
 
@pco: nvidia ist eben viel "aggressiver" und unterstützt die Spieleschmieden viel intensiver bei der Entwicklung. wenn Nvidia die Kosten übernimmt PhysX zu implementieren, ist das doch den Schmieden nur recht. Persönlich halte ich von PhysX nicht so viel. Guckt man sich die Vergleichsvideos an wirken diese sehr künstlich gestellt. Viele bereits bekannte Effekte (Partikeleffekte, abbröckeln bei Einschusslöcher usw.) sind eigenartigerweise nicht mehr zu sehen, obwohl diese z.B. in Crysis oder sogar Half-Life 2(natürlich auch ältere Spiele) wunderbar vorhanden sind :) Das ist in meinen Augen die Sauerei.
 
@DevSibwarra: bin deiner Meinung. halte von Physx auch nicht so viel, auch wenn das ein oder andere ganz nett aussieht. Meistens is es allerdings übertrieben mit den Effekten. Bin davon überzeugt, dass Nvidia dem Nutzer nur vorgaukelt und ohne Physx sogar die Effekte absichtlich reduzieren, was man in einschlägigen Vergleichsvideos gut sehen kann!
 
@DevSibwarra: PhysX ist in sofern gut, als dass es endlich Schwung in die Aufnahme von ersnt gemeinter Physik in Spielen gefördert hat. Da haben AGEIA und später nVidia durchaus was gutes getan. Seien wir doch mal ehrlich: DIe Havok-Engine kann als Softwarelösung bei den neuen Physikspielereien nicht mehr mithalten. Seit Half-Life 2 hat man kaum noch was von dieser Technologie gehört. Weitere Alternativen fehlen ebenfalls.
 
@DennisMoore: Natürlich hat es Schwung reingebracht. Es gab Havok FX, was im Endeffekt das selbe wie PhysX war... leider hat aber Intel es mit Havok irgendwie vergeigt und es kam seit 1 1/2 Jahren keine neue Version raus. Das letzte Spiel das ich kenne mit Havok war Star Wars: Force Unleashed und dort in einer stark modifizierten Form. Es gibt ja auch genügend alternativen eigentlich (z.B. ODE und Bullet, beide sogar Open Source).
Wie ich gerade auf der Havok seite sehe sind das viele aktuelle Spiele vorhanden, die Havok nutzen (Assasins Creed II, Operation Flashpoint, Bioshok 2, Dead Space...). Allerdings ist Havok ja mitterlerweile auch mehr als nur pure Physik. Also ist es so ne Sache was die Entwickler letztendlich auch verwenden. Ist das bei PhysX auch so, dass Animationen und AI dabei sind?
 
@DennisMoore: Warum wohl ? Weil Nvidia massiv Kohle dafür raustut damit eben deren Geschichte genutzt wird.
 
@DevSibwarra: Soweit ich weiß kann man es für AI nutzen. Ob es was fertiges dafür bereits integriert gibt weiß ich nicht. da ich entwicklungstechnisch momentan erst an der CUDA-Oberfläche kratze :). Bei Force Unleashed war IMHO die Physik ganz OK, aber sehr sparsam eingesetzt. Die AI war unter aller Kanone. Wenn man sich z.B. den Rancors ganz vorsichtig genähert hat, konnte man ganz genau erkennen ab wann man in den Sichtkreis der Dinger kam. Bis dahin haben sie nicht reagiert, selbst dann nicht wenn man sie mit Blitzangriffen eingedeckt hat und ihnen dabei direkt ins Gesicht guckt. Die Alternativen die du nennst sind so ernsthafte Alternativen, dass ich noch nie davon gehört habe. @skyjagger: Andere Firmen hauen Millionen für Kohle raus und nVidia kauft sich in Spiele ein. Find ich nix schlimmes dran.
 
@skyjagger: Wer sagt denn, dass AMD/ATI das nicht auch tun können. WÄÄÄH das is unfair, ihr gebt Geld für Marketing aus, WÄÄÄH... Wer hat denn hier die dickeren Backen? Fakt ist doch, dass AMD/ATI in Physikbeschleungigung nicht investieren. Stattdessen wird auf hohem Niveau gejammert. Typen wie die hat man früher auf dem Schulhof verprügelt. PCO
 
Irgendwie hat AMD ja eigentlich Recht. Aber Nvidia wäre ja auch blöde, wenn Sie es nicht machen würden, genau wie Intel :-) Für uns Endkunden bedeutet es natürlich aber auch verspätete Technologien zu erhalten bzw. für "spezielle" PhysX Karten Geld auszugeben.... AMD ist da immer auf Seiten der Endkunden, aber bestimmt nicht nur aus Mitleid :-)
 
@Pistolpete: nVidia will einfach alle ihre Technologien auf die eigenen Produkte konzentrieren. Wenn man sich diese Produkte mal anschaut, weiß man wohin der Zug fährt. GPU-Chips als Grundgerüst, darauf CUDA und darauf wiederum PhysX. Dann skaliert man je nach Anwendungsfall von Tesla-Clustern bis runter zur Lowcost-CPU und schon hat man ein rundes Portfolio.
 
Für mich hört sich das etwa so an: "*heul* ... nVidia hat PhysX und wir haben nur sowas halbgares was keiner haben will *heul*". Ist doch logisch dass nVidia PhysX auf ihre GPUs optimiert. Nachdem die Ageia-Karten weggefallen sind, wars klar dass es mittelfristig über die eigenen Karten gehen soll und nicht über CPUs. Denn 1. stellt nVidia keine eigenen CPUs her und 2. gehört ihnen nunmal die PhysX Technologie und sie machen das damit was sie für richtig halten. ATi hätte bei PhysX mitmachen sollen als nVidia es ihnen angeboten hat.
 
@DennisMoore: Lege dir diesen Artikel ans Herz: http://bit.ly/PhysXinDarkVoid . Und lies dir mal die Kommentare dazu durch auf CB. Selten, dass eine Community (sowohl ATI- wie auch Nvidiakarten-Besitzer) so der gleichen Meinung war. Wenn man extra eine zweite Grafikkarte braucht für ein Spiel, welches PhysX nutzt (weil man z.B. die CPU-Kerne nicht noch zusätzlich nutzt), na dann ist das mal voll daneben. Was Nvidia in letzter Zeit abzieht, ist echt mal sowas von daneben. Die werden ihre Rechnung noch bekommen.
 
@Dr.DuHuSo!: Den kenn ich schon. Hab ich mit Begeisterung gelesen und werde mir das Spiel auch anschauen. Habe allerdings nur 1 Grafikkarte und muß die Effekte darum runterdrehen damit meine CPU ausreicht. Ich selbst finde das Video und die Effekte an sich richtig gut. Ich weiß auch nicht was die Community dagegen hat. Scheint mir irgendwie Neid zu sein. Übrigens gibts auf PCGamesHardware noch einen guten Artikel mit Kommentaren dazu.
 
@DennisMoore: Neid ist es bestimmt nicht, sondern die Nicht-Bereitschaft (von Nvidiakarten-Besitzern wohlgemerkt) sich extra für diese paar Effekte eine zweite Grafikkarte kaufen zu müssen in der Größenordnung einer Geforce GTX 260. Hier stimmt die Relation mal gar nicht. Den zusätzlichen Verbrauch von 182W für die Physikberechnung würde ich auch nicht außer Acht lassen.
 
@Dr.DuHuSo!: Ich gehöre genau zu den Usern die nur eine nVidia-Grafikkarte habe und nicht im Traum dran denken ne zweite dazuzustecken. Trotzdem mäkel ich nicht rum, sondern erfreue mich an dem Fortschritt und darüber was noch möglich ist in Sachen Physik und das es immer weiter geht.
 
@DennisMoore: Aber der besagte fortschritt wird doch demnach von nvidia unterdrückt zu gunsten des eigenen produktes.Da du zb eine karte benutzt würde für dich doch der fortschritt auch darin bestehen das deine cpu auch physikeffekte mitberechnen kann meiner meinung nach.
 
@DennisMoore: ... es geht aber in die absolut falsche Richtung, wenn ich für ein paar Effekte soviel zusätztlichen Strom verbraten muß! Und wenn Nvidia glaubt, so neue Kunden zu gewinnen, sind sie garantiert auf dem Holzweg. Und damit wir uns recht verstehen, in meinem Computer werkelt momentan ebenfalls eine Nvidia-Grafikkarte ...
 
@DennisMoore: is das nicht ein schuss ins eigene bein, physx mit nur einer grafikkarte? also ich mein ich muss die details und auflösung runterschrauben damit ich bissl mehr rauch im spiel hab!? ne wie schon Dr.DuHuSo! richtig sagte, sehe ich nicht den geringsten grund, wegen den paar effekten zu nvidia zu wechseln.
 
@Thaquanwyn: Ganz richtig. Ich hab zwar ne AMD Karte, aber selbst wenn ich eine Nvidia hätte(was ich auch schon mal hatte^^) würde ich mir ekine zweite kaufen und 182W für Physikeffekte verbraten. Vor allem wenn man bedenkt das die PhysX Karten dies auch gekonnt hätten, aber deutlich weniger Strom benötigt haben(28W)
 
@Carp: Warum sollte man wenn man eine Nvidia-Karte besitzt PhysX auf der CPU berechnen wollen? Es geht doch nur um die Schmarotzer, die PhysX kostenlos haben wollen ohne dafür Geld an Nvidia zu bezahlen.
 
@Fonce: die GTX260 hat ein Vielfaches der Leistung der Ageia PPUs. Du als AMD Nutzer müsstest dir gleich zwei Karten kaufen, das ist richtig. Aber sieh das ganze doch mal aus Sicht eines Nvidia-Nutzers: ich hab z.Zt. eine GTX260, sobald diese nicht mehr ausrecht kauf ich mir eine GTX3x0. Dann kann ich die alte Karte für PhysX weiterverwenden. Ich finde das gut. Ansonsten würde die alte Karte doch eh nur im Schrank verstauben.
 
@c80: Da du bei einer karte wohl dann nicht in den genuss der vollen auflösung kommst ausser die physikeffekte würden auch von der cpu mitgetragen werden.Das hat doch nichts mit schmarotzer zu tun sondern das ein nvidia kunde dann doch noch die 2 karte kaufen soll obwohl bei einer guten cpu eine karte reichen würde.Verstehst du worauf ich hinaus wollte?
 
@Carp: Mit Schmarotzer meinte ich AMD. Nvidia hat viel Geld für PhysX ausgegeben und das muss natürlich wieder eingenommen werden. Die CPU zusätzlich zur Geforce bringt doch eh nichts, die CPU hat einfach nicht die Power
 
@DennisMoore: Was haben Einschränkungen denn bitte mit Fortschritt zu tun? Du hast doch garantiert ne Multicore CPU, oder nicht? Würde nVidia also PhysX nicht künstlich auf einen CPU-Kern limitieren, könntest du die Effekte ebenfalls mit deinem bisherigen PC genießen, ohne, dass du eine neue zweite Grafikkarte von nVidia kaufen müsstest. Bei Microsoft meckert ihr immer, wenn sie angeblich ihre Macht missbrauchen, bei nVidida hingegen ist es ok? Wenn fast alle Spiele nur PhysX verwenden, und du die Effekte gerne haben möchtest, bist du gezwungen eine neuere Grafikkarte oder gar 2. Karte, etc. pp. von nvidida zu kaufen. Natürlich geht das zurzeit auch ohne, aber nvidida kann jederzeit behaupten, dass man für diesen und jenen Effekt auf einmal was neues braucht, obwohl das technisch nicht stimmt und es jeder, der nen DualCore oder QuadCore besitzt ebenfalls nutzen könnte. Ich habe nichts dagegen, wenn eine Firma sich nur um seine Produkte kümmert. Aber mit ABSICHT etwas künstlich zu beschränken, um seine Macht zu missbrauchen ist nun mal nicht ok!
 
@slave.of.pain: Ist doch genau das Gleiche wenn ich mir ne Mid-Range Karte kaufe. Da spare ich auch viel Geld und muß auch die Auflösung runterschrauben, bzw. Details abschalten. Ich kann mich jetzt halt entscheiden ob ich in Dark Void ein qualmendes Jetpack in 1024x768 ohne AA haben will oder ein normales Jetpack bei 1280x1024 und 4xAA. Oder ich will beides, aber dann muß ich halt Geld investieren. @Carp: Wieso wird der Fortschritt unterdrückt? Niemand bestreitet doch dass Physikeffekte auf Grafikchips dank der massiven Parallelität von über >200 Shaderunits (eine Grafikkarte ist quasi ein >200-Kern-Prozessor) viel besser berechnet werden können als auf bestenfalls 3 CPU-Kernen (1 fürs restliche Spiel). Die Zukunft kann nur CPU-Physics gehören wenn die Kernzahl nochmal massiv steigt. Und selbst dann ist der einzelne CPU-Kern dem einzelnen Grafikkern noch unterlegen wegen der Architektur. @sushilange: Es war schon immer so, dass man für neue Effekte neue Grafikkarten brauchte. DX9, DX10, DX11 ... Jedes mal ne neue Karte. Jetzt braucht man halt ne zweite Grafikkarte für Physik. Im Grunde ists doch nur die Fortführung von AGEIAs Weg, die schon früher erkannt haben, dass CPU-Physics kein wirklich guter weg ist, zumindest nicht solange wir alle x86-CPUs verwenden. Vielleicht würden sich auch viele Leute nicht aufregen, wenn man sagen würde dass eine zusätzliche Physikkarte notwendig ist und nicht eine zusätzliche Grafikkarte. Wer weiß.
 
@sushilange: Wenn man mal etwas nachdenkt müsste einem doch klar werden, dass durch den Versuch die Physik auf der CPU zu berechnen keine Leistung mehr für den Rest des Spiels bleibt. Praktisch wäre es also doch eher so, dass AMD-Nutzer PhysX ausschalten müssten, damit das Game spielbar bleibt. Ich an Nvidias Stelle würde die anderen Kerne aktivieren und dann total auslasten.
 
@SPS: Außerdem werden auch noch Spiele auf den Markt kommen die auch ohne Physik oder ähnliches Multicore-optimiert sind (oder sind nicht sogar schon welche da?). Wenn das Spiel also selbst schon alle Kerne auslastet, wo soll PhysX dann noch vernünftig Physik berechnen wenn nicht auf ner Extra-Karte?
 
@DennisMoore: ... und dafür ca. 160W zusätzlich verbraten? Bist du nicht der Meinung, dass das in keinem Verhältnis zum Endergebnis steht ...
 
@c80: Aha die cpu hat zu wenig power?Les mal das was sushilange geschrieben hat.Und genau das habe ich doch eben auch geschrieben.Naja ich bin trotzdem seit ewigkeiten zufriedener amd und ati kunde :).
 
@DennisMoore: Es spricht doch nichts dagegen, dass man eine zusätzliche Karte nimmt. Wenn man nur SingleCore hat, oder das Spiel alle Kerne benötigt, bleibt einem ja auch nichts anderes übrig. Aber wenn dem nicht so ist, wieso darf ich dann nicht meine anderen Cores für die Physik verwenden, obwohl es technisch und auch von der Performance her möglich ist?
 
@c80: Mag ja sein, aber sie verbraucht auch ein vielfaches, obwohl eine Ageia PPU warscheinlich noch locker reichen würde und wenn dies nicht der Fall wäre, dann könnte man dem Chip z.B. mal nen Shrink unterziehen und den Takt ein wenig erhöhen(Der Chip läuft ja nur mit 166MHz bei der PhysX Karte wenn ich mich nicht irre).Man könnte so warscheinlich sogar heute auf unter 10W kommen und wenn man die Karte dann mal für einen vernünftigen Preis anbieten würde, dann hätte eine solche Karte auch erfolg!
 
@Thaquanwyn: was trötest du eigentlich immer was von 160 watt rum?...
 
@Fonce: wenn man mit einer 275 + 260 nicht gescheit zocken kann und die 260 viel schneller ist als die PPU warum sollte dann die PPU reichen?
 
@Carp: was sushilange geschrieben hat.Und genau das habe ich doch eben auch geschrieben hat zeigt doch nur, dass sushilange geschrieben hat.Und genau das habe ich doch eben auch absolut keine Ahnung hat. Eine CPU hat ein wenige GFlops, die GPU hat ca 0,5-1 TFlops. Dass du ATI-Kunde bist ist schon für dich, es gibt aber auch Leute, die wollen/müssen nicht an der Hardware sparen und wollen stattdessen lieber Highend-Gaming.
 
@c80: Witzbolt!Als wenn ich nicht wüsste was eine gpu und was eine cpu leistet.Du spielst dich hier auf echt lustig.An hardware sparen na hol ihn raus und erzähl wie toll dein rechner ist ztzt.Schau dir mal die karten von ati und nvidia an die derzeit auf dem markt sind und dann sage mir einmal bitte welcher hersteller das highend produkt bietet zur zeit wohl gemerkt!Da wirst du angeblicher profi dann einsehen das es im moment ati ist.Es ist einfach zu dumm die physikeffekte nicht mit von der nicht genutzten cpu nicht mit berechnen zu lassen.Als profi weißt du das ja aber so oder so.Wieviel die cpu da schafft war überhaupt nicht die frage sondern das es einfach verschwendung ist sich noch eine karte einzubauen wenn doch kapazität egal wieviel von der cpu bereitgestellt werden kann.So und nun viel spass mit deiner "low end" nvidia zur zeit :).
 
@klein-m: ... nun ja - wenn ich lese, dass z.B. Dark Void mindestens eine GTX260 nur für die Physikberechnung verlangt, kommst du ganz schnell auf die zusätzlichen 160W ...
 
@Thaquanwyn: das spiel ist ja wohl ein extremum und in sachen rauch von dem jetpack mal äußerst fehlprogrammiert (meiner meinung nach)... schaue dir mal an, was man z.b. alles ohne physx machen kann und erkläre mir den unterschied in der sache udn was da nun ein gtx260 rechtfertigt, zwecks des rauches: (http://www.youtube.com/watch?v=B5RMxO5DsPA)
 
@Carp: wenn du das doch weist, warum schreibst du dann so was? und zwei verschiedene Generationen von GraKas zu vergleichen macht wohl keinen Sinn. Ich hab die GTX260 gekauft, da hatte AMD nix besseres. Die reicht jetzt aber noch locker aus. Die A'MD kann auch nicht wirklich viel mehr, DX11 ist noch zu wenig verbreitet als dass es jetzt schon Sinn machen würde die zu kaufen. Sobald der Fermi draußen ist hat AMD eh wieder das Nachsehen. edit: hier siehst du wie toll mein Rechner ist: http://www.sysprofile.de/id111799 und jetzt zeig deinen!
 
@sushilange: Weil deine restlichen Kerne nicht das gleiche leisten können wie eine Zusatzkarte. Das heißt es gäbe massig Konstellationen unter denen man das Spiel jedes Mal etwas anders erleben würde. Bei 1 Core und keiner Zusatzkarte, bei 1 Core und 1 Karte die aber kein Physx kann, bei 1 Core und 1 Karte die nicht von nVidia ist, bei mehreren Cores wo aber alle vom Spiel ausgelastet werden, bei mehreren Cores wo 2-3 Kerne frei bleiben, und dann bei noch weiteren Konstellationen mit 1 Karte + PhysX und 1 Karte + Physx Karte. Das ganze wäre heute für den Spieler bloß ärgerlich, aber in Zukunft sollen ja auch sinnvoll Rätsel mit Physik gelöst werden und Gegner besiegt. Dumm, wenn du dann eine Konstellation hast die kein PhysX erlaubt. Dann ist das Spiel für dich unlösbar. @Thaquanwyn: Ob das angemessen ist oder nicht muß jeder für sich entscheiden. Wie ich schon vorhin sagte ist es mir persönlich die Sache nicht wert.
 
Ich dachte mit OpenCL hätte AMD eine Lösung .
 
@Menschenhasser: Wenn der Spielehersteller OpenCL nutzen würde, wäre es eine Lösung.
 
Vielleicht sind AMD CPU's auch einfach zu Schwach für Physik berechnungen?
 
@lordfritte: so wirds sein! oO
 
@slave.of.pain: natürlich sind sie das, aber auch die Intel CPUs sind dafür zu schwach
 
@SPS: naja siehe effekte von hl2 oder cysis... anscheinend geht es doch
 
@slave.of.pain: genau: sieh dir die Effekte mal an. HL2 oder Crysis können da nicht mithalten.
 
@lordfritte: +
 
Nvidia... haha :) ... jungs ohne Gehirn, aber mit eine riesen Klappe die gerne Leute verarschen. Und das obwohl ich garkein AMD Fanboy bin, ich besitze momentan auch eine nvidia Karte. Aber das wird sich schnell ändern, denn Müll muss raus :)
 
@ReVo-: Hoffentlich entfernt dann auch jemand deinen Beitrag. ^^
 
Hab ich irgendwas verpass? Ist Nvidia mittlerweile ein gemeinnütziger Verein? Es ist doch absolut legitim was Nvidia da mach. Die wollen halt ihre Karten verkaufen. Was ist denn dabei? Immerhin bekommt man PhysiX kostenlos zur GraKa dazu. Wer AMD gekauft hat dem war PhysX doch sowieso egal. Außerdem wird ja keiner gezwungen AMD zu kaufen.
 
@c80: ... du willst es wohl nicht verstehen, oder? Glaubst du wirklich, dass es lohnenswert und vernünftig ist, zusätzlich noch einmal ca. 160W Leistung zu verbraten ...
 
@Thaquanwyn: und was, wenn die Graka-hersteller ihre karten jetzt plötzlich auf strom sparer trimmen? was ist dann? auch wenn der stromverbrauch sicherlich nicht zu vergessen ist, andere gründe haben auch eine gewisse priorität. der hohe verbrauch ist sicherlich nicht technisch eine notwendigkeit. und sicher zu ändern, wenn was dafür gemacht werden würde! warum sollte nvidia die eigene technologie also anderen konkurrenten schenken?!? Dass nvidia ATI angeboten hat, bei PhysX mitzumachen, daran kann ich mich auch noch erinnern. was daraus geworden ist, wissen wir ja. warum sollte sich nvidia also selbst ins eigene bein schießen?!
@c80: du hast völlig recht. und das Argument von einem kommentarschreiber weiter oben, dass nvidia, wie auch MS, die "marktmacht" missbraucht, kann ich nicht nachvollziehen. denn MS hat ca. 90% marktanteil. also schon eine ziemlich große marktmacht. nvidia's marktanteil ist viel geringer. von einer marktmacht zu reden, wie bei MS, ist totaler schwachsinn! Wenn ich mich nicht irre, dann ist nvidia noch nicht einmal gesamt-marktführer. das dürfte intel sein.
 
@Thaquanwyn: was redest du denn für einen quark?... dafür reicht auch eine nvidia-karte, die weitaus weniger verbraucht... z.b. gt120 (50w)... glaubst du wirklich, das hat was mit sli zu tun?
 
@Thaquanwyn: Scheiß auf 160 Watt. Was kostet die KWH ca 18ct!
 
@klein-m: Nein, sie reicht nicht aus. Und zukünftige Spiele mit aufwendigeren Physikberechnungen werden eine Karte auch überfordern. http://bit.ly/PhysXinDarkVoid
 
@klein-m: ... vielleicht gilt das noch für alte Spiele, aber wenn ich mir z.B. Dark Void anschaue und dann lesen muß, dass ich mindestens eine GTX260 für die Physikberechnung brauche, frage ich mich wirklich, wohin die Reise gehen soll! @c80: ... nein - ich scheiß nicht auf die 160W, denn das ist es nicht wert ...
 
@Dr.DuHuSo!: das ist ja nun mehr als übertrieben (100.000 partikel)... im bereich von umkippenden kisten & autos, zersplittenden kisten, fliegende trümmer, etc. reicht eine einfachere grafikkarte wohl aus und darauf war mein beitrag auch ausgelegt... dass dynamischer rauch auch ganz ohne physx geht zeigt "stalker clear sky's" dynamischer rauch, welcher sich vollkommen physikecht bewegt, wenn er beeinflusst wird... (http://www.youtube.com/watch?v=fVJ3RKh9mCQ - http://www.youtube.com/watch?v=B5RMxO5DsPA) selbst auf heutigen low-end-karten...
 
@Thaquanwyn: Die PPUs haben damals über 300 Euro gekostet. Rechne doch mal wie lange du spielen musst, damit du auf 300 Euro Stromkosten kommst. Also kann man 160 Watt wirklich vernachlässigen. Tip: 160 ist für dich vielleicht eine große Zahl aber wenn du vergleichen willst musst du schon mit gleichen Einheiten vergleichen, in diesem Fall Euro.
 
@klein-m: Sehe ich auch so, dass es bei Dark Void übertrieben ist und es auch anders geht. Kein Spiel braucht eine so genaue, physikalisch korrekte Berechnung (also noch nicht, was die Zukunft bringt, weiß ich nicht. Sag niemals nie). BTW Stalker:CS lastet auch nur einen CPU-Kern aus.
 
@Thaquanwyn: Aus!
 
ich finds nur schwach das ich ne GT8800 habe und mir dazu eine HD5850 kaufen wollte und das dann PhysX deaktiviert wird da komm ich mir als Kunde verarscht vor ich habs bezahlt ich wills nutzen... und wenns dann mit gemodeten Treibern doch geht machts das ganze noch viel schlimmer
 
@wolver1n: Hier ist der Patch: http://bit.ly/PhysXPatch . Klick einfach auf den Link mit GenL. Funktioniert garantiert. EDIT: Neuester Treiber+Anleitung: http://bit.ly/PhysXMod102 (scroll ganz nach unten bzw. suche nach "GenL").
 
@Dr.DuHuSo!: danke für deine hilfe :) mir ging es in dem text aber mehr drum das ich es eine unverschämtheit finde das geld für ne graka zahle und das ich sie dann nicht nutzen kann wie ich will
 
er hat vollkommen recht in meinen augen !! als es noch keine dual bzw. quad cpus gab war physx ( karte ) wirklich brauchbar und hat einiges an arbeit abgenommen . doch jetzt in zeiten von quad core ist das doch nur marketing seitens nvidia sonst nix.
physx ist für mich kein argument um mir eine nvidia zu kaufen.
 
@siko: du hast nichts verstanden. die GPU hat das 50 bis hunderfache an Leistung im Vergleich zur CPU
 
@SPS: doch hab ich schon. aber es wird noch lange keine games geben die so eine leistung für physx benötigen werden . und wie viele spiele gibt es denn schon mit physx ??? so gut wie nix besonderes. http://www.nzone.com/object/nzone_physxgames_home.html
und komm mir bitte nicht mit dark void ^^ wo laut nvidia eine gtx 260 nur für physx empfohlen wird .
so hammer sind die effect und spiel auch nicht .
http://www.pcgameshardware.de/aid,703265/Dark-Void-Physx-Shooter-im-Technik-Test-Update-Youtube-Video-enttaeuschende-Tests-Patch-und-Benchmark/Action-Spiel/Test/
viel rauch um nichts ^^
also wenn du anhand der vorhandenen games auf physx setzt kann ich dir auch nicht helfen :D
und ja ich hab ne nvidia ( GTX 275 ) und "zur zeit" ist physx einfach nicht wirklich sinnvoll.
 
Also geht man gleich dem Problem aus dem Wege, Intel CPU und ATI Grafikkarte und alles läuft.
Das habe ich auch früher gemerkt, AMD CPU und NVIDIA Grafikkarte immer etwas nicht klappt.
Da haben wir es auf schwarz auf weiß. Grins
 
also ich würde ja erstmal warten bis die neuen karten da sind, weil bis jetzt wo die meisten wennüberhaupt nen 2 kerner haben find ich es so gut, später wenn die masse 4kerne hat kann mann es ja wieder einschalten, weil giebt ja kaum games die 4 kerne benutzen und die müssen dann noch übertaktet werden damit die gpu gefordert wird, so wie es jetzt ist bleibt die power bei den kernen und die gpu kann mal schwitzen also top finde ich. und im hdpc freuts mich das da nur die gpu schwitzt :-)
 
verstehe nicht was AMD/ATI hat, NVidia hat den doch damals die Lizenz angeboten, nur wenn man zu Faul ist Treiber zu programmieren das ist dann jawohl kaum die schuld von nVidia, naja aber heulen wie kleinen Mädels konnten die bei AMD/ATI ja schon immer, bestimmt ist die nächste Forderung: Creative erlaubt uns nicht EAX 5.0 zu nutzen und Intel muss seine CPUs zu unseren Boards Pin kompatibel machen...naja einer wird immer heulen *Schippchen und Eimerchen den Parteien reich* :)
 
also wenn du anhand der vorhandenen games auf physx setzt kann ich dir auch nicht helfen <__ solch einstellungen haben wirs zu verdanken, das z.b 64 bit was ja nu auch schon fast 10 jahre alt is, bis heute nicht ausgenutzt wird.

Kann mich noch an 3d beschleuniger erinnern, wo man auch gesagt hat, brauch man nicht^^
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

Forum