AMD: Nvidia "bezahlt" Entwickler für PhysX-Nutzung

Wirtschaft & Firmen Laut dem AMD-Manager Richard Huddy hat Nvidia seine Physik-Technologie PhysX mit fragwürdigen Mitteln zum Erfolg verholfen. Im Gegenzug für die Werbung, die Nvidia für ein Spiel macht, werden die Entwickler gezwungen, PhysX zu integrieren. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wie und von wem auch immer: Eine einheitliche Schnittstelle ist wünschenswert.
 
@Fallen][Angel: "... Die Tatsache, dass Nvidia seine PhysX-Technologie mit AMD teilen wollte ...". Hätten wir schon längst haben können, aber AMD wollte nicht.
 
@DennisMoore: du weißt auch, wieviel NVIDIA für dieses teilen haben wollte, bzw. was die bedingungen dazu waren!??
 
@dergünny: Und? Geschäft ist Geschäft. nVidia hat Ageia auch nicht geschenkt bekommen.
 
@DennisMoore: Das ist aber kein Grund der Konkurenz Geld in den Rachen zu werfen. Offene Standards sind hier natürlich die bessere Wahl. Das Nvidia Spieleentwickler aktiv wie passiv zu seinen Gunsten nutzt ist ja klar. In dem Fall halt durch Werbung, in einem anderen, in dem man Geld für die Entwicklung Investiert, ala Crysis. Und sie haben halt mehr Geld.
 
@TobiTobsen: Das nVidia mehr Geld hat kannste ihnen andersrum aber auch nicht zum Vorwurf machen. Sie haben halt geschickt gewirtschaftet. AMD könnte auch erheblich mehr Geld haben wenn sie ihre neuen Karten nicht zu Dumpingpreisen verschleudern würden. Zu ATi-Zeiten wars ja mal so, dass sich beide Hersteller an den Preisen des jeweiligen Konkurrenten orientiert haben. Da war ATi immer ein bißchen günstiger, aber nicht übermäßig. Und ob offene Standards besser sind als Herstellerlösungen hängt davon ab ob man Hersteller dazu ermuntern will neue Technologien zu entwerfen oder ob man das einem Herstellerverbund zutraut. Ich traue sowas eher einzelnen Herstellern zu. Denn der Antrieb für neue Entwicklungen ist ja meistens der sich selber gegenüber der Konkurrenz einen Vorteil zu verschaffen. Wenn man in einem Herstellerverbund agiert kann man das mit dem Vorteil aber knicken, weil ja jeder die Ergebnisse von Entwicklungen nutzen kann. In solch einem Verbund würden sich wohl weder nVidia noch AMD ein Bein ausreißen, schätze ich.
 
@DennisMoore: Das sehe ich anders. Bei einer offenen Lösung kann jede Spieleschmiede Ihre Ideen einbringen und die Physikengine anpassen/verbessern was einen kontinuierlichen Vorsprung bedeutet.
AMD, nVidia wollen ja immer Zeigen was Ihre Grafikkarten können (DEMO Sequenzen) und dafür können Sie dann auf die Offenen Lösung zurückgreifen und nur etwas Anpassen/Verbessern und vorallem jeder kann optimieren das es auf seinen "Chip" besser läuft.
 
@DennisMoore: Die ablehnende Haltung AMDs hatte einen Grund! Wenn du dich etwas belesen würdest, wüsstest du das auch. Und ich denke es ist gut so, wenn eher eine offene Schnittstelle genutzt würde! (PhysX ist extra auf Cuda portiert worden nach der Übernahme durch NVidia - AMD sollte nun auch Cuda in deren Karten implementieren und dafür zahlen, selbst wenn sie dann PhysX vorerst kostenfrei hätten - Ich denke OpenGL und OpenCL wären hier interessanter und sinnvoller in Verbindung mit einer offenen Physik-Schnittstelle)
 
@mobby83: Es wurde AMD aber nicht vorenthalten. Sie hätten es lizenzieren können wenn sie gewollt hätten. Ich wär übrigens auch dafür wenn AMD und nVidia wenigstens in Spielen OpenCL oder DirectCompute nutzen würden anstatt das AMD jetzt noch was Neues macht.
 
@DennisMoore: AMD will derzeit die Bullet Physik Engine voran bringen. Diese kann m´nun auch über OpenCL und DirectCompute genutzt werden. Somit würde eine Implementierung seitens der Spieleentwickler bedeuten das das ganze sowohl auf AMD also auch Nvidia Karten funktionieren würde
 
@DennisMoore: "Ich wär übrigens auch dafür wenn AMD und nVidia wenigstens in Spielen OpenCL oder DirectCompute nutzen würden anstatt das AMD jetzt noch was Neues macht." Gratulation... du hast es NICHT verstanden. Die neue Physik-Engine von ATI/AMD läuft auf OpenCL/DirectCompute und wird auch auf allen Karten ab der DX10-Generation laufen.
 
@FloW3184: Geht leider nicht aus dem Artikel hervor. Und ich kann nicht bei jeder News nochmal zusätzlich r echerchieren. Ich gebe einfach meine Meinung zum Text des Artikels ab wenn ich keine weiteren Hintergründe parat habe.
 
Wieviel Geld immer verschleudert wird, weil sich die Firmen um Standards prügeln...echt traurig...
 
@Da war doch noch was: Zahlt am Ende aber leider immer der Kunde.
 
@Da war doch noch was: Wo verschleudert AMD Geld...das haben Sie ja abgelehnt PhysX einzukaufen ;)
 
Ich hatte damals erst den Kauf meiner HD4850 bereut (ATI Treiber empfand ich immer als schlechter, vor allem im Linux bereich), aber jetzt bin ich froh, dass ich bei ATI/AMD geblieben bin - meine nächste Plattform wird auch wieder AMD und nicht mehr intel - egal ob ich dann 3 Frames weniger hab...

was nicht heissen soll, dass AMD nicht auch Dreck an der Weste haben könnte
 
@blisss: pro gamer wie ich benutzen nur intel und nvdia!
 
@Xorith: so einen scheiss labern :D
 
@Xorith: Pro Gamer.....ist das ein Beruf? ^^ Gelegenheitsspieler wie ich nutzen Intel und ATI und fahren nur Benz, alles andere ist Schrott ^^ Genauso sinnvoll und es interessiert hier keine Sau.
 
@Xorith: Ja du bist ein echter PO Gamer. Habt ihr grad Pause in der Grundschule?
 
@TopGun80: 1. bin ich pro gamer und 2. geh ich nicht mehr zu schule sondern mache ausbildung zum fachinformatiker, ich kenn mich als in der IT welt bestens aus
 
@Xorith: was macht dich denn zum pro gamer? dir ist aber schon klar, dass pro gamer nicht immer das beste system haben oder? das haben nur die gamer mit entsprechenden sponsoren ;)
 
@Xorith: Pro Gamer sind auch Opfer der Gesellschaft =) und gezwungen Intel und Nvidia zu nutzen, da Sie sonst im Spiel 3 fps zuwenig haben und die Schuld immer dem PC-System geben müssten wenn sie verlieren... Jeder wie er will, aber das Pro Gamer immer Nvidia / Intel nutzen liegt wohl an den Sponsoren. Ausserdem einer der 5 Tage die Woche online Call of Duty spielt ist noch lange kein Pro Gamer!!!
 
@Xorith: War ich auch aber bestens auskennnen tut man sich deswegen noch lange nicht. Vor allem werden dir dort kaum die progamer Vorteile von Hardware aufgelistet.
 
@ANSYSiC: da informiere ich mich auch selber
 
@Xorith: Dir ist schon bewusst wofür das "Pro" steht? Ein "Professional" verdient mit dem was er tut seinen kompletten Lebensunterhalt und brauch keinen andren Job nebenbei. Alles andere sind "Amateure"! Und soweit es mir bekannt ist sind die Pro-Gamer in Deutschland an einer Hand abzählbar, denn nur wenige bekommen genug Sponsorengelder dass sie keinen andren Job mehr brauchen. Und ich rede jetzt nicht von der Lebensfinanzierung im Hotel Mama!
 
@DaOptika: pro gamer sind auch gamer die gut spielen, das heißt nicht das man damit geld verdienen muss
 
@DaOptika: Na ... das ist eher wohl nur die Elite. Viele Pro Gamer studieren oder arbeiten nebenbei. Typen wie Moon, Grubby (allesamt WC3 Szene) müssen das wohl wirklich nicht, also der herkömmlichen Arbeit nachgehen.
 
@Xorith: Eigenlob stinkt, dass weißt du schon?
 
@Xorith: Du und Fachinformatiker? Jetzt muss ich mich für meinen Berufszweig schämen. Danke
 
@Xorith: du bist sicher so ein "pro" der jeden der dich killt als bob usw. bezeichnest und rumflennt wie ein kleines kind.. zumindest scheint es hier so.. und pro geht meiner meinung nach auch eher in die richtung geld verdienen.. nur weil du angeblich gut spielst kannst du dich nicht gleich selbst als pro bezeichnen..
 
@Der_Karlson: ich bin durchaus kompetent und was ich schreibe hat hand und fuss, du brauchst dich als nicht zu schämen!
 
@vires: ich hab das überhaupt nich nötig jemand als "bob" zu bezeichnen oder rumzuflennen, den wenn jemand besser als ich ist, akzeptiere ich das
 
@Xorith: Also, im Fussball verdienen Profis richtig Geld, selbst Amateure bekommen ein paar Euros oder wenigstens die Klamotten und Fahrgeld gestellt. Aber ProGamer.. Sorry, eigentlich dürfte es Trolle wie Dich gar nicht geben... Ich bin auch Pro Gamer, aber im Kegeln, dafür brauche ich kein nVidia und kein ATi, aber Pils oder Alt :-P
 
@Xorith: nun, ich studiere info und ich bin nicht deiner meinung :)
der schlaue mann vergleicht; pauschal zu sagen, dass nvidia besser wäre zeigt nur, dass du dich durch die werbung hast beinflussen lassen.
 
@Xorith: Ich hab selbst - bis jetzt - auch immer Intel und Nvidia verwendet. Zugegeben, damals hat mich noch der ATI-Treiber überzeugt, keine Karten von denen zu kaufen. Bei Intel werde ich mit großer Sicherheit auch bleiben, aber Nvidia ... ? Weiß ich noch nicht. Wenn die neuen Fermi-Karten vom P/L-Verhältnis her wieder so schlecht sind wie bis jetzt, werde ich bestimmt keine Nvidia-Karte mehr verbauen - dafür ist mir mein Geld doch zu schade. Da vermiss ich dann nicht mal PhysX.
 
@Xorith: dir ist schon klar, das du dich wie ein 12 jähriger hier aufführst? dem man grad sein spielzeug aus der hand genommen hat.
wenn ich mal Urlaub habe, dann zocke ich auch 24/7, COD6 oder jetzt bald auch BC2. und unteruns, bin richtig gut. aber das qualifiziert mich nicht zum Pro gamer. solange du kein Geld dafür bekommst, das du am zocken bist, sind wir beide nur Hobby Gamer, bzw. amateure. aber auf keinen Fall Pro.
sorry wegen meiner rechtschreibung und gramatik, meistens ist meine tastatur schuld dadran, weil es ein Pro ist. :P
 
@Xorith: Tja ich bin ein Wechselkandidat, Mein erster Pentium war auch natürlich von Intel :) Damals als ich noch jung war und nvidia Dreck, besass ich ne Voodoo Karte, später ne Voodoo³ in Kombination mit dem sehr viel schnelleren AMD Athlon (500Mhz) der gerade Gamern vorteile brachte. später war mit dem C2D Intel wieder vorne. Man sollte immer sehen was für einen besser ist und nicht pauschal sich ein bestimmte Hersteller binden.
 
@Xorith: Gerade Gamer setzen auf AMD. Der Unterschied zwischen Intel und AMD im Gamebereich ist minimal bis vernachlässigbar. Dafür kostet Intel bis zu 3 mal mehr. Da spart man das Geld und kann 1-2 Jahre später gleich wieder das neuste kaufen. Wo Intel definitiv weit vorne liegt ist die Rechenleistung bei Video- und Foto-Bearbeitung. Natürlich im Amateur bis Profibereich. Was Nvidia und AMD angeht, gebe ich dir Recht, seit der x1900 kam von AMD nix mehr an die Leistungskrone ran. Und viele Hardcore-Gamer wollen halt das Maximum. Preis-/Leistungstechnisch hinkt Nvidia natürlich gewaltig hinterher, aber das interessiert ja nicht alle, von daher ist Nvidia bei Hardcore-Gamern definitiv beliebter.
 
@blisss: ich hab grad meine 5850 verschrottet (schnellstmöglich verkauft) denn eine Grafikkarte mit schlechterem Treiber hatte ich lange nicht. DPC Latency Probleme bei High-End-Audio, einen Catalysttreiber den ich zur schlechtesten Software des Jahrzehnts küren würde, ein Kundensupport wie vom ehemaligen Telekommunikationsriese hierzulande.
Mein Fazit .... niewieder. Und wenn die Ihre Karten verschenken würden. 3 versuche mit ATI in den jetzten 10 Jahren langen mir. In jedem Fall war die kurz darauf verfügbare nvidia Lösung in allen Belangen die bessere und stabilere Wahl.
Auf das die Ihren Krams fertig bekommen. Der Huddy soll nicht weinen, immerhin sind sein Jungs schnell, nur das mit dem gut, das können die halt immer noch nicht.
 
die Aktion ist von Nvidia nachzuvollziehen. M$ und andere machen es ja ähnlich. Manchmal setzt sich ein System nicht aufgrund von Güte und Nachvollziehbarkeit durch sondern durch Förderung des Herstellers.

Ist zwar nicht besonders Fair aber so manches mal ist dadurch erst ein Markt entstanden. Siehe Co-Prozessoren bei Intel (80287, 80387 usw.)
 
@RedBullBF2: Ich find nich in Ordnung wenn man künstlich durch die Hintertür Monopole aufbauen will. Ein CoPro war auch ne Technologie die mehrere angenommen haben weil die Software nur den generellen Besitz eines CoPros vorgab, nur mit dem Unterschied: Der musste damals nicht von Intel sein.
 
Wollte nur mal kurz erzählen wie wunderbar doch mein System mit einem Phenom II X4 955 mit einer GTX260 und 6GB DDR3 läuft. Schön zu sehen wie die Firmen nicht einmal sehen was geht, wie die Wirtschaft funktioniert und was die Kunden wollen. Dann und zwar genau dann ist es an der Zeit sich weiter Gedanken um das nutzlose Physx zu machen. Ach ja und ganz vergessen:" Gegenseitiges bekämpfen war schon immer besser als Zusammenarbeit!" Da haben auf langer Sicht die meisten Firmen mit überlebt!!!! Hoffe nicht dass ich noch "Ironie" dahinter schreiben muss.... So langsam hat man dass Gefühl es arbeiten in solchen "Konzernen" nur noch Bildungsneutrale und vor allem Talentfreie. Die bekommt man übrigens ganz günstig bei Zeitarbeitsfirmen. Am besten fragt man den Arno Dübel...
 
@aedmin: Was war denn da jetzt Ironie? Dass dein System wunderbar läuft? ^^
 
@DennisMoore: Gegenseitiges bekämpfen war schon immer besser als Zusammenarbeit!" Da haben auf langer Sicht die meisten Firmen mit überlebt!!!! Hoffe nicht dass ich noch "Ironie" dahinter schreiben muss...
 
Ob das schlau ist? Durch den Einsatz von PhysX verscheißen es die Hersteller doch nur mit rund der Hälfte ihrer Kunden welche die AMD verwenden. Auf der anderen Seite würde ich aber niemals eine nVidia kaufen seit sie PhysX ihrer Karten deaktivieren sobald eine andere GraKa im System steckt. Es gehört schon viel Planung dazu ein System zu entwickeln bei dem wirklich alle nur verlieren können.
 
@Johnny Cache: Bei Batman Arkham Asylum hat sich der Hersteller auch nix mit der Hälfte der Gamer verschi**en die die Physikeffekte nicht sehen konnten. Verschei**en tun sie es sich erst wenn die Physik spielentscheidend wird und man ohne diese Technik bestimmte Level nicht schaffen kann. Aber bis dahin ists noch ein gutes Stück Weg.
 
@Johnny Cache: Schon mal überlegt, ob das evtl. einen technischen Hintergrund haben könnte? Ich kann meinem Benziner auch keinen Diesel beimischen obwohl beides dem Vortrieb dient. Ich will jetzt um gotteswillen nicht behaupten, das es nicht auch gehen könnte NVidia Karten mit AMD Karten zu mischen (da gibt es jetzt ein neues Board von MSI mit einer Hydra Engine - da kann man beide Hersteller mischen (ala Crossfire/SLI)), aber ich denke, hier ist man nur auf Nummer Sicher gegangen und hat deshalb PhysX deaktiviert.
 
@-$Pinky$-: Nein, das ging lange Zeit und wurde erst später in den nVidia-Treibern deaktiviert. Wenn es technisch bedingt wäre würde ich ja nicht meckern.
 
@Johnny Cache: Ja und was spricht dagegen, das es später in der Entwicklung einen Punkt gab, an dem es technisch nicht mehr ging? Da ich selbst als Ingenieur oft genug vor ähnlichen Problemen stehe, kann ich mir vorstellen, das es eben doch ein technisches Problem war. Man kann leider nicht immer dafür sorgen, das alles "Alte" weiterhin funktioniert und dennoch große Fortschritte in den Technologien machen wollen. Funzt net, ehrlich net,irgendwo muss man Abstriche machen.
 
@-$Pinky$-: Bei neuen Karten-Generationen mag man solche Einschränkungen sicher verzeihen und auch technisch begründen können, nicht aber bei Treibern. Nichts und niemand kann mir erzählen daß dies nicht mit Absicht geschehen ist, insbesondere weil es auch gemoddete Treiber gibt welche das noch zulassen. Es ist und bleibt eine Marketingentscheidung die klar sagt daß man ihre Produkte meiden soll.
 
@Johnny Cache: Warum nur bei Hardware? Bei Software kann dies genauso passieren. Ich selbst als Hardwareentwickler hab da jetzt zwar nicht ganz soviel Ahnung, aber meine Kollegen von der Softwareabteilung können da ein Lied von singen. Es ist teilweise sehr schwer am Ball zu bleiben und alle alten Features beizubehalten. Und das wo man teilweise indirekt zu neuen Treiber releases "gezwungen" wird, weil Geräte nun dotNet 3.5 haben, der Treiber aber unter dotNet 1.0 programmiert wurde, nun aber umgestellt werden muss, weil (zB) 1.0 nicht mehr seitens MS supportet wird oder der Kunde gern 3.5 nutzen möchte. Ich hätte noch einige andere Beispiele, aber ich denke, es ist klar worauf ich hinaus will. Das es von Drittanbietern Treiber gibt, mag ja sein, allerdings wirst du da keinen finden, der auch nur einen Hauch von Support gibt, wenn irgendetwas kollidiert! Es gibt sicherlich die meisten Fälle wo es geht, aber es sind eben auch die nicht auszuschließen, wo es nicht geht. Und wenn dann die Hardware abraucht ist das Gejammer groß, und das möchte man meiner Meinung nach vermeiden.
 
Mit 3dfx haben sie es doch schon mal geschafft eine Klasse Generation einfach mal vom Markt zu schaffen. Es lebe die Korruption :D
 
@KlausM: 3dfx hat sich selbst wirtschaftlich an die Wand gefahren. Nvidia hat dann für wenig Geld das Wrack ausgeschlachtet, sprich übernommen.
 
@Tjell: Jepp. Die 4-GPU Karte war der Todesstoß für 3dfx. Leider. Ich fand die damals immer super.
 
Solange meine Games ruckelfrei laufen, ist mir egal, ob da PhysX drin ist oder nicht. Hauptsache ich kann aktuelle Games mit 45fps im Vollbild (1920 x 1200) spielen. Ich bin mit meinen beiden Geforce 8800GT im SLI Modus sehr zufrieden (alle Games laufen ohne PhysX).
 
@coolboys: Viele Monitore haben ja schon 2560x1440 (Apple, Dell etc.), da geht die FPS noch mal nen ganzes Stück runter wenn man Nativ spielen möchte.
 
Kommt es euch immer nur auf die FPS an? Mir persönlich eigentlich mehr auf die Qualität! Was bringen 50 FPS - auch quatsch - 60 FPS, oder gar 61,5234829346328946 FPS. Dem menschlichen Auge reichen 30 vollkommen aus. Am besten find ich die Leute (also keiner persönlich aus dieser Diskussionrunde ;-) ), die mit 120FPS prahlen und nen TFT mit 60Hz auf dem Tisch stehen haben *grins*. Oh mann, wo soll das nur hinführen?
 
@-$Pinky$-: Bei 2560x1440 komme ich aber meist nur auf 20FPS. Und ja darauf kommt es bei mir an, weil ich nicht mit 10-20 FPS spielen mag.
 
@John Dorian: Tja, da kannst du halt nicht in 2560 x 1440 spielen... tsssss, dass sich manche gleich persönlich angegriffen fühlen. Das du nicht mit 10 bis 20 FPS spielen magst steht doch wohl so auch in meinem Post, oder?! schließlich ist 10 - 20 kleiner als 30. Allerdings frag ich mich jetzt speziell wie das hier zum Thema PhysX und Diskusionsthema AMD vs NVidia passt. Diese Auflösung ist nunmal noch "etwas der Zeit vorraus". Beschwerden sind ja wohl dann eher bei den Herstellern angebracht als bei mir. Und auch gern noch einmal: Mir ist schon klar, das dir das nicht reicht.
 
@-$Pinky$-: ... wenn du nicht merkst, dass ein Spiel mit 60 FPS geschmeidiger läuft, tust du mir wirklich leid ...
 
@Thaquanwyn: Boahhh, geht's noch? Wer bitte hat soetwas behauptet??? Ich habe gesagt, das 30FPS reichen!!! Das ist biologisch nachgewiesen! Klar sind 60FPS besser! Was anderes habe ich nie gesagt! Worüber ich sprach (wenn du richtig gelesen hättest) ist der irrsinnige Wettstreit, wer die meisten FPS hat - und das meistens mit nem TFT der eine Bildwiederholfrequenz von 60Hz hat. Es ist einfach logischer sich doch lieber mit 60FPS zufrieden zu geben und dafür "Qualität"zu haben, als mit 2000FPS ein Bild zu sehen, was ein 486er seiner Zeit produziert hat. Aber es zeigt sich immer wieder, das es bei viellen hier einfacher ist irgend einen Flame-2-Zeiler zu schreiben als konstruktiv mit zu diskutieren.
 
Nvidia macht Werbung für die Softwarefirmen und ... diese sind "gezwungen", PhysX zu nehmen? Wie unlogisch ist das denn? Ich denke, dass es eher nach dem Motto "eine Hand wäscht die andere" abläuft. Nvidia bietet an, Werbung zu schalten, wenn die Entwickler sich für PhysX entscheiden. Leistung - Gegenleistung.
 
@Tjell: Wenn sich viele Studios aber keine Werbung leisten können, und Nvidia ihnen welche anbietet, ist es natürlich freiwillig, aber in gewisser Hinsicht doch unter Zwang, da die Konkurenz das Angebot von Nvidia bestimmt annimmt.
 
Firmen Bosse werden mit der Zeit immer so, es sind Menschen und die sind immer so.Immer....Immmmmmer meistens.
 
"AMDs Open Physics Initiative" ... Wieso denn nun noch ne neue Geschichte? Lasst es doch einfach bleiben und benutzt OpenCL oder DirectCompute. Jetzt noch Arbeit in eine weitere Physik-Sache zu stecken ist doch vollkommen überflüssig.
 
@DennisMoore: wenn du dich mal eingelesen hättest, geht es genau darum. Es wird OpenCL UND DirectCompute benutzt. Aber liegt halt auch am Artikel selbst, der von Havok schreibt auf GPU obwohl es Bullet Physics ist.
 
@beneee: Ich kommentiere hier eine News so wie sie da steht. Und da oben steht nix von OpenCL. Hätte Winfuture es hingeschrieben gäbe es kein [12] von mir.
 
@DennisMoore: jau hab ja auch editiert. Trotzdem gibt es halt nix zu meckern :p
 
@DennisMoore: Habe es eben mal gegoogelt. Hinter der Initiative vebirgt sich die Portierung von Bullet Physics und einer Materialsimulation auf OpenCL / DirectCompute. Also wie schon gesagt wurde nichts neues.
__ http://www.planet3dnow.de/vbulletin/showthread.php?p=4164798
 
Max Payne 2 nutze doch die Havok-Engine für Physik Berechnungen oder nicht?
 
@BartVCD: Havok war und ist aber ne Lösung die Physik auf der CPU berechnet und nicht auf der GPU. AMD hat Havok nur nochmal so verändert dass sie jetzt auch auf GPUs rechnen kann. Mit welchem Erfolg sieht man ja.
 
Scheint nicht genug Kohle gewesen zu sein bei den paar PhysX Titeln der letzten 2 Jahre.
 
schön das hier so viel gelabert, sich jedoch nicht auf den artikel bezogen wird. Was ich schade find, ist das dieses physX so gepusht wird, da die Havok garnicht mal so schlecht ist. Mich wundert es eh, das gerade auf der PS3 diese sehr oft bei games zum einsatz kommt auch bei blockbuster, obwohl dort ne NVIDIA eingebaut ist. selten lese ich dort etwas von PhysX.
 
Ach was... Was denk ihr was "The way it's meant to be played" ist? Es ist ein Subverntionsprogramm. Damit nVidia bei der Entwicklung "mithelfen" kann um die Treiber pünktlich zum Start optimieren zu können. Und um politische Entscheidungen durchbringen zu können. Siehe DX10.1 in Assasins Creed o.ä. BTW: was hält AMD davon ab, ähnlich Einfluss zu nehmen?
 
@pool: Nix. Spiel mal Dirt 2. Da kommt vorher ein AMD Logo. Das hat Codemasters auch nicht für lau draufgepappt.
 
@DennisMoore: Ich kenne drei Spiele in denen ATi oder AMD auftaucht: Portal, Roller Coaster Tycoon 3 und Dirt 2. TWIMTBP-Spiele kann ich bis heute Abend aufzählen. Ähnlicher Einfluss ist das ja wohl eher nicht.
 
@pool: Nein, es ist aber auch nicht so dass AMD sich nicht wehren könnte, wenn sie wollten. nVidia möchte halt für seine Kunden das optimale Spielerlebnis sicherstellen. Warum AMD das nicht auch macht ist mir schleierhaft. Es ist ja nun weißgott nicht jedes Spiel im TWIMTBP-Programm.
 
@DennisMoore: weil sowas geld kostet und AMD zur Zeit keines hat?
 
@DennisMoore: Vllt hängt das davon ab, wie viel die Hersteller bereit sind bereitzustellen. AMD ist halt vllt weniger aggressiv als nVidia, was dieses Förderprogramm angeht.
 
@FloW3184: Wenn AMD kein Geld hat, sollten sie vielleicht zu machen. Natürlich haben sie Geld, sie haben nur keinen Gewinn erwirtschaftet. Und während AMD sich weiter beschwert statt selbst was zu tun kommt mit "Just Cause 2" wieder ein schönes Spiel mit nVidia-Exklusiver Physik.
 
kaum rückt die nvidea karte näher kommt nen spruch von amd ? was sagt uns das ? nicht warten amd kaufen SOFORT.
 
Ich kauf schon gar keine Spiele mehr die Physx unterstützen, wird Zeit das Microsoft dem Physx ein Strich durch die Rechnung macht wie damals Creative mit Ihren EAX Standarts.

Entweder soll MS Physx als Standart für alle Grafikkarten im DX11/12 aufnehmen oder ein eigenen Standart herausbringen und Physx Sterben lassen.
 
@elpsychodiablo: wieso Microsoft, wenn AMD bereits dabei ist, physx abzulösen?
microsoft hat ein grundgerüst geschaffen mit directcompute und amd baut da ne physik-engine drauf.
 
Wow...dann wird die Physik halt nicht von der GPU sondern der GPU berechnet...schlimm...oder bald halt via DirectCompute...CUDA und PhysX sind am aussterben...
 
@bluefisch200: Ich glaube du wolltest "... CPU sondern GPU ..." sagen
 
@bluefisch200: Entschuldigung für den Doppelpost
Ich wollte nur sagen dass es durchaus einen unterschied macht ob diePhysik auf einer Grafigkarte oder einem Prozessor berechnet wird da z:b bei BF BC2 wo die Physik über Havok auf der CPU berechnet wird ein AMD Athlon X2 6000+ bei einigen Wasserfällen oder Explosionen die GPU doch stark limitiert und für nervende slomos sorgen kann.
 
@S3ki: Deshalb nutzen ATI Spieler ja auch Quadcores :D Ne Müll...stimmt natürlich. Havok soll einfach GPGPU nutzen und dann geht das schon ab ,-)
 
Es ist immer wieder schön zu lesen, wie Manager Sachen so überzeugend hinstellen können, dass sie wirklich jeder glaubt. Ok, wenn nicht, wäre derjenige kein Manager geworden. Wenn ich überleg wie überzeugend mein Chef sein kann.... Neee, mal ehrlich - was genau im Hintergrund abläuft erfahren wir kleinen User eh nicht. Deswegen sage ich an dieser Stelle (meine Meinung), wovon Huddy überzeugt ist, muss noch lange nicht so stimmen. Allerdings ist das ganze Statement von ihm schon beeindruckend und wird sicherlich bei dem Einen oder Anderen einen gewissen innerlichen Zwang hervorrufen, sich für ein AMD Produkt zu entscheiden. Und eben auch die Tatsache PhysX komplett verdrängen zu wollen... was bitte sollte dieser Mann auch anders erzählen?! Es wird von ihm verlangt soetwas zu sagen, ich fänd es schade. Nicht wegen der PhysX-Technologie an sich, mehr generell dieser Trend Konkurenz komplett verdrängen zu wollen. Meiner Meinung nach wird diese Heransgehensweise nichts bringen, denn ein wirkliches Monopol aufbauen ist schwer und nicht gut. Außerdem würde AMD hinterher genauso da stehen wie NVidia jetzt - als Buh-Mann. 2 oder mehr Alternative Umsetzungen einer Geschichte find ich besser!
 
Bald wird auf der Verpackung von jedem Spiel die Kompatibilität zu GraKa stehen. Z.B. dieses Spiel nur für Besitzer von ATI-GraKA, und dieses nur für Besitzer von Nvidia-GraKa. Es beginnt mich ein bisschen an die Geschichte Bly-ray vs. HD-DVD zu erinnern. Und was macht man in so einem Fall? Richtig! Abwarten und erst dann etwas kaufen, wenn der Sieger feststeht. Die Hersteller verstehen, dass sie damit auf die Einnahmen verzichten müssen, nehmen anscheined das in Kauf beim messen von Schwanzlängen.
 
Nvidias aktivitäten rund um PhysX und die zahlreichen Entwickler erinnern mich extremst stark an die miesen Verkaufsdeals seitens Intel mit den Media Märkten und wer weiß wo noch. Damit wurde bewußt AMD aussen vor gelassen und hat hierzulande kaum Werbung und entsprechend wenig einnahmen erfahren. Nvidia scheint seit seiner engen Co-Operationszeit mit Intel VIEL gelernt zu haben...wor allem wie man die unerwünschte Konkurenz nach und nach kalt stellt. Da scheint sich jemand die Arbeit geteilt zu haben: Erst macht Intel AMD finanziell mürbe, dann kommt Nvidia und schlägt (ach wie großzügig) eine (wer weiß wie teure?) Lizenz an... Ein Schelm wer dabei böses denkt! Da PhysX nach wie vor kein essentiel wichtiger bestandteil aktueller Games ist, sehe ich keinen grund Nvidia (oder Intel) und ihre miesen Geschäftsgebahren mit meinem Geld zu fördern. Ich denk mir mal meinen teil...und Kaufe in Zukunft weiters entsprechend ein - zumal ich mit meinem fein abgestimmten AMD/ATI System weder einen Leistungsvergleich scheue, noch irgendwelche Leistungseinbrüche oder Probleme kenne. Herz, was willst Du mehr, solange Du nicht enttäuscht wirst und alle Games flüssig laufen?!?
 
@PowerGraFX: Du bist das beste Beispiel dafür, das ihr blind irgendwelchen Anschuldigungen von AMD glauben schenkt. Seht ihr jemals Nvidia rumjammern und die Schuld bei AMD suchen? Nvidia investiert für den Gamer, AMD/ATi möchte möglichst alles kostenfrei bekommen und beschwert sich über Nvidia. Langsam nervt es, was hatte Ati im Jahre 2006 noch groß Werbung für Havok gemacht bis heute haben sie nichts zustande gebracht, stattdessen will man Nvidia den schwarzen Peter zuschieben zum xten Male. Nvidia macht es richtig nur weiter so!
 
süß wie die kids flamen, aber einfach KEINE AHNUNG von der PhysX Problematik haben! Und wer sich nicht einlesen kann und sich nur auf diesen lächerlichen WF newsflash bezieht ist selber schuld.
Es gibt bereits tausende threats über PhysX, Firmen Politik, ersatzlösungen etc.. naja und wer 50euro überhat kauft sich ne kleine nvidia zu seiner großen ati karte, physx mod drauf, läuft, so hat man das beste aus beiden welten :) einfach mal "HybridPhysX" ergoogeln!
Kommentar abgeben Netiquette beachten!

Preisvergleich Phenom II X4 965 BE

AMDs Aktienkurs in Euro

AMDs Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles