Nvidia kauft Ageia - Physik und Grafik bald in einem

Hardware Der Grafikkartenhersteller Nvidia hat gestern am späten Abend bekannt gegeben, dass man die Physik-Spezialisten Ageia übernimmt. Damit erwirbt Nvidia auch die von Ageia entwickelte Physikbeschleunigertechnologie der bisher nur wenig erfolgreichen ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das ist ja mal eine Übernahme wo sich Kunden freuen können! PhysX und Grafik in einem ist doch einfach besser als getrennt
 
@Christian1992: Ich würde mir solch eine PhysX Karte sowieso nicht einzeln kaufen. Solange die Grafikkarten mit PhysX Chip dann nicht so viel teuer als die ohne werden, ist mir das egal. So gelangt vielleicht auch mal soch ein Chip in meinen PC. Eventuell kann man nach der Übernahme auf bessere Unterstützung hoffen. Bis dahin wird bestimmt noch einige Zeit vergehen
 
@Christian1992: drüber freuen ? hmm, jetz hat 1 firma alles in der hand - keine konkurrenz. damit bestimmt sie auch den preis - und jetz rat mal was passiert ... aber da der konsument inzwischen soweit ist, immer das schnellste , neueste , tollste , längste und dickste haben zu müssen, wird die rechnung für nvidia aufgehen. man kann wirklich nur hoffen, daß ATI was dagegen zu setzen hat.
 
@antzen: Schön verpennt... schonmal daran gedacht, dass ATi schon etwas ähnliches plant und kurz vor der Vollendung geht ? Man erinnert sich an den "Fusion"-Kern.... grml
 
@Christian1992: wer kauft sich den ne physiks karte 200€ für 10 games in denn man 5 fps mehr hat weil der cpu nicht die physik berechen muss?
NEIN danke
 
@Jungle55 : naja glaube nicht das es lange dauern wird bis viele spiele dass unterstützen. nvidia entwickler arbeiten nicht selten mit spiele hersteller zusammen. bsp: crytek
 
@ cH40z-Lord: selber verpennt .... CPU+grafik is was anderes als NUR grafik. nvidia hat nun die möglichkeit spiele entwickeln zu lassen, die nur auf ihren karten 100% laufen, aber bei der konkurrenz halt nur mit 50% (crysis is schon mal ein "gutes" beispiel) > "du möchtest perfekte physik ? kauf dir nvidia !" und das für ordentlich geld. aber das sind halt nur spekulationen ....
 
Super, noch mehr Stromverbrauch... nvidia sollte mal eine Firma für green it übernehmen...
 
@Rikibu: Aber anstatt auf den grünen Zweig zu kommen wird Tripple- und Quad-SLI entwickelt...

Letztendlich entscheiden die Kunden aber auch mit, wie sich der Markt entwickelt. Solange die große Nachfrage für SLI-Systeme vorhanden ist, werden die Hersteller auch weiterhin nicht ans große Energiesparen denken.
 
@Rikibu: wow ... es steht noch kein produkt fest, wo beides zum einsatz kommt, du kennst die auslastung und den verbrauch nicht - aber bildest dir jetzt schon ein urteil und heulst rum.
 
@Rikibu: natürlich nich. aber für mich is das ne image sache. ich versuch schon darauf zu achten, das meine hardware nich so viel strom frisst. pc mit 500++ watt netzteil? wozu? solche firmen wie nvidia haben bei mir nen ganz schlechten ruf, weil sie nicht von sich aus den ökologischen gedanken fördern und sparsame und gleichzeitig leistungsfähige grafikkarten bauen. darum boykottiere ich deren produkte. nur sind nicht alle dazu bereit auf die umwelt zu achten, solange der strom aus der dose fließt - was ich persönlich sehr kurzsichtig und egoistisch finde.
 
@Rikibu: Ich hoff mal die werden in der nächsten generation etwas mehr auf den Strom achten... das wird schon
 
@Rikibu: Da kommt schon ein hoher Stromverbrauch zustande, wenn schon die NVIDIA GT200 angeblich über 250 Watt braucht.
 
@ KamuiS: Das ist wahrscheinlich der Last-Wert, oder? Wenn Last, dann sehe ich das nicht so tragisch, viel wichtiger finde ich den Leerlauf-Verbrauch, ich behaupte nämlich, dass der durchschnittliche Rechner, auch eines Spielers, zu mindestens 75% im Leerlauf läuft (= Internet-Surfen, Office, etc.), und dann äußern sich Grafikkarten mit hohem Leerlauf-Verbrauch auf Dauer doch eher negativ. Von mir aus kann eine gute Grafikkarte unter Last ihre 250W aufnehmen, wenn sie im Leerlauf bei lediglich 10-20W oder niedriger liegt.
 
@Txxxxs: So ganz teile ich deine Meinung da nicht, - denn gerade bei Spielern laufen die PCs wohl eher 75% Volllast. Hast du eine passiv gekühlte Grafikkarte in deinem Rechner ? - Also wenn ich ein Spiel spiele, selbst wenn es nicht mal ein ganz so aufwendiger 3D Titel ist, fängt der Lüfter der Grafikkarte deutlich an lauter, d,h, schneller zu laufen. Ich gehe doch mal davon aus, dass der Lüfter dies tut, weil die Karte wärmer, und sogar richtig heiß wird. Wenn man ein Grafikmonster in seinem PC hat, dann würde es sich fast lohnen, einen Extra-PC, mit einer nur onboard-Grafik, für Office und Internet zu nutzen, denn auch im Leerlauf brauchen die Grafikmonster mehr strom, als ein Onboard-Grafikchip. Na ja, - wer schaut bei einem Auto für 100.000,-€ auf den Verbrauch. Wenn einer eine Grafikkarte für 500,-€ kauft, sind ihm wohl 80,-€ mehr Stromkosten im Jahr egal.
 
@all: also mal ehrlich, leistung wollt ihr aber sowas geht immer zu lasten des stromverbrauches, oder warum gibt es kein porsche mit 1-2 liter auf 100 kilometer oder n ferrari. .o0 es wahr schon immer so das leistung irgendwie immer was kostet ausserdem wenn ich strom sparen will kaufe ich mir kein quadcore und ne 8800 gtx oder wie die in zukunft auch immer heißen mögen..... aber wie Volker Pispers schon sagte: Man kann ja auf die ein oder andere weise zum Prekariat gehoeren auch wenn es geistig ist:)
 
@gabriel: Sry aber das was du da äußerst ist so ausgedrückt ziemlicher Bullshit...klar bedeutigt mehr Endleistung auch eine höhere Aufnahmeleistung aber dazu gesellt sich der Wert des Effektivtätsgrads sprich wieviel Verlustleistung ein Gerät erzeugt. Nur weil ein Gerät im Hightechberriech angesiedelt ist muss es nicht gleich eine Stromschleuder sein! Gerade in den Phasen des Leerlaufs wäre es wohl durchaus möglich Optionen zu intregieren die z.B. die Grafik-Gpu deftiv runterschrauben. Natürlich geschieht das nicht unbedingt in den Produkten wo man wer weiss wieviele GPU- reinsteckt nur um nen minimalen Liestungsgewinn zu ergattern.
 
toll, da brauch ich ja dann wieder ne neue graka...
 
@shaft: es muss doch jetzt jedem klar sein, dass die technik immer weiter geht und das man das auch nicht aufhalten kann. Du musst dir ja keine neue kaufen...
 
@shaft: stell dir mal vor früher war 3d und 2d chip auch noch nicht auf einer karte... ich hatte noch ne 4MB voodoo1 die mit nem vga kabel an meine 4MB 2d-graka angeschlossen wurde. Ist nur logisch dass jetzt die grafikkarten noch nen physik chip bekommen wenn man sich moderne spiele ansieht - ist nunmal quasi das "3d" von heute :) und man muss sich ja nicht so eine karte kaufen es wird immer stromsparende alternativen geben

EDIT: Sorry sollte eigentlich @Rikibu sein
 
@Christian1992: warts mal ab, das ist doch dasselbe wie mit direct x10 und directx 10.1 man hat heute keine große wahl mehr. entweder man geht mit dem fortschritt und blecht dafür oder man lässt es eben. ich sehe hier in erster linie das geld, welches ich jahr für jahr investieren "muss"...! wenn später alle spiele dann auf physik aufbauen bleibt mir wohl keine alternative.
 
@shaft: is doch super, dann wird sich noch mehr auf grafikblenderei und physikspielereien konzentriert - was zur folge hat das das was man dann als spiel vorgesetzt bekommt, wenig kreativ ist... merke ich ja jetzt schon. crysis, cod4 - haben mich für ne stunde mal interessiert, aber langzeitmotivation bieten die ach so tollen 3d spiele irgendwie nicht - und das wird immer schlimmer...
 
@Rikibu: genau so ist es! vor allen dingen: was nützt mir die schnellste grafikkarte und die geilste grafik in einem spiel, wenn es schon nach 7 stunden durchgespielt ist, oder eben nach ner zeit langweilig wird...
 
@Rikibu: Für mich muß ein Spiel an dessen Handlung ich teilnehmen soll vor allem eine Geschichte erzählen in die ich mich reindenken kann. Das macht Crysis und das macht auch CoD4. Im Rahmen dessen sollte auch der Realitätsgrad stimmen, zu dem Grafik und Physik beitragen. Die supertollen Kreativspiele die es jetzt für hippe Konsolen usw. gibt wo man im Raum rumhampelt oder mit einem weißen Stöckchen herumfuchtelt lassen mich hingegen kalt.
 
@shaft: Das ist doch ein Grund, um auf eine Spielkonsole umzusteigen. Und je mehr dies dann tun, umso besser würden die Spieletitel werden.
 
@KamuiS: deswegen bin ich mit meiner wii vollkommen zufrieden, die spiele von nintendo sind nicht mal eben nach 7 stunden rum__->zur zeit zocke ich mario galaxy (auch wenns ein bisschen kindlich ist) und es fesselt mich schon seit wochen!!! da brauche ich dann auch keine geile grafik und auch keine physikspielereien.
 
@shaft: Ich kann mich derzeit nicht ganz entschließen, für welche Konsole ich mich entscheiden soll, - denn zwei will ich mir ja auch nicht kaufen. Mal abwarten.
 
@Rikibu: wenn dich sowas nicht reizt dann geh doch mal raus fusball spielen oder ins kino. ^^
 
Ich tendiere zwar eher aus verschiedenen Gründen zu ATI, doch mit der Übernahme hat hat NVIDIA wieder einen Vorsprung gegenüber ATI. Es kommt aber auch auf den Preis für die kommenden Kombikarten und die Unterstützung seitens der Spieleentwickler an. Mich würde mal interessieren was die Übernahme gekostet hat!? NVIDIA Karten sind ja jetzt schon nicht gerade preiswert und ordentliche Stromfresser dazu.

 
Mir war so, als hätte es noch einen zweiten Anbieter von Physikkarten gegeben. Wäre ja dann ein zwingend logisches Geschäft für AMD/ATI :)
 
@esvn: Es gab die Havoc Physik Engine - schon lange vor Ageia von Intel aufgekauft worden und damit wohl kaum verfügbar
 
@esvn: Exakt. Die Source-Engine verwendet diese Engine.
 
@Schnubbie: Ah, das war es, dankeschön.
 
@Rikibu: Sehe ich genauso. Immer mehr Blendwerk und weniger Spielinhalt...
 
Zuviele Dinge auf einem Chip oder in einem einzelnen Produkt zu vereinen halte ich nicht für gut. Geht nur das eine kaputt kann man alles wegschmeißen oder teuer reparieren/ersetzen. Zudem sind gerade diese mit vielen Funktionen versehenen Chips doch recht anfällig (siehe die Bugs bei den CPUs von AMD und Intel). und je komplexer etwas wird, je mehr Funktionen es haben soll, desto größer die Chance, dass irgendwas nicht voll funktioniert und man später nur Probleme hat. In der heutigen Zeit der kurzlebigen Produkte sowieso. Mir ist es lieber ich kann etwas kombinieren, mir so zusammenstellen, das es meinen Anforderungen genügt. Zudem kann ich so auf den Stromverbrauch und die Wärmeentwicklung und die Geräuschkulisse zumindest ein wenig Einfluss nehmen. Außerdem schränkt die Vereinigung auf nur einem Chip eines Herstellers die Verbreitung ein. Es gibt verdammt viele Leute die sich auch in Zukunft eine AMD Karte kaufen werden. Imho ist nVidia besser beraten (zumindest) ebenfalls eine separate Karte anzubieten. So hat man auch einen Verkauf der PhysX-Karte an AMD-Käufer erzielt. Und das ist besser wie gar nichts verkauft zu haben, schließlich werden gerade AMD-Fans nicht einfach so ihre Lieblingsprodukte gegen die der Konkurrenz austauschen :)
 
Zugegeben, seit der 88-er Serie von nVidia bin ich von ATI abgewandert, und auch zufrieden. Aber dieser Deal is sinnlos.
Bereits nächstes Jahr kommen die ersten 8-Kern-CPU´s (oder sogar früher?), und heute werden kaum 1-2 Kerne von Quads benutzt für Physik. Wozu also das noch auf der Graka? Die Programmierer sinds gewohnt Physik von der CPU machen zu lassen, und mit steigender Kernzahl ist das auch kein Problem. Also _wozu_das ganze auf die Graka legen?
 
Auf jeden Fall eine sehr Interessante Lage die sich da jetzt auf tut.Was macht ATI und was machen die Speilehersteller? Werden Physikchip Patente von NVidia gekauft, forscht ATI nach einer eigenen Lösung, werden Spiele genau so gut auch spielbar ohne PhysikX sein...
 
@Dario: Gute Frage. Zu bedenken ist auch, dass die Grafikkartenhersteller mit ihrer TEchnik meist weit vor ihren Treibern liegen. Crossfire und SLI haben oft immernoch Probleme, die ATI 2870x2 wird kaum ausgenutzt, und nun noch PhysiX.
Ganz zu schweige von der Unterstützung dieser vielen Techniken durch die Spielenetwickler.
 
Sofern sich das nicht nachteilig auf Preis und Stromverbrauch auswirkt finde ich die Lösung ja gut, die Grundidee der PhysiX Karte ist ja nicht schlecht.
Fragt sich nur ob das ganze im Zeitalter der 4-Kern CPUs bzw in 1-2 Jahren 8-Kern CPUs noch sinnvoll ist.
 
Sehr schön. Bis ich ne neue Grafikkarte brauche ist hoffentlich schon ein Produkt mit zusätzlichem Physikchip verfügbar. Allerdings sollte die Karte dann nur unwesentlich mehr Strom benötigen und unwesentlich mehr Wärme produzieren. Ansonsten nehm ich wieder ne Normale.
 
Und jetzt kauft AMD nVidia auf und danach wird AMD von Intel gekauft und Apple übernimmt Intel wird kurz darauf von google verschluckt und danach kommt Microsoft und kauft google :]
 
@candamir: Ack. Dann haben wir Monopolkapitalismus in seiner schönsten Form :)
 
Ich hoffe nur das Intel ihre Havok Engine an AMD/ATI lizenziert, da ATI/AMD ja angeblich auch die Crossfire Technologie an INTEL lizenziert hat und NVIDIA sich standhaft dagegen wehrt ihre SLI technik an INTEL weiterzugeben.

ATI/AMD wollten, soweit ich gehört habe, schon immer Physik auf der GPU machen, ohne jetzt zusätzlich einen Physikchip in die GPU zu integrieren.
Von daher ist es vorstellbar das Intel und ATI einen Lizenztausch machen, dann hat es NVIDIA wider schwerer.
 
@x2-3800: Havok ist ne Softwareengine die vom Prozessor berechnet wird, es wird zwar immer wieder Werbung gemacht es könnte mit der GPU auch gemacht werden aber dabei sinkt a) Die FPS-Zahl weil die GPU eher für Grafik optimiert ist und nen Haufen Grafikpower für andere Berechnungen einbüßen müsste was nich optimal ist. und b) es wird nicht Grundlos in Spielen bisher nur Ragdolls, paar rumstehende Flaschen/Fässer etc. damit realisiert weil das Ding für viel viel mehr nix taugt, die AGEIA Hardwarevariante hingegen schon. Ein weiterer großer Unterschied zwischen den Beiden ist, dass man die Havok-Engine erst SEHR Teuer lizenzieren muss während die AGEIA SDK frei für jeden zugänglich und benutzbar ist (bisher wenigstens) und die sich erhoff(ten) mit den Kartenverkäufen das Geld zu machen. Ich hoffe das bleibt unter NVIDIA genauso während der Support und die Entwicklerliste ansteigt.
 
Hmm - könnte lukrativ werden. Von wegen vereint - vereinen möchte man die Gewinne.
Könnte mir sehr gut vorstellen, das NVIdia die PhysX eher in die Mainboardchipsätze integrieren, als zweites Dezidierte PhysX Chips für die Onboardmontage, und zum dritten PhysX Nachrüstkarten wie bisher anbieten werden.

Mit den technischen und produktionstechnischen Möglichkeiten von NVidia seh ich so das beste Produktportfolio und die beste Möglichkeit für NVidia im Gamingbereich die Marktführung zu halten und auszubauen. Und ordentlich abzuscheffeln. lol.
 
Naja... ich hoffe dadurch werden nicht die Preise nochmal um 100 Euro pro High-End-Grafikkarte steigen, ich möchte nämlich nicht 600-700 Euro für eine neue Grafikkarte bezahlen, die 500 sind schon genug!
 
Das wissen die Californier. Schon 3DFx hat gezeigt, das NVidia nicht unüberlegt einkaufen, und die erworbenen Patente klug zu vermarkten wissen.

Der PhysX Chip ist kein Technologisches Wunderwerk - bloss ein Schaltkreis mit spezialisierter Funktion. Nichts anderes als ein Grafikchip, oder Onboardsoundchip oder irgend ein anderer Funktionsbaustein.

Ihn in eine GPU einzubauen ist überflüssig - 1. unterstützen NVidia GPU ab G80 betreits Physikberechnung, 2. würden durch eine zusätzliche Intergration die kritischen Parameter wie Diegrösse, Stromverbrauch und Wärmeentwicklung unnötig forciert.

Also wird man, wie in Vergangenheit üblich, die bewährten technischen Lösungen, wie Intergration in NVidia Mainboard Chipsätze, Onbordchips mit PCI(E) Anbindung für die anderen und Nachrüstkarten anbieten.

Der einzige Unterschied wird sein, das NVidia die Chips 100 mal billiger produzieren werden, als Ageia das jemals konnten.
MICH FREUTS - Die Physikchips halt ich für die folgerichtigste Neuerung seit der Einführung von FPU(mit dem Intel 486) und dem 3D Grafikchip.
 
@Genghis99: Das ist natürlich auch eine möglichkeit...den Chip direkt im Chipsatz zu verfrachten und damit seine Mainboardchipsätze besser unters Volk zu bringen, aber bevor das losgeht sollten sie erstmal dafür sorgen das ihre Chipsätze wider passiv kühlbar werden, ein Grund warum ich jetzt einen FX790 von AMD habe
 
@Screemon
Nee glaub ich nicht, da das Integrieren erstmal das meiste Geld kostet, danach entstehen keine weiteren Mehrkosten.
Du kannst nicht einfach den Preis eine Physics Karte auf den Neupreis einer Grafikkarte draufrechnen!

Bei einer Integration in die CPU spart man sich den Extra RAM Speicher und eine extra Platine, man kann sogar damit rechnen, das die PGPUs Pinkompatibel zu derzeitigen GPUs werden.
Das heist, man spart sich unheimlichen Entwicklungsaufwand bei allen was außerhalb der GPU stattfindet.
 
Intergration ist ja allgemein ein Thema - so plant AMD ja die komplette GPU in die CPU zu integrieren. Das spart zwar die die Datenwege zwischen CPU und Grafikkarte - wird wohl aber zu gewaltigen CPU Kühlern führen. Wird sich zeigen obs machbar oder ökonomisch ist.

Das ist ja der Punkt mit den bewährten technischen Lösungen die ich angesprochen habe. Alle an der Produktion von Hardware Beteiligten kennen sich damit aus, haben sowas 1000 mal realisiert, und vor allem kennen sie die Kosten genau und können so präzise kalkulieren.

Sie werden es so machen - weil sie es immer so machen.
 
@X2-3800 : Mit dem nächsten Shrink (verkleinerung Strukturen - Produktionsprozess) haben alle Chipsatzhersteller die Wärme wieder im Griff. Und die nächste Ausbaurunde geht los. lol.
 
Da fällt mir ein, bei meinem Spiel "Shadowgrounds" wurde, wenn ich mich recht erinnere, eine Ageia-Physik-Engine installiert, obwohl ich so eine Karte nicht besitze. Aber warum muss man diese Engine dann installieren ? - Übrigens ein nettes Ballerspiel.
 
@KamuiS: damit dein cpu auch weiss, was er da an Physik berechnet
 
@pogona2.0: Jetzt ist der Groschen gefallen. Der CPU kann diese Engine berechnen, allerdings eine externe Karte würde dies halt beschleunigen, bzw. den CPU entlasten.
 
@KamuiS: geht doch... :-)
 
Solange das dann nicht "zwei halbe Sachen" werden (sprich All-In-One Karte mit bescheidener Leistung wird als High-End verkauft).
Ich denke das sollte man getrennt lassen und halt etwas verbessert & günstiger anbieten, statt alles auf eine Karte zu packen und dann zwei halbe Sachen zu haben. Meine Meinung :-)
 
Wird ja auch langsam Zeit, dass jemand deren elendige Schattenexistenz mal beendet und die Marktfähig macht ^^ Die haben es ja versucht mit Cell Factor was ein relativ geiles Spiel war aber an Mehrspielermodus mangelt um nen Knaller zu werden und bessere Framerates und Warmonger, was Sie auch beides kostenlos bereitgestellt haben, dann noch "Integration" in UT3, Ghost Recon etc. was aber nur zu bissl realistischeren Explosionen führte. Ich freu mich auf jeden Fall schon jetzt auf die GeForce10 oder nForce8 mit extra PPU auf der Platte...

Man kann nämlich vor allem bei Flüssigkeitensimulation (Lava, Wasser was man dann mit nem Glas aufheben kann und woanders reintut, Psikräfte etc. um Wasser zu verformen, Wasserfälle zu spalten etc.)
http://www.youtube.com/watch?v=o07KjfBx8GE und Stoffen (wehende Banner, Teppiche die im Wind hängen, Vorhänge etc.)
http://www.youtube.com/watch?v=v8LpC0rrUC8 mit so nem Physikprozessor einiges machen und um einiges besser als ein QuadCore weil er spezialisiert ist, allerdings wird sich für die paar Effekte fast keiner ne 100€+ Extra Steckkarte kaufen, bei mir wär mit GraKa, SoundKarte und TVKarte nicht mal mehr Platz dafür frei aufm Board.
 
@D3xter: Der NVIDIA Pressrelease hat die Überschrift "PhysX on GeForce Will Bring Amazing Physics Dynamics to Millions of Gamers", also wohl doch eher die GeForce10 Variante :P
Und weiter:
"By combining the teams that created the world's most pervasive GPU and physics engine brands, we can now bring GeForce®-accelerated PhysX to hundreds of millions of gamers around the world."
 
Und wie sich beim G200 (250 Watt - Nvidia hat einen KNALL!!!) schon zu andeutet, wird man dann nur für die GraKa ein eigenes Netzteil benötigen ...
 
technisch lässt sich sowas auch bereits jetzt mit den GPUs realisieren, was der PhysX-Chip kann.
 
i have a dream => GF 10,000 serie : Dual GPU+ Dual Ageia auf einer karte xD NARF
 
Ich hoffe mal das nun der Rechtsstreit um die Linuxunterstützung begelegt werden kann mit Hilfe von NVidia und die Linux Version von UT3 dann released werden kann.
Bisher muss das ja noch zurüch gehalten werden, da die in der UT3 Verwendeten Features ja nur mit dem Ageia Treiber laufen und dieser durfte aus irgendwelchen Gründen nicht auf Linux portiert werden.
 
Die Schnittstellen von Grafikkarten sind schon heute fast grenzenlos programmierbar. Also rein theoretisch könnte man mit der richtigen Software da auch Psysikberechnungen mit durch führen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles