Nvidia Grafikkarten bald mit Physikberechnung

Hardware Der Grafikkartenhersteller Nvidia hat sich mit dem Physik-Spezialisten Havok zusammen getan, um ein Software-Paket zu entwickeln, dass Physikberechnungen auch auf aktuellen Nvidia Grafikchips zulassen würde. Das sogenannte Havok FX Paket soll im ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
"...obwohl nicht klar wurde, ob tatsächlich Shader-Berchnungen nötig sind, um Physikmodelle zu errechnen."

Der war gut, musste echt lachen ^^. Die GPU ist wohl nur über Shader programmierbar, wie soll das sonst gehen :D.
 
Wie schon so oft gesagt der Trend geht Richtung Realismus pur in Spielen und wenn nVidia sowas jetzt auch kanns ja nur gut sein, weil Konkurrenz im Gesunden Ausmaß (was ja bei Grafikherrsteller der fall ist) belebt das Geschäft.
 
viel mehr würde ich davon halten wenn die grafikkarte der cpu zb beim rendern unter die arme greifen könnte aber das kommt ja angeblich erst mit vista
 
@onkel4u: Der Satz ist nicht dein ernst oder?
 
@onkel4u: löl, weist du was du da schreibst?
 
@onkel4u: erkundige dich zuerst was eine Grafikkarte tut und dann schreib erst deinen senf.
 
ja ich weiß was ich schrebeibe :)
ich meinte dass die graka der cpu beim rendern außerhalb von spielen hilft. bei der videobearbeitung zb ! so :)
 
@onkel4u: Ich glaub das bezieht er auf Raytracing Programme wie Lightwave, 3D Studio Max, Maya usw.
 
@onkel4u: ich glaube das du dich ein wenig unglücklich ausgedrückt hast du meinst bestimmt das rendern in CAD anwendungen wie Blender oder AutoCAD. Und dort gibt es wirklich die überlegeungen dies zu realisieren dazu wird dann aber ne PCI-Express Grafikkarte vorrausgesetzt. aber ob da wirklich was passiert ist zu bezweiflen
 
@onkel4u: Wie meinst Du das, dass das erst mit Vista kommt? Weil dort die GUI von der Graka berechnet wird? Nun, das ist meines Wissens auch bei älteren Windows-Versionen schon der Fall. Bei älteren Windows-Versionen basiert die GUI auf GDI und GDI wird zumindest zum Teil von Grafikkarten in Hardware realisiert,
 
ja wie gesagt habe ich mich unglücklich ausgedrückt.
im besonderen meinte ich jetzt anwendungen wie c4d und vor allem videocodierungen.
so wie ich das aufgeschnappt habe wird die gui erst mit vista deutlich von der gpu unterstützt.
egal. ich denke jetzt haben wir alle verstanden was ich letztentlich sagen wollte ^^
 
Mhhh...es mag eine weitere gute Innovation sein, doch stört es mich, dass es dann nur mit NVidia-Karten läuft. Was ich sagen will: Wird sich die Sache durchsetzten, dann wird ATI in ähnlicher Weise nachziehen und somit gibt es 2 verschieden "Geschichten". Vielleicht wird dann das eine Spiel nur NVidia-GraKa unterstützen, das andere ATI oder die Entwickler implementieren beides - was die Spiele noch teuer werden läßt.. Jeder macht sein Süppchen und es könnte wie bei Blue-Ray und HD DVD enden.
 
@mr.return: ....oder ATI lizensiert die Technik/die Patente für viel Geld...
 
@mr.return: Nein, denn..... "Eine nVidia-Karte braucht man trotz der Entwicklungspartnerschaft nicht unbedingt, um in den Genuss der „Havok FX“-Effekte zu kommen. Voraussetzung ist lediglich die Unterstützung für das Shader-Model 3.0 durch die Grafikkarte, was seit dem R520 auch bei ATis Karten der Fall ist." Quelle: Computerbase.de......... Also entweder Winfuture oder CB hat hier einen kleinen Fehler gemacht. :P Edit: Da war wohl einer schneller! :-)
 
@DraGoNiR: Aha, danke! So wie es unten auch noch Nero FX geschrieben hat, steht die ganze Sache doch nun in einem völlig anderem Licht. Man muss wohl leider doch erst 10 Newsseiten durchblättern. *grml* :-)
 
immernoch besser als die zusatzkarten die slots/ leeren raum belegen
 
@ Autor

Das ist unvollständig (Laut Computerbase.de)! Havok FX kann von jeder Grafikkarte mit Shader Modell 3.0 genutzt werden auch mit ATIs X1000 Serie!
Trotzdem super nieder mit "PhysX"
 
@Nero FX: also für einen guten Artikel verzichtet nim dann am Besten auf ein paar "Nvidia" jeweils vor "Grafikkarte" (aus inhaltlichen Gründen). Auf ein "s" am "dass" in der 3. Zeile (aus orthographischen) und ersetzt dringend im 4.Absatz auch ein "durch" und ein paar "sollen" (aus stilistischen Gründen). :-)
 
@Nero FX: Du Schwätzer. Was die Graka an Physikdaten berechnet, fällt schon für die Grafik flach. Lieber ein Physik-Prozzi, der dann einige notwendige Funktionen in Hardware oder Microcode beschleunigt.
 
@Aspartam:
Achja und was ist mit den Zusätzlichen kosten (auch Strom) die ein PhysX bringt? Zusätzlich bringt es Latenzen (muss ja durch den PCI Bus) und ist wieder ein Krachmacher und Wärmeerzeuger. Auf sowas kann ich verzichten will aber auch aktuelle Spiele anständig Spielen können. Und jetzt wirds vielleicht noch durch Shader berechnet aber morgen gibts vielleicht schon nen Teil in Hardware. Man muss es so sehen Lieber 10-20€ auf die Graka drauf die muss man so und so kaufen (regelmäßig wenn man UptoDate sein will) Statt ne Extra Karte mit oben genannten Eigenschaften für 130€
 
@Nero FX: Du bist genauso die Sorte Besserwisser, die immer alles besser und vorher weiss, in wirklichkeit aber immer nur motzen kann. Du hast 0 Ahnung von der Materie. Woher weisst Du denn, wie heiss ein Physikprozessor wird? Dass man PCs leise kühlen kann, hast Du wohl auch bis heute nicht gemerkt, Du 'Experte'. Das wird genauso wie mit den Grakas: Es gibt für jeden was. Wenn jeder so gedacht hätte wie Du, als die Voodoo 1-Karten von 3dfx für ein Schweinegeld rauskamen, hätten wir heute noch keine hardwarebeschleunigte Grafik für stinknormale Desktop-PCs oder gar Notebooks (die gäbs dann auch nicht). Wenn man mehr Realismus und bessere grafische Effekte haben will, kommt man um so was nicht herum, und die Zeit ist reif und es ist machbar. Ach Gott, und die Latenzen! Weisst Du, der Trick ist mehr Rechenzeit zu sparen als der Datentransport wieder kostet. Ausserdem hast Du doch keine Ahnung, wie man solche Berechnungen effizient abwickelt. Typen wie Du sind eine Plage. Mosermosermoser.
 
@Aspartam: Ich will doch eher hoffen das die Dualcore technik dazu genutzt wird Physik einem Spiel beizusteuern als weitere Mistkarten im System. Ich hasse PhysiX wie die Pest. Sollen die an Ihrem Karten ersticken. Hoch lebe Dual Core
 
@Aspartam:

ach und du weisst natürlich alles..Die Erkenntnisse Stammen aus Tests mit der PhysX Chip unter anderem von PCGames Hardware. Und auch da wurde bewiesen und auch von der Firma selbst gesagt das Wärme produziert wird die ähnlich einer schwächeren Mittelklassengrafikkarte ist und die Karte (samples) hatten ja auch ne Kühlung (aktiv und Laut).
eigendlich bin ich niemand der motzt aber das nervt immer mehr Firmen meinen sie müssen neue Karte rausbringen und saugen sich was aus den Fingern. Und wenns die Karte für 20€ gibt meinetwegen aber ich zahl keine 130€ wie angekündigt. Dann lieber ein paar € auf die Graka und fertig. Und wie auch mein Vorredner sagte nutzt den 2. Kern der Dualcore Prozis.
 
@Nero FX: Mehr zu wissen als Du ist wirklich kein Kunststück. :P Keiner zwingt Dich, die Karte zu kaufen. Wärme wie ne *schwächere* Mittelklasse-Graka? Soll das ein Witz sein? Die werden doch nicht heiß, die kann man passiv kühlen! Das ist heute doch ne Standardübung, laute Lüfter durch leise zu ersetzen. Jedenfalls ist es Quark, die Physikberechnungen in einem Spiel auf der Graka laufen zu lassen, wenn die sowieso schon am Anschlag ist. Merke: Gerade die Physikberechnungen benötigen Bandbreite zw. GPU und CPU, denn die Daten müssen auch wieder zurück. Lies doch erstmal nach, wie derartige Berechnungen überhaupt funktionieren, bevor Du versuchst, anderen was zu erzählen. Evtl. können Multicore-CPUs sowas natürlich auch locker reissen - wenn Sie dann nicht wieder andere Aufgaben zu erledigen haben (endlich mal ne KI, die den Namen auch verdient, wäre doch mal was). Ich bleibe dabei: Statt mal nachzudenken, moserst Du nur rum. :P
 
geforce 6/7? bis das ma alles richtig läuft macht das auf den karten doch e keinen sinn mehr... die 6 komm doch jetzt schon an ihre granzen und wenn sie dann noch die physik berechnen solln.. xD
 
Papa Papa ich brauch ne Geforce 89ooXTE Super Extrem Edition.
Kostet zwar 1200€ aber ist für mein physik LK :)
 
@schepp: selten mich so weggekloppt hehe
 
na endlich
 
Ati hat bereits seit 1 Monat angekündigt das ihre bisherigen Karten per Software update ebenfalls PhysiXX machen .... also hat hier NVIDIA defintiv nicht die Nase vorn... sondern nur wieder in der Not nachgelegt und digge an die grosse Glocke gehängt!!!
 
@vvjy2k: jepp damit sind wir wieder beim begriff marketing :)
 
Natuerlich geht das über Shader, das ist doch der Trick. Die können einen Haufen Daten parallel berechnen. Man lädt die Daten in eine Textur, die kommt in die Rendering-Pipeline, aber die zuständige Shaderprogramme machen eben keine Grafikeffekte, sondern physikalische Berechnungen, deren Ergebnisse wieder in der Textur landen. Sowas ist doch schon Standard. Und das geht im Prinzip mit jeder leistungsfähigen Graka. Shader 3.0 erlauben hier schlicht mächtigere und schnellere Programme.
 
Alles Mumpitz. Die Grafikkarten werden schon genug gefordert. Da wäre eine eigene Physikkarte wohl sinnvoller. Zumal die dann wohl auch leistungsfähiger sein kann.
 
Wenn man sich die Videos anschaut, sieht man, warum so eine Hardware sinnvoll sein kann ... stellt Euch doch mal vor, in einem Spiel wären wirklich alle Objekte and Elemente manipulierbar, und zwar ohne dass sich die Entwickler dafür einen abprogrammieren müssen! Sowas geht mit einer Software-Lösung (heute) einfach nicht.
 
@Aspartam: Sehe ich genauso. Und wo implentiert man für Games wofür es gedacht ist sowas am besten, klar in der Graka. Hardware-Lösungen oft einfach schneller als Software. Siehe VMWare und Pacifia.
 
@Jackal: In der Graka? Weil die bei Spielen ja sonst nichts zu tun hat?
 
$$$Newsticker$$$ Wie gerade eben in Erfahrung gebracht werden konnte, planen ATI und nVidia eine Integration der CPU auf der Grafikkarte in der GPU. Zusätzlich kann man dann auch auf den RAM auf dem Motherboard verzichten. Der Grafikkarten RAM ist um ein vielfaches schneller und durch die Integration der CPU in die GPU reduzieren sich auch die Wege. Zusätzlich ist auch angedacht, die North- und Southbridge gänzlich wegfallen zu lassen. Diese Arbeiten kann ebenfalls die hochspezialisierte GPU übernehmen. Wie so eben Creative bekannt gab, werden auch die Soundchips der neuesten Generation auf den nVidia und ATI Grafikkarten verbaut. Laut einem Sprecher von ATI will man demnächst gänzlich auf das Mainboard verzichten und alles in einem Prozessor unterbringen. nVidia provezeiht sogar eine neue Ära des Personal Computers. Statt wie bisher viele einzelne Komponenten zu verwenden, wird alles in einer All-in-one Lösung angeboten. Auch ein großzügig dimensionierter Flashspeicher wird auf den neuen Multi-GPU-Karten Einzug erhalten. Als Betriebssystem kommt dabei ein von ATI, für ATI Karten und ein separates OS von nVidia für nVidia Karten zum Einsatz. Microsoft plant ähnliches und steigt auch in das Hardwaregeschäft mit ein. Linux dürfte es in soweit schwer haben, da eine entsprechende Anpassung des OS auf die Hardware nicht mehr funktioniert. Der verwendeten 5 GBit Verschlüsselung sei Dank. $$$Newsticker$$$ Quelle: Planet Utopia GmfI, Schöne-Neue-Welt-Straße 66, 10815 Fantasien
 
@candamir: Mit stellt sich momentan nur die Frage, was an einer Integration in der Graka sinnvoll sein soll? Die Grafikanforderungen steigen doch ohnehin und wenn die Shader von der Grafik derzeit beansprucht werden (z.B. bei einer Explosion), dann fehlt die Performance für die Physikberechnung. Was gerade bei einer Explosion zu einer Dia-Show verkommen dürfte. Man versucht alles zu spezialisieren um die Aufgaben entsprechend ihren Anforderungen besser, schneller und eben optimiert abarbeiten zu können und dann will man auf der Graka auch noch weitere Aufgaben abarbeiten? Nein Danke! Ich stehe dieser Lösung eher skeptisch gegenüber und vertraue da mehr auf die entsprechende Ausnutzung von Dual-Core CPUs oder der PhysX Karten Lösung. All jene, die meinen der Stromverbrauch und die Wärmeentwicklung würden dann so sehr ansteigen, muss ich fragen, ob die bei der Grafikkarte benötigte zusätzliche Leistung in Form von aufwendigen Physikberechnungen keinen höheren Stromverbrauch und zusätzliche Wärmeabgabe nach sich zieht. Wenn die Grafikkarte die Shader nicht braucht, dann werden die ja auch nicht benutzt. Werden sie gebraucht, dann wird entsprechend mehr Leistung dafür benötigt. Werden die Shadereinheiten bei zukünftigen Karten erhöht, um den Anforderungen der Hochleistungs Grafik und Physikberechnung gerecht zu werden, so steigt auch der Stromverbauch und die Wärmeabgabe. Aber mal schauen, vielleicht klappt es ja doch. In jedem Fall sollte man sich eine EXTREM LEISTUNGSSTARKE Grafikkarte besorgen. Am Besten Crossfire oder ein SLI Verbund, schließlich "[]... rät Havok zu einem rechenstarken Modell, da schwächere Karten in der Regel bereits genug mit den herkömmlichen Grafikberechnungen zu tun haben." Womit meine o.g. Bedenken zutreffen dürften und ich mir somit lieber ne Dual-Core oder gleich eine PhysX-Karte kaufen werden :)
 
@candamir: Naja... sooo schlecht finde ich den Ansatz nicht...

Wie fändet ihr das denn?`Wenn es ein Motherobard gäbe mit einem Zusätzlichen Socket z.B. GPUs und weitere RAM Plätze für Grafikspeicher?

Die Zukunft würde so aussehen, das man CPU, GPU, RAM und GRAM so tauschen und erweitern könnte wie man das will!

Wenn GPU zu langsam wird halt "nur" eine GPu gekauft und getauscht... wenn zu wenig GRAM dann einfach einen Zusätzlichen Riegel rein oder ganz austauschen!

Wege wie z.B. so läßtige PCIe steckplätze würden wegfallen etc.

Genauso könnte man das evt. mit dem Sound machen oder so :-)

Man müßte sich natürlich auf feste Sockets für GPU und Sound einigen... wie auch immer.

Machbar wäre dies bestimmt und ich glaube sooo falsch wäre so eine Lösung nicht!

Oder was meint ihr?
 
@candamir: lol, dann holt man sich ne SLI-Lösung, nur damit die 2. Graka die Physik machen kann, rofl! :) Hauptsache, keine weitere Zusatzkarte, gell Nero? :P
 
Da frag ich mich nur noch, wieso in meinem Rechner ne dicke CPU mit genügend Rechenpower werkelt, wenn doch nur noch die GPU auf der GraKa so wichtig ist und jeden erdenklichen Sch.... berechnen soll. naja, hat doch was, kann ich in 2 Jahren wieder meinen alten 386er verbauen :D
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte