Nvidia: Physik-Treiber für GeForce 8 & 9 ist fast fertig

PC-Spiele Als Nvidia im Februar 2008 die Firma Ageia übernahm, war jedem klar, was der Grafikkartenhersteller mit dem Spezialisten für Physikeffekte vor hat. Nvidia will die PhysX-Technologie von Ageia für seine eigenen Produkte nutzen, um sie für die ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Welche Modelle sind denn genau CUDA-fähig? Und jetzt antwortet bitte nicht mit "GeForce 8 & 9" ^^
 
@BuZZer: Ja man kann dir nur damit antworten, weil CUDA seit der 8er Reihe und Quadro 5700 verwendet wird.
 
@BuZZer: Grakas die mit 8 oder 9 beginnen: 8800 ultra, 9600 gt...
 
@BuZZer: AFAIK alle GPUs ab der G80.
 
Ich könnte mir vorstellen, das Nvidia diese Technik zusammen mit Valve auch in die Source Engine portieren will, nachdem sie schon erfolgreich ATI aus der Liste der Valve-Partner gekickt haben.. hab mir grad mal auf der ageia website n bisschen die technik angeschaut und muss sagen: nice
 
Das wäre doch fett. Ist in UT3 drinnen der Ageia schiss, und wenn sich das nun auf meiner 8800er Gts nutzen liesse... das wäre fein.
 
Das wäre doch richtig cool, vor allem weil ich 2 Geforce 8800 GT mit jeweils 512 MB im SLI-Modus am laufen habe. Das gibt ordentlich Power bei den unterstützten Spielen (z. B. UT3)...
 
Braucht man dazu SLI und die eine Karte wird einfach zur Physikberechnung genutzt und die zweite sorgt für die normalen Grafikberechnungen oder geht das auch mit einer?
 
@bricKed: das frage ich mich auch, ich denke allerdings, dass man (selbst wenn es auch nur mit einer karte geht) nur mit SLI in den vollen genuss kommen wird, wenn eine karte als reiner beschleuniger arbeitet *erinner mich grad an voodoo 2*
 
@bricKed: ich schätz ma au das es im SLI oda T-SLI modus recht geeigneter wäre da dann eine karte nicht grafik und physik berechnen muss und somit auch net soviel performance drauf geht.. fein wäre es natürlich auch wenns nvidia hinbekommt das man eine gute performance auch mit einer einzelnen karte ermöglicht aba ma abwarten was da draus wird
 
@ dj-corny: Dann wäre es doch aber preislicher Schwachsinn, 2x250 Euro auszugeben, wenn ich momentan eine reine Physik-Karte von Ageia für unter 100 € bekomme.
 
@tommy1977: wenn du mich fragst ist es für mich schon schwachsinn, 250 für ne grafikkarte auszugeben :) aber so hat jeder andere vorstellungen
 
@dj-corny: man muss ja nicht jedes monat sich ne neue graka zulegen^^ @ tommy1977: werden die karten eigentlich no mit treiber unterstützt von nvidia? weil wenn nich bringt dir au ne physik karte nix die du dir kaufst wenn se keinen support mehr für geben :P
 
@Punisha2611: hab ich gesagt, dass ich mir öfters ne neue karte zulege? nö... ich brauch nur keine high end hardcore grafikkarte. für meine anwendungen tut es meine kleine 8300 wunderbar.
 
@dj-corny: ne, aber typen wie du müssen immer wieder ihren schwachfug hier mitteilen. wenn du mit solitär und minesweeper glücklich bist ... hey, np. freuen uns für dich. Aber auch dir sollte klar sein, das manche User auch Spiele mit Grafik geniessen wollen.
zur news: ich fänd es sinnvoller wenn man solch einen treiber für die diversen unterbeschäftigten quadcore cpu's rausbringen würde. beispiel crysis: grafikkarte volle last, derweil cpu bei 25%-50%.
 
@arghlolrofl: guuut, an deinem kommentar merk ich, dass du nicht einen funken verstanden hast... denn: wow.. ich habe für mich selber gesprochen. mir ist es doch latte, ob ihr 5, 50, 500 oder wasweissich für ne grafikkarte ausgebt. für mich selber brauche ich so etwas nicht. damit sage ich allerdings auch nicht, dass ich andere leute deswegen verurteile oder neue techniken deswegen als scheisse betrachte.. sondern nur, dass ich es für meinen teil nicht brauche... und dafür ist ja wohl eine kommentarfunktion da.. um einen kommentar abzugeben.. die definition zu "kommentar" kannste dir ja gern bei wiki durchlesen -.-
 
@dj-corny: man muss nicht viel geld für eine gute GraKa ausgeben, für meine 9600 GT habe ich nur etwa 120€ ausgegeben.
 
@dj-corny: Hast du schlechte Laune? Mit deinem Kommentar, dass 250 € für ne Graka Schwachsinn sind, implementierst du in diejenigen, welche das Geld ausgeben, dass sie schwachsinnig sind. Es kommt doch immer auf den Anwendungszweck an...momentan hab ich auch ne 8800GT (1GB) im Rechner und würde mir bei entsprechender Unterstützung in absehbarer Zeit auch noch eine 2. einbauen. Ich zocke eben gern in hohen Auflösungen mit FSAA und AF. Zum Thema Treiberunterstützung...das war rein rethorisch, nVidia könnte ja ebenso die PhysX-Karten unter eigenem Namen weiterhin verkaufen und somit einen Teil der Kosten für ne 2. Graka sparen. Aber das ganze scheint irgendwie rentabler zu sein, wenn man gleich 2 Grafikkarten verwendet...ist wahrscheinlich eine Frage der Skalierbarkeit.
 
@tommy1977: 1: okay, ich geb dir recht. ich hätte bei meinem comment noch "für mich" dabeipacken sollen... 2. hättest du RE:8 gelesen, hättest du das auch gewusst... 3. nö, keine schlechte laune. nur find ichs kacke, dass hier so sehr vom eigentlichen thema abgeschwiffen wird. das thema war (in diesem antwort-comment zumindest), ob man dafür SLI verwenden muss oder nicht, und nicht, ob es dann blödsinn ist, dafür so viel geld auszugeben
 
ma ne frage am rande, will mirn neuen rechner zusammenstellen, meien fx5900 tuts nich merh ^^
was für ne graka könnt eich nehm von nvidea ? 9800gtx oda doch ne 8800gts bzw gtx ?
 
@System_9: im moment würd ich dir ne 8800ter ans herz legen da die 9800gtx auch nich grad viel schneller sind laut diversen tests und die 8800gtx z.b. kostet auch nicht viel mehr wie die 9800 gtx :) aba musst du selber entscheiden was die persönlich mehr liegt :)
 
@System_9: Ich würde Dir ein System mit Onboard und ner 9800 gtx Graka empfehlen. Dann haste Hybrid-SLI und sparst mächtig Strom wenn im 2D-Modus (z.B. beim surfen, Textverarbeitung) die 9800er vom Strom getrennt und auf Onboard gestellt wird.
 
@System_9: ... wenn du bisher noch immer eine fx5900 benutzt hast, würde ich dir zu einer 9600GT ab 110 Euro raten. Eine besseres Preis-Leistungsverhältnis wirst du im Augenblick nicht finden, und wenn du Power zum kleinen Preis willst, nimmst du 2 davon in einem SLI-Verbund! Kostet dich dann ca. 220 Euro und spielt jede Ultra locker an die Wand ... siehe http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli
 
An sich ne nette Idee.
 
physik und grafik auf einer krate und gleichzeitig verwendbar ??? das wär ja cool ^^
 
und was ist der 7er Reihe und davor? Da sollten sie mal wieder Treiber einspielen und sich nicht nur auf die neuesten Modelle konzentrieren.
 
@Sebastian: CUDA, das benötigt wird gibt es erst seid den g8x karten.
 
@Sebastian: Glücklicherweise hat Nvidia nur Schrott gebaut. Die Treiber sind echt Trash.
 
Letztlich Kundenabzockerei __ jeder der also in Zukunft PhysX Beschleunigung haben will muß sich so ein grottiges unsinniges SLI system zulegen das dann auch noch dazu dient wieder nur eine Graka fürs Bild und eine für physik zu nutzen. das ganze auch noch mit Energieverschleuderung ... Nur schade das es genügend kleine Jungs mit zu kurzem S* geben wird die das dann unbedingt brauchen...
 
sei doch nicht so neidisch :) ausserdem ist noch garnicht gesagt das man sli dafür brauchen wird
 
@DOCa Cola: ... dir wird aber schon klar sein, daß die Physikberechnung Leistung kostet, oder? Ergo wird deine einzelne Grafikkarte sehr wahrscheinlich Probleme kriegen ...
 
nicht nur die physikberechnung, sondern auch die darstellung der zusätzlich umherfliegenden objekte die bei den meisten spielen mit physx unterstützung hinzukommen sobald man es aktiviert.
 
Ich denke mal das eher mit ner Onboardgraka die Physik und mit der Karte 3D berechnet wird.
 
Ich denke mal, daß man dafür kein SLI benötigen wird, aber ggf. die Framerate aufgrund der Physik-Berechnungen ein wenig leiden wird. Schließlich haben nur die wenigsten SLI. Und die anderen sind weder bereit das Geld dafür auszugeben, noch wollen sie ein unausgereiftes System mit Mikrorucklern verbauen. Ich jedenfalls nicht.
 
ein sch*** auf physiX !!! ich will endlich das meine shuttler brille wieder funzt !!! die sollen sich net querstellen und sich geld von zalman in aa schieben lassen un dann ein stereo treiber für deren monitore machen und alles andere ausschließen.... und warum entwickeln die den treiber net für vista 64 ???? sondern nur 32 .................................................................................................................................. @topic
für die physik berechnung wird man in den nächsten 3 jahren bestimmt noch nicht einmal die komplette leistung einer 8500gt brauchen, es läuft ja bis jetzt auch alles ohne physix wunderbar, das einzige was wäre, wäre eine genauere berechnung des ganzen, wegen nochmehr nachkommastellen die die neuen gpu möglich machen, juckt aber keinen, weil der unterschied schwachsinnig gering für ottonormal wäre ... jetzt kaufen sich alle quads damit die cpu bei spielen noch genug puffer hat und nun werden sie sich noch ne 2. graka zulegen damit der puffer noch gewaltiger wird ......... PS: ich hab ein celeron 420@3,2 werkeln 25€ und eine 8800gt langt bis jetzt dicke für crysis und auch das ach so cpu lastige assassin creed
 
@xenox: Du bist nunmal kein Enthusiast *Kalte Schulter zudreh* :D
 
Wenn man 2 grakas in SLI schalten müsste damit eine die physik berechnung übernimmt, hätte das ganze wieder null sinn! Dann gebe es keinen vorteil einer physix karte gegenüber. Ne graka bleibt ne graka, wenn sie leerlaufprozesse während einer 3D anwendung für physik nutzen können ist das wunderbar. Ich denke hier gehts auch nicht darum, die physikberechnung grossartig zu beschleunigen, sondern eher darum die "erweiterte" physik, die usern überhaupt erst mit einer physix karte zur verfügung standen, zugängig zu machen... Dass erweiterte physik wieder an den FPS eines spiels nagen wird ist wohl klar. Seis nur drum, dass die graka dann wieder mehr partikel zum rendern hat... Aber immerhin steht dem user bei den spielen mit komplexer physik nun frei, ob er sie nutzen möchte oder nicht...
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter