Erste Ageia PhysX-Karte von BFG online bestellbar

Hardware Eigentlich sollten die ersten PhysX-Karten von Ageia nicht vor Mai 2006 im Handeln sein, doch ab sofort kann das Modell vom Ageia-Partner BFG als OEM-Version für 193 Pfund (279 Euro) erworben werden. Wann die Retail-Version verfügbar sein wird, ist ... mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Erst mal warten bis sich die Preise harmonisiert haben und dann wird die Karte bestellt. Mehr als 100€ würde ich für so was aber nicht ausgeben. :-)
 
Hmmm...irgendwie sinnfrei :P

Ist so, als würd ich mir ne Pistole kaufen, für die es noch keine passende Munition gibt ?!
 
@raGE: naja bet on soldier gibts schon nen patch der eine neue waffe hinzufügt die die neue karte verwendet .. sone art plasma werfer. Allerdings finde ich grade flüssige sachen sehen mit dieser engine total bescheiden aus.
 
Ne karte die nur dafür da ist Physik zu berechnen? versteh ich das richtig? alter sonst gab es auch schon immer physik engines ohne extra karte! die neuesten prozessoren sollten doch wohl stark genug sein auch ohne so etwas damit fertig zu werden! das ist nur wieder geldmacherei!
 
@Demolition Man: Hast du das anno 1996 auch gesagt, als die ersten 3D-Beschleuniger Karten auf den Markt kamen? "Ich habe doch eine Grafikkarte... Und mein Prozessor muss schnell genug sein, um 3D Grafik darzustellen?" Selbst eine "nicht-onboard" Soundkarte entlastet die CPU ungemein... Genauso verhält es sich mit einer physX Karte... In der Zeit kann sich die CPU um andere Sachen kümmern... Dazu fällt mir nichts mehr ein...
 
@Demolition Man: Hey, nein eben nicht! Hauptsache mal etwas gelabert aber von nix ne Ahnung haben. Du solltest einfach mal die Fresse halten, wenn du über etwas nicht bescheid weißt. Die CPU die für allgemeine Aufgaben da ist, kann selbst mit Quad- und Octacore nicht an die Leistung dieser spezialisierten, dedizierten Hardware-Erweiterungskarte heran! Dieser PhysX Chip ist speziell auf diese Art der Berechnung ausgelegt, ähnlich wie eine Grafikkarte. Mit einer schnellen CPU kannst du ca. 3000 Objekte gleichzeitig (mit Physikberechnung) darstellen. Der PhysX Chip der 1. Gen schafft aber ca. das 10x, d.h. über 30.000 gleichzeitig darstellbare Objekte. Die CPU ist für die KI und allgemeine Verwaltungsaufgaben zuständig und damit mehr als genug ausgelastet! Somit kann die KI besser werden oder willst du nicht das die Spiele eine größere Herausforderung werden, anstatt immer wieder den gleichen Einstandsbrei? CYA iNsuRRecTiON
 
@Demolition Man: ein vernünftiger Preis muss her... dann ist das was..
 
Also wer sich die Karte vorbestellt (zu dem Preis!), bevor irgendwelche spiele dafür erschienen sind, und diese nicht unabhängig getestet wurden, hat entweder zu viel geld, oder ist ein hardware-freak. Zumal wenn sich die karte durchsetzen sollte, es bis zum wirklichen praxisnutzen wieder neuere modelle geben wird, welche dann wieder x-mal schneller sind. So wie bei den meisten high-end grafikkarten.
 
@beini86: ich glaube nicht, dass das ne grafikkarte ist! Grafikkarten fürs optimum gibts schon genug! Das wird eine Karte sein die einzig und allein die Physik berechnet und das können prozessoren auch nur diese karte ist dafür spezialisiert! Meiner Meinung nach Quatsch!
 
@ Demolition Man:Ich meinte nicht dass das die Karte was mit Grafikberechnung zu tun hat. Ich habe lediglich spekuliert, dass, falls sich die physik-karten durchsetzen, es eine änliche entwicklung hinsichtlich preis und aktualität geben wird, wie bei den Grafikkarten.
 
@beini86: Hey, nein falsch. Mit der Physik ist das anders. Selbst AGEIA schreibt in ihren FAQ auf physx.ageia.com, dass man nicht jedes Jahr eine neue PhysX Karte kaufen muss, wie das z.b. bei Grafikkarten der Fall ist. Ich gehe auch davon aus, dass es eher wie bei Soundkarten wird. Das heißt man hat eigentlich mind. 3 Jahre oder mehr, erst danach lohnt es sich wieder eine neue Soundkarte bzw. in diesem Fall PhysX-Karte zu kaufen. Mit dem Preis gebe ich dir allerdings recht! Dieser sollte nicht höher als bei Soundkarten ausfallen, alles über 150 EUR finde ich zu viel das guten für eine Physik-Beschleunigerkarte bzw. -Chip. Sobald diese Marke unterschritten ist, wird sich die Karte auch viel besser verkaufen lassen :-) MfG CYA iNsuRRecTiON
 
@iNsuRRecTiON: Falls es sich als wahr behaupten sollte, das sich der Produktzyklus der Physikkarten so langsam bewegt, und es in vielen Spielen Vorteile bringt eine solche Karte zu besitzen, wäre es schon eine überlegung wert. Aber wie bereits gesagt, muss das ganze projekt meiner meinung nach erstmal ein wenig "reifen" und eben deutliche vorteile bringen.
 
Ich versteh nur Bahnof.
 
ich geh mal gleich 200 pfund scheißen dann bestell ich mir die karte :)
 
@LittelD: xD
 
Also ich finde diese Engine wirklich klasse, naja hab mir nun auch nur das demo auf der webpage angesehen.... aber 300.-€ das werden sich wirklich nur Enthusiasten leisten :)
 
ich warte lieber erstmal, was aus der physikberechnung über die shader wird, ich denke, für den anfang wird das eine aktzeptable alternative zu den 250€ teueren physix karten sein.
 
ob das die krise der spielebranche rettet?
man sollte lieber neue spiele mechanismen entwickeln und nicht ständig vergeblich versuchen der realität nachzueifern.
wenn ich realität will, geh ich zum schießstand oder setz mich ins auto...
fakt ist, ein spiel mit miesem gameplay wird man durch diese fragwürdige hardware auch nicht aufwerten können...
 
Erinnert mich an die von Matrox angebotene m3D Karte, die seinerzeit mit der Voodoo 2 konkurrierte. Ich meine, ich habe 'damals' 300 Mark fuer auf den Tisch gelegt. Um so enttaeuschter war ich, als ich bei den meisten Spielen erst bei Matrox auf der Homepage einen speziellen Patch / Fix herunter laden musste, damit die Karte einwandfrei funktionierte. Kam ein Patch fuer das Spiel raus, war es damit auch meistens schon wieder vorbei.

Und mal ehrlich: Fuer schlappe 300 Euronen einen ZUSATZKARTE kaufen, ist schon ziemlich happig, oder?

Der aktive Luefter wird auch nicht grade zur Ruhe beitragen. Schade, das man es nicht geschafft hat, die Karte passiv zu kuehlen.
 
Man beachte den zusätzlichen Stromanschluss an der Karte. Wieso nur hab ich das Gefühl das diese Karten eine einzige Luftnummer sind? In Zeiten von Dual- und Quadcore braucht so etwas kein Mensch.
 
@Islander: den Anschluss hab ich komplett übersehen, dann sieht man demnächst nichts mehr durch die gemoddeten Plexis, vor lauter Kabelsträngen vom Netzteil :(
 
@Islander: Siehe o3:r1
 
@Islander: Hey, nein, du hast einfach keine Ahnung! Siehe o3-re2. Außerdem solltest auch mal überlegen für was dieser externe Stromstecker da ist?! Diese Karte kommt auf den PCI Steckplatz und der PhysX Chip benötigt 30-40 Watt. Da aber der PCI Steckplatz nicht für soviel Watt ausgelegt ist, ist leider ein extra Stromstecker notwendig.
Wie das bei PCIe aussieht weiß ich nicht, aber dort liegt jedenfalls der Wert höher. Klar ist es doof, dass deshalb eine aktive Lüftung notwendig ist. Ich denke aber, sobald der PhysX-Chip in einem 90nm Verfahren oder kleiner hergestellt wird, benötigt er weniger als die Hälfte an Watt und wird dadurch auch kühler bleiben. D.h. keine aktive Kühlung mehr notwendig und kein externer Stromanschluss.. CYA iNsuRRecTiON
 
...ich hoffe es das es so ist !
 
Vor allem die paar Spiele, die dafür entwickelt werden, die braucht eh keine Sau.....ergo: Sinnfreier Unfug!
 
@AudigY: sagte man nicht das auch damals als die ersten 3dbeschleuninger aufkamen?
 
@AudigY: du willst wirklich auf ut2007 verzichten? du traust dich :D
 
@ TTDSnakeBite: was hat den ut2007 mit dem thema zu tun .. da ist die pysik engine nun wirklich der kleinste teil da brauch ich keine extra karte für...
 
@DekenFrost: Hey, lol, denk lieber nochmal nach, was du da für einen Unfug geschrieben hast, rofl! MfG CYA iNsuRRecTiON
 
@ iNsuRRecTiON: äh . . gleichfalls O.o Ich sagte ja nicht das ut keine physikengine hat .. aber es ist nichts wozu man jetzt ne extra karte braucht das schafft mein pc nun wirklich auch noch so.
 
Von der Idee her kann ich Aegis nur gut finden. Dennoch ist der Preiß Viel zu hoch 100-150eur würde ich wohl ausgeben aber knapp 300eur finde ich nicht gerechtfertigt. Abwarten werde ich sowieso noch, denn mich interresiert was Nvidia mit Havoc zusammen auf die beine stellt. Soll das sich nur um eine Routine handeln die die Pysics auf ner 3d KArte berechnet oder wird die §d Karte nen eigenen chip für die Pysics bekommen? Wie ist die Skalierbarkeit aus grafikporwer und Pysik leistung? Mal abwarten was passiert :)
 
@ThreeM: bei nvidia geht die berechnung über die shader. das ist quasi so änlich wie die videocodierung von ati über shader nur das hier der shader halt für physikberechnung missbraucht wird. das geht jetzt schon mit allen 6er und 7ner geforce karten. zumindest in der theorie :D
 
Hey, stimmt, aber es geht nicht besonders gut. Denn dafür werden die Vertex Shader gebraucht und davon sind bekanntlich nur wenig vorhanden. 8 Vertex Shader gegen 24 bzw. 48 Pixelshader..Gibt es erstmal Grafikkarten mit 48 Pixelshadern UND 48 Vertexshadern, könnte die Sache schon sehr viel anders aussehen..! Aber bis dahin dauerts ja noch nen bissl und Konkurrenz kann ja nie schaden..hehe MfG CYA iNsuRREecTiON
 
so ein chip sollte in zukunft lieber auf die grafikkarten integriert sein. auf diese weise und zu diesen preisen wird das ganze wohl kaum mainstream werden
 
@DOCa Cola: Genau. Dann wird auch gleich ein neuer Marketing Name fälltig. Mein Vorschlag: GameAcceleratorProcessor oder High Definition Gameplay Processor oder noch genialer RealityGameplayMakerPsocerros oder son schnick schnak
 
@ThreeM: Hehe... wie wäre es mit RealLifeSimulationBooster. Aber die Idee mit dem chip auf der Graka hat gleich 2 Vorteile. Erstens hab ich keinen PCI mehr frei und zweitens Kann ich dann gleich diesen Chip mit in die Wakü der Graka einbinden. :-) Und bei Lukü brauchste keinen extra Lüfter. Oder den Chip auf die andere Seite der Graka und so ne Art Sandwichkühler ala Zahlman Heatpipe der beide Seiten kühlt.
 
Das ist und bleibt eine Zusatzkarte. Wer sie sich leisten kann und will soll sich das Teil kaufen, die anderen bleiben bei dem was sie haben! Ist ja nicht so, dass man deswegen gar keine Spiele mehr spielen kann. Die Karte entlastet die CPU und bietet halt noch ein paar zusätzliche Physik-Schmankerl, für die sich die CPU Tod rechnen würde. Wer natürlich auf die Sache mit der Physik-Berechnung im Grafikchip setzt, darf sich ne zweite Graka kaufen und sich über den zusätzlichen Lärm und Strombedarf ebenso freuen. Hat natürlich zum Nachteil, dass eine der Karten für zusätzliche Berechnungen wegfällt (laut nVidia, wird ein SLI Gespann benötigt). Eine Optimierung und Auslagerung der Physikberechnungen auf die zweite oder dritte oder vierte CPU bei einem Dual/Triple/Quad-CPU System wäre nicht wohl optimal, allerdings dürften die CPUs als Allrounder nicht die gleiche Leistung erzielen wie dies bei der Zusatzkarte mit hochspezialisiertem Chip de Fall sein dürfte (ne CPU kann ja auch Grafikberechnen, warum nicht die Grafik in die CPU legen? Bei einem Dual-CPU System dürfte das ja "kein Problem sein :-))
 
Die Karte ist noch nicht zu gebrauchen und mit AGP doch nicht so modern.
 
@jediknight: PCI, kein AGP und auch kein PCIe
 
@jediknight: Eine Unterstützung für PCIe ist vorgesehen. Die ersten Karten werden jedoch _vorerst_ nur für PCI zu haben sein.
 
@jediknight: lol agp .. genau .. und wo steckst du dann deine grafikkarte hin XD
 
ATI und Nvidia arbeiten an einer Software, die zusammen mit einem Treiber installiert werden soll, um die Physik entsprechender Spiele ( wenn denn mal vorhanden ) zu berechnen. Ich würde mir so eine Karte nicht kaufen. Zu teuer, Keine entsprechenden Spiele unterstützen die Karte, soll mit Software kommen und dann über die Graka berechnet werden.
 
@Stephan44: Nicht zu Übersehen: Wenn GFX KArte auch Physics machen soll werden REssourcen die ansonsten für die GFX da sind verbraucht. Mal sehen wie weit sich das auf die Frameraten auswirkt
 
@ThreeM: Hey, ohne mind. SLi? Hmm, sehr stark, also unspielbar.. MfG CYA iNsuRRecTiON
 
Wird MSI auch so eine Karte verkaufen ? Weiss es einer ?
 
@ephemunch: Wenn ASUS ne Karte rausbringt, wird MSI das mit sicherheit auch tun. Die beiden sind doch wie Yin und Yang :)
 
@Enki: Jo genau wie yin und yan! ASUS ist gut und MSI ist böse! :D
 
@ephemunch: Hey, nein, bisher wird MSi keine PhysX Karten bereitstellen und verkaufen. MfG CYA iNsuRRecTiON PS: Vielleicht kündigen andere Hersteller zur E3 was neues/anderes an.. :-)
 
@ephemunch: soviel ich weiss werden nur eine handvoll hersteller die karten anbieten.
asus,bfg werden karten anbieten und dell will es auf seinen motherboards als chipsatz verbauen.
 
Was ATi und Nvidia derzeit versuchen wird nichtmal ansatzweise so effizient sein wie eine Ageia-Karte. Wer F.E.A.R. gezockt hat, weiß dass die GraKa nichts an Shaderleistung erübrigen kann, erst recht nicht, wenn alle "Next-Gen-Spiele" so extrem auf SM3.0 und all die technischen Spielereien setzen.. Mir scheint das nur PR-Posaune zu sein, damit alle was vom neuen "Physik-Kuchen" abbekommen.
 
@Enki: nur mir ist es lieber, ein spiel flüssig ohne shader 3.0 zu spielen, als ruckelnd mit shader 3.0 optik, weil der cpu für die physik zu schwach ist. außerdem mit den heutigen karten vielleihct noch nciht so sinvoll, dohc mit der nächsten generation wird das schon anders, da kann man dann weitere optimierungen der shader vornehmen.
 
@ LoD14: Glaube ich kaum. Sobald man eine neue Grafikkarte gekauft hat gib es spiele die diese Grafikpower auch ausnutzen. Also wird man in Zukunft immer in den Einstellungen ein Kompromiss suchen zwischen Schneller Grafik und Accurater Physik.
 
@LoD14: Und nicht vergessen: Ein SLI Verbund sollte es schon sein :-)
 
@Enki: Hey, da gebe ich dir vollkommen recht! Grafikkarten und CPU sind mehr als genug ausgelastet, da kann man über eine gute Entlastung durch eine dedizierte Hardware für die Physikberechnungen wie dem PhysX Chip nur hoffen bzw. kommt das gerade recht, damit wieder mehr "Power" für andere Sachen frei wird! Desweiteren ist F.E.A.R. etc. erst der Anfang, wartet mal bis UT2007 usw. heraus kommt. Im Moment (d.h. in den ersten 1-3 Jahren..) ist das nur PR von ATi und Nvidia. Desweiteren wollen die nur mehr Grafikkarten verkaufen, Stichwort SLi, Crossfire und in Zukunft gerne auch ein Quadgespann! :( MfG CYA iNsuRRecTiON
 
Hmm das riecht nach einem erweiterten Chipsatz^^. Hoffentlich kommt sowas in Zukunft bald gleich mit aufs MB ala GamersEdition oder so.
 
@dreamcatcher: DAS ist eine Superidee! Wird allerdings wohl noch dauern, weil erst mit dem nächsten oder übernächsten Fertigungsprozess der Chips klein und sparend genug sein werden um ins Layout eines MBs integriert zu werden. Aber bei der "Featureitis", von der alle MB-Hersteller seit Jahren befallen sind, wirds das bestimmt mal geben...
 
@Enki: Hey, liegt an anderen Sachen..Die Fertigungsgröße aktuell 130nm :( könnten die schon jetzt locker mit 110 oder sogar 90nm anfertigen lassen, aber das kostet nunmal 1. mehr Geld und 2. sind diese Karten bzw. viel mehr die PhysX Chips schon seit über nem halben Jahr fertig..AGEIA wollte auch erstmal die Kosten für ihre PhysX Karten gering halten und sehen wie sie sich am Markt etablieren werden..Ich denke schon, dass die 2. Gen (sofern sie ein Erfolg werden..) mind. in 90nm, wenn nicht sogar in 80, 70 oder 65nm gefertigt wird, sodass Größe, Strombedarf und damit auch (Ab-)Wärme viel geringer werden..! MfG CYA iNsuRRecTiON
 
"da es noch keine Spiele gibt, die die PhysX-Karten zur Berechnung der Spielephysik nutzen."

Stimmt so nicht .. bet on soldier verwendet seit einem patch mit neuer waffe diese karte um den verkauf zu pushen.
 
Hmmm, zusätzlicher Stromanschluss an der Physikkarte, das ganze am besten im SLI-Verbund mit 2 Geforce 7900 GTX und ner Quad-Core Cpu. Da macht das 1.000 Watt Netzteil endlich Sinn. o.O.
 
@Kammy: Warum nur 2 Geforce?
Gibt doch schließlich schon Quad-SLI! Und dazu eine X-Fi Soundblaster!
 
@Kammy: Hey, nein. Quad-Core und Octa-Core CPUs werden weiterhin wenig Energie benötigen, weil sie sonst fast keiner mehr kaufen würde..D.h. es bleibt unter 100 Watt! Weiterhin werden die Grafikkarten Hersteller irgendwann auch wieder mehr energieoptimierend herstellen (müssen) denn irgendwann werden auch da die Kunden nicht mehr lange mitmachen, wenn die Abwärme und der Strombedarf immer mehr ansteigt.. Ich denke das man in Zukunft auch mit max. 600 Watt immer noch mehr als genug bedient ist.. MfG CYA iNsuRRecTiON PS: Leute ohne SLi und "normalen" Systemen werden auch 400 Watt mehr als ausreichend sein..
 
Irgendwann werden diese PhysX Chips
mit auf den grafikkarten drauf sein, das ist wie Damals, mit den Co-Prozesorren, die sind heute auf jedem "modernen" CPU mit drauf.

ansich is die Sache nicht schlecht, da sich die CPU und GPU mehr um andere Sachen kuemmern koennen, das kommt dem Spiel, der KI, der Grafik nur zu gute, aber n bisschen Teuer ist der Spass dennoch, aber isses nicht immer so? Leistung kostet geld :)
 
OMG, ein aktiver Kühler und ein extra Stromanschluss am hinteren Ende der Karte X_X
 
Ich werd son Zeug auch nicht kaufen, wenn mal auf ner neuen Generation von Graka o. Mainboard nen Chip mit drauf ist, dann klar, aber ne zusatzkarte auf keinen Fall. Im Singleplayer Genre kann man das schon gebrauchen, aber bei dem MP-Gedaddel, naja bis jeder son Ding hat kann es schon scheißlange dauern. Deswegen wart ich auf NV und ATI, einer der beiden wird das aufgreifen auf ne Art die akzeptabel ist (eigener Chip) und der andere wird nachziehen. Das es lange dauernt schließ ich mal ganz stark aus, der Markt ist einfach zu groß das man sich sowas leisten könnte. Es wird alles sehr schnell passieren.
 
sowas brauche ich nicht, ich warte lieber bis wieder eine gute Preis/Leistungs Karte wieder rauskommt.
 
mich interessiert das überhaupt nicht wäre viel besser wenn endlich mal aktuelle grafikkarten verfügbar wären , eine 7900GT soll es ja angeblich geben^^
 
also erstma vieeel zu teuer, 100 wären noch ok, mehr aber nicht, solange kaum spiele da sind die wirklich nutzen davon haben sowieso nicht^^
 
Hiho Leutz, es mag zwar sein, dass es noch nichts spielbares gibt, aber für Programmierer und Leute die Spiele entwickeln kann man sich das NovodeX-SDK auch bei Ageia runterladen, nachdem man sich dort registriert hat (http://support.ageia.com/ics/support/default.asp?deptID=1949). Dort gibt es Programmbeispiele und Tutorials im Umgang mit dem SDK. Wer also C++ und OpenGL beherrscht, kann damit schon nette Sachen basteln. Einfache Anwendungen laufen auch auf normalen Rechnern. Es gibt dort aber auch einen Stress-Test ("Sphere Drop Stress"), bei dem 1000 Kugeln in eine Kiste fallen und wenn alle diese Kugeln dort angelangt sind, dann ruckelt selbst mein Athlohn64 (Venice) 3000+ (= 1.8 GHz @ 2.47 GHz) und 2 GB RAM, wegen der ganzen Kollisionen der Objekte untereinander! Die Frames pro Sekunde liegen zu Anfang bei ca. 700, wenn alle Kugeln unten drinne liegen beträgt der Wert nur noch ca. 5.5 FpS! Dieses Beispiel, ist wie die meisten anderen auch, graphisch nicht grad fordernd für die Grafikkarte. Also kann man ganz klar sagen, die Hardware hat sicherlich ihren Sinn, wenn man die Spiele mit mehr Realität füllen will, wozu zwangsläufig Kollisionen, Kräfte usw. in hohen Stückzahlen durch viele Objekte erforderlich sind, geschweige denn die Implementierung von realitätsnahen Flüssigkeiten! Ein Beispiel in dem die Flüssigkeitssimulation dargestellt wird, startet leider nur mit PhysiX-Hardware-Karte (eben eine solche wie sie oben genannt ist)! __________- (Interessanterweise scheint der Codename für die Hardware "Athena" zu lauten, da in den Consolen der Beispiele eine Meldung erscheint: "Unable to find any Athena Hardware devices!")
(Das war mal mein zweiter Post bei WinFut!) :-)
 
@Hoozer: ist dein erster auch so lange ^^ Aber recht interessant.
 
@Tiger: Mein erster war noch länger! Aber da hab ich mich auch über DELL beklagt! :-) Sieh es einfach so, selten aber viel! *lol*
 
über 250 piepen sind viel zu viel....
Aber auch das wird billiger.
 
Das ganze wirkt z. Zeit auf mich wie eine Mischung aus Schnellschuß und Totgeburt in einem. Aber bitte - wer sichs unbedingt einbildet und jetzt schon geld loswerden will...? Ich bin sehr zuversichtlich das gerade die kommenden Mehrkern-Prozis in zukunft auch für derartige "Realitätsspielereien" genügend leistungsreserven parat haben werden. Für derartige Mehrleistung die nicht nur für gelegentliche Physikberechnungen, sondern -fast permanent- allen möglichen anwendungen zur Verfügung steht, bin ich dann auch tatsächlich eher gewillt die Brieftasche zu zücken. Allen hier zuvor genannten netten Beispielen zum trotz: Der aktuelle nutzwert steht derzeit jedenfalls in keinem vernünftigen verhältnis zu den jetzigen Kosten dieser Karte. Abwarten und tee trinken... :-) In diesem sinne: Greetings@all and have Phun!
PowrGraFX
 
Himm leute ich lese immer gibt keine spiele für.
darf ich euch auf Ghost Recoon advanced warfighter aufmerksam machen .also bin echt heiss drauf ,weil ich seit einigen tagen das spiel habe und die grafik absolut geil ist(trotz 256 mb msi nx6600 ,niedrige einstellungen sonst rukkelts bisl,während des spiels istallieren sich schon treiber für physx karten). nur ist mir noch ein bisl zu teuer ich warte bis asus seine rausbringt und mal schauen was die kosten. aber eine kaufen tu ich auf jeden fall habe auf messe gesehn was die leisten und glaube dass bald fast alle spiele drauf zugreifen werden(rechner wird auch entlastet).
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles