Heftiger Schlagabtausch: Nvidia-CEO zieht über AMD & Radeon VII her

AMD hat im Rahmen der CES die Radeon VII vorgestellt - 16 GB HBM2 Speicher und 1 TB Bandbreite sollen die erste im 7 nm-Prozess her­gestellte Grafikkarte vor allem für Content-Creator interessant machen. Der Nvidia CEO nimmt die Vorstellung aber zum ... mehr... Nvidia, Jensen Huang, Nvidia CEO Bildquelle: Nvidia Nvidia, Jensen Huang, Nvidia CEO Nvidia, Jensen Huang, Nvidia CEO Nvidia

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Wie ich vorausgesagt hatte ist es eine aufgewärmte Vega. AMDs GPUs sind wohl wie schlechtes Mikrowellen Essen.

Edit: Danke an alle AMD Fans die hier wirklich ihr bestes geben. Ein schöneres Beispiel als euch kann ich mir nicht ausdenken : )
 
@Alexmitter: Hast du den schon einen unabhängigen Test gelesen?
 
@SebastianKreiz: Da AMD nicht auf die Idee kam an dem announcement Tag ein Sample an Phoronix zu senden gibt es diese bisher noch nicht. Nvidia hat das schon gemacht, so gab es ab Tag 0 unabhängige Ergebnisse.
Aber darum geht es auch nicht, eher geht es darum das Navi was eh nur kleine Verbesserungen gegenüber der überalterten Vega Architektur bietet wieder nach hinten geschoben wurde, also buchstäblich Essen des vor-vortags in der Mikrowelle aufgewärmt.

Wenn die Vulkan Performance erreicht wird die versprochen wird, AMD endlich seinen Vulkan Pipeline Compiler fixt sowie Mesa fixt, dann ist das teil bei ~400€ eine Überlegung wert.

Das Team Red ordentlich getriggert ist, das macht mich sehr glücklich.
 
@Alexmitter: "Das Team Red ordentlich getriggert ist, das macht mich sehr glücklich."
"Edit: Danke an alle AMD Fans die hier wirklich ihr bestes geben. Ein schöneres Beispiel als euch kann ich mir nicht ausdenken : )"

Wie erbärmlich muss ein Leben sein wenn man von sowas eine Erektion bekommt.
 
@ThreeM: Nur ein wenig Spaß. Man muss nicht gleich übertreiben.
 
@Alexmitter: Diese Form von Spaß hat ungefähr den selben humoristischen Gehalt wie eine Mikrowelle;-)
 
@Alexmitter: Also es gibt sicher Szenarien wo man 16GB HBM2 einen Vorteil gegenüber den 8GB GDDR6 der RTX2080 ausspielen kann. Umgekehrt wird es Szenarien geben, bei denen die Tensor Cores Vorteile bedeuten. Man kann sich hier als Kunde eben zwischen zwei Produkten mit unterschiedlichen Ansätzen entscheiden. Ich sehe nicht was daran schlecht sein soll? Man kann den hohen Leistungshunger der Vega bemängeln, aber dafür ist sie ja auch bezogen auf die Speichermenge relativ günstig.
 
@mil0: Das stimmt, und das macht sie auch interessant. Nur ist Vega veraltet und alle warten auf Navi.
Am ende kommt es für mich auf Treiber(Mesa ist derzeit immernoch schmerz), Vulkan Performance und Preis an.
 
@Alexmitter: "Vega II" benutzt keine neue GPU, sondern ist primär ein Shrink von Vega 64 - von 14 nm auf 7 nm. Die GPU wird auch bereits in den HPC-Karten Radeon Instinct MI50 und MI60 eingesetzt.

Ursprünglich hatte AMD verneint, dass die 7-nm-GPUs für Endkunden kommen. Es war wohl als Testballon für die 7-nm-Volumenfertigung gedacht. Offensichtlich ist man mit dem Prozess zufrieden und Apple verkauft weniger iPhones als gedacht. Letzteres sorgt dafür, dass bei TSMC (dem Auftragsfertiger) Kapazitäten in den 7-nm-Fertigungsstraßen frei wurden. Da "Vega II" eh schon entwickelt war, ist es für AMD wirtschaftlich einfach nur sinnvoll mehr 7-nm- als 14-nm-DIEs zu bestellen.

Kurzum: AMD zahlt weniger pro GPU, ist konkurrenzfähiger und die Kunden bekommen eine schnellere Karte. Die richtigen Neuerungen kommen weiterhin mit der Navi-Architektur, die dann später auch in den Next-Gen-Konsolen stecken soll.
 
@Stratus-fan: Eine schöne Langfassung.
 
@Stratus-fan: "Apple verkauft weniger iPhones als gedacht. Letzteres sorgt dafür, dass bei TSMC (dem Auftragsfertiger) Kapazitäten in den 7-nm-Fertigungsstraßen frei wurden."

Es ist schon vor einigen Wochen bekannt geworden, dass TSMC bei 7nm "nur" zu 90 Prozent ausgelastet ist. Man sollte zusätzlich auch beachten, dass für Mobile und High-Performance unterschiedliche Prozesse zum Einsatz kommen.
 
@Goodplayer: Das ist Korrekt. Dennoch sind es prinzipiell die selben Tools (insb. Lithographie), die nun frei wurden.
 
@Alexmitter: aber mindestens genauso heiß xD
 
@lazsniper2: Du hattest noch keine GTX 480 gesehen?:D
 
@L_M_A_O: sogar mal gehabt, mir kam das aber irgendwie wesentlich anders vor. könnte auch am gehäuse und dem generellen airflow gelegenhaben zu der zeit ... ist ja ne ewigkeit her ;)
 
@Alexmitter: Lieber die "aufgewärmte" Vega und mit vernünftig ausgestatteten HBM2, als diese überteuerten Nvidia-Krücken. Ich hab meine Lektion aus der 970-Misere gelernt.
Und was bringt eine "neue" Architektur, wenn die 1080Ti genauso stark ist wie die 2080. WoW... das Argument zieht ja wirklich total! Steht nicht neu drauf, spielt aber trotzdem vorn mit. Muss pauschal schlecht sein. Top Logik!
 
@Alexmitter: wäre dir 0 Konkurrenz lieber?
 
Warum ist in der IT-Branche alles Neue gleich "aufregend". Oftmals trifft "regt auf" es besser.
 
@Memfis: Ich glaube das nennt man Spaß am Leben.
 
ich würde mich für AMD freuen, wenn es wieder so einen Preis leistungs Kracher wie die HD4850 geben wird.
 
hoffe sie legen genauso eine punktlandung hin wie bei den neuen ryzen cpus... ich erinner mich sehr gerne an die zeiten von thunderbird zurück...
 
@skrApy: Oder der erste Athlon :)
 
Gsync ist Freesync auch überlegen in mehreren Belangen.Aber die Art und Weise is halt von nem Schulkind Himmel....AMD ist und bleibt ne kleine Brutze und macht dafür wirklich sehr gute Arbeit.Den Unterschied wird wahrscheinlich mal DLSS machen,da soller aber net LAbern,sondern liefern.nVidia wirbt bis heute noch bei Shadow of the Tomb Raider mit DLSS und RT...tja nach 3 !!! Monaten ist da immer noch nix da.
Meine 2080Ti war im Dauerabsturz auf DX12 unterwegs.Sollte sich was schämen und Treiber coden gehn mit seinem Ledder-Maffay....
 
@Tribi: Was interessieren dem Leder-Maffay deine kleinen Probleme? Du hast ihm doch bereits deine Kohle abgedrückt.
Bei der nächten Generation die dann eben 3k Euro kostet und ganze 10% mehr Leistung hat, gibt's das alles vom Start weg, versprochen. Also spare schon mal.
 
@W!npast: Meine Kohle hat er aber nicht meine Seele.Ich gebe meine Kohle auch ganz fix mal nem annern :)
 
@Tribi: Gsync kostet einen Berg an Lizenzgebühren, Freesync ist ein offener und freier Standard. Mein neuer Monitor hat keines von beiden, aber habe mich bewusst gegen einen mit G-Sync entschieden (obwohl aktuell ne 1070 in meiner Kiste werkelt).
 
@Bautz: Freesync kostet auch Lizenzgebühren.Gsync ist aber Hardware UND Achtung... Gsync funktioniert im Bereich zwischen 30 und 165 Hertz,das macht Freesync nämlich nicht.Freesync wird lizensiert sobald es irgendweinen Bereich unterstützt.Und jeder Freesync Monitor ist anders.
Das kann man nun abminusen,ist aber Realität.Freesync ist Software und wird ohne große Qualitätsgeprüfe eben in Masse lizensiert,weil der Monitor eben irgendwo mitskalliert.Welcher Bereich ist russisches Roulette.
 
@Tribi: Nettes Fanboy geblubber . Aber wie so oft ohne jegliche Substanz.

Schau doch mal in die Spezifikationen der Freesync Displays. Da steht auch die Range ;)

Ich habe hier übrigens einen netten IO Yamaha mit Freesync Range von 30-120hz stehen.

Es ist gibt auch genug Freesync Displays mit einer Range von 30-144+
 
@exxo: Wenn man keine Argumente hat,ists dann immer Fanboygelaber.Sicher.
Freesync springt erst ab 48 an und geht mit Glück auf 75,hängt vom Monitor und Hersteller ab.Es wird einfach nicht kontrolliert und variiert.Da kannste dir noch so viel schön quatschen.Nur ab etwa 90 merkt es der Durchschnittszocker einfach nicht.Richtiger wirds davon aber auch nicht.
Gsync wird kontrolliert und kostet deshalb so viel.Jeder einzelne Monitor anscheinend.Freesync wird lizensiert und dann draufgeklebt.Das ist für mich ein himmelweiter Qualitätsunterschied.Und das mit unterschiedlichen Bereichen kann man nun wirklich überall nachlesen.Wenn es aber für dich glatt läuft,isses ja auch kein Problem.Meine 2 Freesyncs "damals" waren zum Haareausraufen.Deshalb wurde es Gsync und grüne Karte.
Edit.Von Yamaha finde ich keine Monitore bei Freesync.
Aber das problem ist halt das die Angaben mit dem was wirklich ist,halt leider einfach meist net stimmen.Glaube Linus-Tech hatte da auch schon mal gerantet.
 
Für Nvidia wird die Luft gerade dünn und sie schlagen wie ein verzogenes Balg um sich. Jahrelange Arroganz und Kundenverarsche macht kommt halt nicht gut an. Und jetzt wo AMD Konkurrenzfähig wird, zeigen sie ihre wahre, hassliche Fratze.
 
@feikwf: Wirklich? Ich sehe nur eine weitere veraltete Vega Karte, und Nvidia macht business as usual.
 
amd ist und bleibt das nischenprodukt welches der markt eben verlangt um noch profitabel zu sein.

fertig. that's it.
 
Ich glaube meine derzeitige GTX960 ist und bleibt die letzte Grafikkarte von denen, nach so einer Beleidigenden und arroganten Aussage gegen AMD. Kein bisschen würde der Typ. Meine nächste Grafikkarte wird von AMD sein.
 
Wissen die bei Nvidia eigentlich wie geil ihre Grafikkarten in der Feuertonne glühen und riechen?XD nuja ab 15.März dann wieder bei der Gartenparty! ;)
 
Wir alle wollen OpenSource Treiber von Nvidia für Linux.
 
@Paradroid666: ist mir ehrlichgesagt schnurz
 
@Paradroid666: Einer meiner Gründe AMD zu nutzen :)
 
@Paradroid666: Linux Nutzer mit Nvidia Karte hier.
Warum genau möchtest du Offene Treiber, sicher ideologisch ist es eine nette Sache. Aber welche Verbesserungen erwartest du dir dadurch?
Die Nvidia Kernel Module, und die Netten Tools wie nvidia-smi(eine art top für die gpu) sind großartig, letzteres kann AMD nicht einmal bieten.
Ich bin ganz froh nicht Mesa nutzen zu müssen und auch das nutzen eines Beta Treibers erfordert für mich nur das wechseln des Moduls, aber nicht das kompilieren eines ganzen Kernels aus einem amd git.
 
@Paradroid666: Nö, ich nicht.
 
Getroffene Hunde bellen.
 
Ich hoffe AMD hat Erfolg, es ist Zeit allen in den A**** zu treten die Meinen die Größten zu sein, vor allen bei den Preisen.
 
@JoIchauch: Sicher das du richtig gelesen hast?
Nvidias RTX 2080 gibts ab 650€, die VII wird in dem selben Preis Rahmen angeboten.
Wenn sie eines nicht machen, dann die preise drücken.
 
Pfff der typ versteckt sich hinter der scheiße die er gebaut hat.
Raytracing ist noch nicht mal ansatzweise etabliert am markt, Preise jenseits von gut und böse, eine arroganz die zum Himmel stinkt. alleine schon deswegen wird die nächste karte eine von AMD sein.
diese art von preistreiberei und eigentlich schon kundenverarsche unterstütze ich in keinster weise.
 
Heißt so etwas übersetzt nicht nur, dass AMD alles richtig macht und die Gegenseite sich schon wichtig machen will, weil sie Angst hat? :-)
 
Will MC Lederjacke jetzt wirklich Beef mit AMD? Der Schuss kann auch nach hinten losgehen, denn Hochmut kommt bekanntlich vor dem Fall!
 
Mit dem ganzen Technik Kram kenne ich mich überhaupt nicht aus, die ganzen Bezeichnungen usw. Alles was ich weiß ist, dass ich zwei verschiedene Rechner mit AMD CPU & GPU hatte die nur Probleme machten. Jetzt habe ich Intel CPU & Geforce und keine Probleme mehr. Das reicht mir, Hauptsache läuft. Ob die sich fetzen oder nicht, ist mir egal. GTA5, das neue Hitman 2 & Star Citizen laufen alle auf max Einstellungen, wie das in dem Tower zu Stande kommt interessiert mich nicht.
 
@starbase64: Bring die AMD Kisten mal zu nem richtigen Computer Doktor der kann dir sagen was da Kaputt ist. Meist ist dann irgendwas an der Hardware kaputt. So extrem hab ich das noch nie gesehen, daher glaub ich dir auch nicht. Das hier sieht mir sowieso wie ein Fanboyeintrag aus. Oder ein bezahlter beitrag der doch versucht sich nicht direkt zu outen will...
 
@MancusNemo: Ne, da war nix kaputt. Ich wurde mit Meldungen genervt, kann die Schatten nicht berechnen usw. Jetzt läuft es, ich bin glücklich.
 
@starbase64: In so einem Fall macht man Hardwarebenchen / Tests. Da sieht man dann ob die Hardware defekt ist. Meist sind es Ramfehler auf der Grafikkarte und in der Sache in kombination mit Timingfehlern bei der CPU, also wird wohl die Graka und die CPU kaputt gewesen sein. Kommt extrem selten vor. Keine Garantie/Gewährleistung in anspruch genommen?
 
@MancusNemo: oder man kauft gleich was vernünftiges ohne sich ärgern zu müssen?
 
@lazsniper2: Sowas kann dir auch bei Highendzeug mal passieren. Dafür gibts dann Gewährleistung / Garantie!
 
@MancusNemo: aber seltener. hatte 1 garantiefall seit 2000.
 
@lazsniper2: Man kann auch die Hardware extrem Günstig kaufen, dann kommt so was öfter vor, man hat aber die Garantie/Gewährleistung trotzdem. Wenn man die Zeit und den Willen hat kann man da ganz schön Kohle sparen! Jedenfalls damals so bei meinem PC so gewesen. Statt 850,- € hab ich nur 400,- € bezahlt. War nix kaputt. Lief alles von Anfang an Tipp Top. Hätte natürlich auch anders sein können und ich hätte auf Gewährleistung/Garantie Zeug umtauschen lassen müssen. Zum Glück nicht.

Wie da so viel Gespart wird? Weil einfach die Hardwaretests wegbleiben. Die macht man quasi selbst zu Hause!
 
@starbase64: Ich hatte x verschiedene Rechner mit AMD Hardware, genauso wie Freunde und Bekannte von mir...Probleme gab es da keine bzw weder mehr noch weniger als auf Intel/Nvidia. Im Gegenteil, nein derzeitiges Intel/Nvidia System läuft wesentlich instabiler als es die AMD Systeme davor taten. Und ja, mich interessiert was drin ist und wie es funktioniert, weshalb ich meine Rechner auch seit 20 Jahren selbst zusammen baue.
 
@Shadi: Fakt ist AMD Kisten sind zuweilen ein bisschen zickiger. Wenn die erstmal laufen laufen die aber.
Fast egal welche Prozessorgeneration man da nimmt. Beispiele hätte ich da genug. Empfehle sie trotzdem wenn es ums Budget geht.
 
@Shadi: baust seit 20j was zusammen und dann läuft es instabil ? .... iwas hast du wohl nicht verstanden...
 
@skrApy: Die Instabilität hat nix mit dem Zusammenbau zu tun, sondern schlicht damit das die Komponenten teilweise recht alt sind und durch die normale Abnutzung z.b. des Mainboards zu instabilitäten führen. Falls du dich in der Materie etwas auskennst, solltest du wissen wovon ich spreche...

Deshalb soll dieses Jahr auch ein neuer Rechner ran. Aber schön wie du versuchst mir Inkompetenz zu unterstellen... :)
 
@Shadi: Ihr müsst euch nicht fetzen, meine Kiste läuft jetzt ohne Probleme. Ist doch egal was da drin ist, Hauptsache geht.
 
@Shadi: ich habe bei alten komponenten genau mit dem gegenteil erfahrungen gemacht ;)
 
@skrApy: Was eher komisch ist da mit den Jahren Korrision an Teilen des Mainboards auftreten können und das dann zu Problemen führt :) Aber gut, ich hab hier auch uralte Hardware rumstehen die immer noch läuft :D
 
@Shadi: ich würde so gerne ne AMD CPU und GPU verbauen... aber mein rechner ist einfach noch nicht lahm genug um das zu rechtfertigen.... habe aktuell nen i5 von ende 2015 und ne 1080 ti.... 16 GB ddr 4 ram.... und Nvme SSDs... ich denke, da werd ich noch ne weile mit hin kommen.... ich würde so gerne AMD supporten :D
 
Naja besonders aufregend finde ich neue "Features" die mal eben die FPS halbieren und nur beim Halo Produkt brauchbare Leistungen zulassen dann auch nicht. :D
 
@Aerith: Tja mit so einer Beforteilungsscheiße ist man noch nie gut gefahren. Mein Lieblingsbeispiel ist UT2k4 läuft heute auf AMD Karten besser wie auf Nvidia Karten. Und wurde umgekehrt verkauft, weil man Pro Nvidia Programmiert hatte und Antifeatures für AMD einbaute. Heute geht das nach Hinten los... also ist langfristig AMD einfach besser!
 
@MancusNemo: Dieses spiel sollte selbst auf einer Intel iGPU bestens laufen.
 
@Alexmitter: Ja heute. Wenn ich die Spiele sauge und Bence dann sehe ich das auch mit neueren Spielen, aber das hab ich nun mal immer zur Hand und kann es sofort Zeigen.
 
@MancusNemo: Eeh... nein.
Einfach eine Karte mit genug leistung in die Kiste stecken und dann ist der Hersteller Banane. Ich hatte in der Vergangenheit sowohl Karten vom roten als auch grünen Team drin und nie Probleme.
 
@Aerith: sehe ich auch so und meistens wer billig kauft bekommt auch billig....
 
@Aerith: Tja da vergisst du die Treiber. Wenn die Treiber heute zu alt sind bei Windows 10 dan gibts die tollsten Fehler. Wärend ich bei AMD das noch nicht gesehen habe. Lediglich nerfige Meldugen das die Karte / der Treiber kein Support mehr hätte. Weggeklickt und alles läuft aber trozdem weiter. Zusätzlich bei Nvidia hab ich unter Linux die arschkarte gezocken wenn die Treiberinstallation schief geht, also muss man die als erstes machen. Bei Linux und AMD muss ich gar nichts machen läuft out of the Box! Daher ist für mich AMD einfach besser.

Ja von den billigst Karten beider Hersteller sollte man die Finger lassen. Es sei denn es ist eine Bürokiste oder eine Filmkiste. Dort kommt dann eine Karte mit Hardwarevideodekoder rein, das reicht für die nächsten 20 Jahre, wobei die PCs meist nach 12 Jahren von alleine Sterben und die Reperatur unwirtschaftlich ist.
 
@MancusNemo: KP, beide Teams hatten ihren Anteil an Treiber-Fuckups. Alte Treiber interessieren mich nicht, updates sind heute so easy, das ist keine Ausrede mehr.
 
@Aerith: Wenn es keine Updates gibt, dann hast du zwangsweise alte Treiber, weil es keine neueren mehr gibt!
 
@MancusNemo: Du Lieber Himmel, über wie alte Hardware reden wir hier eigentlich?
 
@Aerith: Schon relativ Alte. Hier werden die Geräte gefahren bis sie auseinander fallen oder man mit Software wirklich nicht mehr Arbeiten kann... Mein PC beispielsweise ist aus 2010/11. Der wird jetzt erneuert. Das Netbook ist ein Samsung Modell keine Ahnung, definitv noch älter. Da kommen dann recht gute Preise raus, wenn man Preis durch Lebensdauer teilt und man schont die Umwelt.

Mein PC wird aber jetzt ersetzt und der geht dann zu meinen Eltern. Und deren Geht zu den Großeltern. Deren PC ist vor nem halben Jahr verreckt. Reperatur unwirtschaftlich. Hatte einfach noch keine Zeit mich drum zu kümmern... Genauso bei Handys/Smartphones.

Daher alles sehr Umweltschonend.
 
@MancusNemo: Mein Rechner ist aus 2012, ich hoff er knackt die 2022. :D
Nur die 7870 musste irgendwann gegen eine 1070 ausgetauscht werden weil zu langsam.

Ich nutz Hardware auch gern bis sie kaputt geht oder es keinen Spaß mehr macht damit zu daddeln.
 
@Aerith: Weils so bilig war hab ich ne Nvidia GT 660 abgegriffen, aber sonst ist das Ding hier bald 8 Jahre alt :)
 
@MancusNemo: Spielst du auch UT4? Läuft mit AMD auch gut. Wenn ja, sehen wir uns mal dort....
 
@h2o: Wenn ich den neuen Rechner habe spiel ich das ganz neue da.
 
Da hat aber einer die Hosen voll.
 
Mag schon sein, dass die Turing Kerne, AI und sonstige Innovation fehlen. Es fehlt auch ein Nutzen für den Zielbereich. Es geht um eine Grafikkarte, die Bilder anzeigen soll und davon möglichst viele. Nicht um einen riesigen Prozessor der Kaffee kochen kann. Mir persönlich haben schon die 400€ für die letzte Karte gereicht. Bei noch mehr Ausgaben für "Bilder" stellen sich mir andere Fragen.
 
Da ist wohl heiße Luft in der Familie ("He is the uncle of AMD CEO Lisa Su" so steht es in wiki wenn man nach jensen huang schaut) Deren Familienfeiern finden wohl auf Messen statt mit mindestens 15 Anwälten :D
 
Die Geschichte Zeigt ja das so Sonderlösungen wie Nvidias RTX Raytracing halt eher bescheiden vom Markt aufgenommen werden. Beispiele?

- PhysiX
- EAX
- MiniGL

Um nur ein paar wenige Beispiele zu nennen. Ihr kennt sicherlich noch andere "Tolle" Innovationen die eine Totgeburt waren.

Nvidia + Industrie werden zeigen müssen wie Raytracing angenommen wird. 1000Eur für eine GPU mit Features die nur in 5 Games verwendung findet ist rein ökonomisch totaler Quatsch.

Ich finde das Verhalten vom CEO mehr als fraglich und eines CEO unwürdig. Bärendienst nennt man sowas glaub ich.
 
@ThreeM: Geduld.
Sobald RT Leistungsmäßig im Midrange Segment vernünftig funktioniert, wird die nächste Konsolengeneration drauf aufspringen. Wenn das passiert kann es sich durchsetzen.

Im Moment ist Echtzeit Raytracing mehr ein "proof of concept".
 
@Aerith: Das kann sein, nur ist das eben erst in 2 Jahren interessant wenn neue Konsolen an den Start kommen (vorraussichtlich). ATM gibt man halt Geld aus um Early Adopter zu spielen ohne wirklichen nutzen.
 
@ThreeM: Och ich denk schon das Leute, die sich ne 2070+ leisten können da was von haben. Es ist ein netter perk aber sicher kein Grund um von einr 1070 aufzurüsten.

Ich denke, 1 - 2 Generationen wird es dauern bis es im Mainstream ankommt und bis der Hit auf die FPS nicht mehr ganz so krass ist.
 
@Aerith: Jo genau so ist es.

Nvidia fängt bei RTX genauso schwach an wie vorm Krieg mit der Geforce 3 und ihren 2! Pixelshadern.

Wirklich nutzbar ohne starken fps Hit wurden Pixelshader erst mit der Geforce 6/7 also vier Jahre später als DX9 auf den Markt gebracht wurde
 
@exxo: 2 Shader units? OMG :D
Kommentar abgeben Netiquette beachten!
Einloggen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles