Nvidia: DirectX 11 ist für Käufer nicht wichtig

Grafikkarten Auf einer Konferenz mit Finanzanalysten hat Nvidia erklärt, dass die Unterstützung von Microsofts Multimedia-Schnittstelle DirectX 11 die Verkäufe der Grafikkarten nicht ankurbeln wird. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
wenn ich probleme habe Dx11 Grafikkarten herzustellen würd ich auch sagen Dx11 ist für den Käufer unwichtig ^^
 
@Conos: Na bei all den DX11 Titeln die in den nächsten Monaten anstehen kann ich die Käuferseite durchaus verstehen
 
@Conos: Vor allem finde ich den Einzug von Direct3D11 wichtiger, als den von Direct3D10, zumal die neue Schnittstelle auch für Vista erscheinen soll.
 
@Conos: Irgendwie hab ich genau das gleiche gedacht. Nein ich bin keinb ati-f-boy ich nutze selber nvidia ^^
 
@Conos: Stimmt, für mich zählt es jedenfalls, ich habe nun Windows 7 und wenn ich mir eine Grafikkarte zulege wird das keine ohne DX11 sein. Allerdings warte ich in jedem Fall noch bis NVIDIA was passendes hat damit ich vergleichen kann und die Preise besser werden bevor ich mir eine kaufe.
 
@Conos: Mag sein. Trotzdem zähle ich mich exakt zu den Kunden, die in der Tat von einer Grafikkarte erwarten, dass sie der CPU verstärkt Arbeit abnimmt.
 
@aBra`: Gibt es schon für Vista, bzw, ist für SP3 vorgesehen, aber du kannst es jetzt schon installieren. Funktioniert aber nur mit der englischen Version, bzw. mit Vista Ultimate, bei der du auf englisch umstellen kannst. Siehe hier: http://tinyurl.com/n67er2
 
@n00n: seh ich auch so,bis dahin ist die nächste generation draussen . . . .
 
@Conos: und audi hat probleme mit dem motor, aber das fahren ist ja nicht so wichtig
 
@Conos: genau :D so wie nvidia auch 10.1 übersprungen hat weil es unwichtig ist, wobei es im gegensatz zu 11 wirklich nur nen kleiner schritt war...
 
@Conos: Nur weil Nvidia das mit ihrer Grafikkarte nicht auf die Kette bekommt, geben die solche Kommentare ab. lach mich schlapp.

Wie billige ist Nvidia denn!
eher teuer !
Preis/Leistung werden die nie toppen.
absoluter schwachsinn, so scheiss zu verbreiten, man wird ja in den tests sehen, was geht und was besser ist.
aber ein unterschied ob directx10 oder 11 ist schon sehr deutlich gegeben!
tztztz
 
@Conos: Bei Dx10 war es ein Kaufargument bei Dx11 ist es egal. Kommt immer drauf an wer davon profitiert schon ändert sich das Kaufargument. nVidia ist im moment echt zu bemitleiden, keine aktuellen Intel Boards mehr im Programm und die neue GPU ist in Verzug.
 
@aBra`: Genau, DX11 ist viel wichtiger als es NVIDIA wider hinstellt. Die haben doch nur Angst das ihre ach so tolle CUDA Schnittstelle den Bach runter geht, wenn die Entwickler auf eine andere Schnittstelle umstellen die auf allen Grafikkarten läuft. (wie Open CL.)
DX10.1 habe die knaller auch schon herunter gespielt, obwohl sich mittels neuer Funktion das Antialiasing um ca. 20% schneller ausführen ließ, zumindest auf ATI Karten. Dx 11 wird nahezu alle Neuerungen die ATI schon bei den jetzigen DX10.1 karten drin hat in einer aktuelleren Version bei DX11 verwenden. Tesselation zB war bereits als "trueform" in der Radeon 8500 drin und die shader waren damals glaube ich auch schon einzeln programmierbar. Leider ist das alles natürlich nicht mehr kompatibel zu DX11. Die aktuellen Tesselatoreinheiten in der HD48XX Reihe sind wohl nicht für DX11 nutzbar aber vieleicht programmiert ATI dafür etwas in die Treiber um sie dennoch nutzen zu können.
 
@Homeboy23do: Im Dx10 bereich ist die Preis/Leistung bei Nvidia eben doch besser. Man zahlt zwar 30 Euro mehr für die selbe Power wie bei ATI, aber dafür hat man CUDA, PhysX (was sehr geil aussieht, wer was anderes sagt hat ne ATI Karte und ärgert sich), nen leisen Lüfter, bessere Verarbeitungsqualität, niedrigeren Stromverbrauch, Treiber die was taugen und die kompatibilität von Spielen wird gewährleistet (siehe GTA und co wo am anfang auf ATI Karten gar nichts läuft).

Wenn das kein Mehrwert ist...
 
@Conos: ein zugeständnis, dass man zeitnah keine Dx11-Karten herstellen wird. Womit man gleich den Endverbrauchern die Meinung aufdrücken kann "ATI beschäftigt sich nur mit unnützem Zeug!"
 
@Zombiez: wie auch immer, aber es geht hier um DX11 und DX11 macht all die DX10 Vorteile von NVidia zu nicht (siehe Compute Shader). Und das mit GTA4: das lief 'gefühlt' auf nicht mehr als 2 Systemen, da brauchst du nichts richtung Ati schieben. Die Umsetzung dieses Spiels war so grottenschlecht das es fast nirgends 'normal' lief. Die untere Hälfte deines Posts ist nur polemik!
 
Ich sag zu leuten auch immer das Flash auf Websites nicht wichtig ist, weil ich es nicht programmieren kann :D
 
@corpID: ...oder man ein Iphone hat :-)
 
@corpID: Dito. Und dann fang ich immer mit den Vorteilen von Ajax an, klappt in der Regel :)
 
@corpID: Flash ist ja auch nicht wichtig!
 
@The Grinch: Du kannst es also auch nicht :-).
 
@corpID: Für bestimmte Bereiche ist Flash das Beste wo es gibt. Und gar nicht so schwer zu erlernen. :)
 
@Zebrahead: Wer braucht Flash, wenn man Silverlight hat :D
 
@Dario: Ja vorallem findet man die Seite dann am besten in der Suchmaschine. Wofür solche langsamen plugins verwenden wenn es ajax gibt.
 
verwundert nicht die aussage, wenn man im gegensatz zur konkurenz noch nichts brauchbares am start habt mit dx11 unterstützung
 
@chris1284: und ich wart immernoch auf DiRT2 =(
 
wer erwartet schon leistung bei grafikanwendungen von einer grafikkarte..
 
@chillah: Auf was für verrückte Ideen die Konsumenten immer kommen!
 
@chillah: Ich warte noch auf die übernächste Generation. Die soll noch viel langsamer sein ....
 
@Metzelsuppe: Das ist bei Nvidia die nächste nur mit neuen Namen.
 
besser man hat als man hätte
 
Erst mal das 10.1 richtig hinbekommen - dann klappts auch mit dem 11 er :)
 
Ja, ne... Wollen halt ein bisschen ablenken das sie es nicht so richtig gebacken kriegen mit ihrem DX11 Pendant! Klar interessiert DX11 niemanden, alle sollen das Leistungsmonster G300 kaufen, wer will schon den beinahe filigranen Künstler des Klassengegners der lieber mit Köpfchen antritt statt mit Muskeln? Lieber duch die Wand als die Tür... oder etwa doch nicht?
 
Als DX10 rauskam und Nvidia die ersten waren hieß es noch "DX10 ist wichtig für die Kundenr" Nun wo DX11 kommt und Ati bereits einen Chip präsentieren kann, zählt natürlich anderes
 
@ThreeM: Na ja DX10 war schon ein stück wichtiger als DX11 jetzt. Als Vista rauskam gab es ja schon die ersten DX10 karten viele haben beim umstieg auf Vista eben auch einen neuen PC gekauft und wenn man auf Gaming wert legt wäre ne DX9 karte nicht ganz so gut rüber gekommen.
 
@-Revolution-: Ich finde DirectX 11 sogar bedeutend wichtiger als Dx 10. Es halten wesentlich mehr neue Techniken Einzug und man bekommt durch die Kompatibilität zu Windows Vista viel schneller einen Markt für entsprechende Anwendungen. Was Nvidia da macht ist Fortschrittsbehinderung.
 
@-Revolution-: Ich würde das jetzt nicht ganz so sehen! Dank Compute Shader und den Verbesserungen an der Schnittstelle selber erlauben dem Nutzer mehr Leistung aus der Graka zu ziehen als jemals zuvor! Sprich die Graka (damit meine ich alle Hersteller) wird erstmals (abgesehen von Cude und Stream/Brook+) umfassend nutzbar (Physik in Spielen, Physik in Simulationen, Transcoding von Videos, besseres und beschleunigtes Raytracing etc.)! Ergo: Da der Kunde möglichst viel für sein Geld haben will, wird er schon auf DX11 achten!
 
DX11 ist für MS und Win 7 wichtig. Warum sonst müsste man sich neue Karten kaufen. So gut kann man auf beim XP bleiben.
 
@kinterra: Tut mir Leid, wenn du immer noch XP nutzen musst, ich will die Vorteile von Vista oder 7 nicht mehr missen. Aber OT...
 
"Stattdessen wollen sie eine Software, die den Grafikchip für die Berechnung komplexer Aufgaben heranzieht..." Recht hat er. Und auch da ist ATI mit der Unterstützung von OpenCL-Standard und DirectCompute 11 besser aufgestellt, so dass nicht mehr auf ein proprietäres CUDA gesetzt werden muss.
 
@satyris: Du hast schon recht, aber OpenCL wird auch ohne DX11 möglich sein!
 
@satyris: Idiot: propritär ist für dich von Vorteil, wenn du propritäre Sachen nutzt
 
Die Aussage verstehe ich nicht. Wenn bei mir eine Graka fällig wird, will ich natürlich eine, die auch die neuesten Technologien unterstützt. DX11 ist momentan ein "must have". So kann man natürlich auch der Konkurrenz das Feld überlassen.
 
News : Nvidia ist nicht wichtig für Käufer ATI reicht .
 
..HAHAHAHA...nur weil sie es selbst nicht hinbekommen, ist es auf einem mal nicht wichtig....Grütze von sich geben, das können sie...
 
nVidia hat da nur einen Fehler drinn...Compute Shader sind ein Teil von DirectX 11...wie wollen sie auf ner GPU Programme ausführen wenn diese keine Compute Shader können?
 
LÖÖÖÖL da ist mir ATI wesentlich sympatischer Nvidia das wars wohl für immer......bye bye!!!!!
 
@Boskops: Unfähigkeit wird durch solche Meldungen bestätigt. Nvidia soll mal entwickeln und nicht nur neue Namen vergeben. Von ATI lernen, heißt siegen lernen!
 
Ich war immer Verfechter von Nvidia, aber wenn die nun wirklich DX11 als unwichtig einstufen und in absehbarer Zeit keine DX11 Karten ankündigen, dann war es das. Direct3D11 und die Compute Shader sind ganz einfach überzeugende Features. Wenn Nvidia glaubt, die Kunden würde das nicht interessieren, dann haben sie sich (hoffentlich?) getäuscht.
 
Das NV Statement klingt eher nach einem wehementen Versuch einzig und alleine CUDA zu forcieren. Immerhin bietet DX11 den Vorteil das Physikberechnungen auch ohne CUDA auf ATi Hardare ohne weiteres möglich sein sollte.
 
Mit einer GTX260 216SP OC kann ich ohne Probleme alles in Full-HD zocken mit max Details, FSAA und PhysX. Wenn ich die Karte gegen eine ATI 5xxx tausche kann ich bestimmt immer noch alles in Full-HD zocken mit max Details und FSAA. Ich werde dann wahrscheinlich besseres FSAA nutzen können aber sonst seh ich keine Vorteile. Die PhysiX-Effekte wären allerdings weg. Spiele die die Karte fordern gibts noch nicht. Bis es die gibt hat nVidia DX11-Karten draussen, die schneller und teurer sind als die von ATI.
Für mich als Käufer ist die DX11-Fähigkeit der ATI-Karten absolut kein Grund diese zu kaufen.
Sieht das jemand anders? Wenn ja dann bitte antworten und nicht auf minus klicken.
 
@c80: Und wie...denn D3D11 ist im Gegensatz zu D3D10 zu 9 mit der 10er Version sehr ähnlich...so wird es nicht viel Aufwand für Spielestudios welche DirectX10 Games entwickeln auch solche für 11 raus zu bringen. Zudem werden immer mehr Programme welche Videos kovertieren, Bildbearbeitungsprogramme usw. auf Compute Shader setzen um enorm viel Performance raus holen zu können. Das wird nicht lange dauern...ich gebe den Entwicklern 3-4 Monate bis das erste Material da ist...maximal. Weiter sagst du dass nVidia schnellere Karten als den RV870 bringen soll...nur wird dieser ein enormer Sprung gegenüber dem RV770 sein denn man sehe nur einige Grundlegende Informationen zu den Karten...trotz 40nm Fertigung 10% grösser...doppelt so viele Shader Einheiten usw. da rechne ich gut und gerne mit 70% mehr Leistung...und wenn der GT300 genau so ein Reinfall wird wie der GT200 beim Launch sehe ich für nVidia einfach nur schwarz...
 
@c80: Dööööd, du redest davon das PhysiX abhanden kommt? Dank DX11 kannst du mit Compute Shadern auch Physik berechnen! Dank OpenCL könnte PhysX auf jeder OpenCL-tauglichen Architektur laufen!
Compute Shader würden auch noch erlauben eine Anwendung zu schreiben die auf allen DX11-Grakas läuft! Ergo mehr ansporn für die Entwickler! Da Ati deutlich mehr Shader bietet könnten extrem-parallelisierte Anwendunge eigentlich bessera auf Ati basierter hardware laufen (nur ein Gedanke).
Sonst noch was vergessen? Ach ja, die beschleunigte Schnittstelle gibt allein beim umstellen der API-Calls schon einen boost in der Geschwindigkeit (gab mal ne news dazu) Wie sieht es danna us wenn man die engines wirklich auf DX11 aufbaut? EDIT *Die Kommentarfunktion hat was verschluckt, habe es wieder nachgetragen*
 
@bluefisch200: Videokonverter und Bildbearbeitung gibt es doch jetzt schon für CUDA. Der GT200 war beim Launch schneller als alles was ATI im Angebot hat. Das ist übrigens bis heute so geblieben. Wenn ATI die Shader verdoppeln kann schafft nVidia das auch, beide lassen bei TSMC fertigen! Und selbst wenn nVidia nicht vor ATI die Karten rausbringt schaffen sie es bestimmt noch bevor es passende Spiele gibt. So lange kann ich warten und muss mir keine ATI-Karte zulegen.
 
@DBDash: wenn ATI wollte könnten die PhysiX auch jetzt schon unterstützen. Wollen sie aber nicht. Ich würde wetten dass die OpenCL-Implementierung von PhysiX noch bis zum Launch des G300. ATI-Shader musst du durch 5 teilen, nVidia-Shader nicht. Also hat nVidia mehr. Deshalb sind ja auch die nVidia-Karten schneller.
> Wie sieht es danna us wenn man die engines wirklich auf DX11 aufbaut? < dann gibt es von nVidia auch DX11-Karten.
 
@c80: Wir erinnern uns...ATI R770 aka HD 4870X2 vs GTX280...ja? Ach und noch so am Rande...DirectX 10.1? Es gibt die Games...aus gewissen ist es sogar wieder entfernt worden...keiner wies wieso...nur dass beim starten der Spiele ein grosses nVidia Logo kommt weis man...
 
@c80: Darf ich dir einen Tipp geben? Zieh deinen grünen Kampfanzug aus, setz dich mit deinem roten Gegner an den Tisch, und wäge beide Parteien gegeneinander ab, anstatt nur wild mit Halbwissen um dich zu schießen. Schon richtig, beide lassen bei TSMC fertigen. Beide Grafikchips haben unterschiedliche Architekturen, das kann man nicht mit einander vergleichen. ATi hat 5D-Shader, richtig. Nvidia 1D-Shader, auch richtig. Aber dadurch ist eine Nvidia nicht zwangsläufig schneller. Die 5D-Shader können bis zu 5 Operationen in einem Shader gleichzeitig durchführen. Wohlgemerkt, Out-Of-Order. Das heißt, wenn 3 noch am rechnen ist, und 5 braucht das Ergebnis aus 4 und 3, nützen einem die 5D-Shader nichts, weil der eine auf den anderen warten muss. Bei 1D-Shader kann nur eine Operation zur Zeit ausführen. Und dadurch haben die ATi-Karten auch so eine massive Rohleistung - weitaus mehr als die Nvidia-Pendanten. Die 5D-Shader zu programmieren ist eben schwerer, lohnt sich aber. Und diese Aussage von Nvidia lässt die Firma nicht in einem sehr guten Licht stehen und schraubt ihre eigene Seriösität um ein vielfaches nach unten.
 
@bluefisch200: die 4870X2 gab es nicht beim Launch des G200 außerdem vergleichst du einen Apfel mit zwei Birnen :-)
AC hatte DX10.1 richtig. Das brachte fast nur Geschwindigkeitsvorteile. Ob die Graka 70 oder 90 fps berechnet ist mir bei einem 60Hz TFT aber egal.
 
@HardAttax: Würdest du in meiner Situation wechseln? Wenn ja warum? Mit deinem Tipp hast du ja recht, aber ich habe doch schon abgewogen. Ich sehe nur zur Zeit keine Vorteil von ATI. Wenn der 5xxx da ist sehe ich keine Notwendigkeit für eine neue Graka. Und ich spekuliere dass nVidia wenn sie ihre Karten als zweites rausbringen diese so gestalten, dass sie besser sind als ATI. Und dass die Shader bei ATI komplizierter zu proggen sind ist für dich wirklich ein Vorteil?!
 
@c80: Grafikkarte mit einem Preis vs. andere Grafikkarte mit einem Preis...ich vergleich Apfel mit Apfel...einer davon kostet viel weniger und ist grösser...und AC...nun interessiert mich aber ob ich 20 oder 30 FPS habe...
 
@bluefisch200: Die x2 braucht viel mehr Strom. Ob die Karte insgesamt also billiger ist oder nicht hängt wohl davon ab wieviel man sie nutzt. Wenn man wenig spielt ist die x2 günstiger, irgendwann aber nicht mehr.
Aber ob 20 oder 30 fps ist doch total egal, da brauchst du in jedem Fall eine neue Graka
 
@c80: Du bist ja mal der Hammer^^ Du willst ein gegenargument bringen aber argumentierst in eine ganz andere richtung. Ich erzähle OpenCL machst möglich, du erzählst wenn ati wollte ..., ich sage massive shader (nur ein gedanke) ... du sagst: musst durch fünf teilen ... Nvidia ist schneller, ich sage: wenn allein die api calls (DX11) schon so schnell sind was geht dann bei voller implementierung ... du: dann hat Nvidia auch dx11 karten!
Und so sieht es nicht nur bei deinen gegenargumenten zu meinen argumenten aus, sondern das machst du mit jedem.
zu re:08 Woher weisst du das Nvidias Architektur so viel Leistung hergibt (insider?)? Der Vorteil ist nicht die programmierung, sondern das fünf Shader zur verfügung stehen die man nutzen KANN! Selbst wenn du nur 3 von fünf Shadern nutzt so kannst du doch mehr operationen gleichzeitig ausführen als wenn du jeweils nur einen shader benutzt! Verstanden? Der Cell ist zwar auch nur ein PPC, aber er hat seine SPEs und so sieht es auch bei den Shadern von Ati aus!
 
@DBDash: DU bist der Hammer! Verstehste die Argumente nicht? 1) Wenn du erzählst das mit OpenCL auf jeder OpenCL-tauglichen Architektur PhysX laufen würde dann passt das sehr gut wenn ich sage dass PhysiX bei ATI nur nicht läuft weil die es nicht wollen. Das ist doch kein Kaufargument für ATI, dass die neue DX-Generation bei ATI das möglich machen _kann_ was bei nVidia schon seit längerem auch ohne geht.
2) Die Vorteile durch die API bringen doch wirklich erst was wenns Spiele dafür gibt. Meine Kernaussage war aber dass z.Zt. eine günstige (ca 150&$8364:) nVidia-Karte ausreicht um alles nahezu perfekt zu zocken. Mehr geht dann nicht bis die Spiele angepasst sind. Wie lange hats bei DX10 gedauert bis es viele Spiele gab? Das wird auch diesmal wieder Monate dauern (ja insider, bin selbst Entwickler). In dieser Zeit wird nVidia ihre Karten fertig haben (reine Spekulation). Wenn nVidia ihre Karten draussen hat werden die ATIs billiger (Wettbeweb). Wenn nVidia die Taktraten der einzelnen Modelle festlegt kennen sie ja die ATIs schon. Die legen die dann einfach so fest dass ihre Karten besser sind (warum sollten sie irgend etwas anderes machen!?)
3) Die theoretische Leistung der ATIs liegt etwa 20% über der der nVidias. Das ist 1/5. Wenn also einer von fünf nicht genutz werden ist die Anzahl gleich. Wenn mehr als einer nicht genutzt wird ist die Anzahl kleiner. Außerdem gibts bei ATI z.Zt. nur 160 Shader bei nVidia 240. 240 >> 160
4) Cell ist scheiße zu Proggen deshalb ist die Xbox ja auch meist besser als die PS3 obwohl die PS3 mehr Leistung hat.
 
@c80: ati hat keine lust physx einzubauen? leider falsch deine aussage, physx kommt von nvidia und solange die keine lizenz herausgeben dafür, darf amd nix einabauen.
 
@Odi waN: laut Lizenz ist PhysX frei wie Bier. Informier dich besser bevor du schreibst
 
@DBDash: so jetzt sind die Karten mit DX11 draussen. Und? Für PhysX brauchste immernoch nVidia und die alte GTX295 schlägt die neue 5870. ATI failed
 
War das bei DX10 nicht mal andersrum?
Wie sich die Zeiten doch ändern!!!
 
@Hennak: ja stimmt, damals sagten ja alle DX10 sei total unwichtig,da es nur n paar effekte bringen wird. wie eben Vista ständig kaputt geredet wurde.. und jetzt wird das gleiche mit DX11 anscheinend gemacht: wobei ich durch einige videos die ich schon gesehen hab um DX11 echt überzeugt bin.. aber naja, Forschung und Entwicklung kosteten schon immer Opfer, man muss sich ja nicht unbedingt zwingend um W7.. oder um spiele zu spielen gleich ne' DX11 Grafikkarte Kaufen. Nur es gibt genug Enthusiasten die sowas gerne haben würden...
 
Huiuiui! Ich hab ja DX11 installiert, seh ich grad im dxdiag :))
 
Zitat:"Eine erste Testreihe des GT300-Chips wies zahlreiche Fehler auf, so dass nur wenige brauchbare Exemplare für interne Tests verwendet werden können." / Sind wohl vom selben "Konstrukteur" wie die mobilen Grafikchips, die Reihenweise bereits in den Notebooks hopps gegangen sind. Das lässt ja hoffen... :o
 
@Necabo: lol, böse aber rofl
 
ob mir DirectX 11 nicht wichtig ist? Mir ist nvidia nicht wichtig.
 
Völlig egal ob Nvidia oder ATI - DX11 ist nach DX10 und der Tatsache das DX9 immernoch Standard ist, definitiv kein Kaufgrund. Das wirklich Interessante an dem DX11-Hype ist, ob die älteren Karten dafür schneller billiger werden. Ob die ATI-Karten besser mit DX11 klarkommen als Nvidia steht letztlich auch als kaum überprüfbar im Raum, weil so gut wie nirgends DX11 Einsatz findet.
 
@Hellbend: richtig!
 
@Hellbend: wer braucht schon dx 10.1, denk mal zurück an die aussage und mittlerweile haben 80% aller spiele 10.1, merkste selber oder? troll
 
... sagten sie und fegten die überreste von kapputten dx11 chips untern Teppich
 
...hofft Nvidia. xD
 
DX11 hat eine einheitliche API für GPGPU Berechnung geschaffen. Wer wird jetzt noch speziell für NVidia programmieren, wenn die Software im nächsten Jahr auf ATI sowie NVidia Karten läuft ? Aber okay, den Finanzanalysten kann man viel erzählen, die haben von PC's wahrscheinlich soviel Ahnung wie ich vom Kochen ! =D
 
Dieser Verein ist nur noch zum brüllen. Natürlich ist DX11 unwichtig weil man selber kein Produkt hat, bzw. dieses sehr viel später kommt. Oder liegt es vielleicht auch daran das keiner den G300 haben möchte weil er zur zweiten Serie gehört? Zweite Serie bedeutet einfach, das jede zweite GPU Generation von NV ein Leistungsflop war: GF4 Gut, GF5 Schlecht, GF6 Gut, GF7 schlecht, GF8 gut, GF9=GF8= schlecht, GF200=halb und halb. Wenn der Rythmus beibehalten wird, dann müsste die 300er Reiher von NV wieder ein Leistungsflop sein. Vor drei Jahren war NV ordentlich am Werbetrommel rühren das man unbedingt den G80 wegen DX10 kaufen müsste ect.. Der einzige wirkliche Kaufgrund war damals der enorme Leistungszuwachs gegenüber der alten Serie, nicht DX10, denn der erste DX10 Only Titel liess ja lange auf sich warten. Das geblubbe jetzt dient wohl nur zur Schadensbegrenzung, denn die Aktionäre wollen bei Laune gehalten werden. Es wird jetzt doch sehr spannend die nächste Zeit: Was wird die neue ATI leisten, wann wird der G300 kommen und was wird er leisten. NV sollte eigentlich nicht so schnell pleite gehen, die haben doch ne menge Kohle mit dem G80 umgesetzt. Damals war keine gute Karte unter 300 Euro zu bekommen, erst die 88GT sorgte damals endlich wieder für ein gesundes P/L.
 
@Akkon31/41: Erst war DX10.1 unwichtig jetzt ist es auf einmal DX11, wie arrogant muss man sein, um solchen "geistigen Dünnschiss" behaupten zu können? Ich hoffe das Nvidia allein für diese Arroganz erneut bestraft wird indem ihre neuen Karten ein Flop werden. Ich denke auch das ATI bei seinen Karten noch ein programmiertechnisches Ass im Ärmel hat um Nvidia gegebenenfalls ausstechen zu können falls deren Karten doch ein wenig schneller sein sollten.
 
DX11 braucht die Wlt nicht, genau so wenig wie DX10. Wollte mit dem nur sagen das DX9 immer noch Standart ist. Zu 80% aller Rechner auf der Welt wird immer noch mit DX9 gespielt! Ist so, Punkt, aus, vorbei!
 
@Rombow: Ja, und jetzt überlege mal ganz scharf nach, wieso das so ist. DX9 gits seit 2004 und DX10 seit 2007. Daher wird sich der Marktanteil von DX9 immer weiter verringern.
 
@Rombow: wie du meinst, aber das schon DX10 dank universal shader und abkehr von der fixed function pipeline den Entwicklern viel mehr möglichkeiten gegeben hat die eigenen produkte optimal zu gestalten und DX11 eine deutliche beschleunigung und Compute Shader bringt um die Graka noch effektiver zu nutzen ist dir wohl entgangen! Gut vielleicht bist du nur ein Endverbraucher den sowas nicht interessiert, aber die Entwickler interessiert es. Und du genießt die Vorteile in form von Anwendungen und Spielen ohne dir einen Kopf machen zu müssen. Deswegen, wenn dich ein Thema eigentlich nicht interessiert, poste bitte nicht!
 
Wenn soetwas offiziell verkündet wird, heißt das nix gutes für den Fortschritt beim G300.
 
Für mich war schon DX kein Grund eine neue Graka zu kaufen. Von daher.
 
Pff die sollten einfach mal DX 10 und 11 auch für XP zugänglich machen, es ist doch wirklich ein ziemlich ********** Marketing wenn man mit der Lächerlichen begründung es gibt "Implemtierungsprobleme" die Käufter zwing sich ein neues Betriebssystem zuzulegen.
 
@iph8x: da du ja anscheinend der implementierungsgott bist, kannst du uns ja mal aufklären, wie einfach es gehen soll, dx10/dx11 in das treibermodell von xp zu integrieren...
 
@klein-m: Ist doch uninteressant! DX9 bleibts noch zig Jahre, also warum der Stress!
 
@iph8x: Leute es gibt eine DX10/11 Version für XP und sie funzt sogar(nicht perfekt aber immerhin)!!! Ok, das kommt nicht von M$ und wird auch nicht gerne von denen gesehen. Aber es gibt sie!!! *g* Mal google bemühen *g* Assassin's Creed läuft wunderbar!!! BioShock so wie es aussieht auch. Batman Arkham Asylum Demo läuft scheinbar auch mit der DX10 Version. Man muss nur was in einer INI einschalten. @klein-m wie Du siehst, ist es doch möglich. Der Schluß ist, wenn es unter OpenGL geht, ist es auch mit DX möglich. Das Argument es ist zu tief in BS verankert, ist nur eine ausrede, um deren neuen Produkte(Vista/Win7) zu verkaufen. Ausserdem ist nicht damit DX selber gemeint, sonder die Nutzung der Effekte in BS(also XP) selbst. - So nun mal was zum Thema: DX11 ist wohl ohne zweifel das bessere DX10. Alleine die brachiale Rechenkraft, die dadurch endlich für den Heimanwender zur Verfügung steht ist gewaltig. Im nächsten Jahr werden wohl so viele Programmen auf dem Markt kommen, wie es damals mit SSE und co war. Besondere im Video und 3D/raytracing Bereich wird die Auswahl dahin gigantisch sein. Was besonders interessant ist, ist die Welt der Emulatoren. EMUs für PS2 und Co. werden nun in Geschwindigkeiten vordringen, die das behalten der Konsole überflüssig machen. GrandTorismo4 und andere Spiele werden nun wohl in HD mit Spielbaren FPS möglich sein. Nein ich meine nicht PS3 und XBox360. Obwohl auch da jetzt wohl was machbar wird. In diesem Sinne: "lassen wir es auf uns zukommen". :)
 
"Software sells Hardware", das gilt auch heute noch. Bis jetzt sah ich noch kein DX10-Game, das ein Kauf im Mindesten einer neuen GFX-Karte rechtfertigte - auch Grafikblender mit einem Spielwert einer Tagesfliege nicht. Und solange es keine guten DX10/11 Spiele gibt, bleiben die auf ihren stromfressenden Grafikbrettern sitzen.
Föhn und Heizung hab ich schon.
 
... der für mich persönlich wichtigste Vorteil der neuen DX11-Karten von ATI/AMD liegt in erster Linie an der neuen 40nm-Struktur! Ich erhoffe mir dadurch einen geringeren Energie-Verbrauch im Verhältnis zur erbrachten Leistung, was sich möglicherweise auch auf eine leisere Referenzkühlung auswirken mag. Und sollte sich tatsächlich auch die AF-Qualität von ATI verbessert haben, wird meine alte 8800GTS/640MB sehr wahrscheinlich von einer HD5770 abgelöst werden ...
 
Das ist als würde ich bei nem Bewerbungsgespräch sagen, dass gute Noten nicht wichtig seien. Hahaha.
 
DirectX ist für Käufer NOCH nicht wichtig. Wirds aber bald. Also ranhalten, nVidia. Aber auch net hetzen, gell :)
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles