Watch Dogs-Vorwürfe: Nvidia 'verkrüppelt' Leistung auf AMD-Karten

Das Ubisoft-Spiel Watch Dogs leidet in der PC-Version noch an einigen Performance-Problemen, diese will der Publisher aber alsbald per Patch beheben. Sofern man das überhaupt beeinflussen kann: Denn aktuell wirft AMD seinem Konkurrenten Nvidia vor, über ... mehr... Nvidia, Chiphersteller, Grafikkartenhersteller Bildquelle: Nvidia Nvidia, Chiphersteller, Grafikkartenhersteller Nvidia, Chiphersteller, Grafikkartenhersteller Nvidia

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Verstehe ich irgendwie nicht. Wie kann NVidia die Leistung von AMD Karten bremsen?
 
@endless90: Da bin ich ja beruhigt, dass es nicht nur mir so geht. Hab mich gar nicht getraut zu fragen ;)
 
@endless90: Na Nvidia ist schuld, dass AMD noch nie funktionierende Treiber programmieren konnte und es nie können wird- Ist doch nur logisch
 
@Lon Star: nvidia betreibt seine eigenen treibe für ihre nvidia karten und nicht für amd karten ( ATI Karten ) ~~
 
@Lon Star: Das liegt sehr weit zurück. So ein Kommentar kann ja eigentlich nur jemand schreiben der seit 5 Jahren kaum/nichts mit ATI-/AMD-Grafikkarten zutun hatte. Denn das CCC von ATI damals war wirklich Schrott und brachte meist nur Probleme. Allerdings, seit dem AMD den Laden übernommen hat ist das CCC meiner Meinung nach sogar besser als die Nvidia-Treiber-Software. Ich denke auch, da ich seit mindestens 10-15 Jahren AMD und Nividia gleichermaßen immer wieder im Einsatz habe, kann ich das durchaus beeurteilen. Aber nichtsdestotrotz ist das ist nur meine persönliche Meinung.
 
@endless90: In dem die Spiele einzig und alleine auf Nvidia Karten optimiert werden.
 
@endless90: Die erwähnte Middleware (Gameworks), die von Watchdogs verwendet wird, ist von nVidia. Damit ist für nVidia ein leichtes Befehle, die an AMD-Karten geschickt werden durch ein paar zusätzlich Loops zu schicken. Das hat dann zur Folge, dass AMD-Karten vermeintlich langsamer sind.
 
@Mitsch79: achso. vielen dank.
 
@Mitsch79: Gut beschrieben! Das bedeutet aber natürlich nicht, dass NVidia das wirklich macht. AMD ist nur angepisst, weil die Gameworks-Schnittstelle benutzt wird, die vom Konkurrenten stammt. Selber haben sie etwas ähnliches: die von AMD definierte Mantle-Schnittstelle. Das proprietäre Mantle-API unterstützt NVidia-Chips bisher gar nicht. Mantle wird von Spielen wie Battlefield4, Thief oder Star Citizen unterstützt. Vielleicht sollte NVidia im Gegenzug auch mal meckern...
 
@Nunk-Junge: AMD ist bereit Nvidia die Mantle-Schnittstelle zur Verfügung zu stellen. Nvidia will diese aber nicht nutzen.
 
@M4dr1cks: AMD Mantle ist eine Schnittstelle, die die Nutzung von AMD Graphics Core Next Unterstützung der Hardware voraussetzt. Die Schnittstelle ist proprietör und wird es nur für Windows geben. Eine Öffnung für andere Hardware-Hersteller hat AMD zwar angekündigt, aber bisher nicht umgesetzt (soll ingendwann in 2014 kommen). Aber es steht zu bezweifeln, dass NVidia die proprietäre Schnittstelle unterstützen wird, da sie sich dann an den größten Konkurrenten binden.
 
@Nunk-Junge: Mantle wird auch compatibel für Linux.
 
@Nunk-Junge:
"...da sie sich dann an den größten Konkurrenten binden."

An den einzigen Konkurrenten!
 
@Mitsch79: wobei es hier noch weniger Beweise gibt als für den Skandal um Ritter und deren Schokolade. Das sind alles Vermutungen. Außerdem gibt es Haufenweise Spiele, die nur auf AMD-Prozessoren (in den Konsolen) laufen - und nun? Wenn sich ein Spielehersteller entscheidet Unterstützung von NVidia bzw. AMD zu erhalten, ist es klar, dass diese meist zugunsten des Helfenden ausfällt. Eigentlich müsste man die Programmierer von WatchDogs fragen warum sie das machen. Aber es ist doch viel spannender die Konkurrenz zu beschimpfen. Mir ists egal - ich habe eine nvidia Grafikkarte, da meine AMD Karten dauernd so heiß waren, dass man darauf kochen könnte (von der Abwesenheit einiger alter aber elementarer Funktionen wie T&L in Radeon 4xxx+HD ganz zu schweigen).
 
@divStar: Sicherlich sind es nur Vermutungen, aber es würde doch naheliegen das Nivida da die Finger im Spiel hat. Man kann nicht abstreiten das AMD ein starker Konkurrent ist der sogar noch dauernd die Preise nach unten drückt.

Wären die Entwickler selbst schuld, wäre das nicht auch ein Machtmissbrauch seitens Ubisoft? Sicherlich eine schwere Anschludigung, aber Ubisoft ist kein kleiner Publisher und schließlich reden wir hier ja nicht von ein paar Prozent abweichung. Die Leistung ist, laut diesen Aussagen, wohl schon um einiges beeinträchtigt. Naja und das Ubisoft lieber mit Nvidia geschäfte macht ist ja auch bekannt.

Auch wenn sich viele AMD-Nutzer darüber Aufregen, diejenigen die das Spiel haben wollten werden es ja sicherlich trotzdem kaufen. Hat man bei anderen Sachen schon zu genüge gesehen. Die Einen produzieren die Scheiße und die Anderen fressen die Scheiße.

Tja und der Kunde ist für gewöhnlich dumm genug die Scheiße zu fressen.

Ganz gleich wer der verantwortliche ist, meiner Meinung nach sollte da noch mal Hand angelegt werden. Man kann hier nicht eine Seite außen vor lassen, nicht in solchen Ausmaßen.

Ich gehöre selbst zu den Leittragenden. Bei meiner Gaming-Maschine habe ich mich für AMD entschieden und auf Watch Dogs hatte ich mich "eigentlich" schon gefreut. Naja zum Glück kann mich ein Publisher/Hersteller wohl kaum dazu bewegen meine Entscheidung zu bereuen, eine Sauerei ist es aber trotzdem. Zudem komme ich mir schon vor als wenn jemand möchte das ich es bereue, auch wenn das ein wenig paranoid herüber kommt.

"Kaufen" werde ich das Spiel unter den Vorraussezungen jedenfalls nicht!
 
@Si13nt: ich gebe dir Recht, dass es dann Machtmissbrauch seitens Ubisoft wäre. Aber kein Publisher der Welt ist verpflichtet Spiele zu machen, die gleichermaßen und gleich-performant auf allen Plattformen und Grafikchips laufen. Wenn Ubisoft es sich leisten kann und will, dass AMD-Spieler außen vor bleiben, dann ist das so und man sollte es sich halt merken und nächstes Mal kein Spiel von denen kaufen. Aber einfach nur etwas herausposaunen ohne Beweise ist schon etwas arg.
 
@endless90: tja auf meiner amd karte in der ps4 wird nichts gebremmst ^^
 
@isedulkt: du zockst mit max 30fps und nennst das ungebremmst?!...
 
@Fanel: 720p @ 30fps heißt doch NextGen oder ?
 
@Fanel: Du schaust Filme mit 24fps...
 
@Paradise: Das is der schlechteste vergleich EVER, da es mitlerweile auch 60FPS Filme gibt. Ich zock auf einem Gaming PC (kein High end), mit einer Titan und Quadcore. Eig läuft jedes Spiel auf min. 60 - 120 FPS auf meinem schönen 120 Hz Monitor. Sorry, aber wenn ich mir diese verwaschenen Bilder auf den "NEXT-Gen" Konsolen angucke, wird mir schlecht.
Die Konsolen an sich sind ganz ok, aber die Bezeichnung "NEXT-Gen" ist totaler müll. Die Konsolen sind so gut, wie mittelmäßige gaming pc's seit letztem Jahr.
 
@sunrunner: ja ist ja alles richtig ^^ aber die mehrausgaben (allein für deine hardware) sind mir die games einfach nicht wert :-( .... ich möchte einfach nur die aktuellen spiele spielen mehr nicht .... und ob ich da nun jede hautschuppe sehen kann ist mir eigentlich völlig wumpe ....
 
@sunrunner: Die Titan an sich ist schon HighEnd......
 
@isedulkt: die mehrausgaben hast dann halt bei den spielpreisen (klar gibts auch teuro games auf dem pc...)
 
@Paradise: Soll ich dir jetzt wirklich den unterschied zwischen einem Film und einem Game erklären?! Wenn dir 24 fps reichen, na dann herzlichen Glückwunsch...das ist die "next Gen" Konsole für dich genau das richtige. Ich Zahle lieber mehr für meine hardware und genieße wirkliches next gen.
 
@Fanel: Womit mal wieder bewiesen wäre wie gut Marketing funktioniert. Wenn ab einer bestimmten Anzahl von Bildern pro Sekunde es für das Gehirn keine Diashow ist dann ändern auch 60fps nichts dran. Hm, selbst auf meinem NES, Sega, auf meinen DOS und Commodore Rechnern hab ich keine Diashow.
 
@Paradise: ja dass kann man ja auch super miteinander vergleichen, besonders wenn man jetzt auch noch online mp zockt. Da sind 30 fps der hammer. Und auf der next gen sind 30 fps das maxium. Schau dir mal an wie oft das auf der konsole bei action in eine diashow abwandert...
 
@sunrunner: Am Wort "EVER" kann man schon die Altersgruppe einschätzen. Siehe meinen Kommentar über diesem. Ich habe in den 90ern Radio und TV Techniker gelernt und damals hat man den Menschen schon weismachen wollen das 100Hz TVs besser sind. Fakt ist das die Digital Chassis das Bild nur unnatürlich und schlechter gemacht haben. Beim LCD heute das selbe Spiel. Röhren machen das bessere Bild bei allem was nicht 1080p und nicht komprimiert bis zum abwinken ist. Lustig wirds bald mit den 4K TVs. Da darf sich dann jeder einen 4000€ Scaler kaufen damit die DVDs noch halbwegs anschaubar sind - vom TV Programm ganz zu schweigen.
 
@Fanel: Wenn es in eine Diashow abwandert sind es aber keine 25~30 fps mehr. Dann sind die frames eingebrochen...
 
@Paradise: jo eben, und wenn ich mit 60-80 fps hab und es bricht mal kurz auf 40 fps ein, juckt es mich nicht wirklich. Soviel dazu, man benötigt nicht mehr als 30 fps und alles andere ist marketing
 
@Paradise: Mit den Bildwiederholraten ist immer schon so ne sache gewesen. Für mich (persänliches empfinden) sind bei einem Computer 100 FPS+ einfach pflicht. Alles, was unter die 40 - 50 FPS geht sieht einfach nicht schön aus.
Is vermutlich immer ansichtssache. Ich kann mir auch kein Fußball im TV angucken, ich hab immer das Gefühl, der ball zieht eine lange spur hinter sich her, oder wirkt total verschwommen.

Zum Thema Altersgruppe: Stimmt, ich bin "erst" 23, aber was hat das damit zu tun, dass für mich die FPS wichtig sind?
 
@isedulkt: Wenn ich bei meinem PC die Grafik auf dem Niveau einer PS4 anpasse, läuft das auch rund, nur bekommen ich dann das kotzen!

Aber die gute Next Gen Konsolen... Und Ihr kapiert immer noch ned das die Konsolen zurzeit der reinste Witz sind was Next Gen angeht...Aber nun gut mit max 30fps auf 720p zu zocken, wenn man bedenkt das nun bereits auf 4K gespielt wird...
 
@C47: da stimme ich dir zu
 
@endless90: in den meisten Konsolen läuft doch ne AMD Karte, wo ich kann mir nicht vorstellen, dass hier groß ein unterschied zur Windows-Version vorhanden sein kann. Zumal auf der XBox doch auch DX läuft - oder irre ich mich. (ja, ich weis - konsolen sind keine computer, aber ich kann mir schwer vorstellen, das sich diese so sehr unterscheiden)
 
@endless90: Ist es nicht immer so das die anderen Schuld für eigene Unfähigkeiten sind ?
 
@endless90: Ist mal wieder Bullshit vom allerfeinsten. Ein Spiel das für Nvidia optimiert ist, wird automatisch als AMD-Leistungsbremse postuliert ? Die Treiber-Entwickler bei nVidia stellen Performance und Konsistenz über die offizielle Spezifikations. Wenn man so mehr Performance rausbekommt, und alle anderen Anwendungen weiterhin laufen, warum nicht, warum blind stellen? Außerdem: Wenn es AMD mit nachträglichen Optimierungen schafft die Leistung zu Steigern sind sie doch auf dem besten weg die Optimierungen von nVidia nach zu vollziehen. Das ist ein Geschenk, keine Strafe. Edit: Es gibt diverse Trends in der Grafik-API-Entwicklung, und die gehen, vereinfacht formuliert, alle drauf hin, das die Grafikkarte eigenständig arbeitet. Ich lade alle Texturen und Geometrien in den Grafikspeicher, und liefere die Instruktionen mit wie diese anzuzeigen/zu verarbeiten sind. Ende. Da gibt's nicht viel für Grafikkarten-Marken zu optimieren. Jeder API-Aufruf der optimiert wird, ist ein Geschenk für alle Grafikkarten-Hersteller. Allein der Fingerzeig, dass in ein API-Aufruf noch Spielraum für Optimierung bietet sollte willkommen sein, egal für welchen Hersteller. Sich darüber auch noch zu beschweren ist pures Marketing.
 
Jedes System braucht halt sein Handycap. Die Konsolen haben ihre tollen Exklusivtitel und wir am PC haben eben eine Shit-Implementierung für die einen Karten und eine brauchbare für die anderen. So ist das halt in der Wirtschaft.
 
Wie gut, dass alle Konsolen auf AMD Karten basieren... Nvidias hilfeschrei vor der langsam kommenden Tod?
 
@Pug206XS: Wenn der Tod so rasant kommt wie bei Microsoft, dann hat nVidia noch sehr viel Zeit.
 
@crmsnrzl: Ist Apple nicht auch schon tot? :P
 
@RegularReader: kommt noch
 
@RegularReader: Mit den ganzen Trollklagen alleine hat Apple genug Geld gemacht, so dass sie nicht so schnell pleite gehen.
 
@Pug206XS: Wenn NVIDIA es nötig hätte in Konsolen vertreten zu sein, dann wären sie es.
 
@shinguin: Natürlich haben sie das...das ist ein riesiger und wachsender Markt! Im Gegensatz zum PC benötigt man bei Konsolen nur immer überarbeitete (nierdrigere Leistungsaufnahme, weniger Abwärme usw.), aber keine erweiterten Grafikeinheiten zu verkaufen (nicht mehr Leistung, Architektur bleibt gleich). Innerhalb einer Konsolengeneration von 4-8 Jahren bedeutet das ziemlich viel Kohle ;)
AMD hatte hier nur das bessere Angebot aus Preis/Leistung...dass nVidia hinterher behauptet, ihnen sei das alles nicht wichtig gewesen ist purer Unfug.
 
@bigspid: Aja, natürlich hat Nvidia kein Interesse Geld zu verdienen XD
 
Nun, AMD hat mit dem neuen Treiber bis zu 28% mehr Leistung rausgeholt. Alleine das zeigt, dass hier absichtlich nichts für AMD optimiert wurde. Wäre das Spiel unter normalen Umständen entwickelt worden, wären sicherlich an die 40-50% mehr Performance möglich.
 
@Laggy: ich stimme zu - hat weniger mit nVidia zu tun, als mit dem Publisher, der seine Engine nicht ordentlich optimiert. war bei GTA ja auch nicht anders.
 
@Spector Gunship: Muss nicht unbedingt die Engine sein. Es ist genauso gut möglich, dass nVidia in Gameworks bewusst "bremsen" einbaut, die allgemein die Performance stark nach unten drücken, aber die nVidia Karten nicht so stark ausbremsen wie dem AMD karten, da es ihnen quasi "besser liegt". In der Vergangenheit hat nVidia das bei Metro Last light gemacht. Hier wurden absurd hohe Tesselation Werte genutzt, die keinen Optischen vorteil brachten, und das Spiel sowohl auf nVidia als auch AMD ausbremsten. Es war jedoch bekannt, dass AMD weniger Tesselationsleistung hat als nVidia. Indem man nun den Faktor so hoch angesetzt hat kommte man so auf einfache Weise die AMD karten einbrechen lassen, indem man gezielt einen Flaschenhals ausnutzt, der bei vernünftigen/moderaten Tesselations Settings eigentlich gar nicht existiert. Nvidia nahm bewusst in Kauf, dass das Spiel allgemien schlechter läuft, nur damit der AMD flaschenhals richtig stark zur geltung kommt. Ganz nebenbei fördern unnötig hohe Anforderungen natürlich den Verkauf von neuen Grafikkarten.... Eine frechheit ist das. Und zwar von den Entwicklern, die sich von nVidia oder AMD kaufen lassen.
 
@Laggy: es ist auch möglich, dass wir alle in einer Matrix leben und diese unbewusst sogar selbst steuern, es nur nicht verstehen und nicht nachvollziehen können und daher denken, dass wir mit unserer Überlegung stets Recht haben... aber mal im Ernst: wo sind die Beweise? Hier wird nVidia ohne Beweise diskreditiert und dann hält man zu AMD? Als wären die das Unschuldslamm schlecht hin.... wenn ich mich Recht entsinne hatte AMD doch eine ganze Weile Probleme mit der Wärmeentwicklung bei Grafikkarten. Ich wette wenn sie gekonnt hätten, hätten sie es auch auf NVidia geschoben - ist ja schließlich einfacher als sich an die eigene Nase zu fassen und zu sagen "wir haben es verbockt - und geloben zukünftig Besserung". Aber ich glaube so etwas können Manager dort nicht einmal denken geschweige denn aussprechen.
 
@Laggy: Vielleicht sind die AMD Treiber auch mal wieder einfach Scheisse, und es ist ein leichtes 28 Prozent mehr Leistung raus zu holen.
 
Echt Fliegenschiss was AMD mal wieder von sich gibt. Nvidia-Karten machen gerade mal 1-2 FPS mit diesem Spiel gut, ansonsten ist es sowie als auch auf beiden Karten Gut spielbar.
 
Immer dieselbe Leier, jetzt AMD gegen Nvidia, bei Deus EX HR Nvidia gegen AMD... wird denen eigentlich nicht langweilig oder gibt es immer noch Idioten die auf sowas anspringen, ich meinte jetzt abgesehen von den Idioten die sich Fanboys nennen *g*

EDIT:
Denn beim beschei*en nehmen sich beide Firmen erstmal gar nix. Frei nach dem Motto: Gleich und gleich gesellt sich gern.
 
Spannend daran finde ich das sowohl XBox One als auch PS4 auf AMD Hardware basieren.
zumindest für die PS4 kann ich sagen es läuft extrem flüssig und gut, denn auf der spiele ich Spiel.
Bei einem Kumpel mit NVIDIA Karte (GTX660) im PC hab ich aber leichtes Ruckeln bemerkt.
 
@cathal: Ja, mit 900p, 30fps, Schatten auf niedrig und Texturen auf Hoch läuft das auch auf einem PC so wie auf den Konsolen... "Gut" ist allerdings anders.
 
@Minty_Insurrect: 900p? Komische Auflösung
 
@schultz: 1600x900 ist keine komische Auflösung, sondern eine Stinknormale 16:9 Auflösung. Komisch sind die 792p (1408x792) in denen es auf der XBone gerendert wird.
 
@Minty_Insurrect: ich dachte bedingt durch die 32Mb ..VRAM? oder RDRAM ... kann nativ nur bis 1600x900 gerendert werden? Wie kommt man auf 1408x792? (übrigens: das "p" steht für progressive (scan) und (wahlweise) das "i" für interlaced - nicht jede Auflösung ist automatisch "p").
 
@divStar: Wofür das p steht weiß ich... Wie Ubisoft auf 1408x792 kommt weiß ich allerdings nicht. Vielleicht weil die Hardware zu schwach ist, vielleicht wegen dem wenigen ESRAM und vieler Renderziele. VRAM kann man das ESRAM der XBOne nicht direkt nennen. Man kann es für Renderziele nutzen, und das wird es wohl auch, weil es schneller ist als der übrige DDR3-RAM, aber man muss es nicht unbedingt. Tut man es, sind die 5 Frames die bei 1920x1080 passen würden allerdings zu wenig wenn man für ein ausgegebenes Bild mehrere Renderziele braucht (Geometrie an sich + HUD + Postprocessing wären schon 3 Renderziele für ein Bild) und man dazu noch Double oder Triple Buffering einsetzen möchte.

Aber: Man könnte das auch im normalen RAM der XBOne machen oder durch diverse Tricks umgehen um auf 1920x1080 zu kommen. Wird man mit der Zeit vermutlich auch, aber da müssen die Entwickler die Hardware erstmal ein bissel besser kennenlernen.
 
@Minty_Insurrect: Ich sag mal so, 30FPS absolut konstant sind mir viel lieber als 60FPS mit Einbrüchen. Im Falle er PS4 ist jedenfalls alles Butterweich egal ob zu Fuß, im AUto oder in der Bahn.

Die 900p (1600x900) kann ich vom Sofa aus nicht von 1080p (1920x1080) unterschieden.
Ich bin auch extra mal direkt vor die Glotze gegangen, man sieht effektiv keine Skalierungsartefakte. Wenn es nicht irgendwer geschrieben hätte würde ich es für 1080p halten.
 
@cathal: Nun, wenn du 30fps als Butterweich empfindest, gut für dich... Mir gehts nicht so. Guck dir mal die Unterschiede zwischen 15, 30 und 60 hier an:

http://boallen.com/fps-compare.html

Also ich sehe da einen *deutlichen* Unterschied zwischen 30 und 60. Butterweich sind 30 jedenfalls nicht.
 
@cathal: Jeder der behauptet das 30fps genug sind hat einfach keine Ahnung. Schau dir die Unterschiede an dann wirst du merken das 60fps wesentlich angenehmer sind. http://30vs60.com/
 
@picasso22: Ich habe nicht geschrieben das 30FPS besser seien als 60, ich schrieb nur das mir KONSTANTE 30FPS lieber sind als 60FPS die aber je nach Szene einbrechen und mal nur 30,40 oder 50 sind.
Was den Eindruck von butterweich angeht, so ist mir speziell bei diesem Spiel aufgefallen das auch schnelle Schwenks extrem weich rüberkommen. Das ist auch bei verschiedenen Tests bemerkt worden. Möglicherweise ist das ein Motion Blur am Werk, wenn das so ist, ist es jedenfalls einer der nciht alles Weichzeichnet, das würde mich nämlich stören. Vieleicht berechnet ja auch der Scaler oder mein TV Zwischenbilder (letzteres wäre mir allerdings neu)
Ich kann nur sagen das MEIN Eindruck speziell bei diesem Spiel auch bei 30 FPS sehr gut ist.
 
@cathal: valide Meinung (habe dein -1 ausgeglichen). Allerdings ist das doch bei PC-Spielen üblich, dass sie mit variabler Bildrate laufen... und auch moderne Konsolen haben keine konstante FPS (es sei denn sie liegt tief genug, um das Spiel auf diese FPS zu beschränken). Bei PC-Spielen ist es üblich, dass man mal eine hohe, mal eine noch höhere Bildrate hat. VSync sorgt dafür, dass es keine vertikalen Teillinien gibt und eine korrekte Programmierung in den Draw- und Update-Schleifen des Codes sorgen dafür, dass der Spieler von einer höheren Bildrate profitiert. Diese sollte jedoch (und das ist bei vernünftigen Einstellungen, die zur Grafikkarte passen, meistens der Fall) nie unter mindestens 24fps fallen (und selbst dann nehmen einige Menschen ein "Ruckeln" wahr). __ Ich habe z.B. mal Fußball geschaut - mit regulären 25fps bzw. 30fps (wenns NTSC war) und mit 50fps. Der Unterschied ist insbesondere bei schnellen Kameraschwenks riesig.
 
hmm, liegts am IE oder warum erscheint nach meinem Edit der Eintrag noch einmal als o8?!
 
Hauptsache man hat ein halbes Jahr länger für dieses Schundspiel gebraucht um alles noch cooler zu machen....
 
War bei Assassins Creed 2? glaub ich auch das selbe. Da hatte der Entwickler selbständig DX 10.1 glaub ich? eingebaut welches damals nur die AMD Karten unterstützten und was denen auch einen Leistungsvorteil gegenüber Nvidia verschaffte. Der Patch wurde dann wieder zurückgezogen ;) Quelle hierzu: http://www.hardware-infos.com/news/2102/assassins-creed-directx-10.1-bleibt-entfernt.html
 
Wie heiß es nochmal ...wenn zwei sich streiten freut es den Kunden
 
@zak999: In diesem Fall sind die Leidtragenden aber die Kunden. Wenn das so weiter geht, braucht man irgendwann nen nVidia und nen AMD PC, damit man alle Spiele optimal spielen kann.
 
@Laggy: Ich Weiß das der Leidtragenden Kunde ist, aber sehe auch das AMD ein wenig für den Kunde kämpft oder auch nicht ....
 
Sollte das spiel denn mit Nvidia Karten gut laufen ? oder läuft es allgemein nicht flüssig ? Habe eine GTX 770 und Nutze die vom Nvidia Tool vorgeschlagenen "Optimal Settings" - und ich hab schreckliche lags beim Autofahren. Ist da das spiel schuld, sind die von Nvidia vorgeschlagenen settings unbrauchbar, oder was wäre da das problem ? ( z97-pro MB, 32 GB Ram, i7 4970k, Nvidia treiber vorgestern oder so erneuert)
 
@TN: Komisch, ich habe eine 680GTX (deine GTX 770 sollte sogar besser sein) und bei mir läuft das Spiel mit konstant 60-70 fps mit den empfohlenen Einstellungen von Nvidia. Also wird wohl etwas an deinem PC nicht richtig sein. Versuch es sonst mal mit der Neuinstalltion der Treiber, hatte mal ein ähnliches Problem mit Thief. Ansonsten kann es auch helfen Nvidia ShadowPlay zu deaktivieren, da dies manchmal auch für FPS-Drops verantwortlich sein kann.

edit: typo
 
@lini1990: Danke, Ich mache immer clean installs der treiber und habe - z.b. mit Thief -keine solchen Probleme. Hab bei Thief auch optimale Settings via Nvidia einstellen lassen und es spielt sich flüssig.
Ich schau mir mal das shadowplay an, wobei ich glaube das war sowieso aus.
 
@TN: Die Grafikkartenleistung hängt auch vom verbauten Prozessor ab :).
 
Wo hat AMD 40% Marktanteil? Bei Grafikkarten sind es ca 20% das ist mehr als Nvidia. Intel hat über 60% Marktanteil bei PC grafik. Von CPUs fang ich garnicht erst an. Wo kommen die 40% Marktanteil her?.
 
@Reude2004: PS4 und Xbone
 
ähh hier gehts um PC und der Grafik Marktanteil von Intel ist höher als von AMD und Nvdia zusammen auch wenn man die Konsolen mit einrechnet.
 
Das Spiel ist auf einem HighEnd Rechner unspielbar. Das Spiel hat mit 2 GTX Titan(SLI) einem 4930k und 64GB Ram (Spiel auf RamDrive installiert) mehr Ruckler als auf einer R9 290 Tri-X. Die Programmierung von WatchDogs ist die reinste Katastrophe.
 
@Triblerchris: hehe, Umsonst ram und etc...gekauft..lach
 
Das liegt an Beiden am Treiber wie auch am Spiel....die Komunikation zwischen den Beiden, ist mit Engpässen verbunden, die durch Standart Routine vollgestofft sind,deren ursprung aus der Entwicklungfase stammen. Leere Schwarze löcher. Standart Routine die es einfacher machen dinge zu konvertieren..;)
 
Gibt genügend Games die auf AMD Karten optimiert werden und die laufen dann trotzdem bestens auf NVIDIA Hardware, zeigt einfach mal nur wieder die Unfähigkeit der AMD Software Entwickler.
 
Nvidia war schon immer unerbittlich und sie haben noch nie fair gekämpft. Mussten ja auch schon Strafe zahlen. Denen traue ich alles zu.
 
@PCLinuxOS: Nvidia und Apple waren bisher immer unfair.
 
@PCLinuxOS: Genauso wie Apple mit seiner Verklagerei. Nvidia hat ja 3dfx platt gemacht. Mit AMD haben sie nicht so leichtes Spiel. Also müssen andere Methoden her.
 
Das Spielchen läuft ja schon länger. Wenn ich mir da mal die Videos von zB Batman Arkham anschauen, wird ja genau vorgehalten, dass die "Nvdia - Meant to be Played"-Karten nette Effekte zaubern können... und die ATi Chips noch nicht mal Nebel hinbekommen ;)
 
Da hat man auch selber schuld, wenn man keine Nvidia Karte drin hat.
 
Ich kann die Vorwürfe gegenüber Nvidia nicht verstehen.
Wenn Nvidia in ihre Middleware bremsen gegenüber AMD einbauen sollte,
dann ist es die Pflicht des Publishers dies zu testen, zu bemerken
und im Zweifelsfall in der finalen Implementierung auf die Middleware von Nvidia zu verzichten.

Wer ne AMD-Karte hat soll das Spiel zurückgeben und sich ein anderes kaufen.
Kleiner Trost: Auf Nvidia-basierenden Systemen ist das Spiel ebenfalls scheiße implementiert.

Noch ein Trost: Es gibt über 1000 andre gute Spiele.
Kommentar abgeben Netiquette beachten!

Weiterführende Links

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles