Neue Konsolen schon zu leistungsschwach für Assassin's Creed: Unity

Die Diskussion um die eingeschränkten Grafik-Spezifikationen, die Ubisoft dem Spiel "Assassin's Creed: Unity" auf der Xbox One und der Playstation 4 verpasste, offenbaren bereits jetzt, dass die neuen Konsolen bereits jetzt von Entwicklern ... mehr... Ubisoft, Assassin's Creed, Assassin's Creed Unity Bildquelle: Ubisoft Ubisoft, Assassin's Creed, Assassin's Creed Unity Ubisoft, Assassin's Creed, Assassin's Creed Unity Ubisoft

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Tja, früher zu C64 Zeiten hiess es noch: "Du willst bessere Effekte? Hübschere Grafik? Na, dann arbeite am Code und maul nicht rum" =:) ........... ganz Unrecht hat der Mann nun nicht. Aber andererseits klingt das auch ein wenig zu einfach. "Könnte hübscher aussehen. Aber unsere Schuld ist es nicht. Hardware ist halt zu lahm".
 
@tomsan: Ich möchte den Algorithmenschreiberling trotzdem keinen Schuh an den Kopf werfen, wenn er keinen Bock hat sich 2 Wochen hinzusetzen um 1-2% mehr Luft rauszuholen. Ablauf und Berechnungsprozesse zu optimieren sind im Falle von Games höhere Mathematik für KI und für Grafik-Optimierung brauch man auch schön viel Physik-Kenntnisse. Klar sollten die sowas im Budget haben, aber sowas macht man am besten von Anfang an bei Programmierung der Engine, aber die Engine ist von Ubisoft, da kann man nicht viel erwarten, das sind mehr Designer als Nerds. Sieht gut aus, läuft erbärmlich.
 
@DerGegenlenker: Naja, deren letztes Statement war doch, dass die Designerin der Notre Dame zwei (!) Jahr an dem Gebäude gearbeitet hat... evtl Resourcen/Budget anders verplanen? ;) Mir auch wurscht. Kann wirklich sein, dass die Engine am Limit ist... aber auch das ist nun nicht die "Schuld" der Hardware ;)
 
@all: Hmm, wenns dann aber am PC mit höheren Texturen besser läuft, was ist dann Schuld wenn nicht die Hardware?

Wieder der Programmierer weil er plötzlich mehr Power in die PC Engine bekommt obwohl es die gleiche ist? ^^

Ich glaub das ist jetzt das 10te mal oder öfter dass Spiele auf Konsolen einfach viel schlechter oder gar "scheisse" laufen und "IMMER" wieder wird die Schuld auf die Programmierer und/oder den Code der Engine geschoben, aber niemals ist der veraltete "Schott" der in Konsolen eingebaut wird Schuld, ne ne!

Tja, was soll ich noch mehr dazu sagen, die Statistiken und Resultate sprechen für sich, da kann nun jeder gegen ne Wand laufen, das wird nicht anders ;)
 
@fuba: Ich denke auch. Man muss das auch mal realistisch sehen: Die PS4 und XBO kamen vor einem Jahr zum Preis eines besseren Einsteiger-PCs auf den Markt. Natürlich erreiche ich damit nicht die Leistung von einem 2014er Gaming-PC für 1.000 Euro.
 
@Stratus-fan: Richtig und die Entwicklung bleibt ja nicht stehen. Hardware verbessert sich, neue Engines kommen, die selbst wenn man das Optimum raus holt, mehr Leistung von der Hardware verlangen müssen! Konsolen bleiben wie sie sind... leider. Würde es da Upgrades z.B. für CPUS geben, wäre die ganze Diskussion hinfällig. Man würde sich damit nicht mal das Geschäft kaputt machen. Austausch CPUs etc. einfach exklusiv selber anbieten und das halt nur 1x... also z.B. Konsole kommt in einem Jahr raus, im nächsten Jahr gibt es nen Upgrade und dann kommt wieder die nächste Konsole... wäre sogar noch ein gutes extra Geschäft.
 
@Scaver: Das würde aber der Grundidee einer Konsole widersprechen ;) Eine einheitliche Hardwarebasis und "Nicht-Basteln-Müssen" sind die beiden existenzbestimmenden Merkmale eine Spielkonsole.
 
@fuba: Man kann eine Schrottengine mit stärkerer Hardware eben gut kompensieren.
 
@tomsan: So siehts aus. Nur weil die Konsolen performancemäßig am Limit sind heißt das nicht, dass das gebotene das Maximum darstellt. Die alten Konsolen waren anfangs auch komplett ausgelastet. Mit immer stärker optimierten Engines hat man aber noch sehr viel mehr herausholen können.

Grundsätzlich ist es absolut keine Kunst, Hardware auszulasten. Das schafft jeder programmieranfänger, wenn er Mist baut... Die Kunst ist es das ganze zu optimieren und performant laufen zu lassen.

Für mich hört sich das jedenfalls an, als käme Ubisoft einfach nicht mit den neuen Plattformen klar bzw. ist einfach unfähig und nun wissen sie nicht, was sie tun sollen.

Oder für die Verschörungsthoretiker: Vielleicht steckt nVidia hinter dem ganzen (die PC Umsetzungen von Ubisoft sind meist nVidia Gameworks titel) und lässt Ubisoft die Konsolen schlecht reden.
 
@Laggy: Stimmt, weil ja "nur" Ubisoft probleme damit hat ;)
 
@fuba: ich glaube, Ubisoft hat arge Probleme damit, Spiele und Engines für AMD-Grafikhardware zu programmieren. Ist ja nich so als hätte AMD Möglichkeiten zur Verfügung gestellt, große Teile der "Verwaltungsarbeit" für die Grafik direkt an den Grafikchip auszulagern. Aber dazu müsste man ja die Engine ändern, "die alten Konsolen konnten das ja auch, und am Rechner mit nem dicken i7 und ner Nvidia-Graka ist das auch alles egal". Klar, die CPU der PS4 ist fast sogar schon langsamer als die Power-PC CPU die in der PS3 steckte. Dafür kann der Grafikchip dieser viel Arbeit abnehmen. Da muss man sich dann halt umstellen.
 
@Laggy: Auf jeden Fall ist da noch Luft nach oben, so wie du sagtest. Aber ich denke dieser Optimierungsprozess der eigenen Engine oder evtl. sogar ein erneuerter Start für eine neue Engine brauch seine Zeit. Der Entwicklungs-Fortschritt wie wir den auf den alten Konsolen kennen, hat auch nicht von einem zum nächsten Tag statt gefunden, sondern verlief über mehrere Jahre. Und nun haben die Konsolen auch einen relativ "ansehnlichen" Sprung nach vorne gemacht, den man nicht so einfach auf die Schnelle nach kommen kann.
Dann kommt noch dazu, dass viele Entwickler-Unternehmen unter Zeitdruck und minimalen Ressourcen ausgesetzt sind, was natürlich auch an den Anforderungen des jeweiligen Publisher liegt, aber auf jeden Fall auch von den Wünschen des Kunden abhängt (frühe releases und davon häufig). Manch andere Entwickler-Teams scheinen es hin zu bekommen auf den "Next-Gen" Konsolen ihre Spiele mit guter Performance zum laufen zu bekommen, aber für diese gute Performance müssen die jeweiligen Entwickler-Teams Abstriche machen und das sieht man auch. Wer weiß ob Ubisoft mit ihrem Entwickler-Team wirklich mangelhafte Kompetenzen besitzen oder ob deren bisheriger Entwicklungsstand einfach zu hoch gesetzt ist und auch hier wie bei so vielen mittlerweile veröffentlichten Spielen auf den "Next-Gen"-Konsolen abgespeckt werden muss.
 
@Laggy: Genau, und auf dem PC siehts besser aus und läuft besser weil es eine Verschwörung ist xD Nehmt es hin Consolepeasents, ihr werdet niemals an die Power eines guten mittelklasse PC´s herankommen. Was ich am witzigsten finde, wenn wir PCler mit unserer tollen Grafik kommen, heißt es von den Konsoleros immer "Grafik ist nicht alles". Aber wenn man ihnen die 900p bei 30 fps mitten ins Gesicht rammt, heulen sie wie kleine Mädchen :D Wenn ihr 1080p bei 100 Frames wollt, wünsche ich viel Spaß beim PC-kauf...
 
@Fordragon12: Ich spiele ausschließlich auf dem PC...
 
@Laggy: Wo ist dann dein Problem. So gut wie alle großen Entwickler haben Probleme mit den Einschränkungen der Konsolen. Da ist Ubisoft weder der erste noch der größte Entwickler, noch der letzte mit diesem Problem. In dieser News geht es aber nunmal nur um Ubi... die etlichen anderen davor stehen hier natürlich nicht mit drin... sind aber per Google schnell zu finden.
Auf dem PC habe ich bei keine Ubi Game Probleme bzgl CPU... und die ist mal gut 10 Jahre alt... da machts halt die Optimierung durch neue BIOS Treiber und die Auslagerung von Operationen auf richtige Grafikkarten, so dass die Befehle oft gar nicht mehr erst durch die CPU müssen.
 
@Scaver: Also für dumm verkaufen brauchst du mich nicht. Dass du mit ner 10 Jahre alten CPU (ergo 2004) aktuelle Spiele flüssig spielst, das kannst wer weis wem erzählen, aber ganz bestimmt nicht mir. Das wäre dann zwangsweise ein Single Core. AMD Athlon XP oder Pentium 4... So einen hatte ich 2007 noch und damit liefen manche Games gar nicht mehr oder max. mit 1 Frame/sec, da keine aktuellen Befehlssätze unterstützt werden. Ganz zu schweigen vom RAM, den du bräuchtest. Mir wäre nicht bekannt, dass damalige consumer Boards 4 oder 8 GB RAM unterstützen.... Und selbst wenns ein Q6600 oder ähnliches sein sollte, dann sieht die CPU heute kein Land mehr. Außer du bezeichnest 15-20 FPS als flüssig...

Hier als Beispiel Watchdogs: http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/
Ohne aktuelle CPU geht da nix. Selbst die i3 sind schon gnadenlos überfordert und diese wiederum sind schon doppelt so schnell wie die Intel Core 2 Quads. Also was genau versuchst du mir zu sagen?

Das Argument dass "du am PC ja keine Probleme hast, weil ja alles so gut läuft" ist und bleibt völliger Humbug.

Du scheinst zudem vergessen zu haben, dass die neuen Konsolen extrem nah am PC sind.

Es SIND quasi PCs. Sowohl CPU als auch GPU basieren auf den aktuellsten Architekturen. Und mit "HUMA" und GDDR5 Unified Memory sind die Konsolen in Sachen effizienz sogar dem PC voraus. Es Mangelt halt einzig an Rohleistung. Diese liegt aber auch "nur" in etwa bei der halben Leistung eines High End PCs. Angesichts der Tatsache, dass die Leistung über die Jahre exponentiell ansteigt ist das kein besonders großer Unterschied.... Zumal das die Kosten für die Konsolen in die höhe Treiben würde. Für den Preis jedenfalls sind die dinger das beste was man sich kaufen kann. Da gibts einfach nichts zu meckern.

So oder so. Die neuen Konsolen haben sehr viel mehr Leistung, als die alten. Wenn ubisoft das auf den neuen also nicht gebacken bekommt, wie haben sie es dann erst die ganzen Jahre auf den alten geschafft???
Und alleine die aussage des Sprechers "Man habe angenommen, dass auf den neuen Konsolen einfach eine Verzehnfachung all dessen umgesetzt werden könne, was es bisher an KI-Systemen gab."
Diesqualifiziert ihn schonmal. Jedem, der mit technik was um Haut hat sollte bekannt sein, dass die CPU Leistung über die Jahre deutlich langsamer steigt als GPU Leistung. Selbst in den Foren konnte die Leute die Leistung sehr exakt bestimmen, aber bei Ubisoft hat man jetzt erst gemerkt, wie viel man zu verfügung hat? Ja, sehr glaubhaft..... Für mich nur reines Marketing blabla irgend eines ahnungslosen Pressesprechers.

Ach ja, dass dein BIOS plötzlich irgend welche Leistungsreserven deiner CPU freisetzt ist ja wohl nochmal die Krönung deines Beitrags. Du solltest dir vielleicht nochmal zu gemüte führen, wozu ein BIOS da ist, und in wie Fern es die Leistung deiner CPU beeinflussen kann. Sorry, aber so einen Stuss hab ich schon lange nicht mehr gelesen. Da kann man nur die Hände auf den Kopf schlagen und weinend davon laufen.
 
@Laggy: Also ich sitz hier auch mit meinem Phenom II x4 der nun fast 7 Jahre auf dem Buckel hat. Klar, alles auf Max. mit 60 FPS ist da nicht mehr drin. Mit ner Ordentlichen Grafikkarte gefüttert und Stark CPU-Orientierte Effekte n bisschen runtergeschraubt geht das aber locker (auf 1080p). PhysX auf max ist eh Luxus, den sich nur Gamer mit Nvidia Graka oder nem dicken i7 leisten können. Da muss man halt mal bisschen in die Detaileinstellungen gehen, das meiste merkt man, wenn mans einzeln runterstellt, ohnehin nicht wirklich. Ob jetzt ein Balken genau da durchbricht wo er es Real auch würde oder nicht interessiert mich reichlich wenig, wenn das Game ansonsten ordentlich ausschaut.

Wir sprechen ja hier von "spielbar" und das besser als auf den aktuellen Konsolen. Dass ein PC mit ner 400€ CPU, DDR4-Ram und ner 600€ grafikkarte den locker ums 4-fache abzieht ist mir ja schon klar. Aber solange ich mit meinem alten Phenom, 16GB DDR2-Ram und ner AMD R7 klar komme, ist doch alles in Ordnung.
 
@tomsan: Sehe ich ganz genau so. Die heutigen Programmierer sind faul, alles mögliche wird anhand von bereits vorgekauten Bibliotheken eingebunden, die einzig dafür optimiert wurden, auf allen Systemen zu laufen. Was man an Grafikpower durch gute, systemnahe Programmierung rausholen kann sieht man z.B. an Games wie Shadow of the Colossus, die aus der PS2 wirklich das letzte Quentchen Rechenpower rausgekitzelt haben.
Also "Die Hardware ist zu langsam" ist wirklich eine lahme Marketing-Entschuldigung für "Wir haben keine Zeit, das Game ordentlich an die Hardware anzupassen".
 
@Shiranai: Willst du implizieren Progammierer wären früher nicht faul gewesen? Mit der "früher war alles besser" Rethorik ists schwer deine Aussage ernst zu nehmen. Nehmt doch einfach die Aussage etwas differenzierter. Vielleicht stimmt ja ein Teil davon und ein Teil ist ein wenig zu pessimistisch aber mit "früher war alles besser und auf anderen Systemen wurde ja auch optimiert" macht man es sich ein wenig zu einfach, meiner Meinung nach.
 
@hezekiah: Darfst nicht vergessen, die meisten Leute hier haben total Ahnung vom Programmieren einer 3D Engine, deswegen können sich auch die "richtigen" Programmierer kritisieren, weil sie sind ja alle Blöde ;)

Zum Thema "Früher war ALLES besser" natürlich auch die Zukunft oder? ^^

@tomsan: Genau, weil dein Boss lässt dich ja so lange an einem Projekt arbeite wie "DU" willst oder? ^^
Denn die Programmierer haben ja keinen Zeitdrück, welcher wiederum vom Endkunden kommt, der DU bist ;)

Auch wenn du dein eigener Boss wärst (wobei ich bei dem Text vermute dass es nicht so ist), würdest du gegenwärtig wo der Kaptialismus das Maß aller Dinge ist, nicht lange überleben wenn du es so machen würdest.
 
@fuba: Was die ETAs der Programmierer angeht: Das ist noch wesentlich lustiger in einem typischen BugThread in einem Forum eines beliebigen Spiels. Wenn es da nach den Laien geht dürften Titel nur released werden wenn sie absolut Bugfrei sind (also nie).
 
@hezekiah: Ja, weil sie es einfach nicht verstehen ^^

Wenn man die meisten Kommentare hier liest, vermutet man dass die Programmierer das Spiel vermarkten und verkaufen.
Die Publisher machen... was machen die denn? :P
 
@fuba: erinnert mich an meinen nachbarn, der alles besser weiß und er, als die stadtwerke hier waren im letzten jahr, er im gulli am haus mit der blanken hand in die kacke gegriffen hat, weil er meinte, es besser zu wissen, als die firma. man, was hab ich gelacht.

zum thema: ja, die reduzierung der taktfrequenz von 3,2 auf 1,75 ghz is ja schon ne nummer. das hab ich gar nicht gewußt. dachte, die xbox one läuft mit 4 oder 5 ghz. wie man sich täuschen kann. selbst meine gurke läuft mit acht mal 3,8 ghz. daß man aus knapp 2 ghz taktfrequenz nix "rausholen" kann, sollte jedem klar sein, der sich etwas mit computern auskennt, auch ohne daß er ahnung von 3d engine programmierung hat. 2 ghz sind 2 ghz, da läßt sich auch nix mehr optimieren. hätte die kiste jetzt 16 oder 32 kerne, wärs was anderes. aber 8x1,75 ghz? ach du liebe scheiße, sag ich da nur. wo man denken sollte, spätere modelle sollten eigentlich besser sein, als die alten? scheinbar nein.
 
@stereodolby: Falsch. Die Zeiten, die Taktrate zu erhöhen um noch mehr Leistung herauszuholen sind schon seit ein paar Jahren vorbei. Denn die hilft nicht mehr! Nun geht es erstmal um die Erhöhung der Kerne.
Das ganze hängt nämlich an den Verzögerungswerten der Transistoren. Wenn diese noch nicht durchgeschalten haben, bringt die die schnellste Taktung nichts, weil dort dann noch nicht der richtige Wert anliegt. Also sind hier physikalisch Grenzen gesetzt. Bei den Kernen ist das erstmal nicht der Fall. Zumindest wüsste ich es da nicht, wenn es dort eine Physikalische Grenze gibt, die die Anzahl der Kerne begrenzt. Dennoch hängt hier ein hoher Aufwand von Verwaltung dran, die optimiert werden muss. Hatte mal ein Seminar über GPU-Computing und haben dort Matrizen multipliziert. Das mit einer CPU und mit einer GPU. Unoptimiert hat die CPU gewonnen. Optimiert hat die CPU ca 4. Stunden gebraucht und die GPU ca. 30 Sekunden. Und das bei 5 Iterationen und der Code war noch nicht entgültig optimiert! Die Matrizen hatten eine größe von 1mio mal 1mio.
Also, die Taktung bringt heutzutage nichts mehr zu erhöhen, sondern die Kerne mit Optimierter Software. Grüße
 
@stereodolby: Du scheinst ja richtig Ahnung zu haben... mal so zum mitmeisseln, diese allmächtigen 3,2 GHz wurden mit Netburst (das sind idR P4s) eine Dekade zuvor erreicht - ohne OC. Die Leistungsfähigkeit einer CPU hängt mit ihrer Architektur zusammen, was Erweiterungen wie MMX, SSE oder AVX einshcliesst aber primär auf IPC - instructions per cycle - hinausläuft. Deswegen sagt die reine GHz-Zahl NICHTS aber auch GARNICHTS über die tatsächliche Leistungsfähigkeit aus sondern ist lediglich eine technische Angabe mit der sich eine Prozessorbaureihe intern voneinander abgrenzen lässt. Grob gesagt: Leistung=IPC*Takt. Wenn es nach Dir ginge, würde jeder Bay Trail enorme Leistung pro Watt rauspusten, immerhin haben die bis zu 2,66 GHz Taktfrequenz! Mal so als Fußnote: die Auflösung an sich hat in der Praxis auch nahezu NULL Auswirkung auf die CPU, sie belastet die GPU (früher auch gern mal den RAMDAC xD). Die CPU wird durch die Graphik zum Großteil lediglich über die Anzahl der Operationen (drawcalls) belastet. Was jeder bei sich daheim leicht ausprobieren kann.
 
@Stamfy: danke für die erläuterung, auch wenn du deinen ersten satz ruhig streichen könntest.

ich hab schließlich nicht behauptet, ich wüßte alles.
 
@Shiranai: Du solltest bedenken das XBOne und PS4 etwa so nah am PC sind wie die allererste XBox. Damit hat man schon lange Erfahrung, da wird nicht allzuviel zu optimieren sein. Bei der PS2/PS3 und auch allen anderen Konsolen war das grundlegend anders. Ganz andere Architektur. Die PS3 galt schon als schwer zu programmieren, aber immer noch einfacher als die PS2 und die X360.

Je einfacher oder eher "üblicher" etwas zu programmieren ist, desto weniger neue Tricks gibt es die einen Performancesprung zur Folge haben. Die jetzigen Konsolen sind einfach zu sehr Standard. Die haben gegenüber einem PC so gut wie keinen Vorteil. Keine andere CPU Architektur, keine andere GPU Architektur. Der einzige Vorteil ist: Immer gleiche Hardware. Der Nachteil ist: Bei Release schon Hardware die für den PC zu dem Zeitpunkt schon Mid- bis Low-End ist.

Radikale neues haben sich MS und Sony nach PS3 und XB360 eben nicht mehr getraut, jetzt zahlen sie dafür. Oder vielmehr ihre Kunden, verkauft werden die Konsolen ja dennoch.
 
@tomsan: Die Effekte waren aber auch beim C64 durch die Hardware beschrenkt. Die vorherige Generation war aus meiner Sicht zu erfolgreich und hat zulange nichts mehr zur technischen Weiterentwicklung der Spiele beigetragen. Zudem sind die Leute von heute nichtmehr bereit, viel Geld für Hardware auszugeben und was das für Folgen hat, sieht man nun. Ich würde nicht behaupten, dass der Konsolenmarkt am abdanken ist, ich wage aber zu behaupten, dass er mittelfristig nichtmehr die dominante Bedeutung haben wird wie heutzutage.
 
Auflösung hat aber wenig mit CPU zu tun. Klar muss die CPU auch da etwas arbeiten, aber bestimmt nicht in dem Ausmass das es nicht möglich wäre. Wenn man Ubisoft glauben möchte, dann ja, technisch absolut unmöglich. Aber wer glaubt heutzutage noch einem grossen publisher? Die Probleme die mit watch_dogs aufgekommen sind zeigen einfach das Ubisoft entweder inkompetent ist, oder sie gerne mal Sachen verdrehen. Speziell wenn es um technische Themen geht.
 
@hundefutter: Gut das "andere" immer genügend Einsicht und Schnall haben, um beurteilen zu können wann und wo Publisher lügen wenn es ums technische geht. Bei soviel Kompetenz in der Bevölkerung müsste der Weltfrieden gesichert und Krebs doch schon lange der Vergangenheit angehören.
 
@marex76: Naja, es gibt technische Gegebenheiten, die selbst der Laie leicht selbst überprüfen kann. So wird die Geometrieberechung, die von der CPU durchgeführt wird, kaum aufwändiger, nur weil man die Auflösung hochschraubt. Da ist immer die Grafikkarte der limitierende Faktor. Das kann man sehr einfach zu Hause ausprobieren. Und in der Tat, würden die Leute nicht einfach alles so hinnehmen, wie du das machst, wer weiß, wie weit wir da wären.
 
@marex76: Wow, da ist aber jemand sehr zynisch. Ja, ich masse mir an darüber zu urteilen. Ich bin nicht wirklich Laie auf dem Gebiet. Man muss aber kein Experte sein um zu sehen was watch_dogs für ein Problemkind war, vor allem am PC. Die aktuelle Konsolengeneration wird kürzer dauern als die letzte, dazu ist der Hardware Sprung wirklich zu klein, aber das ein Assassins Creed nicht auf beiden Konsolen mit 1080p läuft... finde ich lächerlich. Vor allem mit der Begründung das die CPU Schuld daran sein soll. Die muss weiterhin gleich viel Polygone zeichnen.

Aber hey, ich kenne nicht alle Faktoren bei Ubisoft. Die Begründung die sie geben scheint mir aber aus dem Hut gezogen zu sein.
 
@hundefutter: Jups, anderherum formuliert klingt es nicht so gut "Wir haben es leider nicht geschafft die vorhandene Hardware optimal zu nutzen und auszureizen. Leider hier versagt. Deshalb mussten wir halt runterschrauben". Aber Vincent Pontbriand formuliert das dann lieber doch aus einer anderen Sicht ;)
 
@tomsan: Gibt es überhaupt ein "Next-Gen"-Konsolen Spiel bei dem nicht runter geschraubt werden musste, wenn dieses auch für den PC entwickelt wurde ? Im Vergleich zur PC-Version gab es doch immer einen Unterschied. Ohne entsprechenden Vorkehrungen waren diese Spiele immer zu Anspruchsvoll auf der Konsole.
 
PC master race!
 
@Suchiman: Praise GabeN!
 
@Suchiman: the lord
 
Jemand müsste so eine Wolke erfinden... die einem Rechenleistung zur Verfügung stellt, wenn der Prozessor überlastet wäre. Für KI-Berechnungen z. B. die nicht so extrem zeitkritisch sind...
 
@EmilSinclair: Ich erinnere mich an einer Wolke, die MS vorausgesagt hatte. Diese sollte eines Tages pro Gerät 3-4x mehr Rechenleistung bringen...
 
@winload.exe: Was ist damit eigentlich geworden? Das es bei einem Multi-Plattformtitel nicht gemacht wird ist mir klar, aber gibt es jetzt ein XOne Titel, der diese Wolke nutzt?
 
@hhgs: jo gibbet: Forza Horizon 2 (XBONE-Version) die Drivertars
 
@hhgs: Titanfall (Berechnungen der KI, Hintergrundexplosionen, etc.), Forza Horizon 2, ...
 
@HellsDelight: Und bringt es einen merklichen Vorteil?
 
@hhgs: Das kommt drauf an wie man's nimmt/sieht. Das würde genauso gut in eine Diskussion ausarten wie ob 30 oder 60fps besser sind oder 900p oder 1080p.
Ich persönlich könnte auch ohne dieses Feature leben allerdings ist es auch eine tolle Sache und erhoffe mir dadurch vor allem in Zukunft einiges. Mit der Cloudfunktionalität könnte man unter anderem die Rechenleistung über die Cloud nutzen und somit leistungsschwache Hardware übergehen in gewissem Maße...
 
@EmilSinclair: wieso sollten KI Berechnungen nicht zeitkritisch sein? Wenn ich dir ins Gesicht spucke wirst du vermutlich ja auch sofort entrüstet oder in einer anderen angemessenen Art reagieren.
 
Also ich lese da nur folgendes heraus: Wir sind zu faul, den Code zu optimieren.
 
@iPeople: In begrenztem Maße mag das auch stimmen. Aber zeitgleich mit dem Start von 4k-TVs Konsolen auf den Markt zu werfen, die gerade so Full HD schaffen (häufiger auch mal nicht), ist schon ein starkes Stück. Ich begreife das noch immer nicht. Wie will man denn mit den Dingern in acht Jahren - so lange musste die Vorgängergeneration durchhalten - noch spielen, wenn sie bereits jetzt aus allen Löchern pfeifen?
 
@Friedrich Nietzsche: 4K wird völlig überbewertet. Und kaum ist 4K etabliert, kommt 8k und das gejammer geht von vorne los. Konsolenspieler sind meist nicht die, die auf solche Züge aufspringen.
 
@iPeople: Die Meinung kann man haben, wenn man die Geräte noch nicht selbst erlebt hat. Ob es einem preislich wert ist eine andere Frage, qualitativ ist der Unterschied aber sehr groß. Zudem: Die Konsolen schaffen nicht mal FHD anständig, ein Standard der mittlerweile acht Jahren etabliert ist.

Und dass es den Konsolenspielern nicht völlig egal ist, sieht man auch an den quasi allwöchentlichen Diskussionen "Spiel xy nur in 30 fps" oder "Nur in 900p". Und wie ich mich noch gut daran erinnere, wie die Wii niedergemacht wurde, weil sich kein HD konnte und eine so langsame Hardware nutzte...
 
@Friedrich Nietzsche: Ich habe mir 4K angeschaut ... mir ist das Bild zu plastisch, zu künstlich.

Wieviele Wii wurden verkauft und wieviele haben sich in Foren ausgejammert? Meinst Du ernsthaft, eine Konsole die flüssig 4K könnte, wäre derzeitig zu dem Preis machbar, was XBone und PS kosten? Und das, wo 4K-TV noch viel zu selten in privaten Haushalten anzutreffen sind? Nichtmal für PC-Gamer gibt es bezahlbare 4K-Monitore.
 
@iPeople: "Wieviele Wii wurden verkauft und wieviele haben sich in Foren ausgejammert?" Die Wii war nur zu Beginn sehr erfolgreich. Nach recht kurzer Zeit brachen die Verkaufszahlen stark ein, sodass Nintendo bereits lange vor dem WiiU-Launch in finanzielle Schieflage geriet (in Bezug auf die Bilanzen).

"Meinst Du ernsthaft, eine Konsole die flüssig 4K könnte, wäre derzeitig zu dem Preis machbar, was XBone und PS kosten? " Habe ich gesagt, sie sollen 4k flüssig rendern können? Nein, nochmal nachlesen: Ich habe nur gesagt, sie sollten zumindest Full HD flüssig rendern können. Die Konsolen kommen gleichzeitig mit einem neuen TV-Standard auf den Markt und schaffen es nicht mal, den alten schon ewig vorherrschenden flüssig zu bespielen. Das! war meine Kritik.
 
@iPeople: " Ich habe mir 4K angeschaut ... mir ist das Bild zu plastisch, zu künstlich. " Ahja, dann muss dir die Realität aber noch plastischer und noch künstlicher vorkommen. Denn eine wissenschaftlich fundierte Erklärung, warum eine profane Auflösungserhöhung sowas verursachen sollte, gibt es nämlich nicht. Und wenn es nicht an der Displaytechnologie (die wiederum nichts mit 4k zu tun hat) liegt, ist es vermutlich deine charakterinhärente Eigenschaft, um biegen und brechen Recht haben zu müssen.
 
@Friedrich Nietzsche: Die Realtität wird aber nicht durch ein Panel dargestellt. Den Unterschied solltest Du schon kennen, denn die Auflösung alleine machts nicht.
 
@iPeople: Aha. Und du lieferst mir auch bestimmt fundierte Belege dafür, wenn ich danach frage? Zudem: Die Realität wird nicht durch ein Panel dargestell. Trotzdem ist das (2D-)Panel deiner Meinung nach plastischer? Klingt alles schrecklich einleuchtend und plausibel, was du da von dir gibst.
 
@Friedrich Nietzsche: ja stimmt schon, aber wenn ich mir anschaue das selbst zwei nvidia titan ( http://www.nvidia.de/object/4k-gtx-battlebox-gaming-pc-de.html ) bei einer 4k auflösung an ihre genzen stoßen und gerade so an der 60 fps marke knabbern muss man sich die frage stellen ---> WAS ERWARTET MAN VON 399€ PS4 HARDWARE <--- ich meine, dass was sie auf den schirm liefert ist doch angesichts der verbauten ( noch nicht mal all zu schlechten ) hardware absolut zufriedenstellend ...
 
@iPeople: "Die Realtität wird aber nicht durch ein Panel dargestellt." - Doch! Wie sagt man noch auf englisch? Windows!
 
@iPeople: 4k ist dir zu plastisch? Aufgrund der Auflösung? Am besten ist dann also 640x480? Außerdem scheinst du nicht zu wissen, was plastisch bedeutet: dreidimensional. Die Realität ist also besonders plastisch. Und das gefällt dir nicht?
 
@Skidrow: Okay, hab mich ungünstig ausgedrückt ... nicht plastisch, sondern künstlich, unwirklich.
 
@iPeople: Durch höhere Auflösung erscheint dir etwas also künstlich, unwirklich? Ich denke, du weißt immer noch nicht, was Auflösung eigentlich bedeutet. Wenn ich mit einer entsprechend potenten Kamera eine Blumenwiese filme, wird das Bild mit 4k realistischer aussehen als mit 1080p. Die Realität ist dir also zu künstlich, unwirklich?
 
@iPeople: Liegt das vielleicht daran, dass du ein vorgerendertes CGI-Video gesehen hast?
 
@Skidrow: Weil mir etwas künstlich erscheint, weiß ich also nicht, was Auflösung ist ... soso.
 
@Friedrich Nietzsche: dito. 4k ist ein definitiver mehrwert ! und das kommt. am pc einfacher zu etablieren, die "next-gen" konsolen fliegen schon von vornherein raus. nächste konsolengeneration MUSS 4k flüssig beherrschen, und DAS stell ich mir witzig vor. wie das relaisiert werden soll ! dann ist der 4k nachfolger bereits am markt und dann geht das ganze dilemma von vorne los ! und auch die kundenverarsche.
 
@iPeople: du sagtest, dass dir das Bild aufgrund der höheren Auflösung künstlich erschien. Da das völliger Blödsinn ist, kann ich nur davon ausgehen, dass du nicht weißt, was Auflösung bedeutet.
 
@Skidrow: Nein, ich habe geschrieben, dass ich mir 4K angeschaut habe, und es mir zu künstlich wirkt. Ich habe nicht geschrieben "Aufgrund der Auflösung". Keine Ahnung, was Du konkret von mir willst.
 
@iPeople: "Nein, ich habe geschrieben, dass ich mir 4K angeschaut habe, und es mir zu künstlich wirkt. Ich habe nicht geschrieben "Aufgrund der Auflösung"."

Du stellst eine Behauptung auf, die du im nächsten Satz negierst. Du widersprichst dir also selbst. Ich vermute, dass du unter Wahrnehmungsstörungen leidest. Das ist auch gar nicht böse gemeint, sieh es bitte nicht als Beleidigung. Jemand in meinem Freundeskreis leidet ebenso darunter. Da ich aber kein Arzt bin und dich auch nicht weiter kenne, ist es das beste, wir brechen das Gespräch an dieser Stelle ab. Alles Gute!
 
@Friedrich Nietzsche: Welche Hardware hätte man denn verbauen sollen, um 4K für die nächsten Jahre zu garantieren? Am besten noch mit 60 FPS und natürlich Kantenglättung? Selbst ein aktuelles Quad SLI würde hier schnell an seinen Grenzen kommen.
 
@Laggy: Meine Fresse, ich dachte eigentlich, Lesen wäre ein allgemeines Kulturgut.
 
@Friedrich Nietzsche: Ja wie jetzt?! Du hast doch ganz klar und unmissverständlich geschrieben, dass du von den aktuellen Konsolen VERLANGST, dass sie 4k flüssig darstellen/abspielen können MÜSSEN. Von 1080p war doch NIE die Rede... ;-)

Irgendwie können manche echt nicht lesen oder sie verweigern es einfach...
Vielleicht liegt es auch daran, dass manche versuchen quer zu lesen und dann kommt eben soein mist raus...
 
@Laggy: die Frage sollte eher lauten, was hätte man verbauen sollen damit 1080p + 60fps bei ordentlicher Grafik möglich sind (also der Standard seit 4+ Jahren im PC Gaming).
 
@iPeople: wie kommst du zu dieser Annahme? Deine Logik nach lässt sich die Performance unendlich nach oben schrauben, wenn nur genug optimiert wird. Hast du dich eingehend mit der Hardware auseinandergesetzt und bist außerdem Spieleprogrammierer?
 
so kann man aus einem spiel auch geld schlagen, indem man dem gamer neue hardware aufzwingt, obwohl es meistens die alte auch machen würde...
 
@snoopi: Wie genau soll denn der Konsolenbesitzer, um den es hier geht, aufrüsten?
 
@tomsan: da wird sicher bald eine bessere console kommen, die finden immer einen weg ;)
 
@snoopi: *g* naja von mir aus. Dürfte aber MS und Sonys Zykluspläne torpedieren..
 
@snoopi: bald ? eher nicht. schau mal die durchschnittliche releasespanne an!
 
@snoopi: Der Konsolero sollte sich auch mal fragen, ob er jedes Jahr im Grunde das gleiche Spiel zocken muss. COD, Fifa, AC,... jedes Jahr der gleiche Abwasch.
 
@snoopi: Ab ins Altersheim mit dir, hast im heutigen EDV Zeitalter nichts mehr zu suchen!

Sorry für die "direkte" Aussage, aber sowas wie "das alte geht doch auch noch" hat vorallem im EDV Bereich nichts zu suchen!
Auch in anderen Bereichen sollte man mit solchen Aussagen vorsichtig sein.
 
@fuba: Deine Aussage ist wohl wesentlich extremer, als die von "snoopi". Was du hier von dir gibst, ist schon fast als pathologisches Verhalten im Bezug auf Konsum zu bewerten.

Klar sollte man alles, was mit Sicherheit zu tun hat, sei es nun in der elektronischen oder physischen Variante, möglichst aktuell halten.

Allerdings: Ich nutze mein iPad 3 ohne Probleme zum Apps nutzen, Surfen, Videos abzuspielen oder um PDFs zu lesen. Nach deiner Aussage müsste ich snoopi ins Altersheim begleiten, weil es ja schon das neue iPad Air gibt und ich mir dieses nicht zugelegt habe.

Schreibe übrigens von einem Windows 7 PC.
 
@Billkiller: Trotzdem hat er aber recht! Die EDV Branche ist seit Anbeginn ihrer Entstehung eine, wenn nicht die schnellste, sich entwickelnde Branche. Sie hat das komplette moderne Leben revolutioniert. Und die Menschheit in ein neues Zeitalter katapultiert. Die Bereiche auf die, diese wiederum positiven Einfluss ausübt, sind für sich genommen für die Menschen essenziell (Medizin, Industrie, Forschung). Was auch erst dein iPad ermöglicht. Keiner sagt, dass du deine alte Hardware nicht mehr verwenden sollst, dazu gibt es nicht eine Äußerung. Snoopi Aussage hingegen impliziert aber, dass jegliche weiter Entwicklung nicht von nutzen wäre, da die alte Hardware es auch tun würde. Diese Aussage hingegen kann man als das Gegenteil von EDV betrachten. Den EDV sogar dein iPad steht für Fortschritt nicht für stillstand!
 
@daaaani: Deine Lobeshymne zur technischen Revolution hättest du dir sparen können, jeder Winfutureleser hat diese mitbekommen, zudem hat dieser Abschnitt nichts mit dieser Diskussion zu tun. Dein Kommentar liest sich wirklich grauenhaft; nutze das nächste Mal bitte Absätze um Gedankenabschnitte deutlich abzutrennen.

Aus meiner Sicht überinterpretierst du snoopis Aussage. Ich habe den iPad 3 und Windows 7 Vergleich angeführt und so wie ich das sehe, hat snoopi so ziemlich die gleiche Aussage gemacht, wie ich. Komisch dass du mir scheinbar zustimmst, ihm aber nicht.

"Diese Aussage hingegen kann man als das Gegenteil von EDV betrachten.&#147;, was willst du uns damit sagen? Weißt du eigentlich wofür die Abkürzung EDV steht? Im nächsten Satz benutzt nämlich nicht mal den richtigen Artikel.

Btw: Für mich hat die aktuelle Konsolengeneration nichts mit "technischem Fortschritt" zutun. Der Performancesprung ist augenscheinlich nicht sehr groß.
 
@Billkiller: Du scheinst zusammenhänge nicht zu verstehen und falsch zu interpretieren. Weder stimme ich dir zu noch zeihst du die richtigen Schlussfolgerungen.

Ich erkläre es dir noch einmal vielleicht wird es dann für dich offensichtlich. Du kannst ungestört deine älteren Geräte oder Software nutzen ohne, dass es jemanden stört! Musst aber dann irgendwann damit rechnen, dass die Entwicklung weiter geht, und es auch akzeptieren. Wenn du dich hingegen, so wie es bei snoopi rüber kommt, gegen neue Entwicklungen aufregst, dann musst du mit Reaktionen wie die meine oder die von fuba rechnen!

Generell scheinst du ein Problem zu haben verschiedene aussagen und Ausführungen zu differenzieren und gegebene Zusammenhänge zu erkennen.

Und wenn Elektronische Datenverarbeitung (EDV) nicht das ist was Computer tun, wo dein iPad und Konsolen genauso dazu gehören, dann weiß ich auch nicht. Treffender währe natürlich gewesen von IT zu sprechen. Aber ich habe eben bewusst den Begriff von fuba übernommen, weil er weder falsch noch fehl am Platz ist, und um meinen Bezug deutlich zu machen. Und darum noch einmal für dich! IT und EDV stehen für Fortschritt, welches ein krasser Gegensatz zur snoopis Aussage ist. Fuba und ich haben das richtig erkennt du hingegen tust dich da schwer.

Gemeint ist nicht jemanden das Recht ab zu sprechen altes zu verwenden. Sondern die Allgemeinheit das Recht zu zugestehen, neues zu Entwickeln und zu nutzen.

Ich habe auch nie behauptet die aktuelle Konsolen Generation wäre fortschrittlich, wie du diesen Zusammenhang herstellst ist mir genauso ein Rätsel wie auch die anderen.

Und die "Lobeshymne" bezog sich auf dich, da du ja augenscheinlich im Gegensatz zu den meisten anderen Winfuture, das nicht mitbekommen hast, und hat sehr wohl mit dieser Diskussion zu tun. Geht es nämlich im Kern genau darum. Fehlende Leistung durch fehlenden Fortschritt, was snoopi nicht hören will, weil er der Meinung ist das alte tut es ja auch, wobei das Aktuelle es ja schon nicht mal mehr tut!

Ferner musst du mir auch nicht versuchen 2 bis 3 mal den Bezug zur Aktuellen Diskussion ab zu sprechen. Denn der Einzige der den nicht herstellen kann und versteht bist nämlich du. Vielleicht hole ich immer sehr weit aus, weil ich Dinge immer in ihrer Gesamtheit betrachte, was wiederum einige überfordert, weshalb sie den Faden verlieren.

Man kann auch die Ausführungen seines Gegenüber verstehen und Trotzdem seine Position ablehnen. Man muss dann nicht immer so tun als wären diese Unverständlich!
 
Hier geht es um Ubisoft. Die reden in letzter Zeit verdammt viel Unsinn. Erst gestern verteidigten sie 30 FPS damit das dass viel cineastischer wäre... Gerade so als könnte man 30 FPS in Spielen mit 24 FPS in Filmen vergleichen. Von daher.
 
@tacc: sag das nicht zu laut sonst geht wieder die unsägliche Fanboy Diskussion um wo 30 FPS verteidigt werden -.-
 
Wie sollen denn eines Tages Roboter die Erde beherrschen wenn ausgerechnet für die KI zu wenig Rechenpower übrig bleibt???
 
@Dr. Alcome: Zumindest werden die dann aber mit hübscher Grafik herrschen .... *g*
 
@Dr. Alcome: Die haben dann auch Intel CPUs *duck und weg*
 
@LivingLegend: es wollte wohl niemand eine 1000 Euro Konsole ;)
 
@hezekiah: Tja, dann darf sich auch keiner aufregen wenn das Billigzeug in einem Jahr ausgedient hat :D
 
@Dr. Alcome: Cooler Name btw ;) :)
 
sony könnte ja ne playstation4k rausbringen ;) und in der marketing abteilung von sony rattersts jetzt bestimmt!
 
@L-ViZ: ja klar ^^ dann habe ich einen 2000€, 1000W Staubsauger neben dem Fernseher stehen
 
@isedulkt: der noch dazu unoptimiert ist :D in bezug auf hard, und software.
 
Besteht Chance dass die CPU hochgetaktet wird und vielleicht das Betriebssystem mit Optimierungen später nur noch 50% einer CPU reserviert?
 
@zivilist: ersteres eher nein, letzteres ja
MS werkelt daran glaube bereits
bei sony weiß ichs nicht habens aber bestimmt auch aufm schirm
 
Ryse: Son of Rome zeigt zumindest auf der One, das Ubisoft einfach zu Blöd oder zu Faul ist.
 
@Edelasos: Troll! Ryse ist von Crytek nich Ubisoft (wobei die PC version von Ryse 4k Auflösung unterstützt btw. ;)
 
@TheCrash: Edelasos hat nichts falsches gesagt oder getrollt. Er meinte eben wieso es andere fertig kriegen das bisher schönst-aussehendste Spiel auf der (auf dem Papier) schwächeren Konsole zum Laufen zu bringen und andere nicht.
 
@Ryou-sama: Jetzt hab ichs auch verstanden. Hab aber in dem Kontext verstanden das Edelasos dachte er meinte das Ryse von Ubisoft ist.. naja ist ja auch egal.. ich hab weder ne Konsole noch Ryse auf dem PC..was auch gut so ist^^
 
@TheCrash: Jedes Spiel, das nicht gerade asbach uralt ist unterstützt beliebige Auflösungen, darunter auch 4K. Oft sogar noch sehr viel mehr. Die angezeigten Auflösungen in Spielen werden nämlich einfach nur aus dem System ausgelesen. Jeder Auflösung die im Desktop einstellbar ist, wird direkt in die Spiele übernommen... Das ist völlig dynamisch.

Lustig, dass nVidia und AMD sowie einige Spieleentwickler nun mit solch simplen tricks versuchen werbung zu machen.
 
@Laggy: Ja gut wie gesagt ich hab Ryse nich und auch nicht vor es mir zu kaufen.. ich weiß aber das Crytek damit die PC version beworben hat.. Im übrigen dürfte man 4k ohne einen Bildschirm der die Auflösung unterstützt sowieso keine merkliche Verbesserung sehen..
 
@TheCrash: Doch, das wird seit einigen Jahren in Form von Downsampling genutzt. Bild wird in höherer Auflösung berechnet und auf die native Monitorauflösung heruntergerechnet. Des Bild ist dadurch deutlich schärfer (weil sich die Wirkung des Anisotropischen Filters vervielfacht) und kanten sind perfekt geglättet und flimmerfrei. Ryse bietet das auch an. Man kann 1,5x Downsapling oder 2x Downsampling wählen. aus 1920 Pixel in der breite werden dann entweder 2880 oder 3840 Pixel. Selbes gilt für die vertikale. nVidia wird dieses Feature sogar in ihre kommenden Treiber integrieren, so dass man Downsampling in jedem Spiel nutzen kann. (vorrausgesetzt man hat genügend Leistung übrig)
 
@TheCrash: Doch, das wird seit einigen Jahren in Form von Downsampling genutzt. Bild wird in höherer Auflösung berechnet und auf die native Monitorauflösung heruntergerechnet. Des Bild ist dadurch deutlich schärfer (weil sich die Wirkung des Anisotropischen Filters vervielfacht) und kanten sind perfekt geglättet und flimmerfrei. Ryse bietet das auch an. Man kann 1,5x Downsapling oder 2x Downsampling wählen. aus 1920 Pixel in der breite werden dann entweder 2880 oder 3840 Pixel. Selbes gilt für die vertikale. nVidia wird dieses Feature sogar in ihre kommenden Treiber integrieren, so dass man Downsampling in jedem Spiel nutzen kann. (vorrausgesetzt man hat genügend Leistung übrig)
 
@TheCrash: "(wobei die PC version von Ryse 4k Auflösung unterstützt btw. ;)" Das ist nur PR. Wie Laggy schreibt ist es im am PC eigentlich vollkommen Dynamisch, einzig bei älteren Titeln könnte das HUD nicht mehr ganz funktionieren, weil es früher z.B. eher statisch programmiert wurde und nun winzig wird.
 
@Edelasos: Ryse: Son of Rome hat eine KI die CPU Power braucht ? Ich glaube wohl eher nicht ;D
 
Nun ja, würde mich ja freuen wenn dem so wäre aber die KI Entwicklung stagniert seit Jahren zugunsten Bombastischer Grafik.
Aber die Aussage ist insoweit unglaubwürdig, da nicht für jeden Bot eine eigenständige KI gebraucht wird und das nicht im Geschehen beteiligte Bot´s eine sehr umfangreiche (Rechenintensive) Verhaltensweise brauchen.
Also ist das "Fenster" für Passive Bot´s sehr klein, damit auch keine wirklich glaubhafte Erklärung auf Auflösung zu verzichten.
Anders ausgedrückt: Nebelkerze um niemanden zu vergraulen/bevorzugen.
 
@Kribs: Ah, du bist an der KI Progammierung von Unity beteiligt? erzähl uns mehr :)
Mal angenommen jeder Bot soll sich wirklich eigenständig verhalten, warum braucht er dann keine eigene KI Instanz? Wie genau ist denn dieses BotSystem in Unity aufgebaut?
 
@hezekiah: Ich weiß jetzt nicht wo du das hernimmst (Gehe davon aus das es Absicht ist) aber ich versuch mal deine Fehlspekulationen richtig zu stellen:
1. Nein ich bin nicht an "der KI Progammierung von Unity beteiligt", noch habe ich sowas behauptet.
2. "Bot soll sich wirklich eigenständig verhalten" ich schrieb von Passiven Bot´s, also solchen die nicht direkt im Handlungsstrang beteiligt sind.
3. Eine KI kann leicht mehrere Passive Bot´s steuern, ohne ständig Zeit/Weg/Handlung mit anderen abgleichen zu müssen.
4. das sind Grundlagen die schon zu Sprite Grafik galten.
 
@Kribs: 1.) weil du so schreibst als wüsstest du wie die KI bei Unity konzipiert ist. 2,3.)Im Artikel steht auch nichts von passiven Bots sondern von NSCs und die sind mitnichten immer passiv.
 
@hezekiah: zu 1.) "weil du so schreibst als wüsstest du wie die KI bei Unity konzipiert ist."
Wo und in welchen Zusammenhang habe ich eine solche Behauptung aufgestellt?
zu 2.) Dritter Absatz:
"Denn die Entwickler legten in dem Spiel auch Wert auf Nichtspieler-Figuren, die sich möglichst realistisch verhalten. Und jeder einzelne Charakter auf dem Bildschirm muss daher von einer eigenen Künstlichen Intelligenz (KI)-Einheit gesteuert werden, die enorme Kapazitäten in Beschlag nimmt."

Von "Immer" habe ich genau so wenig geschrieben!
 
@Kribs:
zu 1.) weil du Faktenausagen tätigst. Du sagst das keine eigenständige KI pro Bot gebraucht wird, das passive Bots keine intensiven Verhaltensweisen brauchen und deswegen keine glaubhafte Erklärung sind. Ohne tiefere Einblicke in die konkrete Architektur sind solche Aussagen nicht möglich und da du uns hier sicherlich nichts vom Pferd erzählst bin ich mal von einer etwas positiveren Variante ausgegangen.

zu 2.) okay, wo steht also in dem von dir zitierten Dritten Absatz irgendwas was deine Aussagen stützt? Das widerspricht eher deinen ursprünglichen Aussagen. Es sind "NSCs" aber NSCs sind eben nicht automatisch passiv. Alles was nicht vom Spieler gesteuert wird fällt darunter.
 
@hezekiah: Also ich kann eins sagen, da ich vor einigen Jahren mal einen Artikel von einem Ubisoft Entwickler gelesen habe, der erklärt hat, wie die KI in Assassins Creed 1 oder 2 funktioniert hat. (Leider kann ich den Artikel im Moment nicht raussuchen, war in der GamestarDev heute MakingGames)

Soviel ich noch im Kopf habe wird hier eine ganze Menschenmenge zusammen gesteuert, also eben nicht jeder NPC einzeln. Ich kann dir allerdings nicht sagen, ob sich das nicht mitlerweile geändert hat.
 
Wenn ich das so höre müsste die KI dramatisch besser sein als bei allen anderen AC teilen. Ich werde das ja sehr einfach feststellen können. Da hat sich aber vom ersten bis zum letzten AC nicht allzuviel getan. Die NPCS waren und sind schon immer dämlich gewesen. Ich bin gespannt. Bei release wird man sehen, ob das wieder mal eine Lüge war.
 
@LivingLegend: Was heißt bei dir "dämlich"?
Ich muss immer noch sagen, dass sich die simulierten Menschen in der Masse eigentlich immer ganz gut angefühlt haben.
Es geht hier nicht um den Schwierigkeitsgrad der Kämpfe, das ist nur ein Aspekt der KI der sogar bewusst kontrolliert werden muss um nicht unfair zu werden.

Nur um mal ein einfaches Beispiel zu machen. Eine KI für ein TicTacToe kannst du problemlos "perfekt" machen, sogar mathematisch beweißbar. Das bedeutet du kannst unter keinen Umständen mehr Gewinnen. Ein unentschieden ist das Limit.

Zugegeben, das ist wirklich ein sehr einfaches Problem, aber man muss eben bei Spielen aufpassen, dass es nicht unfair wird. Und das kann unter Umständen sogar komplizierter sein als eine "Über-KI" zu bauen. Beispiel: Als Wache "Darf ich angreifen, oder greifen grade noch mind. 2 Wachen an?" Klar sieht das für den Spieler nach "dämlich" aus, wenn sich die Wachen einer nach dem anderen abschnetzeln lassen, aber wie frustrierend wäre es, wenn sie "realistisch" agieren würden?
 
Wieso dümpelt die CPU in der Konsole mit 1.7G herum? Soviel macht meine wenn sie aufm Desktop Däumchen dreht und Energie sparen will...
 
@Aerith: Weil GHz schon lange keine Messlatte mehr für Rechenpower ist, ausser vielleicht noch bei Ubisoft.
 
@Tomarr: Den Unterschied zw 3+ und 1.7 GHZ wirste auch anno 2014 noch deutlich spüren.
 
@Aerith: Wenn der Wettlauf über die GHz-Zahl so weiter gegangen währe dann währen wir inzwischen wahrscheinlich bei 30GHz CPUs. Mal abgesehen von den physikalischen Problemen die ab einer gewissen GHz-Zahl auftraten, wie z.B. Stromverbrauch, Isolierung, Wärmeentwicklung und störfrequenzielle Einflüsse hat man halt schon lange eher auf Transistorzahl und Architekturoptimierungen gesetzt.

Natürlich ist eine 3GHz CPU mit der identischen Architektur eines 1,7GHz Prozzis schneller. Ist nur immer die Frage ob da der Leistungsschub die Nachteile aufwiegen kann und dies auch tut. Denn doppelte GHz beudeutet nicht doppelte Leistung, sehr wohl aber ein vielfaches an Wärmeentwicklung und Stromverbrauch. Da muss man ein wenig abwägen.

Das ist genau son Quatsch wie wenn alle denken das eine Software die auf 64Bit programmiert wurde schneller und besser ist als die selbe Software die auf 32Bit beruht. Das ist genau so ein Irrglaube.
 
@Tomarr: 3 GHZ sind im PC Bereich heutzutage Standard und problemlos zu realisieren. Höher als 3GHZ zu gehen macht allerdings nicht wirklich viel Sinn, genauso wie höhere RPM als 10K bei HDDs mehr Probleme machen als Bonus bringen.

Die CPUs in den next gen Konsolen sind schwacher crap basierend auf AMDs Jaguar Notebook/Tablet Chips. Da kann man nicht wirklich dran vorbeidiskutieren.
http://techreport.com/news/27168/assassin-creed-unity-is-too-much-for-console-cpus

8 Cores bringen nichts wenn die single threaded per Core Leistung schlapp ist, denn "mehr Cores!11" machen bei games halt nicht unbedingt viel sinn.

64Bit kann effizienter sein als 32bit aber hauptvorteil ist eig nur der größere Addressbereich für Speicher der bei 32Bit bei 4GB (GESAMT SPEICHER!) endet. Sprich Software kann mehr Speicher nutzen.
 
@Aerith: PCs sind aber ein ganz anderer Ansatz. Normalerweise, was ja leider keiner mehr wirklich macht, leben Konsolen von ihrer stetig gleichen Bauart, sprich ihrem Optimierungspotential.

Und du darfst auch nicht vergessen, währe das jetzt ne 3.4GHz CPU pder so, dann müsste entweder das Gehäuse wesentlich größer sein, womit dann wieder alle über das hässliche und platzverschwenderische Design jammern würden, oder ein besserer Lüfter, wo dann gejault wird das er zu laut ist, rein.

Und die Leistung der Konsolen ist schon OK. Du musst ja nur mal vergleichen, die alten Konsolen, was weiß ich für einen Prozzi plus 512 MB Speicher, und der Sprung zu den jetzigen CPUs mit 4GB, sprich das achtfache an Speicher. Da muss einfach noch mehr drin sein.
 
@Tomarr: Ich denke schon das Ubi im code mächtig geschlampt hat und das da mehr möglich ist wenn man optimiert. zumal kapier ich noch ned so ganz was Auflösung (reine GPU sache) und FPS (ebenfalls weitestgehen CPU unabhängig wenns im reine gfx geht) mit AI berechnung zu tun haben sollen.

Aber fakt ist auch das die Hardware da drin jetzt nicht gerade nen Kracher ist. Von daher ists nicht verwunderlich das Entwickler sich schnell das Näschen anstupsen wenn sie zu hoch hinaus wollen.
 
@Aerith: Naja, im Gegensatz zu den alten Konsolen doch schon ein recht großer Sprung. Ein Kracher ist es natürlich nicht, aber ich kenne auch keinen der 1800 Euro oder so für ne Konsole ausgeben würde.
 
@Tomarr: Wieso sind PCs ein ganz anderer Ansatz im Vergleich zur aktuellen Konsolen-Generation?
Beide, sowohl die PS4 als auch die XBox One nutzen eine ganz stink normale X86 Architektur, wie seit Jahrzehnten im PC-Bereich.

Ich sehe absolut KEINEN Grund wieso man nicht eine CPU mit vergleichbaren GHZ-Werten und Möglichkeiten wie HyperThreading und Kernanzahl wie in einem normalen modernen Gaming PC.
Hätte direkt 2 Vorteile. 1. mehr Leistung generell und 2. bessere Kompatibilität zwischen PC und Konsole, was eine Portierung vereinfachen sollte.
 
@Aerith: Hast du den Artikel gelesen? GPU-Berechnungen brauchen auch immer etwas CPU-Leistung für die Verwaltung (bei einem modernen Gaming-PC praktisch nicht relevant) und scheinbar braucht das Betriebssystem der Konsolen auch nicht unwesentlich Leistung.

So und jetzt vergleichen wir mal die Leistung der angesprochenen Konsolen CPU (1,7 GHZ x 8) gegen meinen schon fast angestaubte i7-2600k (3,4 Ghz x4).
Auf dem Papier gleiche Leistung, jedoch hat der i7 einfach HyperThreading das gerade bei Multi-Threading Problemen (und AI, GPU-Management, Betriebssystemaufgaben sind genau das) ist das absolut perfekt und verdoppelt die CPU fast.

Also wurde hier scheinbar doch an der Hardware gespart. Du magst Recht haben, dass man mit einigem Aufwand auch die Codeausführung deutlich beschleunigen kann. Aber das ist bei modernen Spielen eben nicht mehr so einfach wie noch vor 20-30 Jahren. Da macht die Komplexität einfach Probleme.
 
@Draco2007: Wie ich bereits schrieb: Eine Kombination aus unterdimensionierter Konsolenhardware und nicht optimiertem Codes.
 
@Aerith: Ok, das habe ich wohl überlesen.
Aber da kann ich dir nur zustimmen. Wobei ich Codeoptimierung selbst immer etwas kritisch sehe. Die Aussage ist immer schnell getroffen (vor allem von Laien) aber ohne konkrete Einblicke ins Projekt ist sowas immer sehr gewagt. (Ich spreche da aus eigener Erfahrung als Softwareentwickler ^^)
 
@Draco2007: Glaube gern das diese Keule zu schnell geschwungen wird. Hab in meinem Studium aber auch gelernt (VHDL) das es wirklich viel zum optimieren gibt, man das aber aufgrund vorhandener Hardwarekapazitäten heutzutage aus Kostengründen gerne mal schleifen lässt, da es sehr zeitaufwändig sein kann.
 
@Aerith: Eben das ist das Problem. Optimierung ist immer extrem zeitaufwändig und damit verdammt teuer.
Nicht für umsonst wurde mir im Studium der Grundsatz "Do not optimize" beigebracht ^^

Das war auch schon vor 20 Jahren so, nur dürfte da ein Spiel einige tausend Zeilen Code enthalten, die optimiert werden wollten, so dürfte das heute um den Faktor 100 wenn nicht mehr höher sein. (wenn auch viel Code in Standardbibliotheken stecken wird)
 
@Aerith: Weil die Anforderungen an die CPU waren das sie 1.) Billig ist, 2.) wenig Strom verbraucht und 3.) 8 Kerne hat. Klar gibts auch 8 Kerne-CPUs mit 4 GHZ aber die verbrauchen dann halt entweder 125 Watt wenn sie von AMD kommen oder kosten 1000 Euro und verbrauchen 140 Watt wenn sie von Intel kommen.
 
@hezekiah: Denke mal mit ner ordentlichen 4 Kern CPU wären sie besser gefahren als mit ner abgespeckten 8Kern. Aber hey, man will die 0815 Kunden ja mit Zahlen zum Kauf anregen. Ausserdem: wen interessiert der Stromverbrauch bei ner GAMING Konsole?!
 
@Aerith: Tatsächlich ist der Stromverbrauch eines der wichtigeren Kriterien bei der Debatte PC vs Konsole. Zudem: 4 Kerne? Dann wäre das Architekturproblem ja noch schlimmer, da wie im Artikel erwähnt 1 Kern fürs OS reserviert wird.
 
@hezekiah: Wozu eigentlich einen Kern komplett fürs OS reservieren? Macht absolut keinen Sinn und macht doch auch kein PC heutzutage. Während das game läuft hat das OS doch ohnehin nicht wirklich viel interaktion zu verknacken.

Ja Stromverbrauch ist wichtig aber nicht wegen "OMG Stromzähler" sondern aufgrund des Formfaktors der Konsole. Is halt kein Rechner mit nem NH-D14 drin. Wenn die einigermaßen leise bleiben soll darf kein Prozessor mit 100W+ TDP rein.
 
@Aerith: Keine Ahnung warum der Stromverbrauch so wichtig ist aber bei den üblichen PCvsKonsole-Wars ist das immer eines der Hauptargumente.

Der Kern wird für das OS reserviert damit die Funktionen der Konsole die nichts mit dem aktuellen Spiel zu tun haben wie z.B. das Konsolenmenü, das rauswechseln aus dem aktuellen Spiel usw. immer sofort ansprechbar sind - man will an der Stelle sowenig Verzögerung wie irgendwie möglich.
Es hat sich gezeigt das Verzögerungen gerade bei diesen Zwischenschritten besonders frustrierend für die Nutzer sind.
Würde man keinen Kern reservieren kann es passieren das ein Spiel alle Kerne so auslastet (zum Beispiel auch durch einen Bug oder einfach schlechtes Speicher-Management) das man die Konsole selbst nicht mehr ansprechen kann.
 
@hezekiah: "der Stromverbrauch so wichtig ist aber bei den üblichen PCvsKonsole-Wars ist das immer eines der Hauptargumente."

ach und ich dachte es geht um flüssig, hohe Auflösung und gute Grafik ... so kann man sich täuschen
 
@CvH: nein, natürlich nicht. Da gewinnt der PC ja so oder so weil man ihn aufrüsten kann und so weiter. Wenn du also z.B. argumentierst das du für 500 Euro ja auch einen leistungsfähigeren PC zusammenstellen könntest kommt dann als Gegenargument das der mehr verbraucht.
Meistens in der Machart: "Wenn ich einen Heizlüfter in meiner Wohnstube brauche dann nehme ich sicherlich einen PC aber..." oder ähnliches.
 
Es ist ja auch nicht besonders schwer, die Leistungsgrenzen durch zu viele Details zu übersteigen. Das kann man auch Problemlos mit der leistungsfähigsten high end Hardware schaffen. Was das mit "ausreizen" zu tun haben soll, erschließt sich mir nicht. Ausreizen heißt für mich, dass man so viel wie möglich GUT aus der verfügbaren Leistung herausholt. Das ist hier mit Sicherheit nicht der Fall.
 
keine ahnung ob's schon jmd erwähnt hat, aber wollte Microsoft nicht jeder XB1 via Azurecloud nochmal ca. 4fache Rechenleistung zur Verfügung stellen. Das sollte doch grad für sowas wie NPC Steuerung/Berechnung prädestiniert sein. Ist halt blöd dass das so ein alleinstellungsmerkmal ist und die hersteller halt immer für alle Konsolen entwickeln (wollen/müssen)
 
@scar1: Ich finde so ein cloudberechnungs firlefanz einfach absoluten Blödsinn, die cloud kann 100000mal schneller sein als die Xbox, kann aber dennoch die berechneten Ergebnisse nicht in Echtzeit an die Xbox schicken. Dazu wären schnelle und nahezu latenzfreie Glasfasernetze notwendig!
 
@X2-3800: Ergo kann man damit hauptsächlich Sachen machen die nicht in Echtzeit notwendig sind. Gegnerverhalten gehört also vermutlich eher nicht dazu. Zudem kann man auch nur optionale Sachen machen falls die Leute gerade keine Verbindung haben. Man könnte beispielsweise Wartezeiten verkürzen, Dinge im Hintergrund berechnen die man gerade überhaupt nicht sieht beispielsweise bei einer "realistischen Welt Simulation" a la GTA usw.
 
@hezekiah: Das wäre durchaus machbar, dazu müsste die Engine relativ weit in die Zukunft schauen und zB. gerade nicht sichtbare Grafikteile im voraus berechnen. Physik und KI sind eben leider Dinge die man nur in Echtzeit berechnen kann. Ich weis nicht ob man da auch zum Beispiel die Level Ladezeiten etwas verkürzen kann. Es muss auf alle etwas sein was sehr viel rechenleistung verlangt aber dennoch nicht zwingend in Echtzeit zur verfügung stehen muss.
 
@X2-3800: Bei sowas wünschte ich mir mal so Promo-Videos von Entwicklern auf den neuen Konsolen die dann solche Überlegungen mal zeigen, ähnlich wie bei diversen Kickstarter Titeln. Klar, die KonsolenEntwickler sind sicherlich nicht auf Transparenz angewiesen aber es wäre wahnsinnig interessant (zumindest für mich ^^). Aber ja, Level Ladezeiten, Dinge in der Distanz auf die man sich zubewegt könnte man schon mal in den Speicher packen (falls der das zulässt, kapazitätstechnisch). Was die Grafikberechnung angeht wäre das allerdings etwas der aktuellen Entwicklung entgegengesetzt weil man gerade versucht die Teile die man nicht sieht eben nicht berechnen zu müssen um der GPU unnötige Berrechnungen zu ersparen :)
 
@hezekiah: Eben, es würde unmengen an Energie sinnlos verbraten, wenn man sowas vorausberechnet und dann eventuell gar nicht nutzt weil man dann doch die Laufrichtung im Spiel wechselt. Man kommt eben nicht daran vorbei alle Berechnungen vor Ort zu berechnen.
 
@X2-3800: Das mit der Vorausberechnung ist eh nur nen Marketinggag. Ich will gerne glauben, das die das bei Single Player Shootern mit gescripteten Ereignissen, die denen ja bekannt sind, hinbekommen. Aber bei Strategiespielen ala Starcraft 2 oder BF4 oder noch schnellere wie Titanfall weiss ich ja nichtmal selbst, was ich die nächste Sekunde machen werde, eben weil sie so schnell sind.
 
@X2-3800: Naja theoretisch könnte man hier Algorithmen aus dem BigData Umfeld nutzen.
Zum Beispiel könnte man über statistische Analysen über alle Spieler Häufungen in den "Bewegungsmustern" feststellen und eben nur die paar häufigsten Möglichkeiten Vorberechnen.
Auch über MachineLearning Algorithmen könntest du die "Cloud" von den Spielern lernen lassen und nach und nach ziemlich gute Prognosen erstellen was passieren wird. Und das selbst in Multiplayer Spielen.

Ist alles noch etwas Zukunfsmusik und du hast an sich Recht, dass dabei natürlich unnötige Berechnungen gemacht werden müssen, aber rein technisch ist da unglaublich viel Möglich.
 
@LivingLegend: Wieso Marketinggag? Lies mal die Nachricht von mir an X2-3800. Und lass dir gesagt sein, ich arbeite in so einem Umfeld. (Ok keine Echtzeitanalyse innerhalb weniger Millisekunden, aber grundlegend geht da einiges)
 
@scar1: AC Unity ist ein Multiplattformtitel.
 
Das die NextGen Konsolen keine Leistungskracher sondern eher Rohrkrepierer werden, war aber von Anfang an klar - jetzt zeigt sich das eben in "freier Wildbahn". Das Klump ist nix Wert, da das Konzept nicht ordentlich umgesetzt wurde >> PC rules!!!
 
@Zonediver: Ja, jedoch werden wir durch die neuen Konsolen wohl oder übel wieder limitiert werden. Wenn man sich z.B. neue Titel anguckt die auch auf den älteren Konsolen erscheinen, sieht man wie Schlauchig die Levels sind und wie am Level Design gespart wird(Shadow of Mordor z.B). Das wird in ein paar Jahren auch wieder so sein, wenn die aktuellen Konsolen wieder am kompletten Limit sind(auch von der Software Optimierung) und der PC schon um Welten weiter ist.
 
Diese Konsolengeneration ist weder Fleisch noch Fisch. Es hätte gereicht diese neue Generation im Jahre 2015 erscheinen zu lassen und dadurch eine bessere/stärkere Hardware zu verbauen.
 
@Seth6699: was aber auch wieder Unsinn ist, da:
- jedes Jahr neue Hardware erscheint
- die Ansprüche sowieso steigen
- die Entwicklung solche eines Gerätes nicht abläuft nach dem Motto " krassgeile Hardware, mach mal verlöten und raus damit"

Die Idee hinter den Konsolen ist nicht schlecht und die Nutzer werden mit den Einschränkungen leben, ansonsten können sie auch zum PC wechseln und am wettrüsten teilnehmen.
 
@Yepyep: Das größte Problem der aktuellen Konsolen ist die APU. CPU+GPU können ZUSAMMEN nur noch eine TDP von knapp 120W verbrauchen. Dedizierte GPU und CPU mit eigenem Kühler würde zumindest höhere Leistungsaufnahmen ermöglichen. Außerdem ist die Die-Größe beschränkt. Eine APU limitiert sowohl CPU als auch GPU durch die Baugröße. Deine Aussagen treffen ja nur für den PC zu und nicht auf Konsolen. Ich möchte eine Konsole haben, die wenigstens für 6-8 Jahre wirklich eine gute Leistung liefert. Und diese neueste Generation ist, wie ich schon schrieb, für mich weder Fleisch noch Fisch.
 
@Seth6699 ich würde mir auch mehr Leistung wünschen, gibt es eben nicht. Die Spiele werden an die Konsolen angepasst und werden das Beste rausholen was eben möglich ist. Die einen besser, die anderen schlechter. War bis jetzt so und wird so bleiben. Mit einem PC KANNST Du mehr Leistung bekommen, sofern der Programmierer dies beachtet. Davon bekommt man aber nur in den seltensten Fällen wirklich was mit. Richtig Leistung in nackten Zahlen bekommst Du eben auch nur mit dementsprechend höheren Kosten und auch dies wird immer so bleiben. Jetzige Highend ist in ein paar Monaten günstig und dafür gibt es dann die nächste Runde an Highend. Also kannst Du es drehen wie Du willst, es wird immer was besseres geben und ob dies auch wirklich ausgereizt wird steht auf einem andren Blatt.
 
Tja, wird Zeit dass sich Sony, Microsoft und co mal das Project Ara anschauen.
 
@spackolatius: es gab mal vor der konsolen sowas, das nannte sich pc. das war so ähnlich wie project ara. man konnte dort auch hardware tauschen ;)
 
@Mezo: Shut up and take my money!!!11 ;)
 
@Mezo: Mein Kommentar sollte eigentlich auch genau auf deine Aussauge anspielen.

Aber das wäre vielleicht ein wenig mit folgender Information klarer:
Ich habe noch nie eine Konsole besessen.
 
@spackolatius: Der Vorteil einer Konsole ist doch, dass die Hardware über Jahe komplett fix ist, was eine viel bessere Optimierung (im laufe der Zeit) zulässt.
Wenn ich diesen Status ändere, gibt es wirklich keinen Grund mehr keinen PC zu benutzen, einzig der Formfaktor wäre noch ein Punkt.
 
und letztens wurde ich noch angemacht, weil ich die konsolen als fail bezeichnet habe -.-
 
@Mezo: Mir reicht die Leistung der Wii U dicke. Nintendo beweist es mit jeder Konsolengeneration, das es keine Rennmaschine bedarf um Spiele auf den TV zu zaubern, die nicht nur gut aussehen, sondern auch Spass machen. Zudem erscheint nicht alle 12 Monate der gleiche Abklatsch, sondern Nintendo steht für Inovationen und neue Spielideen. Grafik alleine macht kein gutes Spiele. Die Konsole ist das eine, das Team was dahinter steht das andere.
 
@TuxIsGreat: schön gesagt
 
Mal wieder gefundenes Fressen für die Konsolenbasher und -hater.
Lasst es Minuse hageln, kommt gebt euch Mühe, is Freitag und ihr wollt doch "befriedigt" ins Wochenende. *Gääääääääähn*
 
@onlineoffline: mit bashen hat das nichts zu tun. das ist eher mitleid für die leute die im WQHD-als standard-zeitalter in 900p spielen müssen.
 
Die 900p mit 30 FPS liegt alleine an der Xbox One, laut der Aussage von Ubisoft.
"&#132;Wir haben beschlossen, beide Versionen auf dieselben Spezifikationen zu beschränken, um den Debatten darüber vorzubeugen&#147;"
Die PS4 könnte 1080p mit 60 FPS. Bei Black Flag kam die PS4 Version auch nur mit 900p raus und wurde dann auf 1080p gepatcht.
 
Konsolen sind auf Dauer einfach Schrott, da nicht aufzurüsten.
 
@cptdark: Jein, durch die gleiche Hardware kann man um einiges mehr heraus holen als aus dem PC, wo es Unmengen an Kombinationen gibt, Problem ist im Moment nur, das die Hardware im Gegensatz zur aktuellen PC Hardware ziemlich günstig war und dies sich in der Zukunft rächen wird. Früher bei der Xbox 360, PS 3 waren die Konsolen z.B. Leistungsfähiger als die meisten Mittelklassen PCs.
 
@L_M_A_O: Alte Konsolen haben durch spezialisierte Prozessoren geprotzt. Wenn die jetzt X86 /x64 architektur benutzen und da kein High End reinknallen wars abzusehen das die guten Stücke schnell schlapp machen.
 
Zitat ""Technisch werden wir von der CPU eingeschränkt", sagte er. "Die Grafikprozessoren sind sehr leistungsfähig, offensichtlich sieht die Grafik auch sehr gut aus." Allerdings könne bei dem Spiel nicht die volle Performance für die Berechnung der Bilder bereitgestellt werden. Denn die Entwickler legten in dem Spiel auch Wert auf Nichtspieler-Figuren, die sich möglichst realistisch verhalten. Und jeder einzelne Charakter auf dem Bildschirm muss daher von einer eigenen Künstlichen Intelligenz (KI)-Einheit gesteuert werden, die enorme Kapazitäten in Beschlag nimmt. "

Da muss ich aber mal sagen, "Ja aber!!!" warum zur hölle wird dann die brachliegende GPU Leistung nicht dafür verwendet die KI zu beschleunigen? Wieso schiebt man die Schuld sofort auf die CPU? Ich finde es ist eine schwache Ausrede für einen Entwickler, wenn man eine APU die dafür gebaut wurde Berechnungen auf der GPU durchzuführen nur für die Grafik verwendet und dann behauptet der Prozessor ist zu schwach. Die CPU ist für Physik und KI Berechnungen einfach nicht gemacht, es gibt genug Beispiele dafür wie man diese Berechnungen auf die GPU auslagern kann, über sowas wurde mehrfach in den Medien berichtet.
 
@X2-3800: Frage ob die Konsolenhardware das unterstützt. Ausserdem liest sich das sowieso wie PR-Gewäsch für nich anständig durchoptimierten Code.
 
@Aerith: Eigentlich sollte die Konsolen APU weitestgehend Identisch zu der jetzigen Kaveri Generation sein, bis auf die Anpassungen die für Sony und Microsoft gemacht wurden. Vieleicht kommt das ja alles mit der Einführung von DX12, es wäre denkbar das zumindest Teile davon im Betriebsystem der Xbox landet. Wie das Sony dann umsetzt ist dann wieder ein anderes Problem. Aber eigentlich kann ich mir nicht vorstellen das GPU Berechnungen bei der Xbox gänzlich unmöglich sein sollen. http://tinyurl.com/cl8px2r
 
@X2-3800: Hast du in deinem Leben schonmal irgendwas programmiert? Und ich meine kein Hello World.

GPU-Programmierung ist absolut nicht trivial. Wirklich gut funktioniert das bei Berechnungen, die sich perfekt in extrem viele kleine gleichförmige (gleich lang dauernde) Berechnungen aufteilen lassen.
Du hast bei einer GPU einfach ein Vielfaches an Kernen verfügbar und wenn du wenigstens etwas Coding-Hintergrund hättest wüsstest du, das du nicht einfach beliebige Algorithmen beliebig parallel laufen lassen kannst.

Und was ich über die KI in Assassins Creed weiß (was allerdings eher Teil 1 oder 2 betrifft) wird hier nicht alles einzeln gesteuert, was man vieleicht noch gut parallelisieren könnte, sondern hier wird die ganze Masse zusammen gesteuert.
Also nichts was man einfach mal schnell auf eine GPU auslagern kann.

Um mal noch ein Beispiel zu nennen wobei GPUs verdammt gut sind, Bitcoin Mining.
Der hier verwendete Algorithmus kann perfekt für GPUs angepasst werden und die Leistung die da raus kommt ist schon fast beängstigend im vergleich zu einer CPU.

Langer Rede kurzer Sinn, CPU und GPU lassen sich nicht einfach beliebig für irgendwas benutzen...
 
Naja die Engine ist eigentlich total ungeeignet für diese Darstellung. Wenn ich mir z.B. FarCry 3 angucke auf höchster Stufe, kriege ich schon Gänsehaut, da lief meines Erachtens selbst Crysis 1 performanter.
 
@L_M_A_O: An Crysis 1 kommt meiner Meinung nach bis heute keine Grafikengine mehr ran, selbst die neueren Cryengines sind schlechter als der vorläufer, wobei man sagen muss das das auch an der grafiktechnisch schlechten Umsetzung der Folgetitel liegen kann. Ein Werkzeug kann immer nur so gut sein wie der Mensch der es benutzt.
 
@X2-3800: "selbst die neueren Cryengines sind schlechter als der vorläufer, " Nein das stimmt nicht. Nur weil die Spiele nicht so umgesetzt werden wie z.B. Crysis 1 sind die Engines nicht schlechter, zwischen der CryEngine 2 und der aktuellen CryEngine(Version 3.6.8) liegen Welten, ich sage das als CryEngine Hobby Level Designer^^
 
@L_M_A_O: Das war ja auch eine Vermutung von mir das es wohl eher an der Arbeit der Entwickler lag. Ok dann hoffe ich das Entwickler die zukünftig mit den Engines arbeiten etwas weniger auf die Konsolen wert legen wenn sie einen PC Spieletitel programmieren. Es wäre mal an der Zeit das wieder ein Spielkommt was nicht nur spieletechnisch überzeugt sondern auch Grafiktechnisch zeigt was die Engine kann.
 
@X2-3800: Kingdom Come wird ziemlich schick werden und es wird endlich ein Spiel mit Mittelalter und ohne Magie sein. http://www.youtube.com/watch?v=13mlmGdyHlg Star Citizen zieht jetzt noch schon gut aus, aber man kann da noch nicht so sagen was kommt.
 
@L_M_A_O: Naja das Rendervideo sagt nicht viel aus. http://www.youtube.com/watch?v=_2ET_xvHIMY Das Gameplay schaut gewaltig aus
 
@L_M_A_O: Ich denke das so eine Grafik durchaus machbar ist.
 
@L_M_A_O: liegt vermutlich daran das FarCry3 nicht von Crytek entwickelt wurde und auch auf einer anderen Engine basierte. Man kann über Crytek Titel(z.B. Unoriginell) sagen was man will aber die CryEngine bei Crysis 1 war kein schlechtes Stück Technik.
 
@hezekiah: Sah bombe aus. lief aber damals echt beschissen.. ich erinner mich noch gut wie sich meine 8800GTX gequält hat. :D
 
@Aerith: hach ja, die 8800 GTX :) die war so gut das Nvidia sie die nächsten Generationen einfach noch ein paar Mal unter anderen Namen aufgelegt hatte ^^
 
Jetzt aber definitiv: #NextGenGate
 
Nicht glaubwürdig, die Erklärung. Logisch, dass die CPU schwächer als die der aktuellen PCs ist. Aber warum dann die Auflösung auf 900p reduzieren? Dann muss für die ('pixligen') Männlein immer noch die selbe KI berechnet werden. Und auch 60fps ginge leicht -- man braucht auch nicht für jedes Frame einen KI-Zyklus zu rechner (der eh' asynchron und viel langsamer als mit 30Hz läuft).

Sorry, aber für Leute, die sich mit der Materie auskennen, klingt das doch arg an den Haaren herbeigezogen.
 
@mrmag: Ähm, du verdrehst da was.
Bei der Auflösung würde ich so noch zustimmen, wobei auch hier einfach bedeutend weniger Pixel berechnet werden müssen. (Die Polygone müssen ja auf Bildschirm-Pixel gemappt werden)
Aber was die FPS angeht, soll hier nicht weniger KI berechnet werden müssen, sondern die CPU soll einfach entlastet werden, weil die GPU-Verwaltung nur noch halb so oft laufen muss, was einfach über die CPU läuft.
Damit hat die CPU weniger zu tun und es bleibt mehr Leistung für die KI.
 
Was sind eure Prognosen? Wie lange wird diese Konsolengeneration anhalten? Ich tippe auf 4-5 Jahre und dann steht die nächste Generation in den Startlöchern.
 
@Wuusah: in 4-5 jahren wird man aber auf pc seite DRAMATISCH weiter sein ... und dann steigt die unzufriedenheit der konsolennutzer an. wenn jetzt schon probleme auftreten, dann läuft in 1-2 jahren wahrscheinlich garnichts mehr, und wenn dann extrem kastriert.
 
@lazsniper2: Laufen werden die Spiele schon, nur dann eben auf maximal "mittel" in den nicht vorhandenen Grafikoptionen ;)
 
@Wuusah: hehe. ganz genau. es wird sogar alles in ultra-low laufen, aber marketingabteilung sagt : das ist optimiert und ganz fortschrittlich :D
 
Während eingefleischte PC-Gamer sich jetzt über Sachen aufregen, die sie garnicht berühren, erfreuen sich an den aktuellen Konsolen soviele Käufer wie nie zuvor. In einer Grafikumgebung, die ihnen - unabhängig davon ob es gerade 720p, 900p oder 1080p sind - gefällt. Obwohl ich nach 15 Jahren oder so mit der XO das erste mal wieder eine Konsole besitze, fand ich Grafik auf der 360 nicht selten gefühlt schöner als auf dem PC, selbst wenn ich wußte, daß das Spiel auf meinem PC in einer vielfach höheren Auflösung lief. Wenn man in einem Spiel aus einem Wald auf einem Hügel tritt und in eine wunderschöne Talsenke blickt, während die Sonne langsam hinter den Bergen verschwindet und sich ein bezauberndes Spiel aus Licht und Farben einstellt, ist es völlig egal (mir zumindest) ob das 1080p sind oder 900p oder gar nur 720p sind. Schönheit läßt sich nicht in solchen Daten alleine ausdrücken, sondern erzeugt ein wohliges Gefühl und Gefühle sind schlecht quantifizierbar. Konsolen waren noch nie etwas für Specs-Jäger. Seit Pong nicht. Warum sollte das jetzt auf einmal notwendig sein? Überforderung der begrenzten Hardware war schon zu Zeiten von NES und Master System eine Herausforderung für die Programmierer, der sie zum Launch der Geräte kaum, in den Jahren darauf immer besser gewachsen waren. Und das Konsolen-Bashing ist auch seit damals genau das selbe geblieben. Mit jeder neuen Generation, wurden sie von PC-Fanatikern kaputtgeschrieben, und jedes mal war die nächste Generation dann noch erfolgreicher... Same procedure as last year, Miss Sophie?
 
@Chris Sedlmair: Das größte Problem ist eigentlich nicht die Auflösung, sondern die FPS. Actionlastige Spiele mit 30 FPS ist einfach ein No-Go...
 
@Wuusah: Ich habe jetzt eine Größe als Bsp. genommen, um das zu verdeutlichen. btw... es gab zeiten, da waren die Gamer gut genug um mit weniger klarzukommen und trotzdem Spaß dabei zu haben. Auch auf dem PC.
 
@Chris Sedlmair: Es gab auch Zeiten, da hat man auf einem schwarz-weiß Fernseher einen von zwei möglichen Sendern geschaut und war glücklich damit.
Technologischer Fortschritt führt zu neuen Standards, die man einfach erwartet. Wenn ich mir einen Fernseher kaufe, dann erwarte ich, dass er auch Farbe kann. Wenn ich mir eine moderne Konsole kaufe, dann erwarte ich, dass sie 1080p/60fps schaffen kann und wenn dies nicht, dann zumindest 60fps. Leider opfern die Entwickler lieber fps statt Grafik und dies ist echt traurig. Ein schnelles actionreiches Spiel kann auch mit 720p gut aussehen, aber mit 30fps wird es sich nicht gut spielen. Warum man lieber fps opfert kann ich aber verstehen. Die sieht man nicht auf Werbe-Screenshots.
 
@Wuusah: Ich find bspw schöne grafik und ki wichtiger als auflösung und fps (wobei 30 da schon die unterste grenze des toleranzrahmens ist). bei einem klassischen first person shooter mag fps extrem wichtig sein. bei einem actionlastigen adventure, wo story und grafik im vordergrund stehen nicht so sehr. bei guter programmierung müßte man auch mit 30 fps noch klarkommen. aso ich will nicht ausschließen, daß die entwickler es an sorgfalt vermissen haben lassen um doch noch mehr fps rauszukitzeln, aber man sollte sich erstmal das produkt ansehn, wenn es fertig ist und nicht gleich draufschlagen wegen rein quantitativen zahlenangaben im vorfeld. also selbst anschauen, wenns fertig da ist und dann entscheiden.
 
@Chris Sedlmair: bei schnellen Spielen ist 30 fps nicht die unterste Grenze...
 
@Chris Sedlmair: Konsolen sind meiner Meinung nach immer noch die bequemere Lösung, einfach ne bequeme Sache. Vielleicht sollte man mal darüber nachdenken das Spiele Spass machen sollen, man sollte keine Wissenschaft mit irgendwelchen Zahlen daraus machen. Wer sich daran aufgeilen mag das er 10 MHZ mehr in der Kiste hat sollte sich mal ernsthaft Gedanken machen. Nix ist relaxter sich gemütlich auf die Couch zu ratzen und die Konsole an zu schalten, anstatt sich laufend mit Windows rumärgern zu müssen.
 
@TuxIsGreat: Ja, es geht um Spaß. Wenn das Bild aber verschwommen/verzerrt ist in schnellen Situationen, dann habe ich zumindest keinen Spaß dabei. Und 30 fps führt zu solchen Effekten.
Grafik ist nicht so wichtig, aber flüssiges Gameplay ist wichtig und dazu gehört nunmal konstante 60fps, Minimum.
 
@Wuusah: Warte doch erstmal ab. es gibt genug beispiele für actionreiche spiele, die mit 30 fps gut spielbar sind. Schau Dir das fertige Produkt an und entscheide dann.
 
Sauberen und optimierten Code und gut ist. Es gibt meiner Meinung nach zu viele Games die einfach plump als Konsolenvariante auf den Markt geschmissen werden ohne den Code entsprechend zu optimieren. Stattdessen wird einfach auf die ein oder andere Feinheit verzichtet - genauso wie der weit verbreitete Irrglaube, dass man unter OpenGL/Linux keine grafisch ansprechenden Spiele zaubern könne... natürlich geht auch dies: http://dangerdeep.sourceforge.net/ stammt aus SH3/SH4-Zeiten und braucht sich davor nicht wirklich zu verstecken.
 
Ach wie blöd... würden die in Xbox One und PS4 verbauten Grafikchips nur Mantle unterstützen... Ach, das tun sie ja sogar!!! Immer dießer schei* mit Nvidia... selbst wenn die Konsolen Mantle nutzen würden, bleibt AC ein "The Way It's Meant to be Played" Spiel von Nvidia was nur die proprietären Nvidia Technologien nutzt statt den offenen von AMD eingeführten Standards.
 
Mh vielleicht auch einfach schlecht Entwickelt. Immer die selber ausreden.
 
Ich sag nur drei simple Buchstaben: A-M-D
 
Komischerweise kann man leider Konsolen nicht aufrüsten. Warum hat MS oder Sony nicht daran gedacht? So hätten Sie einen Vorteil gegenüber dem jeweiligen Konkurrenten gehabt und die Konsole verbessern können. Damals beim N64 könnte man seinen Arbeitsspeicher erweitern und auch genau diese Funktion oder ähnliche, hätten Sie auch bei der Xbox One einbauen können bzw. sollen, groß genug ist sie ja dafür. Bei der PS4, kann man ja zumindest die Festplatte austauschen was ich gut finde aber nicht ausreicht. Nebeneffekt, man hätte mehr Geld verdienen können.
 
@youngdragon: das konzept der konsole ist auf dauer unveränderte und immer gleiche hardwarekonfiguration. das führt auf dauer dazu, daß die programmierer lernen diese konfiguration immer besser auszureizen.
 
Unglaublich, was hier für Halbwissen existiert: Fakt ist, dass jede Engine dieser Größe weiter optimiert werden kann. Aber: ab einem gewissen Punkt sind die Ressourcen (Leute, Zeit) einfach Vergeudung, da nur noch minimalste Verbesserungen statt finden können.

Ein kleines Beispiel aus meinem Studium: Optimierung von mathematischen Programmen. Aufgabe war es, eine Anwendung, die Fraktale generiert und speichert, zu optimieren. Es gab eine Anwendung auf .NET 1.0 Code (Release 2002) mit schlechter Grafik-Ausgabe. Durch relativ wenig Aufwand (2 Stunden) konnte ich auf die neue .NET Version updaten und zeitgemäße Grafikausgabe einbauen. Speedup: fast 100% (also doppelt so schnell). 6 Stunden verbrachte ich damit, Datenstrukturen zu ändern (z.B. auf Datenstrukturen, die mit maximal Log N arbeiten wie Dictionaries oder Hashsets) und Spezialfälle wie Zoomstufe 0 mit eigenem Code, optimiert für "Kein Zoom" zu schreiben. Speedup: nochmal 60%. Dann wurde es schwierig: mit einem Performance-Profiler (von RedGate) analysierte ich Zugriffe auf Variablen, strich Code-Feinheiten, die rein der besseren Erweiter- und Wartbarkeit vom Code dienten. Natürlich war dies mit dem Performance-Profiler sehr langwierig: Ausprobieren, Testfälle durchklicken, Analysieren, Code-Änderungen machen, Testen ob die Funktionen alle noch gehen, eventuell korrigieren, neu kompillieren und dann wieder von vorne. Nach mehreren Tagen Arbeit (ja, das hab ich ernst genommen) konnte ich noch mal 50% Speedup raus holen. Ich habe mir außerdem überschlagsmäßig überlegt, wie viel eine an die eigene Prozessorarchitektur optimierte C-Variante dieser .NET-Anwendung samt Grafik-Ausgabe über DirectX10 dauern würde. Rausgekommen sind ca. die dreifache Zeit von meiner gesamten Optimierung, den resultierenden Speedup konnte ich nicht schätzen. Ich bekam übrigens eine 1 und konnte den besten Speedup des Kurses erreichen ;-)

Fazit:
Der Aufwand für die letzten Optimierungen hatten sich aber gegenüber den ersten beiden Optimierungsstufen ver-50-facht. Bei einem großen Projekt, an denen 30-50 Entwickler aktiv und Vollzeit arbeiten, würde meine letzte Optimierungsphase bereits mehre Mann-Jahre bedeuten, was einerseits sich nicht rechnet, andererseits aber den Release-Termin um Monate verschieben würde. Wenn ein Spiel sich um 6 Monate verzögert (mit 100 Leute Beschäftigten), kann das solche enormen Auswirkungen haben (finanziell), dass auch größere Entwicklungsstudios nachhaltig geschädigt werden, eventuell sogar zusperren müssen. Wäre nicht das erste Mal gewesen, dass so etwas passiert.

Optimierungen an einer Engine sind also sehr sinnvoll, wenn aber die Konsole(n) zu schwach dimensioniert sind, steigt der Aufwand, um noch eine Auflösung höher zu schaffen aber so stark an, dass es sich einfach nicht mehr rechnet. Wenn dann auch noch die Gefahr besteht, den Release zu verschieben, hat man außerdem das Problem, dass potentielle Kunden absteigen und die Kosten aus dem Ruder laufen. Die 5% mehr Leistung holt man auf jeden Fall nicht mehr rein.
 
@Hans3: Ich kann dein Beispiel nur mit meinen Erfahrungen als Softwareentwickler aus Studium und Beruf nur bestätigen. Codeoptimierung ist immer sehr schnell ausgesprochen, was aber dahinter steht, vor allem bei wirklich komplexen Projekten, darüber machen sich die wenigsten Gedanken. Im Studium kann man sowas mal experimentell machen, aber in einem realen Projekt ist für sowas idr keine Zeit. Vor allem, wenn man möglicherweise zu Anfang des Projekts aufgrund falschen Annahmen falsche Konzept-Entscheidungen getroffen hat und damit praktisch alles umbauen müsste. Sowas sorgt dann in realen Projekten entweder für das was hier im Artikel steht oder wenn es schlimmer kommt für die komplette Einstellung eines Projekts.

Und die KI der Assassins Creed Spielen gehört auf jeden Fall zu den nicht trivialen Problemen. Vor allem wenn einem die Hardware hier deutliche Grenzen setzt.
 
@Draco2007: Wobei ich mich frage: Wie zum Geier konnten INDUSTRIEPROFESSIONALS! die Hardware der Konsolen so falsch einschätzen?

Kriegen die keinen Input von den Konsolenentwicklern?!
Entwickeln die ihre Spiele blind bis MS & Sony die Hardwarespecs der Konsolen der Allgemeinheit veröffentlichen?
 
@Aerith: Naja das ist durchaus eine interessante Frage. Ich sehe zwei Möglichkeiten.

Zum einen dürfte bei AC immer noch der PC die "Hauptplattform" sein und da Unity nun wirklich nicht der erste Teil ist dürften grunsätzliche Konzepte der Entwicklung bereits feststehen. Die Next-Gen Konsolen sind allerdings noch ziemlich unbekannt. Und wer weiß wie gut solche Dinge seitens Sony/MS dokumentiert sind. Sowas wie "Ein Kern wird komplett fürs OS reserviert". Auch die Last die auf der CPU liegt, wegen der Verwaltung der GPU dürfte nicht so leicht einzuschätzen zu sein.
Also Kurzfassung: unbekanntes System und "alte" Entscheidungen die bei dem neuen System eben Probleme bereiten.

Möglichkeit 2, wie von dir angesprochen, wirklich einfach mal "blind" losgelaufen und gedacht "Naja neue Generation wird schon genug Power haben". Das halte ich nichtmal für so unwahrscheinlich, je nachdem wie bei Ubisoft üblicherweise gearbeitet wird.

Ein Beispiel für Möglichkeit 2 wäre CCP mit Eve Online. Eve ist zu einer Zeit entstanden, als alle CPU Hersteller große Versprechungen gemacht haben, dass die GHZ-Jagt die nächsten 10-20 Jahre weitergeht.
Also wurden zu der Zeit naiverweise Konzept-Entscheidungen getroffen und die komplette Server-Software auf Single-Core Maschinen ausgelegt.
Kaum 1-2 Jahre später waren die Single-Core CPUs praktisch tot.
Stand heute setzt CCP auf die besten Single-Core Rechner die heutzutage noch zu bekommen sind. (Teilweise wohl Multi-Core CPUs mit deaktivierten Kernen und massiver Übertaktung) Dennoch zeichnet sich ab, dass die Server immer wieder an die Grenzen stoßen. Nur hat man jetzt ein riesiges hochkomplexes Projekt mit 10 Jahre altem Code, was sich kaum noch "umbauen" lässt.
Das mag vielleicht keine "blinde" Entscheidung gewesen sein, aber man hat sich von den Versprechungen der CPU-Hersteller blenden lassen und grundlegend falsche Entscheidungen getroffen.
MS und Sony haben auch praktisch das blaue vom Himmel versprochen. Womöglich ist Ubisoft darauf reingefallen.
 
@Draco2007: Klingen beide irgendwie plausibel. Gerade das mit den leeren Versprechungen, kombiniert mit unter Verschluss gehaltenen Details...
 
@Hans3: Immer gut wenn jemand mal reale Beispiele gibt damit man sich bessere Vorstellungen machen kann. Danke dir.
 
Wenn man weiß das Units wieder mit marketingunterstützung von Microsoft beworben wird, erscheint die technische Vereinheitlichung zugunsten des Werbepartners und der schwächeren Plattform in einem anderen Licht. Man erinnert sich, Black Flag wurde letztes Jahr von Sony marketingtechnisch unterstützt. Daher isses blödsinn zu behaupten das die Konsolen schon ausgereizt seien
 
Es zeigt sich wie immer das die Konsolen nicht den Hauch einer Chance haben gegen einen PC. Und da hieß es immer früher dass das PC-Gaming ausstirbt :D :D
 
@dd2ren: Nich wenn die Hersteller mit der Hardware geizen um den Formfaktor & Preis der Konsolen so klein wie möglich zu gestalten. Die Mehrheit will halt keinen Mid-Tower im Wohnzimmer stehn haben. ;)
 
@Aerith: Och wenn das Teil wirklich ansprechend und elegant gehalten ist, so dass es in ein Wohnzimmer passt (am besten mit vielen "Skins") spräche eigentlich nichts gegen einen etwas größeren Formfaktor.
 
@dd2ren: Ich wußte nicht, daß Konsolen eine Chance gegen einen PC haben müssen (wobei überhaupt?). Mein Toaster muß doch auch nicht gegen meine Kaffeemaschine "eine Chance haben". ^^ Ich frag mich eher, was Du kompensieren mußt.
 
@Chris Sedlmair: Wenn deine Kaffemaschine auch Toast macht muss sie sich Vergleiche mit einem Toaster gefallen lassen.

Es erscheinen nunmal viele Spiele sowohl für den PC als auch für die Konsole. Perfekt vergleichbar ^^
Kommentar abgeben Netiquette beachten!

Jetzt als Amazon Blitzangebot

Ab 00:00 Uhr Kaspersky Internet Security 2017 + Kaspersky Internet Security für 1 Android Gerät - [Online Code]
Kaspersky Internet Security 2017 + Kaspersky Internet Security für 1 Android Gerät - [Online Code]
Original Amazon-Preis
27,99
Im Preisvergleich ab
23,00
Blitzangebot-Preis
22,29
Ersparnis zu Amazon 20% oder 5,70

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles

Forum