PlayStation 5: Grafikchip von AMD lässt auf viel Leistung hoffen

Die Gerüchte um eine leistungsstarke Sony PS5-Konsole verdichten sich, nachdem AMD mit Google Stadia einen neuen Grafikchip für das Spiele-Streaming vorgestellt hat. Dieser liefert 10,7 Teraflops und somit deutlich mehr als die Xbox One X und die ... mehr... Gaming, Spiele, Konsole, Sony, Games, Konsolen, Gerüchte, Spielekonsole, Spielekonsolen, PlayStation 5, ps5, Sony PlayStation 5 Bildquelle: Gamerant Gaming, Spiele, Konsole, Sony, Games, Konsolen, Gerüchte, Spielekonsole, Spielekonsolen, PlayStation 5, ps5, Sony PlayStation 5 Gaming, Spiele, Konsole, Sony, Games, Konsolen, Gerüchte, Spielekonsole, Spielekonsolen, PlayStation 5, ps5, Sony PlayStation 5 Gamerant

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Leider wird dann vermutlich nur wieder die Leistung in der werbewirksamen nativen 4K Auflösung verheizt, sodass am Ende wieder nur 30 FPS bei mittleren Details für AAA Spiele dabei rumkommen.
 
@cvzone: Das Problem bei der Auflösung von 4k ist weniger die rohe Rechenleistung, sondern viel mehr die bisher fehlende Optimierung der Grafikengines auf die hohe Auflösung. Bei FullHD waren die Engines mittlerweile schon so stark optimiert, dass mit vergleichsweise geringem Rechenaufwand die Auflösung mit hoher fps gewährleistet werden konnte. Ohne Optimierungen die Auflösungen hoch schrauben zehrt enorm an der Rechenleistung. zB muss nicht jedes decal oder spray mit 4k berechnet werden. Deutlich niedrigere Auflösungen für einzelne Effekte, die nur klein auf dem Bildschirm dargestellt werden, sind auch schon zielführend und sparen Leistung. Mit den aktuellen Versionen der Unreal Engine, Unity oder auch CryEngine (siehe letztes Raytracing Video) ist schon ein großer Schritt in die Richtung getan. Ich bin schon sehr gespannt auf die E3 ;)
 
@bigspid:
Bitte nicht über etwas diskutieren, von dem man scheinbar wenig Praxiswissen hat.
Rein auf die Auflösung bezogen ist es abenteuerlich davon zu sprechen 4k sei weniger optimiert als FullHD
Dir ist schon klar, was der technische Unterschied ist? Es werden exakt so und so viel Pixel mehr oder weniger berechnet, sonst gar nichts...
Es ist eher so, dass du andere Settings aktuell massiv runter drehen musst, da 4k eben massiv mehr Performance frisst und andersrum.
Das hat mit optimiert nichts zu tun, jedenfalls nicht mit der Auflösung.

Alte Games werden so oder so irgendwann nicht mehr optimiert auf neue Grakkas, sprich es gibt dann eben keine aktuelle Hardware die das Maximum in alten Games erreichen kann, aber das ist kein Problem der Auflösung für sich, sondern wie du selber schreibst an der Engine und wie das Game programmiert ist. Da gibt es einige Dinge die dann einfach nicht mehr gut laufen.
 
@smart-: Ich spreche nicht von Optimierungen auf einzelne Grafikkarten, sondern über die Art wie das Gesamtbild aus den einzelnen Komponenten zusammengefügt und gerendert wird. Jede Rauchwolke, jeder Schatten etc. wird einzeln berechnet und am Schluss in das Gesamtbild zusammengefügt. Dass aber nicht jede kleine Rauchwolke eine 4k Berechnung benötigt, ist klar. Wenn du nur stupide die Ausgangsauflösung hoch schraubst, ohne die entsprechenden Zwischenberechnungen anzupassen, ist das einfach sehr leistungsintensiv. Ich bin kein Experte in Sachen Grafikberechnungen, hab aber einiges dazu gelesen, was u.A. in der Unreal Engine 4 oder Snowdrop eingesetzt wird. Da wird auch explizit diese Thematik angesprochen.

Du beziehst die Optimierungen einer Grafikengine auf einzelne Komponenten und deren nativen Rechenoperationen. Das wird schon lang nicht mehr gemacht. Die einzigen Optimierungen die es hier noch gibt, sind in Richtung größere Libs, wie DirectX und Co. Da ist auch der Vorteil der Konsolen flöten gegangen, seit dort nur angepasste Desktopkomponenten im Einsatz sind.
 
@bigspid: Das was du ansprichst ist doch schon immer so. Diese Optimierung gibt es schon so lange wie es Computer gibt und wurden bis heute immer wieder verfeinert.
 
@bigspid: aha, dann spiel mal mit der selben Hardwareleistung der Konsolen auf deinem PC. Abenteuerlich zu behaupten, es hätte keine gravierenden Vorteile auf eine einzige Plattform zu optimieren. Diese sind gravierend und werden es auch immer bleiben. Aktuelle Grafikkarten werden nicht annähernd so genutzt, wie es technisch möglich wäre.
Und was du sonst so meinst mit Rauch, etc... geht hier zu sehr ins Detail, denn das kommt schließlich auf die Engine an was / wann überhaupt berechnet wird. Manche Engines berechnen nur den sichtbaren Bereich, andere die komplette Welt und so weiter. Keine Ahnung auf was du hinaus willst, hat mit den Punkten nichts zu tun.
 
@smart-: 1. du bist recht spät dran :D
2. Genau das gleiche hab ich oben auch schon geschrieben.

Tollstes Beispiel: Crysis mit der Cryengine. Die Cryengine 2 und 3 bringen kaum optische Verbesserungen mit sich, beseitigen dafür aber viele Performanceprobleme und optimieren wo es geht. Deswegen sehen Crysis 2 und 3 auch nur unwesentlich besser aus, sind aber deutlich performanter. Wenn der Aufwand jetzt nur für eine Plattform betrieben würde....puh.
Nicht unsonst sehen Halo4 auf der X360, oder TLoU, Beyond Two Souls auf der PS3 so wahnsinnig gut aus. Ein PC mit vergleichbarer Leistung hätte am Ende seines Lebenszyklus so etwas nicht leisten können.
 
@bigspid: Selten so ein Mist gelesen. Du hast wirklich keine Ahnung vom 3D Rendering.
 
@Knuffig: Nein, das stimmt so nicht. Es gibt diverse Grafikeffekte, die in 4K unverhältnismäßig viel Leistung fressen, und die Leistung daher stärker drücken, als sie es in der Auflösung eigentlich sollten.
Dadurch kann es in 4K z.B. auch zu Engpässen bei der Speicherbandbreite usw kommen. Gerade Effekte mit viel alpha Blending sind empfindlich für sowas, wenn sie nicht effizient implementiert sind. In hohen Auflösungen können dann einzelne Effekte die Performance komplett in den Keller drücken.

In modernen Engines ist das alles meistens kein großes Problem mehr, da ja auch auf Konsolen hohe Auflösungen erreicht werden sollen. Aber es gibt durchaus einige Games aus den letzten Jahren, die in 4K ungewöhnlich schlecht performen. Da ist der prozentuale performanceeinbruch beim Wechseln von 1080p auf 4K eben deutlich größer, als in modernen Spielen.

So kanns halt sein, dass du in 1080p durch das herunterstellen einer Grafikoption von Ultra auf High 10% mehr Performance herausholen kannst, unter 4K aber dagegen 20 oder 30%. (und nein, CPU limit und voller VRAM lasse ich hier bewusst aussen vor, es geht hier rein um die GPU Performance, die unter 4K von einzelnen Grafikeffekten unverhältnissmäßig stärker beeinflusst werden kann, als unter 1080p).

Ich würde zwar nicht sagen, dass aktuelle Spiele nicht für "4K optimiert" sind, aber grundsätzlich ist an der Sache schon ein bisschen was dran. Ein Entwickler muss heutzutage immer schauen, ob manche Grafikeffekte unter 4K bzw. generell in hohen Auflösungen nicht plötzlich zum Flaschenhals werden und die Performance total ruinieren.
 
@bigspid: wohl konsolero, bei dem unwissen was du hier von dir läßt
 
@Razor2049: Ah ein Experte. Ich bin Experte! Wieso? Ich habe einen PC. Den kann man aufschrauben. Guck mal ;)
 
@Razor2049: Nö, nutze zwar auch Konsolen, hab aber auch meinen Gaming PC und verfolge seit meiner Atari die Welt der Videospiele. Ich bin aber auch kein Experte in Sachen Rendering und Grafikberechnungen, das ist nur ein Hobby. Ich lasse mich gerne auch korrigieren, wenn du es denn besser weißt und auch darlegen kannst. Aber von wildem Minusklicken und so unnützen Kommentaren wie von dir, bin ich nicht beeindruckt.
 
@bigspid: Mein Ziel war nie, dich zu beeindrucken. Ich habe auch nicht geklickt. Wenn du Ahnung hast woher kommt dann dieses "wohl Konsolero" - in wie weit ist das eine Referenz für Ahnung? Das war einfach unnötig und doof. Egal wer du bist oder was du weißt.
 
@Matico: Schau mal genauer hin wer was gesagt hat ;) dein Minus ist nicht von mir ^^
 
@Matico: Ich hab auch nicht auf deinen Beitrag geantwortet, sondern auf Razor. Und beeindrucken in diesem Kontext bedeutet anders gesagt, dass mich solche Kommentare kalt lassen.
 
@bigspid: Du hast natürlich recht. Ich möchte mich entschuldigen. War wohl noch zu früh.
 
@cvzone: In welchen AAA-Spielen hast du auf der XBOX One X bitte "mittlere Details"? Eher sind das immer "High"... auch weil man diese ganzen "Ultra" Einstellungen nicht wirklich braucht, was bei den PCs immer zu viel Leistung zieht.
 
@DARK-THREAT: Nehmen wir mal The Divsion 2. Hier sind manche Einstellungen noch unterhalb von den PC Low Einstellungen laut Digital Foundry. Aber hey, natives 4K... Gleiches gilt ebenso für Tomb Raider. Hier entsprechen viele Settings auf der Xbox One X PC Medium, auch wieder mit nativem 4K.
 
@cvzone: Wie gut auf den heutigen Konsolen 4k und HDR bereits läuft kann ich nicht wirklich beurteilen, aber da die Neuen ja mehr als doppelt so viel Leistung haben werden.. kann ich nicht dafür sein in ca. den Jahren 2022 bis 2030 noch auf FullHD zu setzten und auf 65"+ zu stretchen.
 
@DARK-THREAT: hui der xbox fan himself, merkt man jedoch auch an deinen aussagen. Beim so gut wie allen xbox one x games stehen schatten, aliasing, und anisotropischer filter allein schonmal auf low
 
@cvzone:
Lösung: Schließ die Konsole an einen 1080p TV oder rechnet die dann immer noch in 4K und skaliert runter?!
 
@mgutt: letzteres.
 
@cvzone: Auch 10TF Reichen nicht um aktuelle Spiele bei Maximalen Details (Alles andere ist langweilig wenn man von High End spricht).

Ich habe meine 1080 TI so weit übertaktet das sie ca 13,5 TF bringt und damit läuft Witcher 3 gerade so stabil mit 60FPS in 4K mit Ultra Settings.

Wenn ich 60FPS schreibe dann meine ich Minimal, denn natürlich gibt es stellen bei denen es weit drüber liegt. Da ich aber mit VSync und 60Hz spiele will ich eben nicht eine einzige Stelle haben die unter 60FPS fällt da das sofort als störendes zucken auffällt.
 
@cathal: wie misst du die Leistung in TF? Gibt es da mittlerweile ein Tool dafür? Hab mich mit dem Thema PC die letzten 5 Jahre kaum beschäftigt, aber das interessiert mich dann doch noch ^^
 
@ExusAnimus: Mit dem GPU Benchmark von AIDA64. Komme da aktuell auf 13,7 Terraflops mit der auf etwas über 2Ghz getakteten GTX 1080 TI
 
@cathal: Danke :)
 
Wird bei der neuen Xbox nicht anders sein aber wieso gibts hier nur news über die neue Playstation und nicht Xbox?
 
@Andre Passut: Weil MS da bisher noch nix hat durchsickern lassen.
 
@Bautz: Achso ja gut. Dann muss ich als einer der Xbox bevorzugt halt noch warten.
 
@Andre Passut: Die E3 ist ja zum Glück nicht mehr weit :)
 
@bigspid: Ja dass stimmt. :)
 
@Bautz: Von Sony ist doch genauso wenig offiziell? Bei MS sind zumindest die Codenamen bekannt und dass es mehrere Konsolen werden, bei Sony nichtmal das
 
@ExusAnimus: … siehe diese News. Also echt jetzt ...
 
So viel ist das gar nicht, wie man jetzt denkt.
Ne rtx2080 hat auch 10,6 TFlops, also eigentlich genau wie Stadia, ne 2080Ti 14,2, also im Bereich der PS5.

Bis also die PS5 dann 2020 oder 21 erscheint sind 15 TFlops schon nicht mehr High End, denn die nächste Generation wird sicher mehr Richtung 18-20 TFlops gehen.

Und eine 2080Ti reicht wohl kaum um in 8k akzeptable Frameraten mit allen Details zu erhalten (ganz zu schweigen vom Sinn hinter 8k Gaming - 4k ist ausreichend bei dem Abstand, den man vom TV hat)
Lieber 4k mit allen Details und sauberen 60 FPS, als ne 8k Angeber Sparvariante, die am Ende wohl wieder nur hochskaliert ist.

Auch wird man bei so hohen Auflösungen ein Speicherproblem bekommen, wenn man nur 12-16 GB für alles zusammen hat (und das Betriebssystem wird sicher auch noch 1-2 Gb reservieren). Das reicht dann wohl kaum für alle Texturen, außer man komprimiert sie extrem, was dann wieder dem Vorteil der Auflösung entgegen wirkt.
 
@pcfanich bin mir nicht mal sicher, ob 8k überhaupt jemals nötig sein wird im Einsatz zuhause. Für den Mainstream dürften 4k@60fps für fie nächsten 10-15Jahre locker ausreichen. Ich glaube eher, dass wenn mehr Rechenleistung gebraucht wird, das für eine VR Berechnung drauf geht.
 
@bigspid: Aber warum wird deiner Meinung nach 4K@60FPS nur für die nächsten 10-15 Jahre reichen? Meinst du durch Evolution wird sich die Körpergröße von Menschen so verändern das sie weitaus Größere Wohnungen/Häuser haben werden? Oder meinst du die Augen werden sich in einem Maße verändern, das wir plötzlich noch viel mehr Details erkennen können?

Ich bin bei dir mit deiner Meinung... nur denke ich das 4K@144 / 4K@240 eher die Zukunft sein sollten als 8K@60... ;)

Das was die Hersteller machen ist das was schon immer passiert... immer mehr, größer, besser... nur ob es Sinn macht, ist egal... Hauptsache es gibt Profit, dass die Aktionäre am Quartalsende zufrieden sind...

Ich bin gespannt wo das alles noch hinführen wird... denn die Löhne sinken... die Preise steigen... und irgendwie müssen sich die Leute die das Zeug kaufen sollen, den ganzen shice auch bezahlen können... nur wie wenn es immer mehr Leute gibt die mit ihrem Lohn gerade so über die Runden kommen... ;)
 
@UKSheep: Haha lustiger erster Absatz ;)
Ich sehe es wie du, die Framerate wird danach wichtiger werden. 8k und Co sind nur im VR-Segment spürbar, daher für die breite Masse uninteressant. Mein 4k@60fps ist für die nächsten Jahre nur aufgrund der "@60fps" dann veraltet.

Für die Wahrnehmung ist es aber tatsächlich so, dass ein Bewegtbild mit >4k oder 8k zwar nicht direkt gesehen wird, aber vom Hirn anders wahrgenommen wird. Das Gefühl auf ein reales Bild zu blicken wird deutlich stärker. Der Sprung von SD@24fps auf HD@30fps hat schon bei vielen dazu geführt, dass sie das Gefühl hatten ein Theaterstück zu sehen, anstatt eines Films. Ich erinnere mich noch dran wie deshalb mein Onkel alle Bildverbesserer abgeschaltet hat, um den Film wieder genießen zu können.
 
@bigspid: Ja, der Soap-Effekt stört in klassische Filme aber wirklich, wenn man sie eben in 24Hz kennt.
 
@pcfan:
Uiiii.. da ist mal wieder einer "Hellseher"

Mal zur Info:
Es ist völlig normal das im Compute Bereich schneller Chips am Start sind als die jeweiligen Konsolen, dennoch werden diese bei der Kompaktheit und Preis bei Release absolutes High End sein, zeig mir einen PC der zu der Zeit günstiger und schneller ist... wirst du wie immer nicht finden!

Ohh... 12-16 GB sollen nicht genug sein? Komisch... Nvidia Fanboys sagen das die 4-6 in den Modellen die Nvidia 2019 releaset noch Jahre ausreichen und nicht mehr benötigt wird... 12-16 GB angeblich totale Spinnerei seien... hm... sind btw Original-Aussagen dieser Leute.... die Speichermenge 12-16 wird ein großer Sprung sein, insbesondere wenn man den Speed bedenkt und reicht für 4k locker, das kannst du bereits mit aktuellen High-End Chips wie den von dir benannten Testen. Wohl nicht so viel Praxiswissen?

8k wird (zumindest nativ) bei Gaming die nächsten Jahre keine Rolle spielen. Mit der Next-Gen wird sich aber 4k nativ etablieren, genauso wie es am PC immer mehr zunimmt. Die Leistung ist jetzt langsam da, am PC muss man dafür aktuell aber noch sehr viel Geld auf den Tisch legen und der Mainstream wird es wieder wie die Konsolen haben.... also das mit dem voraus sein betrifft immer nur die Enthusiasts die viel Geld bezahlen.
 
@pcfan:
8K wird eh erstmal eine Todgeburt im TV Bereich. Da stürzen sich dann auch keine Entwickler mehr drauf. Wie soll das auch gehen. Man bräuchte 4x mehr Leistung. Bei 30% mehr Leistung pro GPU Generation ist 8K erst was für die Enkel.
 
@mgutt: Nicht zu vergessen, dass 4K-TV erst in den letzten 2 Jahren in breiter Masse den Weg in die Privathaushalte gefunden haben. Ich habe meinen seit reichlich 3 Jahren und habe nicht vor, diesen durch ein neueres Modell zu ersetzen, zumal so gut wie kein 4K-Content nativ vorhanden ist.
 
Eigentlich ist der Trend eher dahin den Formatfaktor zu verändern, als die Auflösung zu erhöhen. Wenn die Leute für Gaming den 21+/9 Standard haben, dann kann man wieder über Auflösung sprechen.

Es hat beim Gaming einfach zu viele Vorteile wenn ich die Umgebung komplett einsehen kann, als 16/9 mit 8K nur einen Ausschnitt meiner Umgebung.

Auch beim online-gaming und Battle Royal habe ich den Gegner schon längst mit 21/9 entdeckt, ohne das ich mich ständig und fortwährend immer drehen muss um alle Seiten beobachten zu können. Da bin ich mit einem breiteren Sichtfeld auch immer im Vorteil gegenüber dem der mit mehr Frames als ich spielt.

Ich möchte auch bei Kino Filmen keine schwarzen Balken unten und oben mehr haben, ich will die Landschaft komplett einsehen können, ohne dass sich mein Bild zwangsläufig auf 16/9 verkleinert.
 
@BufferOverflow: Man könnte auch einfach einen 16:9 Monitor kaufen, der so groß ist, dass er die gleiche Breite wie der 21:9 hat. Quasi dein 21:9 Monitor so wie er jetzt ist, mit zusätzlicher Displayfläche oben und unten. Dann hast du keinen Nachteil in der Breite, und zusätzlich noch mehr Blickfeld oben und unten. Also eigtl kein Grund, das Format zu wechseln.

Hab mir bei Filmen auch schon immer gedacht, dass das Argument "bei Cinemascope sieht man mehr in der Breite" völliger Quatsch ist. Nein tut man nicht, es gibt keinen Grund die gleich breite Leinwand nicht einfach höher zu machen, und mit der Kamera genauso Weitwinkel wie bisher aufzunehmen, nur eben auch noch nach oben und unten mehr zu öffnen.
 
ich halte den quatsch einfach nicht für zukunftstauglich...instabile leitungen, fehlerkorrekturen oder schwnakende bandbreiten mal nur als große kritikpunkte herausgegriffen...vom lag ganz zu schweigen

geht dann der trend wohl auch dahin für eine einzelne, ansonsten ungenutzte internetleitung pro gamer? schwachsinnig sowas...

ich hör den kleinen klaus schon schreien: "papa, papa, ich bi nschon wieder gestorben und weiß nicht warum" "entschuldige sohn, eins unserer handys oder eins unserer sonstigen "smarten" geräte musste gerade ein update einspielen"
 
@Warhead: Deutschland muss ja dafür nicht der Maßstab sein. Wenn die Japaner das mit ihrer 1 Gbit/s, 1-2ms Ping Mindestversorgung zuhause nutzen wollen, dann funktioniert das auch recht gut denke ich.
 
@Warhead: Ich halte es sogar für sehr zukunftstauglich. Schon der Dienst Shadow zeigt wie gut Spiele-Streaming funktionieren kann. Und Google hat da noch wesentlich mehr Kapazitäten und Möglichkeiten das Maximale heraus zu holen.

Auch ist es für den Großteil der Spieler uninteressant, ob man nun 10 ms oder 20 ms Verzögerung hat. Das hängt natürlich auch von der Leitung ab. Aber Deutschland ist nun mal nicht das Maß der Dinge, wenn man so einen Dienst startet.

Außerdem schätze ich, das man mit so einem Dienst zunächst erstmal Konsolen angreift. Statt 200 bis 400 Euro für ne Konsole auszugeben und dann zusätzlich 50 bis 70 Euro pro Spiel, habe ich demnächst halt ein Abo, starte mein Android TV und kann direkt loslegen.

Ich denke es steht und fällt mit der Spieleauswahl. Ziehen die Piblisher mit, dann hat Google wie kein zweites Unternehmen die Möglichleiten etwas ganz großes aufzuziehen. Die einzigen die eine Bedrohung darstellen könnten, sind Amazon mit Twitch und der AWS Cloud.
 
Glaubt ihr die PS5 schafft 8k 30fps?
 
@hamad138: Nope... Auch wenn man die Pixelanzahl nicht 1:1 übertragen kann auf Grund andere Faktoren, die das Ergebnis beeinflussen, ist sie dennoch ein guter ungefährer Richtwert. 4K@60 Performance bedeutet in absoluten Pixeln umgemünzt auf 8K 15 fps, nicht 30, da native 8K eine Verdoppelung der Pixel auf beiden Achsen bedeutet, also eine Vervierfachung ihrer Anzahl insgesamt. Für 4K Gaming in medium bis Ultra mit 4K Texturen braucht man 8 GB VRAM Minimum, sonst stottert das Spiel, weil nachgeladen werden muß. Flüssiges 8K mit 8K Texturen in medium bis Ultra braucht mindestens 16 GB VRAM. Auf der XBox One X wird teilweise getrickst, da nur 9 GB shared RAM zur Verfügung stehen... für GPU und CPU. Nicht alle Spiele erreichen natives 4K mit 4K Texturen und oft sind die Grafikeinstellungen auf Medium und nur in einzelnen Einstellungen auf High bis Ultra. In Division 2 wurden die meisten Effekte auf ein Niveau unter low gedrückt, um natives 4K zu ermöglichen. Das ist kein XBox Bashing... Die XBox One X ist meine primäre Gaming Plattform und für ihre jetzt 400 Euro, ist das Ergebnis atemberaubend, das sie in vielen Spielen auf den Bildschirm zaubert.
 
bedekt das diese radeon GPU allen Anschein nach eine modifizierte Vega 64 ist, nichts besonderes.
 
@Alexmitter: Um genau zu sein ist's eigentlich sogar nur ne Vega 56, wie schon die 56 CUs verraten, nur vermutlich im Navi Gewand dann etwas energieeffizienter und +0,2 TF = 10,7 statt 10,5 TF...
Wenn bei Navi schon die CUs kaum an Leistung zulegen, dann ist hoffentlich die Leistungsaufnahme runter auf Nvidia Niveau, sonst sehe ich schwarz für AMD im GPU Bereich außerhalb der Konsolen... :(
 
@Marius87: Ja ich muss mich korrigieren, es ist ein Vega 56 basierter chip mit leicht höherem clock speed im instinct Gehäuse.
Navi wird es wohl nicht sein, Google geht hier den günstigen weg.
 
Was man auch erwähnen sollte ist, das die Vulkan API, genau wie bei der Nintendo Switch, out of the Box unterstützt werden wird. Fehlt eigentlich nur noch der OpenXR Standard für VR und AR um den Fragmentierungswahnsinn in Griff zu bekommen. Für Linuxgamer jedenfalls sieht es für die Zukunft, oder schon jetzt ziemlich gut aus. DX10 und DX11 ist dank DXVK kein Problem mehr, ausser die Sache mit DRM und Anticheat. Sonst ist bereist jetzt schon fast alles spielbar :)
 
Stadia ist also AMD Navi. Jedenfalls wenn man bedenkt das AMD sagte das man mit NAVI der 2080 Konkurrenz machen will. Vielleicht war es doch etwas verfrüht für mich die 2080TI gekauft zu haben.
 
15 TF Konsole für 400? Ich lach dann, wenn sie rauskommt. Realistischere Schätzungen gehen von 9,2 TF aus.
 
@Chris Sedlmair: Wenn die in drei Jahren erst kommt ist das doch kein Problem. Da ist das bei PC Grafikkarten dann nur noch untere Mittelklasse.
 
@mh0001: Die nächste XBox kommt aller Voraussicht im Herbst 2020... Sony kann es sich nicht erlauben, MS das Feld zu überlassen für 6 oder gar 12 Monate oder noch länger.
 
@Chris Sedlmair: Ja gut, schon 2020 geb ich dir recht, da ist das sehr unwahrscheinlich...Es sei denn sie lassen sich auf ein Verlustmodell ein. Aber dass das keine so gute Idee ist, hat Sony mit der PS3 und dem auf Teufel komm raus durchgedrücktem Blu-ray-Laufwerk ja gezeigt.
 
Egal die Ps5 wird wieder nicht richtig Abwärtskombatibel...
 
Meines erachtens wird gerade bei Konsolen die tflop Leistung stark überschätzt. Der Flaschenhals ist diese Generation ganz klar die Jaguar CPU.

Wenn ich mir das so zusammen rechne sollten 10-12 tflop + eine aktuelle AMD CPU in Form von Zen+ oder Zen 2 vollkommen ausreichen um 4k 60fps mit high Einstellungen zu zocken.

Mit der Kmbi sollte man auch preislich im Rahmen bleiben der bei Konsolen ja immer bei 400-500 Euro liegt.
 
@lurchie: Das mit der Jaguar CPU stimmt, allerdings gibt es weitere... in der base XBO der langsame DDR3 Speicher, in der PS4 Pro die mangelnde Bandbreite der Speicheranbindung. Die PS4 Pro käme trotz 1,8 TF Unterschied deutlich häufiger näher an die XBO X ran als jetzt, wenn sie die gleiche Speicheranbindung hätte.
Das CPU-Problem wird kommende Generation (2020) gelöst. Die Annäherung an den PC in Architektur und GPU Leistung in dieser Generation ist schon geschehen durch die Pro und X. Das alles wird wichtig für die Spieleentwicklung und wird komplexere AAA Titel mit besserer KI ermöglichen, PC-Versionen werden nicht mehr im bisherigen Maße von Konsolenbeschränkungen gebremst und Konsolen werden CPU-lastigere Spiele und Genres bekommen.
 
@Chris Sedlmair: In der Base XBO sowie XBOS ist es eher der esram der hier noch das größte Hindernis für Entwickler darstellt. Er ist einfach zu klein und mit deinem angemerkten DDR3 RAM einfach nicht vernünftig nutzbar. Da bringen auch die Theoretischen 218 Gbit/s nicht.

Es gehen/gingen ja in der letzten Zeit einige Gerüchte rum das Ms die Physikberechnung/KI auf einen separaten Chip unterbringen will. Darauf bin ich sehr gespannt. Vielleicht wird uns ja so etwas wie Raytraicing begrüßen nachdem DX12 ja eine eigene Schnittstelle hierfür erhalten hat. Auch die Implementierung von Variable Rate Shading ist sehr interessant.

Der Zeitpunkt der Implementierung lässt zumindest darauf schließen was uns erwarten könnte, da DX12 ja mehr oder weniger das Zugpferd der Xbox ist und auf dem PC eher ein Nieschendasein fristet.
 
@lurchie: Hardwarenahe Programmierung ist am PC auf Grund der Vielzahl an unterschiedlicher Hardware auch nicht das simpelste. DX 11 hat vieles einfach den Treibern überlassen. Viele Devs waren einerseits zu faul DX12 anzufassen, andererseits fehlte auch die Erfahrung, wie man an niedrigeren frameraten unter DX12 sieht in einigen Spielen, die beide APIs unterstützen. Das kommt erst jetzt so richtig in Fahrt. Darin liegt auch das ganze Geheimnis dieser DX12 auf Win 7 Geschichte. Da Win 7 auch nach Supportende noch auf vielen Kisten laufen wird, hat MS die Implementierung etlicher DX12 Features auf Spielebene ermöglicht. So werden Spiele, die nur für DX12 entwickelt werden interessanter für die Studios, da sie auch auf Win 7 lauffähig sein werden. Der Hauptkampfplatz ist nicht Vulkan vs DX12... es geht um Vulkan + DX12 vs DX11. Das Ende von DX11 alleine wird Nvidia die Hälfte seines Performance-Vorsprungs im Gaming gegenüber AMD kosten. Darum gibt es in der Gaming-Industrie eine starke Lobby für DX11. Sehr viele Spieleentwickler haben ein ungesund enges Verhältnis zu Nvidia.
 
ich möchte nur darauf hinweisen, sony hat vor einiger Zeit Gaikai aufgekauft (damalige Konkurrenz zu OneLive) denke daher eher, Sony braucht keine Google Technologie.
 
8K ernsthaft? in DE hat sich bis jetzt noch nicht mal FHD vollständig etabliert, und die reden von 8K. Die Tech Konzerne haben doch nicht mehr alle latten am Zaun.
 
wer hat denn gesagt, dass in den Data Centern Navi GPU eingesetzt werden.
Hab mir nicht alles angeschaut, der Google-Moderator sprach davon, dass die Leistung 10,x TFLOPS beträgt.
Wie die generiert werden war keine Rede von.
Und glaub tatsächlich irgend jemand das PS5 oder Xboxone2 ein Leistng von 15 TFlops haben wird, ich nicht.
 
naja am Ende ist es eh wieder das gleich Spiel wie immer....eine aktuelle High-End-Grafikkarte eines PC's wird doch mehr Leistung besitzen....dazu muss man kein Hellseher sein.
 
Und alle vergessen wieder, dass es nicht um die Leistung sondern um die Exklusiv-Spiele geht. Die Randgruppe, denen es um Terraflops geht, interessiert doch niemanden, es geht darum, ob man The Last of Us 2, Horizon Zero Dawn 2, Spider-Man 2 spielen kann oder ob man... eh... mir fällt gerade nichts ein, ach ja, Crackdown 3 spielen kann.
 
@SvenL: du sagst es, und zugleich bestätigst du es: Exclusive Spiele sind wichtig, "aber" als Marketinginstrument. Eine gute Wertung, entsprechend viel virales Marketing, das eine oder andere gut platzierte Interview.... Deine genannten Titel haben nur für den harten Kern der Foren Diskutanten und Plattform Verteidiger einen Wert. Stell dir vor: FIFA 20 käme nicht mehr für die Playstation, oder call of duty, oder Fortnite..... Diese Titel haben echten Impact. Diese Titel entscheiden wirklich über Verkäufe. Ob ein Last of US, Spiderman usw. für Konsole X oder y verfügbar ist, das ist Nebensache.
Kommentar abgeben Netiquette beachten!
Einloggen

Jetzt als Amazon Blitzangebot

Ab 00:00 Uhr TP-Link Archer T2U NanoTP-Link Archer T2U Nano
Original Amazon-Preis
14,90
Im Preisvergleich ab
13,38
Blitzangebot-Preis
11,90
Ersparnis zu Amazon 20% oder 3

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles