Xbox One S: Patch für World of Tanks bringt HDR-Kompatibilität

Die Verbreitung von High Dynamic Range (HDR) - Bildmaterialien geht momentan rasend schnell voran. Erst vor ein paar Tagen wurden entsprechende Inhalte auf der Videoplattform YouTube für jedermann zugänglich. Nun hat auch Wargaming einen Patch für ... mehr... PlayStation 4, Online-Spiele, Microsoft Xbox One, Xbox One S, Krieg, World of Tanks, Wargaming.net, Panzer Bildquelle: World of Tanks PlayStation 4, Online-Spiele, Microsoft Xbox One, Xbox One S, Krieg, World of Tanks, Wargaming.net, Panzer PlayStation 4, Online-Spiele, Microsoft Xbox One, Xbox One S, Krieg, World of Tanks, Wargaming.net, Panzer World of Tanks

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Das WoT exklusiv auf der xbox one s in HDR läuft stimmt so nicht. Läuft auch auf der PS4 in HDR
 
Ich weiß nicht.. was in solchen Games oft als HDR deklariert wird (eigentlich HDRR = High Definition Range Rendering), hat mit richtigem HDR im klassischen Sinne doch eigentlich gar nichts zu tun, da es in der Regel ja keinerlei HDR-Rohmaterial gibt. Im Falle von World Of Tanks werden einfach drei herkömmliche 24bit-LDR-Bilder der Szene mit Effekten gerendert.. eins normal, und jeweils eins overexposed (überbelichtet) und underexposed (unterbelichtet). Die werden dann miteinander verblendet und für die Ausgabe wieder durch nen ToneMapper gejagt um ein HDR-Bild zu simulieren. Selbst sogenannte "HDR"-Fotografie auf Smartphones nutzt genau diese Methode um die besten Details aus den drei Bildern in einem zu verschmelzen.

Resultat ist dann eben ein besserer Mix aus dunklen und helleren Bereichen der Szene - meist dunklere Schatten und mehr Details in hellen Bereichen. Aber im Grunde ist das nur eine Art Szenefilter, der auch auf normalen Monitoren eine andere, scheinbar realistischere/dramatischere, Renderoptik bewirkt. Die Methode ist aber im Prinzip uralt und gabs schon vor 15 Jahren in Game-Engines, wurde aber aufgrund zu schwacher Hardware damals nie produktiv eingesetzt.

Da heutzutage die mathematischen Berechnungen fürs Rendering zwar mit 16bit-Floating Points durchgeführt werden, kann über den ToneMapper am Ende auch HDR10 für spezielle Monitore ausgegeben werden, aber farbechtes HDR ist es in der Regel trotzdem nicht, weil dazu auch die Input-Texturen mit 16-bit-Kanälen vorliegen müssten. In Games werden aber aus Platzmangel meist nur normale 24bit-Texturen (RGBA888) verwendet.

Beim Rendering werden im Hintergrund die einzelnen 8bit-Kanäle (0-255 Farbstufen) der Texturen für die (Licht)Berechnung vorher einfach nur mit 16 multipliziert und hinterher für normale Monitore wieder auf 8bit runtergerechnet. 8bit gehen pro Farbkanal rein, 8bit gehen wieder raus. Im Falle von HDR10-Monitoren ist es praktisch nur eine Interpolation auf 10bit beim Runterechnen, wodurch mehr Farbstufen entstehen, die aber ursprünglich von 8bit-Farbkanälen der Texturen stammten - dadurch ist es kein realistisches HDR, sondern nur ein interpoliertes. Bei HDR-Filmen wird dagegen durchgehend mit 10bit pro Kanal gearbeitet, daher gibt es bei HDR-Filmen im Gegensatz zu Games auch keine Farbverluste.

Aufgrund des 3fachen Szene-Renderings, gibts in solchen HDR-Modes aber auch oft FPS-Drops um den Faktor 3 wenn die Hardware nicht genug Power hat. Kommen noch zusätzliche Effekte wie HDR-Blooming dazu, wirds noch schlimmer. ^^
 
@Trashy: Du scheinst dich auszukennen. Kannst Du mir eine Quelle nennen die mir die verschiedenen HDR Arten erklärt? Ich habe die One S und wollte mir einen neuen TV kaufen. Kurz vor der Bestellung ist mir aufgefallen, dass die One S HDR 10 braucht. Ich habe eine Seite bei Reddit gefunden, da gibt es eine wahrscheinlich nicht komplette Liste von HDR10 fähigen Fernsehern. Bringt mir das "günstige" HDR auch was? Das ist meist einfach nur mit HDR beschrieben und man weiss überhaupt nicht was man bekommt.
 
@Matico: Für gewöhnlich ist mit HDR beim Fernsehern immer HDR10 gemeint. Das kommt in diversen Variationsbezeichnungen daher - zB HDR Premium, High Dynamic Range, HDR, UHD Color, Ultra HD Premium, Ultra HD deep color, BT2020. Ist aber eigentlich immer das gleiche.

HDR bedeutet letztendlich nur "hoher Kontrastumfang", weil man in 10bit eben theoretisch 1024 Farbstufen darstellen kann, während es beim klassischen RGB eben nur 256 Farbstufen gibt. Dementsprechend haben HDR TVs immer "mindestens" ein Kontrastverhältnis von 1:1000.

Darüber hinaus gibts auch noch "Ultra Vision". Die sind noch einen Tick weiter und haben bereits 12bit pro Kanal (4096 Farbstufen) - aber dafür ist die OneS nicht ausgelegt. Solche TVs haben ein Kontrastverhältnis von bis zu 1:10000 um alle nötigen Farbstufen darstellen zu können.

Netflix und Amazon streamen zB auch in HDR10. Netflix sogar auch Dolby Vision (passendes Rohmaterial vorausgesetzt ^^).
 
@Trashy: Danke für diese verblüffende Antwort. In dieser Liste: https://www.reddit.com/r/xboxone/comments/4vojfu/list_of_tvs_fully_compatible_with_hdr10_for_xbox/ findet man ja nur ein paar hochpreisige Geräte die HDR10 können sollen. Alles andere wären nur Marketing Tricks. Ich bin jetzt noch mehr verunsichert als vorher, jedoch motiviert mich nochmal damit zu beschäftigen.
 
@Matico: Die Liste limitiert ja auch auf 4K-TVs. Du hast nur generell nach HDR-fähigen TVs gefragt. Das schließt auch herkömmliche Full-HD-TVs mit ein - auch wenn diese bei 1080p nicht den vollen Farbumfang darstellen können. Kontrast und Pixelanzahl sind aber sowieso immer zwei paar Schuhe. Ein 4K-(U)HD-Fernseher muss kein HDR-fähiges Gerät sein und kann logischerweise mit herkömmlichen 8bit-Panels ausgeliefert werden. Ich wüsste aber auch kein Modell, was sich fälschlicherweise als HDR-fähig bezeichnet und nur ein 8bit-Panel hat.

Und bei HDR gibts je nach Panel eben auch Abstriche durch unterschiedliche Konstrastverhältnisse und unterschiedlichen Farbstärken je nach verwendeter Technik. Letztendlich ist das Filmmaterial HDR-fähig - was der Fernseher aus den Daten macht, ist ne andere Geschichte. Hängt auch von den verschiedenen Software-Shadern ab, die auf jedem TV anders (oder gar nicht vorhanden) sein könnten.

Umgekehrt können aber natürlich bei der Upconversion von herkömmlichen SDR-Content/TV-Programm (8 bit) auf HDR (10bit) Branding-Effekte und dergleichen entstehen. Und Firmen wie Technicolor arbeiten auch bereits an TV-Shadern und Reverse-Tone-Mapping, die versuchen, diese unerwünschten Stufen-Effekte zu interpolieren und den Content auf ansehliches 10bit hochzurechnen - ein Color/Contrast-Upscaling sozusagen. Aber allzuviel sollte man davon auch nicht erwarten. Man kann aus 8bit-Material eben kein richtiges 10bit zaubern. ^^

HDR ist wie gesagt ein Standard und geht auf eine Initiative von Sony, Samsung & LG zurück. HDR10 wurde 2015 als "HDR Media Profile" vom Industrieverband CTA (Consumer Technology Association) verabschiedet. Auch sämtliche Ultra HD Blu-ray Player unterliegen diesem Standard.

Netflix streamt wie gesagt auch in HDR10, wenn auch nur bei einigen Eigen-Produktionen. Beim Amazon-Streaming sollen aber wohl nur ausgewählte Smart-TVs von Samsung und LG erkannt werden, munkelt man. Kann ich persönlich aber nichts dazu sagen, da ich kein Amazon-Streaming nutze.

Aber prüf einfach die Datenblätter.. schau gezielt nach HDR10/Ultra HD Premium (10-bit Color-Depth, BT2020 Color-Space), dann sollte es definitiv passen.

Was gut ausschaut, ist aber auch oft persönlicher Geschmack. Pauschalisieren kann man das daher nicht, was nun optimal ist. Am besten ist, man geht in irgend nen Elektronikmarkt und schaut sich live an, was einem am besten zusagt. Und nicht nur die Ultra HD-Blu Rays, die oft als Demo laufen, sondern auch das normale TV-Programm - denn nur da wirst du die wahren Stärken und Schwächen eines Fernsehers erkennen.
 
@Trashy: Ich werde auf dem Teil nur zocken. Hab so nen kleines Gaming Zimmer. Dann hat die Freundin Ruhe. Ich finde die Geräte von Vizio ja MEGA. Aber die gibt es leider nur in den USA. Nochmal Danke für die ausführliche und vor allem verständliche Beschreibung.
 
@Matico: Habe mir letzten Monat einen 4K HDR TV von LG für 450 gekauft und der unterstütz HDR10, die Xbox One S zeigt auch im Menü volle HDR Unterstützung an. Können als nicht nur teure Geräte.
 
@Trashy: Das HDR, welches die Displays hardwareseitig unterstützen müssen, hat doch nichts mit dem HDRR zu tun, welches damals z.B. in Half Live Lost Coast zum Einsatz kam. Denn dieses benötigte ja kein spezielles Display. Dieses simulierte ja nur den "Überblendeffekt" welcher nach Gewöhnung der Augen an dunkle Umgebungen bei darauffolgenden stärkerem Lichteinfall besteht - laienhaft beschrieben
 
@EffEll: Eben.. für diese sogeannten HDR-Effekte braucht man ja theoretisch auch keinen HDR-Fernseher. Genau da fäng die Verwirrung um den Missbrauch des HDR-Begriffs ja an. Der damalige Überblendeffekt nutzte genau die gleiche von mir beschriebene Technik, wobei nur die überbelichteten Renderlayer gefadet wurden und es noch gar keine HDR-Geräte gab.

Normal würde man HDR aber damit assoziieren, dass man realistischen Farbumfang in 1024 Stufen hat - dazu wäre aber mindestens 10bit beim Input und beim Output nötig. Das ist bei den HDR-Definitionen in Games aber gar nicht gemeint. Die haben in der Regel 8bit Input, 16bit-Floating Point Berechnung und 8/10-Bit Output. Die meinen damit aber auch nur diesen Blending Effekt, der wie gesagt auch in der Fotografie zum Einsatz kommt, aber für den nicht zwingend HDR-Endgerät benötigt wird. In der Fotografie werden von der Kamera auch drei Bilder mit verschiedenen Blenden (normal, überbelichtet, unterbelichtet) geschossen und die verschiedenen Daten dann wieder miteinander verblendet. Genau das gleiche simuliert man in den Games.

Es ist aber nur eine HDR-Simulation (sprich ein Effekt-Shader), die das Ausgabebild kontraststärker wirken lassen - auch auf Nicht-HDR-Geräten. Brauchst nur mal in der Google-Bildersuche "HDR" als Suchbegriff eingeben, da findest du jede Menge sogenannter HDR-Bilder, die alle durch derartige Blendingeffekte erstellt wurden und dadurch sehr dramatisch und konstraststark wirken. Letztendlich sinds aber alles 8bit JPGs und damit kein wirkliches HDR (10bit) - da bräuchte man entsprechende Formate wie .tiff. So wird der HDR-Begriff eben für diesen rein optischen Effekt missbraucht.

Bei dem Effekt gehts im Prinzip nur um Detailverschmelzung aus dunklen und hellen Bereichen. Wenn man zB im Game ein Haus in der Abenddämmerung hat, und in einem Fenster brennt Licht, dann sieht man im Fenster beim normalen Rendering einfach nur ein helles Licht aufgrund der dunklen Umgebung. Das HDR-Blending mit Über- & Unterbelichtung sorgt dagegen dafür, dass man stattdessen deutliche Details im inneren des Zimmer wahrnehmen kann. Die Berechnung dieser Lichtverhältnisse findet immer auf 16bit-Basis statt, wird dann aber über einen ToneMapper wieder runtergerechnet. Für diesen Effekt braucht man daher keinen HDR-TV.

ABER natürlich kann man einen HDR-TV verwenden, um noch bessere Resultate zu erhalten, und statt auf 8bit nur auf 10bit runterrechnen, wodurch mehr Farbabstufungen entstehen (sofern das Game das optional anbietet). Aber wie gesagt, die Basis der Objekt-Texturen ist immer 8bit - die wird für die Lichtberechnungen mit 16 multipliziert, und dann via Tonemapper wieder je nach Endgerät wieder auf 8/10bit runtergerechnet. Das Ausgangsmaterial (Texturen) ist aber in der Regel immer das gleiche.

Bestenfalls wird für die Skybox bei einem Image Based Lighting (IBL) auf ein richtiges HDR-Image zurückgegriffen, wodurch zumindest bei der Lichtberechnung/Raytracing von vornherein mehr unterschiedliche Farbstufen vorhanden sind. Aber da man sie nur auf 8bit-Texturen der Umgebung projeziert, ist auch das kein vollwertiges HDR, wie man es aus Filmen kennt. Aber das menschliche Auge nimmt diese Unterschiede sowieso kaum wahr, daher reicht das für Games im Prinzip vollkommen aus.

HDR heißt letztlich übersetzt ja nur "hoher Kontrastumfang" - aber der findet bei Games im Grunde nur im Hintergrund während der Berechnung statt. Da auf Standard-RGB-Geräten danach wieder af 8bit runtergerechnet wird, wird aus dem HDR-Material im Grunde ja wieder ein SDR-Bild - das zwar deutlich konstrastreicher aussieht, aber letztendlich eben kein HDR-Bild ist. Somit ist das zumindest auf RGB-Geräten nur ein simulierter HDR-Effekt. Und selbst auf den HDR-Geräten aufgrund der 8bit-Inputs bei weitem nicht so farbecht wie in Filmen. Man sollte dem Effekt einfach einen Namen geben wie "Dynamic Exposure Correction" oder sowas in der Art, dann wär die Verwirrung nicht so groß. Ob das dann auf 8bit oder 10bit runtergewandelt wird, spielt für den Nutzer keine große Rolle, da er von seinem eigenen TV auch nichts besseres gewohnt ist. Selbst richtiges HDR-Material sieht ja auch nicht auf jedem TV identisch aus und hat je nach Panel teils noch deutliche Unterschiede.
Kommentar abgeben Netiquette beachten!

Xbox One S, 500 GB im Preisvergleich