YouTube-Videos jetzt auch in HDR verfügbar

YouTube unterstützt ab sofort nun auch HDR-Videos. Das gab der Mutterkonzern Google im offiziellen Blog seiner Videoplattform bekannt. Das für jeden nutzbare Feature soll auf unterstützten Geräten wesentlich mehr Details darstellen können und ... mehr... Youtube, YouTuber, Youtube Videos, High Dynamic Range Bildquelle: Youtube Youtube, YouTuber, Youtube Videos, High Dynamic Range Youtube, YouTuber, Youtube Videos, High Dynamic Range Youtube

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
mal als Laie gefragt? Werden Smartphones auch unterstützt?
 
@d0351t: Bzw. Apps u.a. für Konsolen/TVs
 
@Edelasos: war das eine Frage oder die Antwort?
 
@d0351t: Wollte deine Frage noch erweitern :)
 
@Edelasos, @d0351t: Solange Smartphone, Konsole oder TV eine Unterstützung für HDR mitbringen, kann man von dem Inhalt profitieren. An Smartphones ist mir bisher nur eines bekannt das HDR-Inhalte wiedergeben kann, nämlich das demnächst erscheinende Sony Xperia X Premium. Bei Fernsehern wird es langsam immer häufiger, hier im Preisvergleich fangen HDR-fähige Modelle schon ab ca. 400€ an. PS4, Xbox one können ebenfalls damit umgehen. Bringt natürlich bei Konsolen nur dann was, wenn der TV/Monitor ebenfalls HDR unterstützt.
Einfacher wird es, im Gegensatz zu Videos bzw. Bewegtbildern bei normalen Bildern/Fotos: Da kann man den Unterschied auf jedem Gerät erkennen, wie man oben ja schon am Beispiel sieht. Dadurch, dass das Bild aus mehreren Einzelbildern "zusammengebaut" wird, ist eine deutliche Verbesserung der Helligkeit, der Schärfe und des Kontrastes erkennbar.
 
@Breaker: Naja HDR zu unterstützen ist eigentlich mehr eine Software als Hardwarefrage. OLED Smartphones bringen auch jetzt schon einen um einiges höheren Dynamikumfang mit als konventionelle Videos verwenden. Ja für volle HDR Unterstützung müssten die OLED Displays noch wesentlich heller werden, aber ich vermute, dass man so auch schon einen Mehrwert sehen könnte.
 
@Breaker: Es ist 10bit codierung mit bt.2020 matrix.
http://forum.doom9.org/showpost.php?p=1785300&postcount=543

10bit Codierung hat auf jeden Monitor ein Vorteil. Mit 10bit entsteht wesentlich weniger Banding durch die DCT Kompression. Die Farbmatrix ist das einzige Sorgenkind leider. Daher wäre es schön, wenn man 10bit alleinig haben könnte. Denn das würde wie gesagt auch schon was bringen um zumindest banding zu elimieren und würde dann jeder von profitieren.
 
HDR ist doch eig. nur ein Filter? In wie fern soll man denn in HDR codieren können?

edit: 10bit codierung mit bt.2020 Codierung. Okay. Mehr wollt ich gar nicht wissen. HDR kann viel bedeuten.
http://forum.doom9.org/showpost.php?p=1785300&postcount=543

HDR ist zb bei Handys und Kameras gerne mal nur ein Filter beispielsweise.
 
@De-M-oN: Im Artikel stand ja das jedes einzelne Pixel mehr Informationen erhält. Korrigiert mich wenn ich falsch liege.
 
@d0351t: Mein Wissen in diesem Thema ist leider begrenzt, aber besitzt ein Pixel nicht extat 3 Informationen? Sowas wie R-G-B und kann somit nicht mehr (bzw. weniger) Informationen beinhalten?
Ich dachte immer die höhere Auflösung kommt durch deutlich mehr Pixel zustande.
 
@erso: Ja, aber bei den bisher meist üblichen Bildern und Geräten werden jeweils für Rot, Grün und Blau nur 256 verschiedene Abstufungen gespeichert (8Bit). Daraus ergeben sich ca. 16,7 Mio. verschiedene Farben. Bei HDR werden je Farbe 1024 Abstufungen (10Bit) gespeichert, wodurch über eine Milliarde Farbabstufungen möglich sind. Die Pixel haben also nicht mehr Informationen, sondern genauere Informationen.
 
@Runaway-Fan: Stimmt so auch nicht ganz. Man kann es sich so vorstellen: Zusätzlich zur Farbinformation gibt es ja auch noch eine Helligkeitsinformation. Ein perfektes Weiß kann ja auch verschieden hell sein. Und während normale Displays eher von dunkelgrau bis nicht so hellem weiß anzeigen, können HDR Displays von schwarz bis grellem weiß anzeigen. Ich glaube zu Dolby Vision gabs einen Trailer auf einem HDR OLED Fernseher vor 2 Jahren, bei dem die die im Trailer vorfallenden Reflexionen so hell waren, dass sie die Zuschauer geblendet haben (wie echt also).
 
@Runaway-Fan: Also einfach schlicht 10 Bit Codierung oder wie? Warum sagt man es dann nicht gleich so. HDR kann viel bedeuten. Mal isses 'nen Filter, wie bei Handys oder Kameras, nun soll es hier auf einmal 10bit Codierung?
Sollen sie mal den Begriff HDR klar definieren, oder einfach direkt sagen - 10bit codierung. Mit 10bit kann ich mehr anfangen als "HDR" was viel bedeuten kann.
Einfach direkt zur Sache kommen, dann weiß ich auch wie ich codieren muss.
Für was die ganzen Dislikes eig.?
 
@paul1508: Youtube codiert die Videos zumindest in 10bit nun. Wow. Falls das das einzige ist, was sich geändert hat: Warum so geschwollen. ganz ehrlich. Sollen sie doch schreiben das nun 10bit coding unterstützt wird und fertig. Abgesehen davon sieht man 10bit Codierung auch mit 'nem normalen Monitor, weil Banding reduziert wird.
Sollte sich noch mehr dahingehend geändert haben, was ich irgendwie nicht glaube, dann von mir aus. Aber sonst: Ich brauch keine Umschreibung ala HDR was viel bedeuten kann, klare Ansage was Sache ist und gut. Mit 10bit Codierung kann ich was anfangen.
edit: Okay 10bit Codierung mit bt.2020 Farbmatrix.
Warum sagt man es nicht gleich so? :D Damit kann man wenigstens was anfangen.
 
@De-M-oN: Es ist nicht nur die Codierung und die Farbtiefe. Such einfach auf google mal HDR tv explained und du wirst es eh relativ genau sehen um was es da geht. Im Grunde könnte man es vergleichen mit einem anderen Audiocodec. Codec A schneidet alles unter 100 Hz und über 44 kHz ab, weil die billigen Kopfhörer das sowieso nicht wiedergeben können. Ganz egal welche Bitrate der Codec nun hat, höhere Bitrate bringt nur eine feinere Inkrementierung zwischen 100 Hz und 44kHz, aber darüber und darunter geht es nicht. Codec B ist für höherwertige Kopfhörer welche einen höheren Dynimikumfang (high dynamic range, nennt man bei Audio auch so) wiedergeben können. Der Codec B schneidet erst unter 10 Hz und über 48 kHz weg. Genau so ist es auch beim Fernseher. Wenn du HDR auf einem "schlechten" Monitor abspielst wird das "schärzere Schwarz" halt trotzdem Grau sein und statt dem grellen Weiß wirst du normales Weiß bekommen. Kurz Zusammenfefasst: Farbtiefe bzw. mit wie vielen Bit codiert ist zeigt nicht den hohen Dynamikumfang (um den es bei HDR geht) sondern nur wie fein dieser unterteilt ist.
 
@paul1508: Codec ist der gleiche und die Codierung ist nur 10bit statt 8bit und eben die bt.2020 Farbmatrix statt die übliche bt.709.
Zumindest ersteres siehst du in jedem Fall, da die DCT Kompression akkurater dann ist.

Siehe auch hier: https://www.letsplayforum.de/index.php/Thread/165754-Hilfe-Video-rendert-nicht-mehr-ordentlich/?postID=2306009#post2306009

Auch den Link in meinem Post. 10 bit bringt daher jedermann. Die Farbmatrix ist das einzige Sorgenkind leider. Daher wäre es schön, wenn man 10bit alleinig haben könnte. Denn das würde wie gesagt auch schon was bringen um zumindest banding zu elimieren und würde dann jeder von profitieren.
 
@De-M-oN: Das Menschliche Auge kann sich je nach Gegebenheit auf die natürlichen Lichtverhältnisse anpassen. In dunklen Bereichen weitet sich die Pupille in Hellen verengt sie sich. Dadurch kann man in hellen bzw. dunklen Situationen oder Bereichen sehen ohne, dass es zu hell (überbelichtet) oder zu dunkel (unterbelichtet) ist. Das typische Beispiel Tunnel im Sommer oder ähnlich, halt wo viel Licht und Schatten zusammenkommen. Kameras und all sowas konnten/können das nicht, die frieren ein Bild oder eine Scene so ein wie sie, sie gerade wahrnehmen. Halt unter oder überbelichtet, oder Mittelmaß wenn man es kann. Und das Bild musste man dann halt so hinnehmen. Da kamen dann neuerdings Tricks ins Spiel mit einem unter- sowie überbelichtetem und einen relativ normal belichtetem Bild. Daraus wurde dann ein "HDR" Bild erzeugt, eins was die Kontraste aller 3 zusammenfasst. So konnte man in dunklen Bereichen Details erkennen ohne, dass die hellen überbelichtet waren und umgekehrt. Das ging dann auch automatisch. Wer mal ein Gesicht von jemanden mit Sonne im Hintergrund schießen wollte kennt das Problem.

Mit dieser Technologie kommt halt mehr Bandbreite ins Spiel und dein Auge kann oder auch nicht, sich darauf einstellen. Man könnte kontrastreichere Bilder sehen oder besser im Dunkeln. Oder wenn der Charakter ne Taschenlampe in die Kamera hält knallt dir in die Fre*** - Gesicht und du wirst geblendet oder Auto oder sowas. Theoretisch.

Aber nur dann,... wenn ich die Thematik richtig verstanden habe xD
 
@daaaani: es geht schon in die richtige Richtung.

Die Kameras heutzutage haben einen sehr viel größeren Dynamikumfang als früher. In der Regel kann eine Kamera 12-14 Bit pro Farbkanal abdecken. Ein normaler Monitor mit einem PC kann in der Regel jedoch nur 8 - 10 Bit abdecken.

Damit man die hohe Dynamik in HDR Bilder quetschen konnte, hat man also die drei Aufnahmen mit einem HDR Filter auf 8 Bit komprimiert. Das komprimierte Bild selbst hat dann aber wenig mit HDR zu tun, es ist ein Bild, was viel Dynamik auf einem Monitor mit wenig Dynamik zeigt, Das ist so, als wenn man Full-HD aufnimmt, und dann auf SD herunterrechnet.

Echtes HDR beginnt von der Kamera und ist eine Kette bis zum Monitor. Das bedeutet, das die hohe Dynamik der Kamera bis zum Monitor erhalten bleibt und das ein Monitor also auch viel hellere und dunklere Anteile zeigen können muss.

In der Praxis bedeutet dass, das der Monitor dich quasi blenden können muss, und trotzdem alle Schatten darstellen soll. Das geht aber nur, wenn das frühere 8-bit Weiß dunkler ist, als das Hellste Weiß, denn sonst würde dich der Monitor bei 8-bit Weiß blenden ... und das 8-bir schwarz nur ein dunkler Grauton.

Die Idee gibt es seit über 10 Jahren, nur die Monitortechnik war noch nicht bereit dafür.
 
HDR - der Standard der keiner ist. Da soll noch einer durchsteigen. Es gibt HDR mit unterschiedlichen Bezeichnungen. Echtes HDR heisst anscheinend HDR 10 und hat 10Bit Farbtiefe, das ist auch die Version die von der Xbox One S unterstützt wird. Da gehen die Preise für einen Fernseher aber auch erst bei 1500 EUR los. Es gibt auch TV Geräte für 500 EUR die mit "HDR" beschrieben werden. Und da soll der Kunde ernsthaft eine Entscheidung treffen. Ich habe jetzt noch keine Stunde in Websites lesen investiert, halte mich aber für einigermassen fit was technischen Konsum angeht. Bei dem Thema bin ich jedoch komplett überfordert. Ich hoffe das wird noch korrigiert, da steigt ja keiner durch. Oder bin ich der Einzige dem es so geht?
 
HDR Artikel und dann ein Video im drecks Quali und dann auch noch mit Flashplayer posten und eigene Werbung drauf schalten. Auf Youtube direkt, sieht das gleich 100mal besser aus...
 
@Hektik: Du hast nen HDR Monitor?
 
@Paradise: Das ist egal. Der Flash Player kann nichtmal VP9 wiedergeben. Die HDR Videos als auch 1440p60 und 4k60 werden ausschließlich in VP9 codiert. Von demher wäre ein Flash Player tatsächlich Fail.
Und ja auch ohne HDR Monitor profitiert man von 10bit Codierung. Banding wird dramatisch reduziert. googlet einfach mal nach 10bit bitdepth. 10bit hilft dir sogar bei 4:2:0 8bit Quellen. Du hast somit akkuratere DCT Blöcke.
 
@De-M-oN: Mir ist schon klar was Hi10p ist da ich Animes in dieser version habe.
Aber bei HDR Videos stimmen doch die Farben auf nem normalen Monitor nicht?
 
@Paradise: Die bt.2020 farbmatrix ist tatsächlich die Ursache.
Schön wäre, wenn Youtube die Videos in 10bit codieren könnte, aber ohne das bt.2020 dabei sein muss. Das wäre dann für jedem von Vorteil, wenn man diese Option auch hätte.
 
Kann man die HDR-Information nicht einfach mit in das Videomaterial einspielen? Dann bräuchte man keine extra Hardware dazu.
 
@MOSkorpion: Die Videos in 10bit codieren mit einer bt.2020 Farbmatrix. 10bit profitierst du mit jedem Monitor von. Die Matrix wird evtl ein Problem sein.
 
Also zusammengefasst: 10bit Codierung mit einer bt.2020 Farbmatrix.
Kommentar abgeben Netiquette beachten!

WinFuture auf YouTube