4-Jahr-Plan für die 8K-Offensive: Japan will TV-Markt zurückerobern

Die großen japanischen Marken führten lange Zeit unangefochten den Weltmarkt für Unterhaltungselektronik an. Das ist aber schon einige Zeit nur noch eine Sache für die Geschichtsbücher. Doch nun soll sich das wieder ändern - durch einen ... mehr... Sony, Werbespot, Werbung, 4K Bildquelle: Sony Sony, Werbespot, Werbung, 4K Sony, Werbespot, Werbung, 4K Sony

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
In Deutschland dann vielleicht in 10 Jahren und natürlich dann nur mit dem Spitzendienst HD+++.
Ist aber schon erstaunlich wie schnell es mancherorts gehen kann. Wobei ich 2020 mir wenn überhaupt, wohl erst mal Gedanken um einen neuen 4K-Fernseher machen werde, solange muss man mein dieses Jahr gekaufter Full-HD Fernseher mindestens halten.
 
@chris899: Ich würde eher davon ausgehen, dass wir in Europa erst in 5 bis 10 Jahren wenn überhaupt flächendeckend 4k haben werden, es sei denn sie überspringen das Ganze und steigen gleich auf 8k um. Das Problem ist, dass es für 8k nicht mal geeignete Kompressionsverfahren, zu langsame Breitband-Anschlüsse (bei 4k braucht man schon 25 Mbit damit man den Stream flüssig über die Leitung bekommt bei 8k sind es wohl 100 Mbit) gibt. Die Japaner müssten bis 2020 ein fertiges Konzept für 8k auf die Beine stellen, damit es für die Kunden interessant ist und nicht eine so zähe Partie wird wie bei 4k.
 
@Highdelbeere: auf einer anderen news Seite habe ich vor Wochen gelesen, das sie die 8K über Satelit anbieten wollen...
 
@Highdelbeere: Flächendecken? Kein Problem einfach kein altertümliches tv sondern streaming dienste nutzen, da ist 4k schon weit verbreitet. 4k werde ich aber überbringen und erst bei 8k einsteigen :)
 
@Highdelbeere: Schwachsinn, einmal in Technik investiertes Geld muss sich bei den TV Sendern amortisieren. Und das dauert nunmal 20-25 Jahre, aber bis dahin gibts womöglich 48K Auflösung.

Und die meisten Leute lassen sich dann ein Hochskaliertes 4 oder 8K Bild auf 48K als 48K Bild verkaufen. Wie blöd wir doch sind !!
 
@Highdelbeere: Flächendeckend 4 K, bei den dritten Programmen vielleicht, der Rest HD+, scheiß ich drauf.
 
@chris899: 10jahren!??!?! häng mal ne null dran...nur mal als denkanstoss, die öffentlich-rechtlichen verkaufen ihre durchaus guten eigenproduktionen immer noch als dvd-only
 
@chris899: Man muss nur mal schauen, wie weit die mit schneller Internetversorgung, 4G bzw 5G usw sind, das sind ganz andere Hausnummern. Da wundert dann 8K auch nicht.
 
@chris899: vergiss nicht die eingebaute Sollbruchstelle
 
Welchen sichtbaren Vorteil hat denn nun 8k gegenüber 4k auf einem 50" Display (das natürlich 8k wiedergeben kann) bei einem Abstand zum Display von mindestens 5m?

Klar, der Kopf meint es ist 8k und "ES MUSS" schließlich besser sein. Aber kann das menschliche Auge diesen Unterschied überhaupt wahrnehmen?
 
@erso: Würde tippen keinen, da der Abstand selbst für Full-HD eigentlich schon zu weit ist, sofern ich mich erinnere.
Gab da mal eine nette Übersicht mit optimalem Sitzabstand zu Auflösung und Diagonale.
 
@Master_P.: Falls du diese Übersicht wiederfindest, möchte ich dich bitten diese zu posten. Ich weis auch, dass es da mal was gab, aber finde es selbst nicht. :/
 
@erso: Ist glaube ich nicht die, die ich meinte, aber so in etwa wie hier dargestellt:

http://www.chip.de/artikel/TV-Tipps-Der-optimale-Sitzabstand-zum-Fernseher_43008461.html

Die Abstände finde ich allerdings teils sehr kurios.
Ich habe ca. 3m zu 48", da ich mich bei einem Testweise 55" dabei erwischt habe wie ich andauernd links und rechts geguckt habe und das fand ich dann ziemlich unangenehm und nicht mehr entspannt.
 
@Master_P.: Die Abstände empfinde ich auch als zu knapp. Wenn ich ein Display (welcher Art auch immer) betrachte, mag ich meinen Kopf nicht bewegen, sondern das Bild nur durch die Bewegung meiner Augen erfassen.

...Hmm das klingt sicher schräg, aber nur so empfinde ich es als angenehm.
 
@erso: Das eine ist die Therorie, optimaler Abstand um in den Genuss des optimalen Sehens zu kommen ohne dabei Pixel zu erkennen, das andere die Praxis in der ich auch gemütlich dabei liegen/sitzen möchte und mir nicht den Hals brechen will, weil in der einen Sekunden unten rechts was spannendes und dann oben links zu sehen ist...
Aber Geschmäcker sind ja wie bei vielem verschieden und das ist ja gut so.
Für manche habe ich einen zu kleinen TV bei dem Abstand, für andere total überdimensionierte Lautsprecher ^^
 
@Master_P.: Würde ich mir auch einreden wenn ich nur so einen kleinen hätte.
 
@erso: Ich meine, es gibt da eine Faustregel.
Das 2 bis 2,5 fache der Display Diagonale als Entfernung zum Display.

Bei 4K und 8K werden gegenüber Full-HD bei gleich Display Größe die Pixel immer kleiner, und somit diese erst bei immer näheren Betrachtungsabstand erst sichtbar.

Also stimmt obige Faustregel dann auch nicht mehr.
 
@erso: selbst FullHD wird bei dem Sitzabstand schon genug sein. Aber wir rede ja langsam nicht mehr von solchen "kleinen" 50" Geräten. Der Trend geht klar auf die 70" hin. Ob das natürlich die breite Masse auch treffen wird weiß noch keiner. Wenn 70" bezahlbar wären würde ich auch einen nehmen :P (das selbe hab ich aber auch schon bei 50" gesagt vor paar Jahren)
 
@CvH: Die Mehrheit kauft ein Gerät das in die Möbel Landschaft des Wohnzimmers passt. Und selbst da ist 40" schon fast immer das ultra.

Wie gesagt die Mehrheit, nicht Freaks die sich ihr Wohnzimmer um den TV herum einrichten.

Die Mehrheit (Masse) wohnt in einem 15 - 25 m2 Zimmer ! Und da muss der TV neben den anderen Möbeln noch reinpassen.
 
@flotten3er: aber wer hat noch eine Schrankwand? Die meisten haben so ein TV Möbel bzw ein Sideboard - sprich die ganze Wand könnte man theoretisch mit Bildschirm zupflastern. In einer 2 Zimmer Wohnung sicherlich nicht Empfehlenswert ;) Ich könnte locker ein 100" Gerät aufstellen (bei den jetzigen Preisen erübrigt sich das) - aber bei mir ist zum Glück auch mehr als genug Platz.

Für den typischen Singlehaushalt in der Stadt, in einem Wohnklo, absolut ungeeignet.
 
@erso: Es wird keine Display mit 50" und 8k geben. Einen unterschied bei einem Abstand von 5m erkennt man heute selbst zwischen Full HD und 4k nicht. Da muss man, im Gegenteil zu vielerlei Meinung, näher an den TV ran rücken um dann Unterschiede feststellen zu können. 8k macht erst sein bei einer Diagonale von mehr als 75" und bei einem Abstand von gerade mal so, dass der TV das komplette Blickfeld einnimmt.
 
@Otacon2002: genau, desegen gibs auch schon 2 k auffem handy :) also ich seh da ziemlich deutliche unterscheide. aber die diskussion ist müßig , kaufs halt nicht
 
@Otacon2002: Wer sitzt bitteschön 5m von seinem Fernseher entfernt Tripple LOL. Ich setz mich doch nich, "nur weils so Michel mäßig sein muss" 5m von meinen TV entfernt. LOL LOL LOL
...
Und JA ich sehe sehr wohl den Unterschied wischen FHD und UHD, das sehe ich sogar auf nem 27" PC Monitor aber nichts für ungut. Wer das nicht sieht hat in einem Technik Forum eigentlich auch nichts verloren. ... Jedes mal diese unnötige Diskussion, NATÜRLICH wird Windows gestochen scharf, NATÜRLICH sehe die Spiele viel besser aus... tzzzzz noobs
 
@he@dy: 4xLOL und 1xNoob... Bestanden. Bist ein echter Nerd.
http://www.stupidedia.org/stupi/Nerd
 
@Chris Sedlmair: jop danke, 191cm@105kg, kann dir gern im RL mal zeigen was für ein Nerd ich bin
 
@Chris Sedlmair: Zählt das "triple" LOL nicht dreimal? Bitte nochmal das genaue Ausmaß bewerten. Danke ;)
 
@he@dy: Definiert sich ein Nerd durch Größe und Gewicht?
 
@Flyanno: Kommt darauf an, ob man nach eurasischem oder dem auch in Deutschland gültigem internationalem Regelwerk bewertet. Rußland und China sind da etwas lockerer.
 
@erso: auf 50" macht ja selbst 4k noch keinen großen Unterschied zu Full-HD. Ab 60" wird es erst richtig interessant.
 
@erso: witziger weise gabs die Diskusstion auch schon von analog tv zu digital und dann von digital zu HD und dann von HD zu 4k :) *gähn* ich hab überall einen deutlichen unterscheid gesehen. gute video quelle natürlich vorrausgesetzt.
 
@Conos: Jetzt, da du es schreibst, erinnere ich mich auch an solche Diskussionen; Stimmt, da war doch was! Ich werde mir das Phänomen mal in einem Elektronikmarkt meines Vertrauens genauer betrachten.
Bisher wurden diese Vergleiche immer ab absurdum geführt.
 
@Conos: So so. Das ist das gleiche wie Leute die behaupten sie schmecken den Unterschied zwischen Marken Cola und No Name Cola, macht man dann aber eine Blindverkostung liegen sie meist falsch. Oder füllt man die No Name Cola in die Flasche der Marken Cola.

Ich wette, stellt man 2 Fernseher mit 50" auf, du setzt dich auf 5m Abstand hin und ein Fernseher hat 4K und einer Full HD wirst du keinen Unterschied finden. Solange dir nicht gesagt wird, welcher Fernseher der 4K TV ist.
Oder den Test bei dem man dir sagt der Linke sei der 4K Fernseher und der Rechte der Full HD, dabei ist es umgekehrt, dann wirst du der Meinung sein, dass der Full HD Fernseher deutlich schärfer ist.

Warum? Weil dein Gehirn mit Schubladen arbeitet, automatisch, da hast du keinen Einfluß drauf. Dein Gehirn interpretiert jede Information bevor du sie wirklich siehst. Dazu werden gewiße Schubladen verwendet.

Bei einem solchen Test, der neutral aufgebaut ist, bei dem du nicht weiß welcher Fernseher welcher ist, schaffst du neutrale Bedingugen bei dem dein Gehirn auf keine Schublade zugreifen kann.

Faktisch gesehen ist dein Auge nämlich nicht in der Lage den Unterschied zu sehen, aber dein Gehirn spielt da eben nicht mit, wenn es weiß, dass es sich um einen höher aufgelösten 4K Fernseher handelt. Dann sagt es dir es sei schärfer, weil die Schublade für 4K Fernseher verwendet wird und die sind ja schärfer...

Aber das glaubst du nicht, solange bis du eben oben genannten Test mal selbst gemacht hast.

Was hingegen ein Vorteil von 4K Fernseher ist, ist das man durch die höhere Auflösung näher davor sitzen kann bevor man einzelne Pixel sieht.
Das kann sich sicherlich lohnen.
 
@s2g: "Unterschied zwischen Marken Cola und No Name Cola" ja schmecke zu 100% weil genau son riesen unterschied wie zwischen red bull and magic man ist.. du kannst gerne wetten aber vieleicht solltest du einfach zum Optiker :) netter Roman ohne Inhalt. Gleich erklärst du uns noch wieso mehr als 24 fps bei video spielen nicht schlechter sind gegenüber 200 fps .... *gähn*
 
@erso: Anwendungen, um 8k in Film und Fernsehen auszunutzen, gibt es sicher. Allerdings stehen die in krassem Widerspruch zum aktuellen Trend, schnelle Bildfolgen und irrwitzige Schnitte zu verwenden. Ansonsten könnte ich mir schon vorstellen, dass Weltraumreportagen und Naturfilme oder gar eine Art Videotext für alle in 8k ziemliches Potential hätten. Ich persönlich sehe auf dem PC in 4k (oder 5k) großen Sinn, da Office-Texte und Tabellen nahezu in Papierqualität bearbeitet werden können, was wirklich angenehm für die Augen ist. Ungefähr bei 8k käme man ca. auf die 600 dpi eines Laserdruckers.
 
@erso: Interessanter wäre Oled,10 oder 12bit HDR, 60 oder 120fps.
 
Ich brauche schon FullHD und 4K nicht. Die meisten Fernsehprogramme gibt es meines Wissens bisher ohnehin fast ausschießlich in HD, also 720i und nicht in 1080p, wie es für FullHD-LCD-TVs nötig wäre.

Das heutige Fernsehprogramm kann man also schon auf heutigen FullHD-Fernseher gar nicht hochqualitativ darstellen, da FullHD-LCD-TVs weder die nötige Interlaced-Darstellung noch HD-Auflösung im Vollbild beherrschen und daher das gesendete 720i-Material erst unter hohen Qualitätsverlusten auf 1080p hochgerechnet werden muss um es auf einem FullHD-Fernseher im Vollbild darstellen zu können. Dabei werden Bewegungsabläufe im Bild unnatürlich verzerrt, eine Menge Bildfehler eingerechnet und das Bild wirkt daher fehlerhaft und schwammig.

8K ist damit erst recht überflüssig und ich glaube nicht, dass sich damit ``der Markt zurückerobern lässt.'' Die meisten meiner Bekannten kaufen immer noch DVDs, weil FullHD-BluRays eben nicht überall laufen und viele von denen nicht mal einen BluRay-Player unter dem Fernseher stehen haben, sondern bestenfalls mal einen im Notebook, dass direkt mit einem geliefert wurde.

Ich glaube daher nicht, dass die Masse der Fernsehzuschauer in den nächsten 10 Jahren auf 8K-Geräte umsteigen wollen wird, denn ihr altes Videomaterial und auch das Fernsehbild kann von denen im Vollbild nur sehr fehlerhaft angezeigt werden, da es extrem hochskaliert werden muss.
 
@resilience: Das was du schreibst mag in der Theorie zutreffen, aber wenn ich mir das 720p (meine Info) Bild der ARD oder ZDF über Sat anschaue, habe ich schon ein recht brauchbares Bild. Natürlich nicht auf BluRay-Referenz Niveau, aber auch deutlich besser / klarer / detaillierter wie eine DVD bzw. das SD-Signal.
 
@resilience: "Die meisten Fernsehprogramme", die in 720p (und nicht 720i) senden sind die öffentlich rechtlichen. Sky und die Privaten Programme senden in deren HD Variante mit 1080i. Einen unterschied zwischen den beiden Auflösungen kannst du dir gerne heute Abend beim Bundesligaauftakt anschauen - den sieht man ziemlich deutlich (mMn). 1080p hast du bei BluRay - und da geht der Weg in Richtung 4k. In GB gibt es schon Sky Receiver mit 4k Unterstützung. Diese sollen im Herbst/Winter auch in Deutschland zur Verfügung stehen. Ich bin froh über ein 1080i Signal. Und wer sagt er braucht kein FullHD - der braucht es wohl tatsächlich nicht. Bei dem Wetter soll man auch raus gehen und nicht vor der Glotze hocken :) Nur wenn, dann bitte in mind. 1080i. Den Unterschied zu 720p werden wohl die meisten WF Leser bemerken.
 
@Otacon2002: Endlich mal einer! Was hab ich hier schon prügel für diese Aussage einstecken müssen. Bei Champions League fälls mir extrem auf. 720p ör und sky 1080i. Wesentlich feiner aufgelöst. Die 25Hz stören mich nicht. Scheinbar berechnet mein Bildprozessor die Zwischenbilder ganz ordentlich
 
@Otacon2002: 1080i sollen doch besser sein? lt. aussagen im netz soll 720p überlegen sein
 
@palim: 720p ist auch deutlich besser.

1080i sind quasi 540p""
 
@Razor2049: Schwachsinn! Es sind 1920x540 die ABWECHSELND angezeigt werden. Daher hat ein Bild bestehend aus zwei Frames 1920x1080 Bildpunkte. Dadurch dass ein komplettes Bild aber aus zwei zusammengesetzten Halbbildern besteht, hat 1080i nur 25Hz. "1080i ist quasi 540p" diese Aussage disqualifiziert dich vollends... xD 720p belegen in etwa die gleiche Bandbreite weil 720p weniger Pixel bereitstellt, dafür mehr Bilder und 1080i mehr Pixel dafür weniger Bilder. Ergo: 720p hat bessere Bewegungsdarstellung, 1080i feinere Auflösung. Und jetzt erkläre du mir das mit deinen Worten! Und warum 720p besser ist. Ich bin gespannt
 
@EffEll:

in der Videobearbeitung hättest du jetzt ein Problem. 1080i ist schlechter, durch die Halbbilder.
Im streaming ist 1080i besser, aber in der Bearbeitung 720p besser, ebenso 1080p

ist leider so
 
@Kruemelmonster: gar nicht weiter drauf eingehen
 
@Kruemelmonster: Ja, natürlich. Aber was spielt das in der Fernsehaustrahlung für eine Rolle? Ich will doch nichts bearbeiten. Ich will das Bild sehen - mehr nicht und da gibt 1080i einfach mehr Details wieder. Gute Fernseher haben mittlerweile sogar das Zägezahn-Problem, also die etwas ausgefransten Pixel duch das zeilensprung Deinterlacing im Griff. Diese Diskussionen stammen aus der Anfangszeit von HDTV. In den Jahren hat sich viel getan
 
@Razor2049: War mir klar. Du behauptest also fest, dass ein 1080i Bildformat deinterlaced Zeilensprungverfahren das gleiche oder ein ähnliches Bild liefert wie 540p? 540p gibt es übrigens gar nicht sondern nur 576p, welches eine Auflösung von 720x576 bereitstellt hat. Es ist leicht etwas zu behaupten ohne es nur annähernd erklären zu können.
 
@EffEll:

im Streaming geht das, aber nicht in der Bearbeitung. Im Streaming, also Übertragung, kommt es nur auf schnelle Datenübertragung an.

Qualität, ist aber was anderes und da ist progressive was anderes als interlaced, aber das ist selbst ein Problem das mkv-Jüngern klar zu machen.

Die Fernseher werden nicht besser, bei interlaced kommt es nur auf die schnellere Übertragung bei geringerer Bandbreite an. Nur da sind die TVs besser gewoirden. Großer Murks danach, wenn du es aufzeichnen willst und da stecken alle TVs in absoluten Kinderschuhen, denn gut umsetzen können alle nur progressive dann. Interlaced führt immer zu massig Artefakten.
 
@EffEll:nö behaupte ich nicht, sondern das es ähnlich 540 p ist und 720p einem 1080i bald deutlich überlegen ist. Was man täglich an den öffentlich rechtlichen sehen kann im vergleich zu dem privaten murks
 
@Razor2049: Wieso bald? Und wo vergleichst du mit 540p, das Format gibt es doch gar nicht!? Meinst du SD, also 576i? Es gab 2010 eine Petition, dass die ÖR bitte auch in 1080i senden sollen, ds es das es das detailliertere Bild liefert. Die ÖR sind übrigens die einzigen Sender in EU die auf diesen Standard setzen und das aus guten Grund. Aber du weißt es ja scheinbar besser. Wenn du das jetzt erläutern würdest, könnte ich darauf eingeht, aber so ist's einfach nur ne (Trotz-) Behauptung. Vielleicht liest du dir das mal kurz durch. https://de.wikinews.org/wiki/Petition_fordert_Wechsel_auf_1080i-HD-Fernsehnorm_bei_ARD_und_ZDF
 
@palim: 720p und 1080i nutzen die gleiche Bandbreite. Der Vorteil von 720p sind 50 Vollbilder in 1280x720 in der Sekunde. 1080i setzt sich aus Halbbildern zusammen. D.h., dass einmal 1920x540 gezeigt werden und das zweite Halbbild in gleicher Auflösung daraufhin angezeigt wird. Es bleibt dabei jede zweite Pixelzeile leer und da es in solch schneller Abfolge passiert, sieht das menschliche Auge ein komplettes Bild. Dadurch spart man Bandbreite, kann die Auflösung erhöhen, allerdings zu lasten der Bildwiederholrate, die dann lediglich noch bei 25Hz liegt.
Im Endeffekt kann man stark vereinfacht sagen: 720p hat eine bessere Bewegungsdarstellung zu Lasten der Auflösung (Detailschärfe), 1080i hat eine bessere Detailschärfe zu Lasten der Bewegungsdarstellung.

Die Öffentlich Rechtlichen entschieden sich damals für 720p, da sie viel Sportübertragungen senden und so das flüssigere Bild bei schnellen Bewegungen liefern konnten. Dieser Nachteil des 1080i Formats ist heutzutage aber viel weniger relevant, da moderne Bildprozessoren die Bildzwischenberechnung ziemlich gut bewerkstelligen und auch schnelle Bewegungen flüssig darstellen (Motionflow und andere Werbebegriffe)

Das sind Vor- und Nachteile beider Formate und ich schaue Fußball lieber auf 1080i, da ich eher auf Detailschärfe Wert lege und mir keinerlei Ruckeln auffällt. Am besten ist es, sich seine eigene Meinung zu bilden ;-)
 
@EffEll: <<<Der Vorteil von 720p sind 50 Vollbilder in 1280x720 in der Sekunde.>>>

uiihhh, interlaced hat 50 fps, progressive 25 fps.

p = progressive, Vollbilder = 25 fps
i = interlaced, Halbbilder = 50 fps

Die Übertragung ist durch die Halbbilder schneller und ja, das menschliche Auge nimmt es nicht wahr. Die Technik hingegen schon und durch die Halbbilder entstehen dann Artefakte durch technische Aufzeichnung.

Daher quasi null Qualität für die Aufzeichnung, es ist Murks. Für das menschliche Auge gut, wenn nicht sogar sehr gut.

Und nun ein kleines Zwinkern zum Verstehen, versuche mal mit 50 fps aufzuzeichnen.
 
@Kruemelmonster: Ja, aufgezeichnet entstehen Artefakte. Filme nehm ich nicht auf dem TV auf und bei Sportveranstaltungen ist es dennoch besser als bei 576i, welches dann wirklich unerträglich ist.
Es ging mir um das Bild im Live TV. Ich nehme nichts auf was ich öfter verwende oder gar bearbeite. Daher habe ich lieber Vorteile im Livebild statt Aufnahmen und Live Bild in gleicher niedrigerer Qualität. Deine Erklärung verstehe ich nicht. MW gibt's 720p nicht mit 25Hz sondern nur mit 50 oder eben 60 Vollbilder in der Sekunde. Interlaced auch nur mit 60 oder 50 Halbbildern in der Sekunde, Vollbildfrequenz dementsprechend halbiert.
 
@EffEll:

sodele, erstmal bitte Breite / Höhe angeben, da es 5 verschiedene Seitenverhältnisse gibt. 720 Höhe hat in Widescreen eine andere Bedeutung, wie in 1,78 : 1

Unser Standard ist 25 fps, Kinofilme 24 fps, beides progressiv = Vollbilder

Es gibt dazu eben 50 fps interlaced = Halbbilder = 25 fps = jeder Frame wird aber in Halbbilder aufgeteilt = 50 fps = tendiert zum ruckeln.

Es gibt aber auch 50 fps progressive = aus einem frame (Vollbild) werden 2 Vollbilder gemacht. Folge: ruhiger lauf, bessere Qualität.

Unser Standard ist aber 25 fps progressive

So, und jetzt versuche ich dir mal was zu erklären, um es auch mit dem imterlace zu verstehen, warum das gemacht wird.

Nehmen wir eine Vorlage 720x400, bis zu 1280x720 reicht eine Bit Rate von 900 kbps um einen noch guten Film zu haben. Bei Zeichentrick geht es auch mit 500 kbps..
Egal welche Auflösung, bei 900 kbps bleiben die Daten gleich groß, auch bei 1920x1080. Nur, das Rendern, also Herstellern einer Datei, dauert bei den großen Auflösung unendlich lang. Zu gleich verliert man aber bei 900 kbps Bit Rate unwahrscheinlich an Qualität. Bei 1920x1080 benötigt man schon gut 4000 kbps, was übrigens wieder, egal bei welcher Größe, die gleiche Dateigröße ausmacht, aber wieder beim Rendern auf 1920x1080 unwahrscheinlich Zeit braucht.

Vielleicht verstehst du jetzt warum Halbilder, diese Bilder sind kleiner, schneller übertragbar, aber von erheblich schlechterer Qualität.

Vollbild geht hingegen bis zu einer gewissen Größe, eben die 1280x720 problemlos, im Vergleich zur Videobearbeitung sogar mit 900 er Bitrate machbar. Bei 1920x1080 sollte man aber bei Vollbild schon minimum 2000 er Birate nehmen.

Man kann sich nun eines Tricks bedienen und die Vollbilder halbieren, vielleicht wird es so verständlicher.

Man benötigt damit nicht mehr die hohen Bit Raten, zu einem Nachteil, ruckeln beim Aufzeichnen, was zu Artefakten führt. Auch diese Deinterlacer helfen nicht so dabei.
Man behält immer irgendwie Artefakte.

Über die Videobearbeitung versteht man es eigentlich sehr schnell, wenn man mit Bitraten spielt und wie weit man das in Vollbild reizen kann, zu welcher Datengröße. Interlaced, führt dabei immer zu erheblichen Schwierigkeiten, weil die Software zur Bearbeitung das sieht, was du nicht siehst.

Noch zwei Links dazu:

http://www.hdtv-guru.de/index.php?parent=17&idcat=20&idlang=1
http://www.paradiso-design.net/videostandards.html
 
@Kruemelmonster: Na ja, Breite und Höhe bzw aspectratio muss ich nicht angeben, da ich nur vom HDTV Fernsehstandard schrieb und da werden selbstverständlich auch Filme mit einem 1,78:1 Seitenverhältnis in 16:9 ausgestrahlt. Daher spielen andere Seitenverhältnisse keine Rolle. Soweit ist mir eigentlich alles in deiner Quellenangabe bekannt und auch da ist ja nicht vollständig ersichtlich, das 25Hz unser Fernsehstandard ist. Von 24-60Hz ist ja alles möglich. Natürlich sind 24 Bilder in Filmen Standard. Aber auch das spielt im Fernsehen keine Rolle
Ansonsten ändert deine Erklärung ja nichts an meiner Erklärung, die absolut korrekt war. Ansonsten beziehst du dich ja wieder lediglich auf die Bearbeitung bzw das Rippen oder Rendern von Filmen, wo es zu Artefakten kommt, aber welche Rolle soll das beim Fernsehen spielen? Es treten keine Artefakte auf und moderne Bildprozessoren schaffen die sogar bei 576i zu minimieren. Du redest ja scheinbar ausschließlich vom PC. Was spielt das in dem Zusammenhang für eine Rolle?

Irgendwie verstehe ich den Satz nicht:"Vielleicht verstehst du jetzt warum Halbilder, diese Bilder sind kleiner, schneller übertragbar, aber von erheblich schlechterer Qualität"

Dein hdtv-guru-Link ist jetzt aber nicht dein Ernst oder? ;-) :D Zeilenflimmern gibt es heute nahezu gar nicht mehr und bei diesem uraltem Artikel ist vom Mediaplayer 9 die Rede, von 2003! Dieser Link ist garantiert 10 Jahre oder älter, denn auch Blu-ray und HD DVD gab es da noch nicht. ^^

Edit: So, du liegst falsch! Die Öffentlich Rechtlichen strahlen seit 2010 wie ich richtig sagte in 720p 50Hz aus! Also 50 Vollbilder/s und nicht wie du behauptest 25. Daher waren meine Aussagen vollkommen korrekt, im Gegensatz zu deinen. Denn ich rede nur vom deutschen HDTV Fernsehen https://de.wikinews.org/wiki/ARD_und_ZDF_starteten_HD-Regelausstrahlung_passend_zu_den_Olympischen_Winterspielen_2010
 
@EffEll:

Dann hast du es echt noch nicht verstanden. der Film hat 25 fps, bei der Ausstrahlung kann man nun eines machen, progressive, oder interlaced.

Der Film bleibt aber bei 25 fps.

Interlaced wird immer 1 Bild halbiert daher von 25 auf 50

progressive wird jedes Bild verdoppelt 25 auf 50.

1920x1080 halbiert ./. 1280x720 verdoppelt.

Und das andere habe ich dir erklärt mit dem Trick, Bilder halbieren, interlaced.

Daher du verstehst es immer noch nicht i ist schlechter als p.
 
@EffEll:

so, hier steht auch noch einiges dazu:
https://books.google.de/books?isbn=3864915880

und bitte die Problematiken mit reinen 50 fps Aufnahmen zu beachten (Zeitlupe). Im Sport halt interessant, denn auf normal 25 fps abgespielt, hast du eine Zeitlupe schon in sich.

Hier steht auch drinnen, dass man eben auch 25 fps progressive auf 50 fps bringen kann und das geschieht mit duplizieren der Einzelbilder, bzw. Neuberechnung der Bilder. Aber mit Vorsicht zu genießen, denn es muss dann auch mit 50 fps wiedergegeben werden.

Die normale Wiedergabe liegt bei 24 fps, bzw. 25 fps, weil das menschliche Auge nicht mehr als 24 fps verarbeiten kann.

So, und jetzt noch einmal zu deinem interlaced, also 1920x1080i, hier wird das Bild geteilt, also aus 25 Bildern in der Sekunde werden 50 Bilder gemacht, quasi also zu 1920x540. Daher geringere Bitrate nötig, schnellere Übertragung, geringere Bandbreite. Es wird aber dann bei dir Zuhause wieder zusammen gesetzt als 25 fps.

Du hast da zuhause keine 50 fps, denn dann würdest du das nicht mehr anschauen können ;-)

nimmst du nun aber 1280x720p in Vollbild, hast du im Endeffekt ein besseres Bild, da so übertragen, wie aufgenommen.

Man kann es auch nicht besser erklären, als über die Videobearbeitung, wie ich es versucht habe. Du brauchst letztendlich die 25 fps um eine Aufnahme anschauen zu können. Nix 50 fps oder 30 fps, hier haben wir 25 fps. Und der Fernseher, braucht via USB, Mediaplayer 25 fps.

Und nun komme ich zu deinem 1080i, diesen Vorgang verwendet man z.B. auch bei mkv, um die Bitraten runter zu bekommen. Weil eben mp4/avi Grenzen haben. Wie ich schon erklärte, bei mp4/avi kann man noch bei 1280x720 mit 900kbps leben, geht sogar noch mit 768kbps. Bei Zeichentrick geht es sogar mit 512 kbps.
Grenze ist da aber 768kbps und da tut es den Augen schon weh.

Einige Spezies versuchten sogar unter 512 kbps zu kommen, per interlaced und mkv.

Und jetzt sollte es Klingeling machen, bei 1080i hat man das Gleiche gemacht, die Bitrate durch Teilung runtergesetzt, was dann weniger Bandbreite benötigt, bei mehr Bildern, die aber wieder in deinem TV zusammengesetzt werden, auf 25 fps.

Vielleicht verstehst du es jetzt und merken tun es erst die Videofreaks hinter der Glotze, die via USB am TV aufzeichnen, oder über i-Videos stolpern. Die Aufzeichnung, oder auch das stolpern drüber, kann der Zeitaufwand dann für die Katz sein. Weil die Bitrate entweder im Keller ist, oder das deinterlacen nichts mehr außer Artefakte bringt, bei zu geringer Bitrate einhergehend.

Noch ein Tipp dazu, viele TVs begrenzen via USB-Mediaplayer die Videogrößen, immer zu umgehen, via mp4 (avi like). Da kann man HDTV dann rauskitzeln, auch via USB. aber dann bitte mit einer Bitrate von mindestens 2000.

Und noch zu deiner Anmerkung zu wmv. Es ist immer noch das Beste, egal wie viele nun Aufschreien. Es kostet nur richtig Speicherplatz, aber das auch bei 20.000 Bitrate und das hat was in HD. Übrigens, hier steigt die Dateigröße je nach Videogröße. Hat so etwas von RAW zum Vergleich.

Wer seine Videos richtig speichern will, in excellenter Qualität, nutzt wmv, auch zum nachrangigen Rendern in klein.

(und nun schön meckern, wie 12 GB, ein Film, jepp passiert, aber das ist dann HD)
 
@Kruemelmonster: Ja, aber es geht mir doch nicht um Filme! Es geht um TV Produktionen! (und Sportübertragungen und Zeitlupe spielt auch keine Rolle, da die Zeitlupe vom Sender angefertigt werden und auch 50 fps laufen (ÖR 720p). Es geht um die Auflösung und Detailtreue, die ist bei 1080i besser als bei 720p, mit Einbußen bei Bewegungen. Selbstverständlich ist 1080p besser als 1080i, sogar um Welten! Es ging mir nur um 720p zu 1080i und da ist für mich rein optisch 1080i besser als 720p. Grundsätzlich gebe ich dir natürlich recht. Interlaced ist schlechter als progressiv. ;-)
Edit: Könnten wir uns vielleicht darauf einigen? :-)
Edit2: Und zu deiner Erklärung zu interlaced Verfahren. Genau das gleiche habe ich doch geschrieben. Ich habe nie behauptet, dass das 50 Bilder sind, sondern 50 Halbbilder ergo 25Hz. Wir reden echt aneinander vorbei...
 
@EffEll: <<< Es ging mir nur um 720p zu 1080i und da ist für mich rein optisch 1080i besser als 720p. >>>

Mit optisch, ist das immer so eine Sache, schau wie viele immer wieder JA sagen, wo man sich manchmal auch fragen muss, ob die blind sind :-)

Wir haben halt nur so zwei Augen, die nur 24 Bilder/sec. schaffen und da findet man manchmal etwas schön, was es so doch nicht ist.

Erst die Technik nachrangig, beim Aufzeichnen, heutzutage die Software im Schnitt danach, öffnet die Augen erst so richtig.
 
@Kruemelmonster: Nein. Zu bewerten ist das Live-Bild. Nicht der Schnitt nach dem Aufzeichnen, denn das betrifft einen Prozentsatz im Promillebereich. In wie fern ist das, außer für dich, ausschlaggebend? Ich schaue das Spiel, Rennen oder den Boxkampf und das war es. Mich interessiert es nicht, wie sich eine Aufnahme davon im postprocessing verhält
 
@EffEll: <<<Zu bewerten ist das Live-Bild>>>

und das bleibt so oder so deine Wahrnehmung, aber wenn du meinst 1080i sei besser, muss du mit Gegenwind rechnen.

Dazu nochmals, wir sprechen hier über bewegte Bilder und du gestehst selber ein, "720p hat bessere Bewegungsdarstellung" Hhhhmmm, wir sprechen halt von bewegten Bildern und eine geringere Auflösung hat also eine bessere Darstellung der Bewegungen.

Damit ist alles gesagt, denn was bringt dir bei 1080i eine bessere Schärfe, wenn der Bewegungsablauf schlechter ist als bei 720p, eben, bei bewegten Bildern. Bei Einzelbildern ein ganz anderes Thema, aber bei bewegten Bildern ist immer noch der Bewegungsablauf entscheidend.

Alles andere, habe ich dir zur Genüge erklärt, selbst bei progressiv kann man durch Herabsetzen der Bitrate, Bewegungsunschärfe rein bekommen, bei interlaced noch zusätzlich ein Flimmern. Vollbilder, mit genügend großer Bitrate, sind hier immer vorzuziehen, nur, die kosten schon bei Ausstrahlung richtig Bandbreite. Wenn man hier meint zu sparen und Vollbilder zu halbieren, wird es immer etwas an Verschlechterung nach sich ziehen.

Dazu sollte man tatsächlich erstmal das Schneiden von Filmen verstehen, was Bitraten bewirken, was interlaced/progressiv bedeutet und welche Auswirkungen alles hat und dazu begreifen und verstehen, dass der Mensch nur 24 Bilder/sec überhaupt wahrnehmen kann. Und genau zum Letzteren muss ein flüssiger Bewegungsablauf da sein und wer hat das nun schlechter ?

Damit ist die Frage nach schlechter und besser beantwortet.
 
@Kruemelmonster: Ich bin raus. Ich habe schon mehrmals gesagt, dass das mit der besseren Bewegung rein theoretisch ist, da die Bildprozessoren in aktuellen Fernsehern eine hervorragende Zwischenbildberechnung leisten und dieser Nachteil nahezu nicht vorhanden ist, aber das Bild mehr Details aufweist. Dazu muss man "das schneiden von Filmen NICHT verstehen". Ich schneide nur eigenes Material. Entweder in 1080 60FPS oder 2160 mit 30 Bildern. Von daher spielt das beim Fernsehbild keine Rolle.
 
@EffEll: <<< Entweder in 1080 60FPS oder 2160 mit 30 Bildern.>>>

und wo willst du das wiedergeben ;-)

aber stimmt schon, was hier geschrieben wurde:
http://winfuture.de/comments/thread/#2895466,2895488
 
@Kruemelmonster: Razor hat auch behauptet, 1080i ist wie 540p, ein Format welches nicht existiert.

"und wo willst du das wiedergeben ;-)"

Auf jedem Fernseher und Monitor der das unterstützt. Was ist denn das für eine blöde Frage. Schau dir mal deine Erklärungsversuche in deinen Kommentaren an. Nicht mal die Satzstellung ergibt einen Sinn, wie z.B. der hier:"Vielleicht verstehst du jetzt warum Halbilder, diese Bilder sind kleiner, schneller übertragbar, aber von erheblich schlechterer Qualität." Das ist einfach nur wirres Geschreibsel. Du wusstest ja nicht mal, das die ÖR in 720p/50 senden sonder 25 behauptet...
 
@EffEll:
Hatte ich doch geschrieben, es werden auch zur Steigerung der Qualität, die Bilder dupliziert, bzw. berechnet und somit kommt man von 25 fps auf 50 fps. So werden auch Filme auf HD aufgepumpt. Zum einen auf 1280x720p und zum anderen mit dem Duplizieren der Bilder.
Für die Übertragung ist das besser.

Aber nochmals, der Mensch kann nur 24 fps wahrnehmen, auch bei 72 Hz, auch wenn dreimal das gleiche Bild gezeigt wird. Warum immer wieder 24 fps, eben wegen den Kinofilmen und da gelten die 24 fps noch heute.

50 Hz haben wir aber halt hier in Europa im Stromnetz, daher 50 fps um das Bild stabiler zu machen, auch wenn wieder nur 25 fps tatsächlich zu sehen sind, da du keine 50 fps sehen kannst.

Nun gibt es die teure Variante, direkte Vollbildaufzeichnung mit 50 fps in 1280x720p, oder du zeichnest mit Halbbilder auf, wie bei 1080i, was aber nur 25 fps im Vollbild ist und im Halbbild 50 fps.
Was ist wohl einfacher und billiger, 50 Bilder in 1280x720 aufzuzeichnen und zu senden, oder 25 Bilder in 1920x1080, die halbiert werden.

Und gleich die zweite Frage danach, was ist wohl wirklich HD.

Du, es ist nicht mein Problem, wenn du meine Sätze nicht verstehen willst. Jetzt solltest du verstanden haben, ansonsten wird es nämlich peinlich ;-) Nur so als kleiner Wink mit dem Zaunpfahl, 720p hat einen viel größeren Datenumfang, gepaart mit einem besseren Bewegungsablauf. Als Einzelbild ist 1080i besser, aber eben mit nur 25 reinen Vollbildern und beim Senden läuft erst 50 hz, also 50 reine Vollbilder richtig stabil.

Und nun noch zu deinen 60 hz / fps, dir ist der 2+3 Effekt bekannt? Der ist nicht beim abspielen so relevant, durch Multinorm, aber beim Schnitt, da ist der immer noch schön da, ein schönes Ruckeln.
Aber na ja, was sollst bei 1080i ist ja auch der nicht so gute Bewegungsablauf zu verschmerzen, nicht wahr ?
Na ja, vielleicht gewöhnt man sich ja auch daran :-)

Und nun noch zu 540, das Format gibt es doch 720x544. Das Format das so viele youtuber nicht raffen. Für die ist 720x576 (625), 4:3 und machen aus 4:3 = 16:9 und aus 16:9 = 4:3.
Nur mal zu Pal 720x576 (625), auch interlaced, aber anders, da steckten mehrere Formate drinnen, angefangen mit

720x544 = 1,33:1
720x464 = 1,56:1
720x400 = 1,78:1
720x384 = 1,85:1
720x304 = 2,35:1

und ja, es wird bis heute nicht begriffen, wenn schon schneiden und so viel Ahnung, auch bitte richtig machen.

Noch Fragen, ob es 540 gibt ? 4:3 ist tatsächlich 720x544, wer das nicht weiß, hat schon verloren, verdoppelt, hat man übrigens 4:3 HD 1440x1080........ uih, Überraschung, nennt sich dann auch 1080, p oder i.

Und wofür steht das p, eben für pro und i, darfst du dir selber aussuchen iiiiii, oder ihgitt.

Ich bin nicht nur mit dem PC von Anfang an dabei gewesen, auch mit 35 mm, Super 8, VHS-C, Video 8 usw. und nun wunder dich mal, damals gab es schon Zeitlupe, auch bei Aufzeichnung und wie machte man das, eben mehr Bilder wurden in der Sekunde aufgenommen und mit 25 fps abgespielt.

Genau DAS ist aber heute noch immer das Problem, weil einige nicht verstehen, das unsere Technik 25 fps für das menschliche Auge abspielt, auch die TVs und wer mit 50 fps aufnimmt und mit der Technik über Software schneidet, hat dann Zeitlupe.

Hake mal bitte diese 50 fps ab. Du kannst dir dazu gar nicht die Technik leisten, um solche Filme herzustellen. Verstehe dazu, dass dir via Glotze doch nur effektiv 25 fps vorgesetzt werden.
Und nun begreife das nächste, die alten Röhren konnten schon 100 hz, die konnten damit 100 fps. Wieso, weil sie jedem Bild drei Duplikate beifügten und so mit eine große Schärfe gegeben war. Trotzdem kamen für den Glotzer nur 25 Bilder in der Sekunde an.

Und nun stelle dir noch einmal die Frage, was ist besser, Halbbilder auf 50 pro Sekunde, oder 50 Vollbilder pro Sekunde. Selbst, wenn Letzteres gepimpt wird durch Bildduplikate, also aufgepumptes HD, ist das noch immer besser.

Und nun, egal wie lang es wird, bei 540 hätten bei dir die Alarmglocken schellen sollen, wenn du dich auskennst. Eben mal einfach mal 1,33 nehmen, UPPS, 718,2 ........ 720! Daher immer Bildbreite und Höhe nennen !!!! Daran kann man nämlich etwas sehen.

Razor war da ein wenig böse. Es ist genau der Vergleich, aber eben in 4:3 und davon gibt es HD,eben 1440x1080, Hälfte hast du bereinigt 720x544 und genau das haben die mit deinem geliebten 1080i gemacht, per interlaced, das Vollbild kastriert und auf 540 runtergebracht.

Umgesetzt zu 16:9 (1,78:1), also 1280x720p, als Vollbild, wäre das sogar mit nur 25 fps, besser als 1920x1080i, was die Einzelbilder kastriert.

Soll ich nun noch einmal mit alt Pal und 100 hz kommen, 3 Duplikate des Einzelbildes als Vollbild ./. 3 mal Duplikat eines Kastrat eines Bildes.

Ich will dich hier auch nicht belehren, ich hoffe nur darauf, mal zum nachlesen zu animieren, sich mit den Formaten auseinander zu setzen. Dazu gehört schon einiges, es zu begreifen, wie es letztendlich simpel ist. Und zu FPS, begreife und verstehe, wir können nicht mehr als 24 fps aufnehmen in der Sekunde, nur, die müssen gut umgesetzt sein. Und Kastration ist da nur eine Notlösung, zum Einsparen.
 
@Kruemelmonster: Ich habe mir deinen Kommentar nicht ganz durchgelesen. Nur soviel: Natürlich kann das menschliche Auge nicht mehr als 24 fps erfassen. Wenn aber ein Film mit 24Hz auf einem Display mit 60Hz läuft, kommt es unweigerlich gerade in langsamen Kamerafahrten zu Rucklern. Daher gibts ja den 24p Modus per HDMI. Dann wird das Material synchron mit der Monitorfrequenz ausgegeben. Man sieht klar einen Unterschied bei Material mit 30 oder 60 fps. Aber gut, du gehst ja eh nicht auf das von mir geschriebene ein und wiederholst immer wieder das gleiche. Wenn ich von der Arbeit komme, lese ich mir vielleicht alles durch. Aber wie ich schon sagte, du gehst ja gar nicht auf mich ein.
 
@EffEll: <<<Aber wie ich schon sagte, du gehst ja gar nicht auf mich ein.>>>

Ich gehe voll auf dich ein und schrieb es doch schon, fast am Anfang, das duplizieren der Einzelbilder führt zu einer Verbesserung.

Aber, das betrifft alles nur die Übertragung auf deinem Fernseher. Auch wenn es mit 50 hz läuft, behältst du die 25 fps, hast dann halt 2 Bilder pro Bild. Oder bei Monitor 75 hz hast du dann halt 3 Bilder pro Bild.

Diese duplizierten Bilder, können total kopiert sein, siehe als Vergleich alte 100 Hz Röhren, oder können tatsächlich so aufgenommen sein, oder berechnet worden sein und zwar zwischen jedem Bildübergang ein neu berechnetes Bild. Das ist HD, gepaart mit der richtigen Auflösung.
 
@Kruemelmonster: Heutzutage wird weder in 1080i, noch in 720p gefilmt, sondern in 1080p oder im Falle von Champions League sogar in 2160p. Das war ja damals das paradoxe. Champions League oder die Bundesliga, Olympia etc wurde in 1080i gefilmt und die ÖR strahlten in 720p aus, was dann natürlich überhaupt keinen Vorteil hatte, obwohl sie genau wegen den Sportübertragungen auf 720p setzten.
 
@resilience: soll leute geben die gucken schon lange kein klassisches fernsehen mehr und schauen ihre 4k medien im strea. aber alles Neuland und so :)
 
@Conos: Und es gibt Leute die nicht nur Serien, Dokumentationen und Filme gucken. Bei mir geht der Fernseher hauptsächlich für Nachrichten, Reportagen und Sport (live) Übertragungen an. Eine ausschliessliche Unterhaltungsberieselung wäre nicht so mein Fall.
 
Die Japaner sind da echt zu beneiden. Allerdings nicht um die Inhalte die da tagtäglich im Fernsehen laufen. xD ^^
4k war für mich persönlich eine Verbesserung. Marginal aber dennoch etwas spürbar. Der Nutzen von 8k im häuslichen Bereich, ich sag mal bis 60" und knapp drüber, erschließt sich mir jedoch nicht. 4k war extrem spürbar bei der 3D Polarisationstechnik, also side-by-side. Da hätte man durch 8k nochmal eine Verbesserung. Aber grundsätzlich spielt 3D ja keine große Rolle mehr und auch die Hersteller verzichten fast gänzlich darauf. Sie sollten mMn den Fokus auf organische LED Technik legen, dann hat vielleicht auch dieses unsägliche Clouding und Ghosting bei Sony ein Ende und Schwarz statt Grau ist auch nicht zu verachten. LG macht da gute Arbeit. Die neuesten Panels sind auch fast kaufbar. Dieses quitschbunte Farbverhalten was ältere Serien noch an den Tag legen sind fast gänzlich verschwunden. Nur mag ich das WebOS nicht gerne. Ist nur die Frage wie lange die halten. Ein AMOLED Smartphonedisplay verliert doch ordentlich Leuchtkraft, gerade bei immer weiß eingeblendeten Leisten wie Adresszeilen. Puh, sorry, Walloftext
 
@EffEll: Dann schau dir die OLED TVs von Panasonic an. Sind meiner Meinung nach um einiges besser als die von LG. Jedoch auch 2-3 Mal so teuer :D
 
Ich bin dafür wir bennen "Japan" um im "8kapan" um den Werbeeffekt zu verstärken! :)
 
Ob das nötig ist, ist eine Frage. Ich bezeichne mich eigentlich selbst als Technik Fan, aber Full-HD finde ich absolut ausreichend gut.
 
@L_M_A_O: Tja, dasselbe haben unsere Eltern/Großelten über ihren Röhrenfernseher gesagt ...
 
DVB-T2 ÖR soll ja jetzt in 1080p senden. Da stellt sich jetzt die Frage, warum das nicht auch über Satelit geht. Vielleicht müssen die Sender dann wesentlich Gebühren für die Filme abgeben, die könnte man mit Verschlüsselung der Sender umgehen. Östereich macht es doch vor.
 
Man sollte eher mal einen TV ohne sichtbare Fehler produzieren. OLEDs haben ihre Probleme und die neuesten Samsung-LCDs natürlich auch wieder.
 
Oh wie schön beschi** diese Werbevideos doch sind.
Habt ihr bemerkt das der Sony 4K TV in dem Video keinerlei Kabel hat ! Weder Strom/Netz kabel noch eine art Video Kabel.
Das Gerät ist doch die Lösung unserer Energieprops. Der erste TV der läuft aber dem man keine Energie zu führen muss.
Was macht die "dünne" des Gerätes für einen Sinn? Wenn jeder heutige Stecker, selbst wenn dieser vertikal von unten in das Gerät gesteckt wird, dicker ist als das Display.

* Ja klar, die Kabel sind mit Bildbearbeitung wegretuschiert.

Olympia 2020 in 8K !!
Wenn ARD und ZDF die Übertragungsrechte, wieder wie immer, bekommen senden die immer noch in der HD-Ready Auflösung von 1080x720, von Full-HD bei ARD/ZDF keine Rede.

Ich lach mich schlapp !!
 
@flotten3er: Du, das ist ein Werbefilm. Die Milka Kuh, Meister Propper und Konsorten gibt's auch nicht. ;-) :-)
Die Fernseher sind so flach, da sie an der Wand montiert nicht mehr auftragen und dadurch als solches nicht mehr gleich auszumachen sind und so besser mit dem Raum verschmelzen.
Wie dick irgendwelche Stecker sind spielt da keine Rolle, da bei ultradünnen Geräten sämtliche Peripherie an eine extra Box angeschlossen wird. Diese ist bei einigen Geräten tatsächlich kabellos mit dem Fernseher verbunden und man braucht am Fernseher nur noch ein sehr dünnes Kabel, welches zum externen NT führt. Ein gebohrtes Loch im Schrank und das Kabel, welches man zwischen den Standfüßen verlegen kann, verschwindet unsichtbar unter dem Fernseher. Es ist also durchaus möglich einen Fernseher frei aufzustellen ohne jegliche sichtbare Kabel
 
Fernsehen in 4k / 8k ist irrelevant in Deutschland. Gibt nichts und das, was es irgendwann in 10-20 Jahren gibt, wird irrelevant sein wie HD+ heute. Blurays oder vergleichbares sowie Streaming werden 4k oder 8k bieten - aber ich sehe den Unterschied Full-HD vs 4k nur aus nächster Nähe (ich habe einen Philips BDM40UC als Monitor in ca. 70cm Entfernung). Aus ca. 1,5 Metern sieht man kaum mehr einen Unterschied. 4k -> 8k wird nicht so einen großen Unterschied machen. Aber der 4k-Monitor ist durchaus nützlich: Spiele sehen schöner aus und man kann mit 4k-Auflösung mehr Fenster auf ein Mal sehen.
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles