HDTV-Standard bremst die Display-Entwicklung

Monitore & Displays Der HDTV-Standard hat dazu geführt, dass die Weiterentwicklung von LCD-Panels massiv gebremst wird. Das beklagt Pete Brown, Senior Program Manager bei Microsoft, in seinem Blog. mehr...

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Mir sit auch schon aufgefallen, dass es kaum Monitore gibt, deren Auflösung über FullHD liegt. Die wenigen verfügbaren kosten dann ein halbes Vermögen - wäre schön, wenn sich hier etwas tut (Beim Arbeiten am PC kann die Auflösung gar nicht hoch genug sein).
 
@web189: Zur Zeit kenne ich nur den 27" iMac mit 2560x1440, die 30" Cinema Displays mit 2560x1600 und den 27" Dell Monitor mit der gleichen Auflösung des iMacs.
 
@John Dorian: Von Dell gibt es auch noch einen 30-Zöller mit 2560x1600.
 
@satyris: Ah ok danke, von dem hatte ich noch nicht gehört.
 
@John Dorian: Es gibt massenhaft Monitore mit mehr als Full-HD. Apple kam eigentlich relativ spät. Nur wie oben schon gesagt sind die sauteuer. Schau mal z.B. bei prad.de
 
@John Dorian: HP und NEC haben auch 30Zöller im Angebot mit einer Auflösung von 2560x1600
 
@web189: Leider. Und 16:10 ist auch schon so gut wie ausgestorben.
 
@BuZZer: Kann mich nicht beklagen finde haufenweise 16:10 . Für den PC eines der besten Formate .
 
@Menschenhasser: Also Haufenweise ist ein wenig übertrieben. Es wird weniger. Na ja das es besser als 16:9 ist ist klar, da mehr Platz.
 
@BuZZer: zum Glück.
 
@web189: Äh, hier geht es aber nicht um Monitore sondern um Panels bei LCD-Fernsehern und da kann ich dem Herrn nur zustimmen. Arbeiten an meinem 40" LCD-TV ist grausam, da man die Pixel einzeln zählen kann.
 
@neorayzor: Nein, eben das nicht. Es geht darum, dass die Entwicklung von PC-Monitoren stehen geblieben ist, weil sich deren Auflösung am TV-Standard festgesetzt hat.
 
@web189: Der Samsung 2343BW hat eine Auflösung von 2048x1152 und ist für unter 200 EUR zu haben
 
@hartex: Das ist aber ein billiges TN-Panel, das sich weder an Farbnormen noch an irgendwas anderes hält.
 
@web189: Und für mich ist FullHD immernoch nur n oller Trend :/
 
"...Die Technologie für deutlich höhere Auflösungen bei großen Displays sei also vorhanden..." Liegt vielleicht daran, dass es keiner bezahlen kann und will. Denn ein Bildschirm mit sechsfacher Fläche braucht dann auch sechs mal so viele Transistoren/Pixel. Damit steigt die Gefahr von Deadpixeln/Display während der Fertigung stark an => Hohe Kosten für das Display. Edit: Von den Minusklickern hätte ich gerne gegenargument, was an der Aussage nicht stimmen soll um eine vernünftige Diskussion zu führen.
 
@satyris: Die hirnamputierte Minus-Klickerei verstehe ich hier sowieso nicht. Ich denke, meistens geht es gar nicht um die Bewertung der Aussage, sondern jemand hat sich von jemandem auf den Schlips getreten gefühlt und rächt sich (gemäß Kapazität seiner grauen Zellen) dann wie ein Primat via Minus-Button. Denn logisch sind die Bewertungen hier hier schon lange nicht mehr (eher spassti-behaviour) :)
 
also bei den Fernsehern gebe ich voll recht- 52 Zoll und Full HD Auflösung, das sieht ja nur von weitem gut aus.
Bei BluRay-Natur-Dokus kann man nie Dicht genug vorm Fernseher sitzen! :P
 
@kafos: Ich glaube du hast nicht verstanden, worum es geht. Wo sollten denn bei deiner BR-Natur-Doku die zusätzlichen Informationen herkommen, wenn der Fernseher bspw. 3960x2160 Pixel hätte?
 
@satyris: ...die feineren Pixel würden das Bild bei näherer Betrachtung feiner aussehen lassen!
 
@kafos: Nein, würden sie nicht. Denn der Fernseher würde 4 Pixel (2 horizontale und 2 vertikale) nehmen, und vollkommen identisch darstellen, da ihm keine _unterschiedlichen_ Informationen für die Pixel vorliegen. Bei ungeraden Multiplikatoren wird es durch das hin und her skalieren eher noch schlimmer!
 
@satyris: für den TV schon. wie gesagt, aber wenn er sagt das windows mit höheren dpis arbeiten kann, dann wird es wahrscheinlich nicht nur skaliert.
tja so isses! @ satyris mit dem preis musst du nich kommen bitte. am anfang kosteten die flachbildschirme(TVs) mindestens 1000 euro..
und jz kricht man die für 500 nachgeschmissen. wenn genug entwickeln, und anbieten sinkt der preis. wie immer. konkurrenz.
 
@Sackmaus: Konkurrenz alleine ist nixht alles. Schau dir die Entwicklung bei Digitalkameras an. Je größer der Chip wird (z.B. Kleinbildäquivalent) um so weniger sind die Preise in den letzen Jahren gesunken. Es ist nun mal so, dass je größer die Fläche von Chips/Panels wird, die Gefahr eines defekten Chips dramatisch ansteigt. Und je mehr Transistoren auf der Fläche sind, um so mehr können theoretisch kaputt gehen. Natürlich wird das in Massenproduktion _günstiger_ aber eben nicht so günstig wie Panels mit "großen" Pixeln.
 
Mich würde mal die maximal vom menschlichen Auge wahrnehmbare Auflösung interessieren. Es muß doch da eine Obergrenze geben ab der das Auge keine Verbesserungen in der Auflösung mehr feststellen kann?
 
@jigsaw: Gibt es (und die variiert von Mensch zu Mensch und mit dem Alter) und die ist sehr stark vom Betrachtungsabstand abhängig. Daher sind 1920x1080 auf einem 46-Zoll-TV bei 3-5 Meter Betrachtungsabstand vollkommen ausreichend, beim 24-Zoll-Monitor mit 60 cm Abstand aber eben nicht.
 
@jigsaw: Das menschliche Auge hat ein Auflösungsvermögen von etwa 60 Bogensekunden oder eben einer Bogenminute.
 
@Artaios: Wenn ich davon ausgehe und die übliche Entfernung zum TFT in Betracht ziehe, müßten also Auflösungen jenseits 3000px problemlos möglich sein. Davon sind die meisten Displays aber noch weit entfernt.
 
Man kann einen Fernseher nicht mit einem PC-Monitor vergleichen, das sind meiner Meinung immernoch zweierlei Märkte. Zum PC-Monitor hat man max. 1 Meter Abstand, wenn nicht sogar weniger, zum TV mind. 2 Meter, wenn nicht noch mehr. Folglich würde eine noch höhere Auflösung bei einem TV wenig bringen, da man bei der empfohlenen und etablierten Entfernung zum Bildschirm nicht mehr sieht, ob die jeweilige Farbe durch 4 Pixel oder einem erzeugt wird. Meine Meinung.
 
@ReBaStard: du vergiiist den pixelabstand in deiner argumentation! gleiche pixelanzahl auf größerer physikalischer fläche bedeutet automatisch auch eine form von streckung. ist ja nicht so, das die pixel in quadratzentimetern angeordnet werden.
 
Ja ich finde es auch schade, die einzigen Monitore, die man momentan bekommt sind erschwingliche 1920x1200 Monitore.. Leider gibt es davon vielleicht nur noch so 3-4 Stück, die man direkt bestellen kann.
 
@gonzohuerth: Stimmt, inzwischen sind WUXGA fast schon ausgestorben und wurden durch 1080p ersetzt. WUXGA ist ja schon nicht mehr wirklich der Brüller, aber dann noch mal auf 120px zu verzichten ist schon mehr als lächerlich.
 
@gonzohuerth: Bin mit meinem 27'' Dell Ultrasharp ganz zufrieden :)
 
vielleicht sollte die entwicklung ja mal langsam hand an 64 bit farbräume anlegen. damit solche monitore auch für den privatgebrauch verfügbar werden. die auflösungen sind doch mittlerweile schon hoch genug meiner meinung nach.
gibt doch so einige dinge die an monitoren noch verbessert werden könnten.
 
@Viceinator: Jo, ne integrierte Keyboard-Beleuchtung wäre z.B. so eine Sache. Ist blöd wenn man sowas immer selber fummeln muß.
 
@Viceinator: Aus reinem Interesse: Wofür benötigt ein Privatanwender 64-Bit Farbraum? Ich persönlich hab noch nichts mit in 64-Bit Farbgebung gesehen, daher kann ich mir keinen Qualitätsunterschied zum 64-Bit Farbspektrum vorstellen.
 
@raketenhund: schau dir doch mal den unterschied von 16 und 32 bit farbraum an...siehst du da auch keinen unterschied? für privatanwender is das insofern interessant, wenn sie sich grafisch betätigen. ich selber arbeite auch mit photohop und anderen grafischen tools. photoshop selber bietet ja auch schon ne ganze weile die möglichkeit mit 64 bit farbräumen zu arbeiten, welche aber leider nicht wirklich genutzt werden können, weil sie keiner angezeigt bekommt. zumindest nich im vollen umfang.
 
@raketenhund: es wäre eben ein Ansatz um den Kunden wieder was neues und tolles zu verkaufen :D
 
@Viceinator: Die meisten Menschen können nur relativ wenige Farbnuancen unterscheiden. Ein 64bit Farbraum bringt da nichts. Das menschliche Auge nimmt aber Kanten sehr gut wahr, daher bringt eine höher Auflösung viel mehr. Lies mal Dokumentationen zum JPEG-Kompression, da kommt so etwas auch zur Geltung.
 
@Timurlenk: was hat jetzt jpeg damit zu tun? jpeg is doch nur auf maximal 24 bit ausgelegt wenn ich mich recht erinnere. kann man also gar nicht hiermit vergleichen. es is ja nicht nur der farbraum der dazkommt sondern steigt dadurch ja auch das kontrastverhältnis
 
@Viceinator: Die JPEG-Kompression reduziert die Bildinformation. Vereinfacht gesagt wird der Farbteil reduziert und der Strukturteil des Bildes erhalten, weil dieser für die Wahrnehmung viel wichtiger ist. Zum Arbeiten am Rechner wäre nicht ein großer Farbraum notwendig, sondern die Farbtreue am Monitor, damit später das Druckerzeugnis aussieht wie am Monitor (daher verkaufen sich die sauteuren Eizo-Monitore auch gut). Daneben wäre eine hohe Auflösung wichtig, da das Auge viel sensibler darauf reagiert als auf Farbschwankungen. Wieviel Farben der Mensch wahrnehmen kann ist umstritten. Die Angaben schwanken zwischen ca. 400.000 und 16 Mio., gleichzeitig unterscheidbar sind ca. 15 Farben.
 
@Viceinator:
Der Standard ist 8 Bit pro Ranal, das ergibt 24 Bit RGB Farbraum beim Monitor (Auch das Maximum bei jpeg). Die restlichen 8 Bit sind für Alphakanal, oder wird nicht verwendet. Bei CMYK würden die 32 Bit wieder voll benutzt.
RGB bei 16 Bit pro Kanal ergäbe einen 48 Bit Farbraum (64 mit Alpha) RGB bei 32 bit (HDR) ergäbe 92 Bit Farbraum (128 Bit mit Alpha).
 
@Viceinator: wo gibt es denn einen 64bit farbraum??? ich kenne zur zeit nur 8,16 und 32bit pro kanal! auch in ps cs4 sehe ich nur 32bit zur auswahl. hast du mal eine beispielsoftware?
 
@pinguingrill: immernoch photoshop! lies dir durch was runner_78 geschrieben hat, dann verstehste
 
@Viceinator: Was willste mit 64bit farbtiefe? Das Auge kann eh nur 24bit farben auseinanderhalten
 
@Mardon: Genau das. Geübte Leute können tatsächlich Helligkeitsunterschiede bei 8 Bit pro Farbkanal auseinenderhalten, was bedeutet daß man mehr Farben braucht damit das Auge keine Stufen mehr wahrnehmen kann.
 
"Alle Panel-Hersteller richten sich nach dem Kundenwunsch einer HDTV-Auflösung"____ Das ist doch Blödsinn.. der Kunde wünscht sich nicht mehr als 1920x1080, hab ich das richtig verstanden? Wenns Bildschirme mit höherer Auflösung geben würde (ausnahmen gibt es bereits natürlich), könnten die Kunden das auch kaufen.
 
@slave.of.pain: Genau, und wenn man BWL studiert hat schließt man messerscharf daß Dinge die sich nicht verkaufen auch nicht von den Kunden gewünscht werden. Und da keine hoch auflösenden Geräte verkauft werden... ;)
 
@Johnny Cache: höchstwarscheinlich weil die Preise noch im nicht bezahlbaren liegen. Von dem abgesehn habe ich noch keine/ fast keine Ankündigung von Displays mit viel größeren Auflösungen gesehn. Ps. Wenn beispielsweise neue Filme in neuen größeren Auflösungen angepriesen werden würden, dann würde mit Sicherheit sich auch die Nachfrage erhöhen. Habe eben mal nachgesehn... für LCD TVs ist 1920x1200 die höchste Auflösung (2 Bildschirme zur Auswahl), bei LCD PC-Bildschrimen gibts ca. 10 mit 26Zoll (2560x1600) zur Auswahl und da muss man min. 1500 Flocken hinblättern!
 
@slave.of.pain: Da ist der iMac ja günstiger mit 27" :D
 
@slave.of.pain: 1500 EUR für WQXGA während man für WUXGA inzwischen nicht mal mehr 200 EUR hinblättern muß. Da stimmt doch die Relation beim besten Willen nicht mehr.
 
@Johnny Cache: Bin ganz deiner Meinung!
 
Nur mal am Rande. Es heißt PPI (Pixel per Inch) und nicht DPI (Dots per Inch). DPI hat man beim Druck.
 
@Siniox: nicht unbedingt laut Wiki: "dots per inch, eine Maßeinheit für die Auflösung im Druck UND anderen WIEDERGABESYSTEMEN"
Prinzipiell hast du aber recht!
 
@slave.of.pain: da fehlt noch "siehe Punktdichte". Bei Computermäusen wird noch dpi verwendet.
 
@Siniox: Ich verstehe unter dpi auch den traditionellen Druckpunkt (rund), im Gegensatz zum Pixel (recheckig). Komme aber auch aus der Branche.
 
@Siniox: Selbst im Android SDK heißt es DPI also zick ma nicht rum :D
 
... und von der Graka wird nix erzählt. Wenn du ne billige hast bekommt du HDTV vllt mit max 65 Hz. Die müssen auch weiterentwickelt werden. Was bringt eine hohe Auflösung mit schlechter Bildwiederholungsrate?
 
@2fastRobby: hd mit 65hz? das erklär mir mal genauer bitte.
 
@2fastRobby: Mein 27''-TFT läuft nur mit 60Hz... auweia...
 
@2fastRobby: die bildwiederholungsrate ist bei lcd/tft monitoren eh fast nebensächlich - bzw. definiert nicht wie häufig das komplette bild erfrischt wird, meist wird das aber aufgrund des marketings dazu hergekommen, ein sog. 100Hz LCD-TV erreicht seinen wert meist wegen sehr guten refresh-raten der einzelnen pixel, nicht unbedingt dadurch dass das bild komplett erneuert wird (dafür ist viel mehr das angesclhossene gerät zuständig, wie zb. eine grafikkarte oder der output eines br-players). und was die grafikkarten angeht, erreichen aktuelle und günstige (hd3xxx+ oder nvidia ion) problemlos bildraten von 100+Hz auch bei full hd+
 
@slazer3rd: ohhhhje da hat das marketing aba voll zugeschlagen was? ein hd bild wird mit 50 hz ausgesendet, vollbild, quasi. 100hz heisst nur das 2 vollbilder hintereinander gelegt werden um das schlieren wegzubekommen. diese sind meist schwarz. 200hz heisst das es 4 bilder insgesamt sind.
 
@2fastRobby: Was genau versprichst du dir von einer höheren Bildwiederholrate bei LCDs?
 
@lawlomatic:
Eine besseres/ruhigeres Bild, wenn du eine Shutterbrille aufhast (mind. 120 hz).
Da es aber bereits TV mit 600hz gibt soll es wohl auch beim TV Programm bei schnellen bewegungen besser aussehen, weil eben zwischenbilder berechnet.
 
Ich versteh die Problematik nicht ganz. In anderen Ländern (z.B. Japan) ist man schon lange über 1024p hinaus. Sollen die doch dahin ihre besseren Panels verkaufen. In Europa stehen wir halt noch ziemlich am Anfang was solche Technoligien betrifft. Mit höhren Auflösungen würde man momentan nur erreichen, dass aktuelle Anwendungen am PC und TV-Sender noch matschiger aussehen und das will doch keiner. Was bringt es denn technologien zu entwickeln, die keiner haben will? Das ist doch absurd deshalb von "ausbremsen" zu sprechen.
 
Ist schon schlimm wenn der Kunde sich nicht jedes Jahr einen neuen Fernseher & Monitor kauft.
Wie grausam ist doch die Welt.
 
Auch wenn die Entwicklung stagniert, frage ich mich, was noch höhere Auflösungen bringen sollen? Das menschliche Auge dürfte fast am Ende sein, was die eigene Auflösungsaufnahme angeht. Wozu das ganze also sinnlos auf die Spitze treiben?eine Abbildung die realer als die Realität ist, geht nun mal nicht, egal was uns die Marketing Hampelmänner da weiß machen wollen.
 
@Rikibu:
Für TV Geräte ist das ja auch egal. Aber wenn du z.B. mal deinen Computer/Laptop an deine Fullhd Fersehen anschliest, wirst du feststellen, das das Bild sehr unscharf ist und nicht wirklich lesbar. Gut keiner verwendet jetzt ernsthaft eine > 42 Zoll als Monitor aber auch bei einem 28 Zöller währe eine höhere Auflösung schön.
Anderseits kannst du ja mut dem Fernseher ja auch ins Internet gehen (gibt eine TV Geräte die das eingebaut haben, oder einige Sat Receiver die das könnten) und auch da wirst du feststellen, das die Qualität bei der Textanzeige nicht optimal ist.
 
Wer von euch sich noch an die Zeit der Röhren erinnern kann, dem sollte auch aufallen das damals am PC sehr viele Leute mit Auflösungen jenseitz von Full HD gearbeitet haben. Wenn mein 24 Zöller net so riesig wäre und soviel Strom fressen würde, hätte ich den schon längst wieder angeschlossen. War am Anfang schon eine starke umgewöhnung mit dem 22 Zoll Flat wieder auf ein "kleine" größe zu wechseln.

Wobei ich auch sagen muss, das die Fläche eines 22 Zoll Flat für den 08/15 Anwender völlig ausreichend ist. Denn sein wir doch mal ehrlich, der "normale" Anwender arbeitet nicht mit mehreren Fenstern oder Programmen gleichzeitig.

Nachteil für uns "Nerds" ist halt der Preis der Monitore, welcher durch den Entwicklungsstop zu hoch bleibt. Daher würde ich im Momment eher zu einem 2. Monitor tendieren, um meinen Arbeitsplatz größer zu gestalten, was auf die Arbeit am PC sowieso effektiver ist. Einen großen Monitor würde ich mir nur noch kaufen damit ich endlich wieder von der Couch aus auf dem PC Videos schauen kann, ohne ein Fernglas nutzen zu müssen.
 
@SmallDragon: Die Umgewöhnung habe ich heute noch. Ich arbeite lieber an nem großen Röhrenmonitor als an nem LCD. LCDs sind mir zum arbeiten oft viel zu grell und stellen oft die Farben verfälscht dar... und HD Auflösungen können die eben genannten Unzulänglichkeiten eben nicht kompensieren.
 
@Rikibu: Das mit den Farben stimmt leider. Musste ziemlich lange sparen bis ich meine Röhre durch einen Farbverbindlichen Eizo ersetzen konnte.
 
@Rikibu: Erstell dir ein ICC Profil für dein Monitor. Wenn man dran arbeitet und die Farben wichtig sind sollte man das machen.
 
@Rikibu: Deine Röhre stellt ebenfalls die Farben standardmäßig falsch dar, nur eine Kalibrierung hilft. TFTs sind in der Druckvorstufe schon seit Jahren Standard geworden. Klar dass da 24" Analog-Display vom Lidl für 99,-€ nicht an ein Profigerät rankommt.
 
@SmallDragon: Klar, wieder den alten 24'' Röhrenmonitor rauskramen, der den halben Schreibtisch blockiert, mit 75Hz flimmert und Randunschärfen hat dass man denket man hat Fett auf der Brille ... Leute gibts.
 
BTW, Win kann damit umgehen! Was ist berhaupt die höchst mögliche Auflösung bei XP bspw..?
 
@legalxpuser: check mal deine grafikkarte, bestimmt kann die 2-tausend-nochwas.... xp kann glaub ich max 10 monitore "verwalten". wenn also ein monitor die megaauflösung hätte und 10 dvi-anschlüsse ... :D
 
ich behaupte das gegenteil. die auflösung bei panels ist insbesondere in den letzten jahren derart schnell nach oben geschossen, dass sich schon jetzt daraus einige probleme ergeben.in firmen sind immer noch lenovo notebooks recht verbretet. dort sind auflösungen von 1600 oder ähnliche keine seltenheit mehr. gleichzeitig wird aber immer noch häufig windows xp eingesetzt sowie diverse applikationen die kein sauberes skalieren von icons oder texten erlaubt und dementsprechend hat man dann entweder pixelmatsch oder fenster so groß, dass man eine lupe braucht.
 
ich weiß schon, warum ich 1920x1200 habe. Noch mehr wäre schon geil, aber dann müssten die Monitore auch perfekt runter skalieren. Weil selbst in FullHD zu zocken ist viel zu anstrengend für die meisten Grafikkarten...
... und genau darin sehe ich das Problem :-)
 
@lalanunu: diese auflösung ist ja soagr schon für das wunderteil von nvidia das absolute no-go lol aber auch amd müsste da nachlegen. 1920er tests werden ja vermehrt durchgeführt
 
Ich hab 1920 x 1080 und bin bei SPIELEN damit zufrieden mehr schaffen die meisten Grafikkarten(bis 300 Euro) bei Games eh nicht ... ich mein bei dieser Auflösung spielt mal das "alte " Crysis in very High und 8 fach AA mit AAA da kommt ne 300 Euro Karte auch grad mal auf 35 Bilder die Sekunde ( je nach Level und Art der Glättung) beim ARBEITEN ist mehr schon besser das stimmt und deswegen habe ich meinen Dektop auch erweitert mit nem 2ten Monitor den ich nicht missen will...das ist sogar besser als 1 großer weil man auf dem 1sten spielen und dem 2ten den Browser, Überwachungstools, Messenger etc.hat. Ich habe festgestellt das ne hohe Auflösung keine Kantenglättung/clear Type ersetzt (wie ich anfangs dachte als ich von 1280 x 1024 auf full HD umgestiegen bin) Außerdem hab ich den Monitor direkt vor der Nase ...da will ich keine 50 Zoll haben ...ist wie im Kino ganz vorne sitzen. Standarts behindern ist klar abe ich hab es immer wieder erlebt das "ältere "games nicht kompatibel sind zu hohen Auflösungen...
 
@Taleban: gegeb dir vollkommen recht! Bin mit meinen 1440 x 900 auch vollends zufrieden!
 
endlich wird auf das problem mal öffentlich hingewiesen. filme in 720p bzw. 1080p schauen ist großartig im vergleich zum alten fernsehformat. fürs browsen reichen aber zumindest 720p bei weitem nicht aus. stellt euren monitor mal auf 1280x720 pixel, dann springen einem die pixel ins gesicht. skaliert man die auflösung dann auf ein 40" bild hoch entstehen sogar unschöne darstellungsfehler wie weiße schleier um die buchstaben und die schärfe bei grafiken lässt ebenfalls sichtbar nach
 
@Lindheimer: Es geht hier nicht um Fernseher, sondern Computermonitore. Und einen 40-Zöller wird sich wohl kaum einer auf den Schreibtisch stellen.
 
@satyris: wieso nicht, ich kann ja mal mein 42" plasma hinstellen sind so ca. 50-60cm abstand. das is besser als jegliche drogen. :D
 
Sogar mein Notebook, welches ich 2006 gekauft habe bietet FullHD-Auflösung (17'', 1920x1200), obwohl es damals diese Bezeichnung noch garnicht gab, da hieß es noch WUXGA+.
 
@gorko122: Mit 1920x1200 bietet es ja auch MEHR ALS FullHD-Auflösung.
 
@satyris: ja, weil es ein 16:10 Displays ist und nicht wie FullHD 16:9.
Danke für die Minus...
 
iMac machts möglich. Aber alles gute zum 5500. ;)
 
Lindheimer die meisten Websites sind gar nicht für hohe Auflösungen gedacht....bei meinem Full HD Schirm hab ich rechts und links oft Leeraum oder Werbung viele Seiten sind 1024x768 Optimiert...das hat sich trotz Breitbild Noch nicht geändert
 
Als ich mir meine 24"er gekauft hab, dacht ich auch am Anfang "boah is der gross" und "warum sollte ich jemals was groesseres wollen/brauchen" und was ist jetzt? Ich liebe es einfach links zu surfen rechts andere sachen zu machen.

Man hat soviel mehr Platz ohne den Aufwand mehrere Monitore benutzen zu muessen(hab ich frueher auch getan).

Ich haett schon gerne nen bezahlbaren 30"er mit entsprechend gleicher dpi wie bei meinem 24"er.

Man braucht halt nen guten Windowmanager der den bildschirmbereich aufteilen kann, sonst is das hin und herschieben natuerlich nervig.
 
Wenn man in Windows den DPI-Wert verstellt bekommt man aber doch recht schnell Probleme. Zunächst mit Programmen, die die Einstellung ignorieren, später dann auch mit der Oberfläche von Windows selbst.
 
Irgendwie seltsam war es nicht Microsoft selber die mit WarnerBroth und wie die Filmhamster alle heißen diesen HDTV bzw.HDMI Kopierschutz eingeführt haben? Und jetzt beschweren wenn die Industrie kein Bock mehr hat unrentable neue Entwicklungen auf den Markt zu werfen...
 
@LaBeliby: Alles was außerhalb der festgelgten 1920x1080 Spezifikation liegt wird kaum noch eine Rolle spielen und dafür kann man sich noch viele Jahre bei o.g.bedanken!!!!
Kommentar abgeben Netiquette beachten!

Video-Empfehlungen

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles