iMac mit 8K: LG veröffentlicht Infos zu unbekanntem Apple-Rechner

Geht es um Displays, setzt Apple gerne auf das Know-how von LG. Jetzt hat der koreanische Konzern in einem Artikel zu hochauflösenden Displays vermutlich unabsichtlich auch ein neues Apple Produkt mit 8K-Auflösung angekündigt, das noch in diesem ... mehr... Display, Monitor, All-In-One-PC, Apple iMac Bildquelle: Apple Display, Monitor, All-In-One-PC, Apple iMac Display, Monitor, All-In-One-PC, Apple iMac Apple

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
Selbst als Entwickler bin ich der Meinung, dass 2k oder max 4k ausreichend ist. Ich benutze momentan einen 1200 x 1920 Monitor mit Pivot Funktion... Das einzige was ich mir hier wünschen würde wäre ein Monitor mit 1920 x 1920 was Eizo ja momentan glaub ich anbietet.
 
@b.marco: Man sollte hier die virtuelle Auflösung nicht mit den physikalischen Pixeln verwechseln. Ein 15" MacBook Pro wird ja auch mit 2880×1800 beworben, stellt seine Webinhalte aber dennoch nur mit virtuellen/logischen 1440x1400 Pixeln dar. Jedes logische Pixel besteht sozusagen auf vier dichteren physikalischen Pixeln, was dann eben für die nötige Schärfe bei Schrift und Grafik (sofern zB bei Webseiten zusätzlich vorhanden) sorgt.

Zudem kann man nicht pauschal sagen 2K oder 4K sind ausreichend. Es kommt immer auch aufs Verhältnis zur Monitorgröße an. 4K auf 15" wär übertrieben und Texte unlesbar, 2K auf 40" ist schon wieder matschig, da die Pixeldichte fürs menschliche Auge zu gering ist.

Auf "normalen" TFT-Monitoren kann man das im Grunde auf für Webinhalte gut simulieren, indem man im Browser auf 200% Zoom stellt - dann besteht jedes logische Pixel aus 4 physikalischen und man sieht logischerweise auch nur die Hälfte. Grafiken werden entsprechend matschig, da beim hochskalieren die nötigen Bildpixel fehlen. Hat man dagegen Grafiken, die zB als 200x200 vorliegen, aber nur als 100x100 eingebettet sind, bleiben sie trotz des Upscalings scharf, weil sie nun 1:1 ihrer Größe entsprechen - und das ist im Grunde das Prinzip eines Retina-Displays - nur dass durch die höhere Pixelzahl im Verhältnis zur Monitor-Größe (in Zoll) wieder eine relativ normalgroße Darstellung erreicht wird, wie man sie von normalen Monitoren gewohnt ist.

Was soll es auch bringen, native 8K auf einem 26-32" Monitor zu betreiben? Im Web würde man ohne Bildschirmlupe kaum noch was lesen können, würde man wirklich nativ 8K auf Bildschirmen unterhalb von 42 Zoll betreiben. Entsprechende TVs liegen bei 98 Zoll und aufwärts - erst da bringt es überhaupt was. Kaum ein Entwickler wird aber 98" Monitore verwenden. ^^

Und so wird das hier auch sein. Man bekommt mit Sicherheit weiterhin eine logische 4096x2160 Auflösung, die sich aus besagten 8K physikalischen Bildpunkten zusammensetzt. Was anderes macht im Bereich der Computerbildschirme im Prinzip auch gar keinen Sinn. Wird die nächsten 2 Jahrzehnte vermutlich eh keinen massentauglichen Content geben. Die erste 8K TV-Test-Ausstrahlung findet auch erst 2018 in Korea zu den olympischen Winterspielen statt.
 
8k wäre bei Apple untypisch, da man nur den Content in Original-Größe abspielen könnte, es aber kein Platz mehr für die Werkzeugleiste hätte. Wennschon 8,5 oder 9K wäre daher sinnvoll. 8K für den Apple Fernseher? Oder als Home-System? Virtuelle Tapete mit eigenen Fotos darauf? Mir wäre eh lieber, eine OLED Tapete, für meine 4 Wände. Frei konfigurierbar.
 
Ich glaube selbst der 5k iMac hat noch nicht überall Zustimmung bekommen. Was ich so von Fotografen gehört habe ist die Bilddarstellung zwar Atemberaubend und umwerfend und die Farben sind auch Toll ... beim Kunden sah es dann aber ganz anders aus.
 
@Rumpelzahn: Ja ich habe das Problem mit meinem Grafiker momentan.
Der hat sich nen 5K Monitor an seinen Mac geschnallt und es sieht echt gut aus aber nur bei Ihm.
Entweder ich bekomm die Grafiken hochauflösend und die Webseiten blähen sich auf oder man steuert es beim laden auseinander oder ich nehme bloß die FullHD Grafiken aber dann siehts auf 5k bescheiden aus.

Nichts desto trotz ist das halt irgendwo auch der normale Werdegang einer solchen Technik und der Umstieg auf 5k / 8K wird zwangsläufig kommen.
Für den Moment halte ich es aber für zu schnell.
 
@Welzfisch: "Entweder ich bekomm die Grafiken hochauflösend und die Webseiten blähen sich auf oder man steuert es beim laden auseinander oder ich nehme bloß die FullHD Grafiken aber dann siehts auf 5k bescheiden aus."

Verstehe ich nicht wie meinst du das ? Abgesehen davon, dass man Grafiken Auflösungsabhängig laden könnte. Aber wozu sollte man derart hoch aufgelöste Grafiken in Webseiten einbinden? Und warum sehen niedrig aufgelöste auf einen Monitor mit niedriger Auflösung besser aus als auf einem mit hoher Auflösung?
 
@daaaani: "Aber wozu sollte man derart hoch aufgelöste Grafiken in Webseiten einbinden?" Naja wenn du ne FullHD Hintergrundgrafik auf der Webseite einbindest und schaust auf 5K die Seite im Vollbild an, sieht es halt matschig aus.

Also wie ich sagt, entweder Mehraufwand durch auseinandersteuern oder Matschig auf 5K oder Ladezeit aufblähen.

Ich meine es ist ja normal, das irgendwann solche Grafiken für 5K ausgelegt werden müssen, genauso wie die Seiten aber im Moment ist das denke ich mehr responsive Aufwand.
 
@Welzfisch: Du redest aber offensichtlich von Bildschirmgröße als vielmehr von der Auflösung. Die Grafik hat ja so oder so diese "schlechte Auflösung". Oder meiste HD Grafik wird auf einem HD Bildschirm schärfer Dargestellt als auf einen UltraHD?

Und ohne media quries geht so oder so schon lange nichts mehr. Ist ja nicht nur eine Frage der Auflösung sondern auch der Bedienbarkeit auf Touch Geräten und so. Und da es keinen Sinn macht auf einen Smartphone die Grafiken eines Computers zu laden, musst du so oder so je nach Anforderung laden. Könntest zwar vieles mit Verktor machen, aber da scheiterst unter umständen an Mangelnder Unterstützung, bzw. deren excessive Nutzung wieder an Leistung und Speicherverbrauch.

Aber generell bedeutet ja Auflösung erstmal nur Detailgrad einer Sache. In dem Falle die Schärfe eines Bildes. Welches aber mit zunehmender Auflösung schärfer wird und nicht unschärfer.

Was dann wiederum bedeutet, dass wenn du die Seite, mittels Responsive Design so anpasst, dass sie bei einen 32 Zoll HD und 32 Zoll 5k den selben Bildschirminhalt nutzt, sie eigentlich völlig identisch ausschaut. Mit der Ausnahme, dass alles was Vektor ist wie Schrift etc. halt schärfer ist. Aber die Bilder an sich sind bei einen HD genauso unscharf wie auf einen 5k.

Womit du natürlich recht hast ist, dass du auf einen 5k durchaus Kompressionsartefakte sehen kannst für die der FullHD schlicht zu unscharf ist.
 
@Welzfisch: Tipp: ein Bild mit 72 dpi ist der Standardwert. Modernere Seiten mit großen Bildern bevorzugen 96 dpi.

Alles was mit Farbeinstellungen zutun hat ist die RGB Seite. Er müsste schauen ob er die Apple eigenen Farbwerte hat (Apple-RGB) oder die Adobe Werte (Adobe-RGB), gibt auch noch andere RGB Werte ODER er kann selbst kalibrieren. Kann in den Systemeinstellungen unter Bildschirm oder mit den Dienstwerkzeugen eingestellt werden.
Beim ext. Bildschirm würde ich noch auf die Paneleigenschaften schauen, je nach Panel hat es andere Werte und muss dementsprechend kalibriert werden. Ausgenommen die Eizo Schirme. Da wird jeder einzelne ab Werk kontrolliert und schon vorkalibriert (ist halt Made in Japan).
 
Mal ganz ehrlich, früher standen die Systeme für Leistung aber heute arbeitet es sich Zäh auf den meisten Apple Systemen. Zumindest die von meinen Kunden.
Es ist einfach nur noch Blendermarketing.

4k/60fps Videos auf Youtube laufen auf den meisten (allen Arten) Systemen noch nicht richtig und Apple schmeisst einen Komplettrechner mit 8K auf den Markt inkl. underpowerter Hardware, denn auch wenn man die Specs noch nicht kennt, kocht auch Apple mittlerweile nur mit Wasser.
Die Hardware auf dem Markt ist bekannt und es sind halt nunmal mittlerweile auch nur x86_64 Systeme. Also wird hier wieder mit "WoW-Effekt" geworben aber die 8K werden in langsamen zähen Systemen resultieren.
 
@Welzfisch: Das 4K nicht überall läuft ok, aber 60fps? Welches "aktuelle (< letzten 4 Jahre?) Gerät soll das sein was das nicht kann? Zumindest die Macbooks bekommen beim Refresh immer die neusten Intel CPUs/GPUs.
 
@Rumpelzahn: Sry war vielleicht missverständlich ausgedrückt: Youtube hatte 4k Videos mit 60fps vor kurzen eingeführt. Die meinte ich. Und da beißen sich aktuelle Rechner sogar noch die Zähne dran aus.
 
@Welzfisch: na - Probleme mit dem Videomaterial liegen aber eher an YouTube oder unterdimensionierter DSL-Leitung und seltener an der Hardware.
Und ja die Hardware von Apple und anderen x86-Plattformen ist vergleichbar.
Spätestens wenn du dir aber einen Hackintosh baust, wirst du feststellen dass man da eben keine Hardware von der Stange verbaut.
Zum iMac selbst - vor allem der 27"er ist der geilste und beste All in One Rechner den es überhaupt gibt; trotz einiger Steinchen die Apple einem legt.
Fehlt nur noch einer um die 32".......
 
@Welzfisch: Ich hab im Büro einen "alten" Mac Pro+ 27' Cinema Display und hier zuhause ein Macbook Pro Retina 15' Late 2013 + LG 34' 3440x1440. Das auch nur ansatzweise irgendwas zäh laufen würde kann ich absolut nicht bestätigen. Meine Hauptanwendungen sind FCX, Motion und die Adobe CC.
 
Ich kann den Schritt nur begrüßen. Ich kann auf meinem Handy keine Pixel mehr sehen und ich möchte gerne auf meinem Monitor auch keine mehr erkennen können.

Und genau für sowas Liebe ich Apple!
 
@daaaani: AM vesten gleich 100k oder? Dann Heiratest du Apple? Also ob du bei 2/4 K noch Pixel erkennen könntest...
 
@daaaani: Naja, allerdings ist die technische "Verbesserung" über "ich kann keine Pixel mehr sehen" hinaus schon recht fragwürdig. Und bei 4k/5k auf 27" wird es schon ziemlich dünn was den Nutzen der üblichen Pixelschlacht anbelangt. Nicht vergessen: idR hat man einen ca. doppelt so hohen Abstand zum Display als bei einem smartphone/tablet - da setzt der Visus dem Ganzen einfach natürliche Grenze. Sollten die 8k bei einem 32"-Gerät kommen - okay, nehm ich. Aber auf 27" ist das in etwa das Equivalent zum 50 MP-Sensor der Kompaktkamera.
 
@Stamfy: " Nicht vergessen: idR hat man einen ca. doppelt so hohen Abstand zum Display als bei einem smartphone/tablet - da setzt der Visus dem Ganzen einfach natürliche Grenze."

Immer diese Sinnlose Abstands Theorie. Monitore sind 10 bis 25 mal so groß! Teilst du das durch den doppelten Abstand, dann müssten sie immer noch eine 5 bis 12,5 mal höhere Auflösung als Handys haben um, für das Auge auf die selbe Pixeldichte zu kommen. Ist dir klar was das bei einem 27 Zoll bedeuten würde?

Und das erklärt auch wieso ich heute nach wie vor, trotz meiner Sehbehinderung bei der ich trotz Brille nicht auf 100% Sehvermögen komme, von Pixeln erschlagen werde. Und jeder der das Gegenteil behauptet Lügt oder ist blind.

Ich begrüße die Entwicklung weil sie da seit ende der 90er Jahre kaum was getan hat. Hab schon vor 2000 Quake auf 1800x1200 mit Röhre gezockt. Was eine höhere Pixeldichte ist als FullHD. Wegen einen bescheuerten Fernsehstandart ist die Computerentwicklung auf dem Gebiet stehen geblieben.

Habt ihr angst, dass euch die Schärfe ins schwitzen bringt oder warum seit ihr so dagegen?
 
@daaaani: Erstmal: die gängige Auflösung bei Röhren war 1600*1200. Hab ich auch gehabt auf meinem 21" CRT. Alles andere wäre auch kein übliches Seitenverhältnis gewesen. Dann: mein Handy hat so ziemlich ~450 ppi, ich hab ne Sehschärfe von 140%/130% (ja, das kann bei jedem Auge unterschiedlich sein) und erkenne keine Pixel egal wie nah ich rangehe. Ich wette mit Dir dass Du auf einen Meter Abstand bei 200ppi keine Pixel erkennen kannst. Anderes Beispiel: damit Du bei einem Full-HD-Fernseher Pixel wahrnehmen sprich alle dargestellten Informationen nutzen kannst musst Du bei einem ~50"-panel auf ca 1,8m heran. Ich gebe Dir einen Tip, gehe einfach mal in einen Laden und schau Dir UHD in der Realität an. Das ist bei 24" einfach nur unnötig. Bei 24" reicht auf übliche Distanzen WQHD völlig aus um die wahrgenommene grobe Auflösung gängiger Displays vergessen zu lassen.

P.S.: Eine Brille hat nichts mit dem Visus zu tun. Sollte auch selbsterklärend sein da eine Brille den Sehfehler ja korrigiert. Tut sie das nicht, hast Du ganz andere Probleme... und noch eines: ein Visus von 100% ist nicht sonderlich gut, er ist, je nach Alter, eher unteres Mittelmaß.
 
@Stamfy: Interessant einen Brillenträger die Funktion einer Brille zu erklären. Auf dem Rechtem Auge komme ich mit Brille auf 70% auf dem Linken auf 80%,abgesehen davon, das da noch andere Faktoren eine Rolle spielen, wie Verformung des Auges, Prisma etc., soviel dazu. Und die meisten Brillenträger kommen nicht auf 100%. Ich weiß das nahezu jeder da draußen der keine trägt denkt, dass eine Brille immer die 100% sehstärke wiederherstellt. Was aber eben nicht so ist.

Dann rede ich nicht von der Gängigen Auflösung sondern davon, dass ich bei 1800x1200 gezockt hatte. Und zwar deswegen weil es dazu mal eine Anleitung in einer Game Zeitschrift gab, wie man Quake dazu bringt. Dann weiß jeder der einen Solchen Monitor hatte, dass man da bei vielen Problemlos höher gehen konnte. Sollte man damals nicht machen weil man das Gerät beschädigen konnte. Ging aber trotzdem. Und dann war die mangelnde Leistung der Rechner aber eben ein Problem.

Und dann weiß ich nicht was du mir mit dem Handy erzählen möchtest mit seiner PPI. Des weiteren wirfst du hier alles durcheinander, Fernseher, Monitor und Handy.

Wo FullHD raus kam und es ja angeblich schärfer und dadurch besser war (was auch stimmt), da waren Fernseher kleiner. Da konnte man also die Steigerung sehen wohingegen du mir jetzt erzählen willst, dass man eine Steigerung bei 50 oder 60 Zoll nicht auf 4k oder höher sieht, welche aber das selbe Pixel Zoll Verhältnis widerspiegelt wie damals bei der Einführung von FullHD.

Dann solltest du auch verstehen (wie es aussieht nicht), dass man keine Pixel sehen muss um eine Steigerung der schärfe zu erkennen. Ich konnte das trotz Handycap bei 4k und 8k deutlich zu FullHD in jeden Elektronik Markt sehen. Wenn du Blind bist dein Problem. Im Prinzip willst du mir erzählen, dass es keinen Sinn macht von 30 auf 60 Zoll die Pixel zu erhöhen um eine Gleichbleibende Pixeldichte zu haben.

Und dann beziehe ich mich mit der Begründung ich könnte Pixel sehen ausschließlich auf Monitore, bei denen das trotz Sehschwäche eben so ist. Und keiner redet von 24 Zoll 8k oder so. Im ganzen News Text steht keine Zoll Angabe.

Ich habe hier einen 29 Zoll UW Monitor mit 2560x1080 und sehe Pixel! Ich sehe auch, dass das Bild nicht so scharf ist wie auf meinem 1920x1080 Surface und das wiederum ist nicht so scharf wie mein LG G3 oder mein altes Archos Platinum HD. Weil am ende die Auflösung ohne sie in Relation zu zur Bildschirmgröße zu setzen, nämlich nix aussagt. Und genau das Passiert bei dem FullHD Standart. Der sagt nämlich nix weiter aus, als das mein FullHD Surface und ein 22 Zoll FullHD Monitor oder einen 60 Zoll Fernsehe, gleich scharf sein sollen. Was sie aber nicht sind, da unterschiedliche Größe und betrachtungsabstand. In meinem 29Zoll UW passt das G3 mehr wie 4 mal in der Höhe und mehr als 4,5 mal in der Breite rein. Der Einfachheit rechnen wir mal mit 4 durch 2, da der doppelt so weit weg ist vom Auge wie das Handy. Also um für mich die selbe schärfe wie mein Handy zu erreichen, müsste er eine Auflösung von 5120x2880 Pixeln haben!

"ein Visus von 100% ist nicht sonderlich gut, er ist, je nach Alter, eher unteres Mittelmaß."

Danke ich trage seit dem Kindergarten eine Brille, damals war noch eine Seite Abgeklebt. Aber nun hast du mich ja aufgeklärt du Scherzkeks!!!
 
@daaaani: Anstatt Dich in Selbstmitleid zu ertränken solltest Du Dich lieber informieren, dann wüsstest Du auch dass der Visus mit dem Strahlengang in Deinem Auge - und nur darum geht es bei optischen Geräten wie Brillen - kaum etwas zu tun hat. Auch schön dass Du Dich darüber beschwerst dass Dein 29"-Monitor, welcher nichtmal in WQHD auflöst sondern einfach eine billige 21:9-Schleuder ist, grob auflöst, obwohl er nichts anderes ist als ein üblicher ~23"-Full-HD-Monitor mit angeklebten Seitenteilen - bildlich gesprochen. Und ja, das Surface ist deutlich kleiner bei derselben Auflösung, weswegen die Darstellung schärfer ist. Schau Dir mal einen Dell Professional P2416D oder ASUS VX24AH an und dann behaupte nochmal 4k auf 24" macht richtig viel Sinn. Aber was verschwende ich meine Zeit, wer Bildung nicht annehmen möchte, dem sei sein Wille gewährt.
 
@Stamfy: Wie ich schon vermutete bist du ein Scherzkeks.

Nein ich versinke nicht in Selbstmitleid. Keine Ahnung wo du das rein interpretierst. Vielleicht gehst du davon aus, das meine Sehsituation etwas zu bemitleidenswertes ist. Aber da kann ich dich beruhigen, ist es nämlich nicht.

Zitat Stamfy:
"dann wüsstest Du auch dass der Visus mit dem Strahlengang in Deinem Auge - und nur darum geht es bei optischen Geräten wie Brillen - kaum etwas zu tun hat."

Mal abgesehen davon, dass dieses Wort nur DU in den Mund nimmst. Besteht ja der Sinn einer Brille als Optisches Gerät nur darin, den Strahlengang so zu verändern, dass er auf der Netzhaut ein scharfes Bild zeichnet. Und von Sehschärfe rede ich!

Ausn Wiki für dich!:

Visus (Begriffsklärung): Visus (von lateinisch videre ‚sehen‘, ‚wahrnehmen‘) bezeichnet medizinisch: die Sehschärfe (lat. videre ‚sehen‘)

und

Mit Sehschärfe (auch Sehstärke, Visus, Acies visus, Minimum separabile) bezeichnet man das Ausmaß der Fähigkeit eines Lebewesens, mit seinem Sehorgan Muster und Konturen in der Außenwelt als solche wahrzunehmen. Zur Begriffsklärung bedarf es der Unterscheidung weiterer wesentlicher Merkmale.

Die Sehschärfe wird allgemein auch als Visus bezeichnet und stellt den Kehrwert des Auflösungsvermögens dar.[1] Beim Menschen wird sie mittels eines Sehtests bestimmt. Selbst kann man sie z. B. an freisichtigen Doppelsternen, den sogenannten Augenprüfern ermitteln.

Aber wie ich schon sagte, von Visus als Begriff redest nur DU. Ich denke in der breiten Bevölkerung sogar in der ungebildeten, geht man richtigerweise davon aus, dass eine Brille die Sehschärfe entweder wiederherstellt oder zumindest verbessert.

Ich weiß für dich als gebildeten Menschen klingt das Paradox, aber ich kann dir bestätigen, dass ich mit Brille wesentlich schärfer sehe als ohne!

Zitat Stamfy:
"Auch schön dass Du Dich darüber beschwerst dass Dein 29"-Monitor, welcher nichtmal in WQHD auflöst sondern einfach eine billige 21:9-Schleuder ist, grob auflöst, obwohl er nichts anderes ist als ein üblicher ~23"-Full-HD-Monitor mit angeklebten Seitenteilen - bildlich gesprochen."

Mal abgesehen davon, dass mein Monitor tatsächlich in die Jahre gekommen ist. Ist der der Wiederspruch deiner eigenen Aussagen nicht bewusst. Du bestätigst ja, dass die FullHD Auflösung eines 23 Zoll nicht ausreichend ist welches du aber immer als ausreichend hinstellst.

Und noch einmal für dich, ich habe mich niemals auf einen 24 Zoll 4k oder 8k bezogen. Also ist es mir ein Rätzel woher du diese Angaben nimmst.

Und nur weil du keinen Sinn darin siehst müssen es andere nicht so sehen. Du kannst ja bei deinen niedrig aufgelösten Monitoren oder so bleiben jedem das seine. Ich finde die Entwicklung hingegen gut und ich will genauso scharfe Monitore wie Handydisplays oder Fernseher.

Und in Bezug auf Fernseher ermöglicht mir die hohe Auflösung ja erst das Sinnvolle nutzen des Surface an diesem. Der hat nämlich auch ein Dock. Und da ich Unternehmer bin und mir auch abends oder Nachts dinge durch den Kopf gehen, passiert es öfters, ich da mal von der Couch aus mit Excel Tabellen Arbeite, oder Grafiken wegen Werbung durchgehe, oder Rechnungen durchstöbere.

Und noch einmal ich habe nie von 24 zoll und 8k gesprochen. Sondern einfach nur, dass ich die Entwicklung begrüße und ich schärfere Monitore haben möchte.

Zitat Stamfy:
" wer Bildung nicht annehmen möchte, dem sei sein Wille gewährt."

Ne schlechtere Bildung bzw. Gar keine nehme ich mir auch nicht an.
 
@daaaani: Nochmal in der Kürze: meine Aussage war dass 8k auf 27" keinen Sinn ergibt weil man keinen Unterschied zu 4k erkennen kann - das ist biologisch nicht möglich. Und ich sagte Dir dass 4k auf 23" schon sehr grenzwertig ist, man kann schon mit WQHD bei diesen Diagonalen wunderbare Ergebnisse erzielen. Was den Visus anbelangt: das was man allgemein unter Sehschärfe versteht IST der Visus. Wie Du so schön aus wikipedia zitierst. Letztendlich hast Du damit angefangen da DU mit dem Testergebnis Deines Visus hier Dinge begründet hast - und da kann ich Dir noch einmal sagen, dass eine funktionierende Brille den Strahlengang effektiv aus der Gleichung herausnimmt, entscheidend ist der Aufbau der Netzhaut.
Was Du da durcheinanderbringst ist der allgemeine Ausdruck des "scharf sehens/ unscharf sehens" den Du im Gebrauch Deiner Brille erleben kannst indem Du sie abnimmst. Das hat trotzdem wenig mit der Sehschärfe zu tun, diese ist ein fachlicher Begriff dessen Definition Du ja schon schön in wikipedia gefunden hast. Nur weil einige Menschen Dinge nicht verstehen werden sie dadurch noch lange nicht richtig.
Ich zitiere einmal: "Die Größe der Augen-Pupille begrenzt physikalisch die Auflösung des Augapfels, physiologisch sind es die Dichte der Rezeptoren (Stäbchen und Zapfen) und die Signalverarbeitung der rezeptiven Felder der Netzhaut. Die Auflösung erreicht ihren höchsten Wert bei maximal weiter Pupille und ausreichender Helligkeit im Bereich der Fovea centralis retinae („Sehgrube“)."

P.S.: Ich sagte dass bei 4k/5k auf 27" (aktuellen iMacs) die Grenze der Wahrnehmung erreicht ist. Du hast widersprochen, was zwei Dinge zulässt: mehr Pixel bei gleicher Diagonale oder gleiche Pixelzahl und geringere Diagonale.

Lies öfter mal ein Buch ;)
 
@Stamfy: "Was den Visus anbelangt: das was man allgemein unter Sehschärfe versteht IST der Visus. Wie Du so schön aus wikipedia zitierst. Letztendlich hast Du damit angefangen da DU mit dem Testergebnis Deines Visus hier Dinge begründet hast - und da kann ich Dir noch einmal sagen, dass eine funktionierende Brille den Strahlengang effektiv aus der Gleichung herausnimmt, entscheidend ist der Aufbau der Netzhaut."

Ich soll öffters mal ein Buch lesen da du den Zusammenhang zwischen verminderter und normaler Sehfähigkeit nicht verstehst? Die Auflösung der Netzhaut spielt in meinem Beispiel ja erstmal gar keine Rolle. Du verstehst also nicht, dass ich als Brillenträger (Sehbehinderter), der weniger Details (Schärfe) wahrnehmen kann als ein Normal sehender, Bei Aktuellen Monitoren Pixel wahrnehmen kann?

Dann erklärst du mir, dass eine Brille mit dem Visus nix zu tun hat? Nur weil du in deinem Kopf 2 Dinge durcheinander wirfst! Nämlich, dass die Sehschärfe und Auflösung zwei unterschiedliche Seiten ein und der selben Medaille sind!

Ich erkläre es noch einmal für dich. Wenn ich als sehbehinderter diese Details (Pixel) schon wahrnehmen kann, also die Auflösung meiner Netzhaut schon ausreicht obwohl durch einen Fehler in meinen Auge das darauf Projizierte Bild trotz Brille unscharf ist, dann erkennt ein Normal sehender Mensch sie erst recht!

Und ich rede dabei von Sehschärfe und nicht Auflösung der Netzhaut, die ja hier gar keine Rolle spielt, da sie ja für mein Beispiel ausreichend ist.

"das was man allgemein unter Sehschärfe versteht IST der Visus. Wie Du so schön aus wikipedia zitierst. Letztendlich hast Du damit angefangen da DU mit dem Testergebnis Deines Visus hier Dinge begründet hast - und da kann ich Dir noch einmal sagen, dass eine funktionierende Brille den Strahlengang effektiv aus der Gleichung herausnimmt, entscheidend ist der Aufbau der Netzhaut."

"Sollte auch selbsterklärend sein da eine Brille den Sehfehler ja korrigiert. Tut sie das nicht, hast Du ganz andere Probleme... und noch eines: ein Visus von 100% ist nicht sonderlich gut, er ist, je nach Alter, eher unteres Mittelmaß.

Und hiermit widersprichst du dir selbst. Auch von Strahlengang redest nur Du. Ich rede von einen Vergleich zwischen sehbehinderten (Brillenträger) mit verminderter Sehleistung (sehscharfe 70%) und einen normal sehenden Menschen. Bei einem Optischen Sinnesorgan in dem Falle Auge entstehen Details durch die Auflösung der Netzhaut (hast du richtig erkannt) und die Fähigkeit das eingefangen Licht auch scharf auf diese Netzhaut zu Projizieren. Und beides beeinflusst den Visus, nicht nur eins der beiden, wie du es hier gerne hättest. Abgesehen davon, dass etwas was den Visus beeinflusst auch eklatant für diesen ist!

In deinem Fall da du eine Normale Sehfähigkeit hast (nein du bist nix besonderes mit 130%-140% schließlich hat deine Netzhaut ja keine höhere Auflösung) bedeutet das, dass eine Steigerung der Sehfähigkeit nur noch durch eine Höhere Auflösung der Netzhaut möglich wäre. Welches aber in meinem Beispiel keine Rolle spielt.

Und noch einmal für dich. Eine Brille stellt so gut wie NIEMALS die normale Sehfähigkeit wieder her. Da sie starr auf dem Träger sitzt. Selbst wenn sie die Verformung des Auges oder Teile dessen völlig ausgleichen sollte, passiert das dann nur in der Mitte des Brillenglases und ist nur dann zutreffend wenn der Träger völlig geradeaus schaut, und der Abstand zum fokussierenden Objekt Fix ist! Oder anders gesagt: Die Linsenmitte müsste sich mit der Bewegung des Augapfels mit bewegen, und der Abstand der Linse müsste sich beim Fokussieren ebenfalls wie bei einen Objektiv einer Kamera verändern, oder der Linse im Auge verformen. Da ja funktionsweise der Linse im Auge dafür nicht ausreichend ist weswegen ja eine Brille erst notwendig wird, nur ist die eben Starr und Fix. Und das alter ist nur bei gesunden Menschen relevant! Sehbehinderte gibt es im jedem alter.

Auch schön das du mit Beispielen von Monitoren kommst die Gerade so auf dem Markt sind. Eine WQHD Auflösung ist bei Monitoren eine Lächerliche Steigerung zu FullHD. Aber wenigstens wäre es die selbe wie es mein G3 hat. Noch einmal ich muss nicht jeden einzelnen Pixel wahrnehmen können um eine Steigerung zu sehen! Meine schwester hatte ein 4,6 Zoll Handy mit HD und erkannte sofort, dass mein G3 schärfer ist. Würde man das auf Monitore Projizieren wäre man schon längst über die Auflösung, die du als noch registriert angibst! Man könnte auch anders Argumentieren! Diese ganze Theorie ist völlig belanglos denn ich weis ja was ich sehe!

Auch hab ich auf deine Aussage reagiert, dass ein Monitor ein Doppelt so hohen Abstand zum Betrachter hat wie ein Handy oder Tablet. Ich habe darauf lediglich gemeint, dass so ein vergleich Unsinn ist da er die größere Fläche des Monitors ignoriert! Auch ist deine Aussage zu den 50MP sind nicht Praxisorientiert. Da du auf einen 8k Monitor schon Details der meisten Kameras darstellen kannst, die du auf einen 4k nicht könntest. Nimm dir mal die Auflösung einer billigen Mittelklasse DSLR, dann wirst du feststellen, dass die schon höher als 4k ist.

Allgemein ist die Funktionsweise des Auges nicht vollständig erforscht man hat kürzlich erst weitere Sinnesrezeptoren entdeckt. Also lässt sich diesbezüglich eh keine Aussage treffen. Auch wird die Auflösung des Auges unterschätzt und Falsch weitergegeben! Denn die Maximale Auflösung des Auges welche immer herangezogen und falsch wiedergegeben wird, bezog sich auf ein bestimmtes Beispiel.

"Lies öfter mal ein Buch ;)"

Ich glaube nicht, dass du in der Lage bist mir Ratschläge zu geben. Oder anders ausgedrückt, dass ich zum schlechten Theoretiker wie du werde? ;)
 
Wie sieht das bei 8k aus?
Bei zb. 4 K Games auf nem PC hat man niedrige fps bei High end Karten....
8K ist doch net wirklich möglich oder nutzbar oder??

Also für Videos etc. ist die Grafikkarte doch voll an der Grenze oder?
Vom Sinn .. abgeshen..

Bei 22" denke ich werden die auch net ein 8K Display bauen.
Oled fänd ich interessanter...

Auf tvs kommt das aber auf monitore kann man warhscheinlich noch ne ewgkeit warten...
 
@Amiland2002: Du sollst ja keine Games in 4K zocken nur weil du einen 4K Monitor hast. Worin besteht denn der Unterschied auf einen FullHD Monitor in FullHD zu zocken und einem 4K in FullHD. Hast du Angst, dass du die Pixel dann schärfer siehst? xD

Und ja höhere Auflösungen brauchen mitunter mehr Leistung. Aber selbst Handys kommen mit hoher Auflösung klar wieso sollte es denn mein Desktop nicht schaffen?

Wenn man will wird der Inhalt eben nur schärfer. Wenn man aber aus Angst, dass die Leistung nicht reichen könnte (Games), dann aber mit niedrigerer Auflösung hantiert, dann ergibt sich doch kein Unterschied zu einem Niedrigeren Aufgelösten Monitor. Außer, dass ich auf dem die Bilder nicht schön scharf betrachten kann.

Was ist denn an einer höheren Auflösung so verkehrt? Wieso muss ich mich auf einem Monitor mit Pixel abfinden. Auf einem Handy aber nicht? Oder soll ich mich soweit von ihm entfernen, dass er auf Handygröße schrumpft und dann annähernd für das Auge die selbe Pixeldichte hätte?
 
@daaaani: Ich meinte ja nur was Hardware mäßig da geht..
Das das die Grakas an die grenzen stößt...

Natürlich macht das am Monitor mehr sinn..
Finde es bekloppt das Handy Dsiplays Full HD, 4k etc. bekommen und am Monitor Monitor kriegt es die industrie net gebacken oder jedenfalls net zu vernünftigen preisen.

Wer kauft sich denn einen 20.000 euro monitor von samsung, wenn ich nen 4k tv für 999 kriege..
 
@Amiland2002: 8K hat noch extrem viele Probleme in der Praxis: Es existiert derzeit z.B. kein 8k-fähiger Anschluss - erst DP 1.4(a) wird da etwas ändern und dann auch nur mit maximal 30 FPS. Damit reißt Du eh keinen Gamer vom Hocker ;)

Dann noch das von Dir ja schon angesprochene Performance-Problem: 4K bringt aktuelle Konfigurationen schon ins Schwitzen und die 4-fache Auflösung davon... Spätestens der RAM dürfte da zum limitierenden Faktor werden.

Da geht es um Themen wie Videoschnitt, Fotobearbeitung usw. Auch wenn selbst beim Thema Fotobearbeitung der Anwederkreis sehr eingeschränkt ist: Unter 40 MP Auflösung reizt Du das Panel auch nicht aus. Sprich: Nikon D8x0, Canon EOS 5Ds (R) und moderne Mittelformatkameras sowie verdammt gute Objektive sind da schon notwendig.
 
das user-unterface von osx ist sehr kompakt gehalten. da reicht 5K oder 3k aus.

unter Windows würde ich ob der Platzverschwendung mit gigantischen buttons und dem Meer aus whitespace die Notwendigkeit von 8K verstehen.
 
Es gibt keinen Content, aber Hauptsache hohe zahlen. Apple hat genug Schafe, die gerne geschoren werden wollen und massig Wolle liefern.
 
@Chris Sedlmair: Wieso sollte es Content geben, wenn es noch keine Hardware gibt, die diesen Nutzt? In der Regel wird eher andersherum ein Schuh draus. Wenn die Hardware bei der Masse angekommen ist, kommt der Content in der Regel immer.
Warum eigentlich immer so negativ bei allem?
Es zwingt dich keiner etwas zu kaufen oder zu nutzen. Es wird sich auch niemand darüber beschweren dass du veraltete Technik nutzt. Warum dann immer so hochnäsig denen gegenüber die Neuerungen erstmal offen entgegentreten?
 
@hempelchen: Gerade im Bereich Auflösung ist das Humbug. Es gab bereits vor der Digitalisierungswelle im Kino Auflösungen von 2k und 4k, als die Leute noch zu Hause brav in die PAL/SECAM/NTSC-Röhre schauten. Der Content war also bereits vorhanden, als HD, FullHD und Co in die Wohnzimmer Einzug hielten. Die Digitalisierungen werden in der Filmwelt outgesourced. Ich kenne da Leute aus der Branche. Ein "Selbständiger", der analoges Material in FullHD digitalisert, schafft mit seinem (teuren) Equipment 9 FullHD-Filme am Tag, aber nur 2 4K-Filme usw. Die Differenz schlägt sich aber nicht voll in seine Bezahlung nieder. Es wird selbst für das Mainstream Material noch Jahre brauchen, bis altes Material in ausreichener Quantität in 4K digital zur Verfügung stehen wird.
 
@Chris Sedlmair: Wir reden hier aber von Computer Monitoren nicht von Fernsehern. Das für die Monitore ein Fernsehstandart zu Marketing zwecken herangezogen wurde, ist ja der Grund weshalb seit dem die Entwicklung stehen geblieben ist! Auch ist es mir ein Rätsel weshalb seit FullHD jeder meint alles Nativ wiedergeben zu müssen wie Spiele, Videos, Bilder etc.? Früher war es normal spiele in einer anderen Auflösung zu zocken wie das Betriebssystem es nutzte. Auch wurden Videos nicht in der selben Auflösung wiedergegeben. Und trotzdem war eine solche Auflösung Sinnvoll. Heute aber urplötzlich nicht mehr. Heute muss alles in der Nativen Auflösung des Monitors vorliegen. Wozu nur? Was ein Quatsch. Und dieser Native Mist führt dann dazu, dass immer an der selben Auflösung festgehalten wird ohne Rücksicht auf die Bildschirmgröße! Auf einen 32 Zoll ist FullHD natürlich genauso scharf und Sinnvoll wie auf einen 60 Zoll. Was ein Quatsch. Dieses Stehenbleiben führt dazu, dass große Monitore nicht ihr Potenzial ausspielen könnte oder es überhaupt eine Weiterentwicklung gibt. Alles bleibt jetzt gleichbleibend matschig nur weil es mal von einem alten TV Standard zu FullHD mal wirklich mal eine Verbesserung gab.

Endlich tut sich mal wieder was!
 
@Chris Sedlmair: Das ist ein Computer und kein Fernseher. Glaube es oder nicht, aber man kann auch andere Dinge auf einem Computer machen als sich Videos reinzuziehen. Ich habe es früher auch nicht so recht glauben können, aber für Video-/Bildbearbeitung und Graphic Design ist eine hohe Pixeldichte unendlich hilfreich. Aber auch für andere Dinge die man gar nicht damit in Verbindung setzt hat es nur Vorteile, zB. Daten- und Signalverarbeitung. Plötzlich erkennt man auf Plots ohne reinzuzoomen viele Details, die sonst unsichtbar geblieben sind. Kleine Thumbnails lassen deutlich besser erahnen was der Inhalt ist, Schrift sieht endlich so aus wie auf dem Papier, was lange Texte deutlich lesbarer macht. Tatsächlich profitiert so gut wie alles davon--sogar Programmieren ist irgendwie angenehmer, da die Schrift schärfer und detaillierter ist und somit Verwechslungen von Buchstaben (1 und l, 0 und O etc) einfach nicht mehr passieren. Es ist einfach angenehmer für's Auge.
 
@nablaquabla: Und wieviele Apple User arbeiten wirklich in professioneller Weise, daß sie sowas brauchen? Bei Apple soll also wie bisher der Otto-Normal-Verbraucher die Profis subventionieren, nicht wie bei Microsoft und PC-Hersteller die Profis den Durchschnittskonsumenten Tolle Sache. Und jetzt beten wir... "Oh Steve Jobs in der iCloud, geheiligt werde Dein Apfel... Dein Ökosystem komme..." usw :)
 
@Chris Sedlmair: Was heißt denn schon "brauchen"? Ich kann 90% meiner Arbeit auch an einem 10 Jahre alten Rechner machen, ich bin mir ziemlich sicher. Alles würde ein wenig länger dauern, aber das übliche Rumgescripte/-programmiere, Webbrowsing und PDFs lesen würde auch problemlos auf einer älteren Kiste laufen. Aber warum schwer wenn es auch einfach geht? Ich schätze aus dieser Philosophie heraus werden die meisten Macs ohnehin gekauft.
Kommentar abgeben Netiquette beachten!

Apples Aktienkurs in Euro

Apple Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

iPad im Preisvergleich

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.