Apple iMac mit 5K-Display vorgestellt - 5120x2880 Pixel auf 27 Zoll

Apple hat soeben den bisher hochauflösendsten Desktop-PC der Welt vorgestellt. Der neue iMac mit "5K-Retina Display" bietet bei einer Diagonale von 27 Zoll eine Auflösung von beeindruckenden 5120x2880 Pixeln. Grundlage ist ein in Zusammenarbeit mit ... mehr... Apple iMac, Apple iMac 5K Retina, iMac 5K Bildquelle: Apple Apple iMac, Apple iMac 5K Retina, iMac 5K Apple iMac, Apple iMac 5K Retina, iMac 5K Apple

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
5120 x 2880 Pixel müssten es doch sein oder?
 
@rain82k: haste recht, ist gefixt, danke!!!
 
@nim: Also bei mir steht da immer noch 1880 Pixel, sowohl im Text als auch im Titel?
 
@RayStorm: wenn dann mach ichs natürlich doppelt falsch... sorry. auch hier, gefixt und VIELEN DANK! manmanman
 
@nim: Gott sei Dank bekommst Du keinen Shitstorm von den ganzen Leuten hier. Gibt Leute, die hätten schon längst nen Shirtstorm einkassiert 1. weil es eine Mac News ist 2. weil ein Zahlendreher drin ist 3. weil man damit als Apple-Jünger abgestempelt würde :-P
 
@Mactaetus: Ich glaube, aus dem Alter sind wir alle (zumindest die meisten) hier allmählich raus ;) Außerdem, es ist ein PC wie jeder andere, da kann man die Auflösung schonmal geil finden, egal welches Betriebssystem läuft. Aber ja, son bisschen freu ich mich ja, dass man heutzutage auch entspannt damit umgehen kann, wenn ich mich im Eifer des Gefechts mit dummen Fehlern blamiere ;) Übrigens: Die Überlegung, darauf Windows laufen zu lassen, verwerfe ich mangels sinnvoller Scaling-Möglichkeiten der meisten Desktop-Anwendungen mal schnell wieder ;)
 
Nicht schlecht das Ding. Bildqualität ist bestimmt sehr geil. Aber der Preis ist schon heftig. Der Mac dürfte hier bestimmt auch so 2500 Euro kosten. Da merkt man einfach, dass die Produktion solcher Displays recht kostenintensiv ist.
 
@Darksim: ja tut er - Retina bekommst nur auf dem 27 Zoll imac und kostet 2500 Dollar (Eur). Ordentlicher Batzen geld - der der Bedarf hat macht das Geld auch sicher locker....ich habe den Bedarf nicht ;)
 
@Hinweis: Ich hätte den Bedarf sogar ("high ppi fan") ;-). Aber als Spieler ist ein normaler PC immer die bessere Wahl. Ich möchte eben nicht nur arbeiten an einem PC. Der iMac ist un bleibt aber der wohl beste All in One PC auf dem Markt.
 
@Darksim: ja - als Gamer haste auf nem Imac nicht viel verloren.
 
@Hinweis: Naja, es geht schon. Eine Ideallösung ist das aber mit Sicherheit nicht.
 
@Darksim: ja gerade wenn man bedenkt, bei nem 5k Display - da muss ordentlich was geschupst werden.
 
@Hinweis: Wenn ich kurz was dazwischen Husten darf :-) Im Mac App Store , also dem in McOSX integrierten Programme Store , findet man ohne gross suchen zu müssen. eine ganze Menge von hochwertigen Titeln. Von Call of Duty, über Tombraider, SimCity, Grid2, Hitman, Rahmen, StarWars, Diverse Lego Titel und vieles mehr ist eigentlich da schon ein gutes Mass erreicht. Zudem gibt es STEAM wo man auch absolute TopTitel laden kann. Und es gibt Minecraft das dank Java überall läuft. Und es gibt viele Konvertierungen von absoluten Top Titeln aus iOS für den Mac. Und zu guter letzt bleiben einem noch all die Emulatoren auf denen man gefühlt Millionen von games zocken kann für alle erdenklichen Systeme. Also besonders was den MacAppStore und STEAM betrifft und die vielen tollen Konvertierungen und die Emulatoren, lassen den "Vorwurf" der Mac sei nicht zum games, irgendwie alt aus sehen :-) Wer "RICHTIG" zocken will. ich spreche hier zB von Destiny, oder GTA V oder WatchDogs usw, der greift im Normalfall zu einer Konsole seiner Wahl. Schon nur wegen dem grösseren Screen ist die Spielerfahrung da geiler :-) Trotzdem ich halte fest. Auf dem Mac lässt sich ganz schön zocken :-)
 
@vectrex: Du, es bleibt einfach dabei:

Zockerkiddies haben kein Geld für Macs. Die bleiben bei billigen PCs aus Plastik. Weil sie sich keinen Mac leisten können, müssen sie alles - aber wirklich ALLES diesbzgl - schlecht machen was damit zu tun hat. Sonst würden Sie ja irgendwann doch damit spielen, es sich kaufen zu wollen, aber da fehlt nun mal das Geld für.

Was ich aus langjähriger Erfahrung sagen kann: Während Ihr alle 2 Jahre aufrüstet und Geld für eine Grafikkarte ausgebt, arbeite ich mit meinem iMac 6-8 Jahre lang. Dann kaufe ich mir was Neues. Ganz einfach.

Aber grundsätzlich haaagelt es hier nur so von Minus Klicks, wenn man nur etwas Pro-Apple schreibt, denn die Zockerkiddies nehmen SOFORT alles persönlcih (bis sie irgendwann später mal merken werden, dass die Welt sich doch nicht um ihren Microkosmos dreht).

Und jetzt... lieber Kinder... lasst es Minus hageln. Mir egal. Hauptsache es wurde mal gesagt. Lese ja schon die ganzen letzten Berichte über iPhones, Apple, iPad hier und finde es lustig, dass über das iPhone-Biegen das Kindermaul zerrissen wird, aber über das biegbare Samsung Note 4 kein Wort verloren wird LOL
 
@Mactaetus: Sorry Macs sind einfach nicht zum vernünftigen Spielen geeignet. Ich finde Mac OS X echt toll und die Hardware auch aber spielen ist auf den Dingern einfach nur ein Krampf. Das fängt bei generell niedriegeren Framerates an und hört bei den maßlos überteuerten alten portierten Spielen in Mac App Store auf. Dazu kommt noch fehlende Skalierungseinstellungen und das Deaktivieren der Mausbeschleunigung.

Und das hat auch nichts mit Geld zutun. Jeder Fünfjährige kann sich heutzutage ein Hackintosh bauen.
 
@vectrex: schon mal CAll of Duty auf nem Mac Mini gezockt? Und im iMac wird wohl kaum Platz für zwei SLI sein, oder? Du bist auf OnChip Grafikkarten reduziert, da willst du nicht zocken. Einen PC kann ich jederzeit aufrüsten. einen Mac leider nicht (GraKa, CPU, PCIe Erweiterungskarten...)
 
@Mactaetus: ich bleib auch dabei, Mac ist einfach überteuert für die Leistung. Da kaufe ich mir lieber einen Dell UltraSharp 27 Ultra HD 5K, mit dem ich auch noch Pivot machen kann und den schliesse ich mir einfach an meinen PC an. (mit Pivot kann ich nämlich auch hochkant geschossene Bilder in hoher Auflösung anzeigen lassen und bin nicht an den Formfaktor gebunden, wo ich ein Hochkantfoto wieder nur mit 1880 anzeigen kann). Denn wir "Zockerkiddies" können unsere PC's nämlich selbst zusammenstellen und sind nicht auf die Vorgaben von einem Konzern angewiesen. Aber dankbar bin ich Apple trotzdem, denn jetzt sollten auch ruckzuck einige brauchbare 5k fähige Grafikkarten kommen.
 
@vectrex: Ich zocke auch auf meinem Imac. Und die Spiele die es für den Mac nicht gibt starte ich per Parallels. Und wenn da die Leistung nicht reicht einfach per Boot Camp. Und dann ist mein Imac nichts anderes als ein PC...
 
@Mactaetus: Und genau dieser Durchfall ist der Grund wieso man Apple-Jünger wie dich einfach nur verachten kann.
Absolut von oben herab und sich auch noch selbst widersprechend...

Erst haben die PC Spieler kein Geld für iMacs und dann rüsten sie doch wieder alle 2 Jahre auf. Ja was denn nun?

Und es tut mir leid, WENN aktuelle Spiele für Mac erscheinen WÜRDEN, kommst du mit deiner überteuerten 6 Jahre alten Mühle nicht mehr hin. Und wenn der Mac eine Spieleplattform wäre, müsstest du eben alle 2 Jahre einen neuen Mac kaufen, statt ihn einfach aufrüsten zu können.

Du siehst, wenn es ums Gaming geht kann der Mac einfach nicht mitspielen Punkt. Das hat nichts mit "kein Geld dafür" zu tun, nicht im Geringsten.
 
@Draco2007: Du, ich habe Windows bei mir laufen, für den Fall, dass ich mal was Spielen muss, und spiele aktuelle Spiele perfekt flüssig mit den höchsten Settings ;-)

Von daher...
iMac ist schon extrem geil. Und das tollste: Ich muss nicht alle 2 Jahre aufrüsten. Um den Widerspruch noch mal zu erläutern: Upgraden ist nicht so teuer wie neuen Rechner kaufen.

Ich verdrehe halt weiterhin die Augen, wenn ich die ganzen Kabel sehe, sämtliche uneinheitlichen Gerätschaften dran, Webcams, Soundboxen, etc.
Da lobe ich mir einen iMac, der auch noch wunderbar im schön designten Arbeitszimmer aussieht. Perfekt.

Und Spielen kann man am besten auf einer COUCH mit einer PS4 ;-) und nicht am Arbeitsplatz. Aber seien wir mal ehrlich: Die Zockerkiddies arbeiten ja nicht ;-) Daher ist der Schreibtisch "noch" ein Spielplatz. Ändert sich aber vielleicht (es sei denn... sie werden Lagerarbeiter... gibt's auch sehr sehr viele) :-)
 
@Mactaetus: Du kannst deiner Oma erzählen, dass du mit einem 6 Jahre alten Mac aktuelle Spiele in den höchsten Details spielen kannst...das glaubt dir absolut niemand.
Selbst wenn Apple wirklich nur High End Komponenten verbauen WÜRDE (was nicht der Fall ist) wäre ein absoluter High End Rechner von vor 6 Jahren technisch nicht mehr in der Lage aktuelle Spiele auf optimalen Einstellungen zu rendern.
Wenn du das willst musst du, wie schon gesagt, alle 2 Jahre einen neuen Mac kaufen und DANN bist du im ein vielfaches Teurer als einfach nur einzelne Komponenten auszutauschen.

Ich würde übrigens behaupten, dass alle 2 Jahre aufrüsten oder alle 6 Jahre einen Mac kaufen so ziemlich auf das gleiche rauskommt. Aber nur EINS davon eignet sich fürs Zocken. Kabel hin oder her.

Sollte das Zockerkids an mich gehen? Will ich dir nicht raten...
Ich arbeite nur nicht ZU HAUSE, sondern AUF DER ARBEIT....
Und zu hause steht nunmal ein guter Rechner im Wohnzimmer, mit Anschluss an den TV...
Damit sowohl gemütlich auf der Couch spielen, Serien/Filme schauen oder auch am Schreibtisch etwas "ernsthafteres" spielen, was eine Maus und eine Tastatur erfordert.

Aber ja ich bin voll das Zockerkid...
 
@Draco2007: Yup, bist Du :-)
 
@Draco2007: lass ihn... @Mactaetus widerspricht sich schon wieder und Ahnung scheint er auch keine zu haben. Erwiesenermassen gehört die Gruppe der Zocker zu den intelligenteren Gruppierungen. Der schöne Pernhart mit seinem schönen Büro und seinem schönen Schreibtisch und seinem schönen Mac sitzt dafür vermutlich alleine in seinem schönen zu Hause. Wer sonst nichts wird, wird eben Mac Käufer... ist doch auch was.
 
@b.marco: Ich zocke gern PS4 ;-) Von daher... :-P
 
@Mactaetus: und seiner schönen PS4... so schön...
 
@b.marco: Ist sie auch :-)
 
@Mactaetus: Hm, die ist ja gar nicht von Apple... das ist ja doofe... ich hab ne XBox, somit kann ich MS treu bleiben.
 
@b.marco: LOL. Kannst Du. Wenn Dich Markentreue so geil macht. Muss halt auch Loser geben, die Flopkonsolen kaufen. Ich sehe das entspannt. Bleib nur wie Du bist. Man muss sich ja auch vergleichen können ;-)
 
@Mactaetus: tja, wer die Ironie dahinter nicht erkennt, ist selbst schuld. Sorry, ich sehe nur einen markentreuen Schreiberling hier, du hättest vermutlich auch eine schöne Apple Konsole, wenn es sowas gäbe. Aber mal aus Neugier, du bist bestimmt auch ein Dortmund Fan, oder? Oder im Moment nicht?
 
@Darksim: Auflösung ≠ Qualität ≠ Bildschärf
auch wenn die unglaublich hohe Pixeldiche sicher ein gutes Bild abgibt.
Wer's braucht, hier gibts das Display dafür: http://www.engadget.com/2014/09/05/dell-5k-ultrasharp-display/
 
Mit 2500 US Dollar aber schon so teuer wie der gesamte iMac. Jetzt frage ich mich gerade wer hier das bessere Preisleistungsverhältnis hat. :p
 
@Darksim: Meine Frage stellt sich dann noch, ob der Mac nicht wieder ein Spiegel-Display hat oder endlich mal Matt wie der Dell.
Ausserdem kann man an den Dell Monitor einen PC anschließen ;)
 
@frust-bithuner: Den PC müsste ich aber anschaffen. Auf dem iMac kann ich auch Windows installieren.
 
@maatn: versuch doch trotzdem mal einen ordentlichen PC an diesen iMac anzuschließen... Damit meinte ich nicht irgenwelche kleinen Spielzeuge sondern vernünftige Workstations mit mehreren CPUs und viel viel Ram und GPU-Leistung. Die passt ja noch nicht in diesen Monitor rein
 
@frust-bithuner: Dazu müsstest du dir dann halt den Power Mac kaufen, der ja auch ein echtes Schnäppchen ist ^^
 
@Darksim: du verwechselst Euro mit Dollar... kann schon mal passieren in der Euphorie... Damit kostet der Dell nur noch 1950 Euro und ist ganze 600 € günstiger...
 
@b.marco: Glaube ich kaum. Der US Dollar Preis dürfte noch ohne tax sein. Somit ist er also noch teurer. Deshalb übernehmen die meisten Hersteller die Preise auch 1:1 in Euro. Glaube mir, sollte der Monitor zeitnah hier erscheinen, wird er auch hier zumindest anfangs ähnlich viel kosten wie der angegebene US Dollar Preis. Übrigens ändert auch deine Antwort nichts an meinen oben geschriebenen Kommentar, Der Dell Monitor kostet in US Dollar genau so viel wie der komplette, kleinste iMac mit "Retina" 5k Bildschirm. Beide rund 2500 US Dollar.
 
@Spector Gunship: im iMac ist das Display dafür eingebaut !
 
@vectrex: cool... ist dein Display defekt, hast du auf einmal gar keinen Rechner mehr. Ist dein Rechner kaputt, hast du auch keinen Bildschirm mehr. Sehr cool... Ich kann immerhin notfalls einen günstigen Bildschirm hinstellen und weiter arbeiten, bzw. einen anderen PC oder Notebook am Monitor anschliessen, wenn dieser betroffen ist.
 
@b.marco: Apple Jünger ist das bestimmt nicht wichtig, da sie ja noch 2 Jahren wieder in der Reihe stehen und sich etwas neues anschaffen.

Sieht man ja an den Kommentaren, wenn beim Iphone der Akku nicht zum Wechseln ist.

"Für was brauche ich das, wenn ich nach 1-2 Jahren sowieso ein neues bekomme..."
 
@Darksim:

ein mac wie ich ihn zum arbeiten verwende kostet als 5k Imac 3200 €. aber was kostet ein prof. bildschirm mit 4k? Unter 900 € geht da nicht wirklich was und nen i7 mit r9m295x und hybridspeicher für 2300 € gibts auch nur wenige am PC Markt. Der Preis ist fair! das ist selten bei Apple.

frage ist nur, wie ist kommt die benutzeroberflläche der cs6 mit retina zu recht.
CS Cloud wird weiter boykottiert!

edit:
das einzige was nervt. das apple bluray-brenner boykottiert und man auf externe brenngeräte angewiesen ist und so der arbeitsplatz ständig voll ist mit externen geräten (backup-festplatte + usb brenner)
 
@Darksim: Dell 27" 5k display = $2500

Apple Retina 27" iMac = $2500. Also ein Computer for Free :)
 
Respeckt, geile Keynote
 
@Razor2049: diese Keynote konnte man wenigstens fast störungsfrei via VLC schauen
 
@frilalo: diese keynote war auch bei apple direkt, was die ganzen meckerheinis von der letzten einfach nicht schnallen, denn diese war NICHT bei apple
 
Dell Ultrasharp 5K scheint das einzige Gerät zu sein, das ein vergleichbar gutes Display bietet. Aber es ist nur ein Monitor. Das ist hier ist wohl der erste All in One PC mit so einer Auflösung. Habt ihr nicht gejammert, Apple würde nur hinterherhinken? Siehe da! *g*
 
@gola: der soll angeblich 2500 usd kosten - nur der schirm.
 
@bst265: iMac ist all in One PC! Retina Display mit iCore 5 etc ab 2500 USD.

Der Preis ist aber noch annehmbar für das Display bzw. den PC ;)
 
@rain82k: mein ich ja - der schirm ist im Verhältnis zum imac sehr teuer
 
@bst265: Naja es geht... Man muss sich nur das Verhältnis zu den MacBooks mal anschauen. Vergleich zwischen Retina und nicht Retina sind schon enorm. Mit so ein Preis hab ich schon fast gerechnet aber 200-300 USD günstiger wäre mir lieber gewesen :)
 
@rain82k: Immer noch dieser Retina-Kram? Retina hat auch nur Pixel...naja. Ich denke jedenfalls, dass der Dell-Bildschirm für wesentlich weniger als den 2500k€ UVP über die Ladentheke geht. Zum UVP-Preis verkauft doch kaum ein Laden, oder irre ich mich da?
Außer Apple-Stores
 
@gola: Schon echt beeindruckend, das Ganze. Würde ich nicht nach wie vor hin und wieder mal gerne und leidenschaftlich einige Spiele zocken, hätte ich damals meinen iMac (einer der ersten 27er) auch behalten.

Leider hing die Leistung meinem Desktop-PC doch sehr deutlich hinterher. Heute spiele ich zwar nicht mehr ganz so häufig wie damals, aber nach wie vor immer wieder mal. Irgendwie schon eine Zwickmühle das Ganze. Denn zwei Rechner will ich auch nicht hier stehen haben. :D
 
@RebelSoldier: Mir geht es ähnlich. Ich habe mir immer meinen spielefähigen Windows Rechner zusammengestellt und gebastelt, weil ich gerne zocke. Deshalb kam ein iMac nie in Frage. Obwohl ich das Gesamtkonzept sehr stimmig finde. Mit dem neuen Display würde sogar noch ein Kaufgrund hinzu kommen. Aber ein reiner, leistungsfähiger Arbeitsrechner, so wie es der iMac nun einmal ist, reicht mir nicht. Da hilft es auch nicht, dass etwa 20% aller Spiele auch für den Mac erscheinen. Als Spieler ist das zu wenig. Einzige Lösung wäre vielleicht noch Windows zusätzlich auf dem Mac zu installieren. Dann würdest du das beste aus beiden Welten kombinieren. Dann bleibt im Grunde nur noch der Nachteil, dass ein i Mac nicht aufrüstbar ist, was ihn gerade als Spiel Plattform relativ schnell schlecht dastehen lässt.
 
@Darksim: Das hatte ich damals auf dem ersten 27er genau so gelöst (Windows per Bootcamp installiert).

Hatte aber zwei entscheidende Nachteile:

1. Du musstest halt immer erst Windows booten, wenn du was zocken wolltest (damals hatte ich Phasen, da bin ich direkt beim Einschalten schon in Windows rein und den ganzen Tag dann da auch geblieben).

2. Die Leistung der damaligen Grafikkarte war zu schwach, um Spiele in nativer Auflösung ordentlich darzustellen. Wenn ich aber die Auflösung runter gestellt habe, fühlte sich das komplette Spielgefühl relativ schwammig an.

Eine Lösung war es dann, das Spiel im Fenstermodus auszuführen. Das hat aber auch zusätzliche Leistung gekostet und war jetzt auch auf Dauer nicht wirklich schön anzusehen.

Irgendwann habe ich mir dann einfach meinen Desktop-PC wieder aufgebaut inkl. Monitor. Später habe ich dann einfach bemerkt, wie ich immer häufiger direkt am PC saß und der iMac eigentlich immer weniger lief - so dass ich ihn dann schlussendlich wieder verkauft habe.

Und gerade jetzt mit der 5K-Auflösung wird das 100% wieder genau so werden. Die iMacs sind halt keine Zocker-Maschinen. Und da ich mich aber auch nicht mit einer Konsole anfreunden kann, bleibt es vorher erstmal beim "Schön wär's gewesen".
 
@Darksim: Boot Camp oder Steam In Home Streaming
 
@Razor2049: Das streaming Angebot von Steam wäre natürlich auch noch eine Möglichkeit. Damit habe ich mich bisher noch nie wirklich befasst.
 
@Darksim: ich auch erst die woche und war bisl verwundert wie gut das funst, da kann man sogar ne hässliche windoof dose in den keller verbannen und echt alles flüssig zocken
 
5k und ne Laptop-GPU. Macht echt Sinn...
 
@Knarzi81: Oh, was zu meckern gefunden? Glückwunsch.
 
@Givarus: er hat nunmal recht.
 
@gface: Für 2D Anwendungen wird das wohl reichen. Auf so einem Gerät spielt man keine 3D Spiele. Wobei - geht Display-Port Input bei dem Gerät noch? Dann könnte man ja auch einen High End Gaming PC anschließen :-)
 
@Givarus: Ja, ich dachte ich versuchs mal auf deine Weise und such das Haar in der Suppe. ;)
 
@Knarzi81: ich vertraue da der Computerfirma etwas mehr als Dir ;)
 
@Knarzi81: Das wird wohl der Baugröße und Kühlung geschuldet sein. Mit ner Desktop GPU wären Wärme- und Lärmemission sicher zu groß
 
@EffEll: Das weiß ich schon. Ich frage mich halt nur, ob die Leistung ausreicht, damit ich alles machen kann, was ich normalerweise mit nem Rechner für 2,5k machen würde. Die M290X hat jetzt nicht wenig Leistung, aber 5k ist eben schon ne ordentliche Hausnummer und die benötigte Leistung wächst ja nunmal exponentiel mit der Auflösungserhöhung.
 
@Knarzi81: Klar kannst du damit alles machen, ist ja prädestiniert für Bild-, Video- und Grafikanwendungen. Falls du das Zocken meinst, ist doch eh ein Mac und da würde sich ein Windows PC natürlich mehr anbieten. Allerdings, wenn man überlegt, was man sich für das Geld zusammenstecken könnte? Wenn man sich dazu allerdings noch nen =/>4K Monitor zukaufen muss, sieht das schon wieder anders aus, da bleibt nicht viel übrig... Skaliert in 1080p sollte man allerdings auch alles zocken können. Wäre mir mit aa und hohem af eh lieber als nativ ohne. ;-)
 
Sieht toll aus - braucht kein Mensch... Mal ehrlich.. Wer zahlt heute noch 2500.- für einen PC? Schon die 1700.- für die *nicht-5k-Variante* sind meiner Meinung nach übertrieben...
 
@frilalo: bin auch für einen 200 euro schrottschirm mit einer Blechdose als computer. wer braucht schon einen "schönen" all in one auf dem schreibtisch, wenn´s auch mit billigsten kabelsalat geht.
 
@bst265: Wer Wert auf schöne Geräte legt, kauft aber eh nicht bei Apple. Die Dinger sind ziemlich hässlich, spätestens wenn sie angeschaltet sind und man das Betriebssystem sieht.
 
@TiKu: de gustibus non est disputandum
 
@TiKu: Bist du die Frau aus diesem Artikel?
http://www.news.de/panorama/855401929/kuriose-krankheit-frau-sieht-alles-auf-kopf/1/
Das würde einiges erklären.
 
@TiKu: immer wieder lustig, wie du gebetsmühlenartig apple schlecht Redest.
Zeig mir eine alternative für einen Grafiker, NUR EINE zu diesem Preis nochmals nur EINE!
BTW manche haben geschmack und du halt nicht. Hast halt pech gehabt. Wenn du irgendwann mal deine Applehassbrille ablegst, wirst auch du das erkennen.
Aber dazu müsstest du wohl mehrere Sitzungen bewältigen.
 
@Fanel: Wenn du Bildbearbeitung machst, wirst du damit aber auch nicht glücklich. Der oben mehrmals genannte Dell hätte immerhin Pivot und könnte auch hochkant stehende Bilder hoch auflösen. Und einen PC mit der Leistung bekommst du allemal für wenig Geld.
 
@Fanel: Also... ohne allzu lange zu schauen hab ich z.B. das hier gefunden für den gleichen Preis, dafür 31" LG Electronics 31MU97-B schwarz 4096x2160 2xHDMI 1.4/DisplayPort 1.2/Mini DisplayPort 1.2
und eine Terra Workstation 6100 Mini PC.

Auch dieser Monitor hat Pivot und ist somit auch bei hochkant Bildern dem 5k vom iMac überlegen.
 
@Fanel: ok, ich hab mich getäuscht, das von mir vorgeschlagene System kostet über 400€ weniger als der iMac. Viele Apple Befürworter sehen diese Geräte durch eine rosarote Brille und sie reden sich den Preis dieser Geräte schön. Ihr zahlt zum einen für den Namen und zum anderen für das Design.

Ich hab Yosemite auf einem Mac Mini installiert und da prangert ganz gross als Werbeslogan, dass es das Fortschrittlichste Betriebssystem der Welt ist. Wo bitte ist dieser Fortschritt? Nur weil ich mein Handytelefonat am Mac annehmen könnte, wenn ich wollen würde?! Das ist ein nettes Feature, was jedoch niemand nutzen wird.
 
@frilalo: Immer dieser "braucht kein Mensch"-Unsinn. Was braucht man schon wirklich? Aber manche Dinge sind nun einfach schön zu haben.
 
@adrianghc: Recht hast du! Hätten wir früher auf die "braucht kein Mensch" Fraktion gehört, würden wir wahrscheinlich noch immer auf Pferden umher reiten.
 
@Darkspy: Oder wir hätten die Ozeane nie verlassen - Beine? Braucht kein Mensch! :D
 
@ZappoB: Ist die religiöse Verblendung in der Apple-Kirche so groß, daß man Apple-Geräte-Benutzung Teil der biologischen Evolution sieht? Schon die Behauptung, das sei Teil des kulturellen, zivilisatorischen und technologischen Fortschritts der Menschheit, ist mehr als gewagt...
 
@Chris Sedlmair: Ich weiß nicht, wo ich mich so missverständlich ausgedrückt haben könnte?! Es war die lustig gemeinte Überspitzung auf Darkspys Pferde-Metapher. Verblendung mag richtig sein, nur auf wessen Seite... Hass scheint mehr zu verblenden, als dir lieb sein kann.
 
@ZappoB: Ich hab schon verstande... ;)
 
@frilalo: wenn du mal ein iMac in der größe zu Hause hast, willst du eigentlich nichts mehr anderes haben. Ich seh den Preis gerechtfertigt bei der Qualität die man geliefert bekommt. Den iMac kann man nicht unbedingt mit ein Desktop PC vergleichen.
Ich sag mal so, wer das Geld dafür hat der Kauft sich so einen ohne über den Sinn nachzudenken oO
 
@rain82k: 2500€ um Facebook aufzurufen wäre mir zu teuer ! ;)
 
@CvH: Dann empfehle ich ein iPad :P...
 
@frilalo: Na ja, Leute im 4k-Video-Editing-Bereich? Aber da würde ich dann doch eher zu ner Workstation greifen, wo die GPU mehr Berechnungen übernehmen kann.
 
@Knarzi81: ich kann Dir sagen, der bisherige iMac 27" war super für Full HD Editing ausgelegt, da wird auch der neue Retina iMac super für 4 K ausgelegt sein.

Sicher, Apple spricht mit der iMac Linie sicher nicht die Vollzeitfilmemacher an. Der Kunde dieses iMacs ist eher ein Format wie die Bergsteiger Reinhold Messner oder Ueli Steck, die mit 4K Semiausrüstung Ihre Bergtouren machen , dann zu Hause das Filmmaterial für Ihre Vorträge fit trimmen. oder wenn ein Shaun White seine Extremtouren mit seinem Board + Go Pro 4K absolviert.
 
@Knarzi81: Dafür gibts Thunderbolt 2. Da werden zwei FirePro drangehängt und fertig ist die Kiste.
 
@gutenmorgen1: Warum kaufe ich mir für den Preis dann nicht gleich ne Workstation und nen 5k-Display? Da kann ich dann auch Bedarfsabhängig Sachen tauschen und nachrüsten, wenn was nicht geht.
 
@Knarzi81: Weil ich auf meinem Schreibtisch keine Workstation rumstehen haben will?
 
@Knarzi81: Weil die Apple-Variante günstiger ist?? ;)
 
@gutenmorgen1: Aber 2 Firepro die dann daneben rumliegen oder wie? Ne Workstation stellt man auch nicht auf den Schreibtisch. :P
 
@Knarzi81: Die zwei Grakas können auch in einem anderen Raum liegen, Thunderbolt-Kabel gibt es mit bis zu 60 Metern.

Ich möchte eben keine fette Workstation unter oder in meinem Schreibtisch stehen haben. Ich brauche den Platz für andere Sachen.
 
@Darkspy: Nö, es geht um Rechner plus externe Grafikkarte. Er hat von 2 AMD FirePros gesprochen, welche er per Thunderbolt anschließen will. Rechne die mal mit drauf. Solche sind dann nämlich wenn es sie mal gibt, auch gleich noch mal garantiert mindestens 500 Euro teurer, als deren PCIx-Petants.
 
@Knarzi81: Die Grakas bleiben die selben. Er wird wohl einfach PCIe Slots im Gehäuse via Thunderbolt anschließen. ;)
 
@frilalo: ja sehe ich ähnlich - für den normalen Privatanwender dabeim ist das uninteressant - für den Professionellen Fotografen etc ist das durchaus interessant. So ein Use Case haben sie auch im Video gezeigt - da lief nicht unbeabsichtigt keine fröhliche Apple Familie rum. :-)
 
@Hinweis: also die Fotografen die ich kenne sagen alle das der Bildschirm zum Professionellen Bearbeiten nix taugt (wegen Farben + Ausleuchtung). Es soll ja noch Leute geben die sich einen Mac kaufen weil das Fotobearbeitung viel besser geht wie am PC ;)
 
@CvH: kann ich nicht mitreden, da nicht mein metier
 
@frilalo: ICH meiner hat 2800 gekostet^^
 
@Razor2049: toll... :P Nur als (unnötiger und völlig nicht zusammenhängenden) Vergleich...für den Preis kriege ich in der Schweiz ca. 18 Nokia Lumia 630 (Dual Sim) ^^
 
@frilalo: back dir ein EIS:)
 
@frilalo: Ich hab mir direkt nach der Vorstellung einen bestellt...
 
@frilalo: Alle die, welche Qualität und Langlebigkeit in Verbund mit optimalem Nutzererlebnis zu schätzen wissen. Mein MacBookProRetina mit allem drum und dran hat mich über 4200 CHF gekostet ! Aber das Ding ist noch so wie am ersten Tag, obschon es bereits 2 Jahre auf dem Buckel hat ! Unverwüstlich, da knarzt nichts. die SSD rennt und das Retina Display ein Traum! Und weisst Du was. Das Gerät hält locker nochmals 2 Jahre. So gesehen sind das ca 1000 CHF im Jahr bzw ca hoch gerechnet 3 CHF am Tag! Weisst Du was ein Zigaretten Päckli kostet ? Ich bin nicht rauchen, keine Ahnung, aber ich behaupte mal mehr als 3 CHF ! Anders gesagt, es geben Millionen Raucher mehr für Ihre täglichen Zigaretten aus als mich der MacBookPro am Tag kostet ! Und da kommen solche wie Du denen sogar 2500 Euro zu viel sind ! Wie lange hält dein plastik billig PC vom Aldi ? Und vor allem weisst Du für wie viel ich den MacBookPro nach 4 Jahren Nutzzeit noch verkaufen kann ? Da krieg ich vermutlich mehr für als dein PC jemals gekostet hat ! Was die Rechnung also nochmals relativiert! Anders gesagt, auch wenn es Dir zu teuer ist. Den Kostenfaktor überschätzt Du völlig !!
 
...dafür war ich schon am Dead Horse Point.
 
Damit wäre der iMac endlich wieder kaufbar. Da man mit einem All-In-One das Display für alle Ewigkeit kaufen muss fand ich die letzte Generation schon seit längerem nicht mehr kaufbar. Der Preis ist für das Gebotene noch sehr human finde ich.
 
@Givarus: ich hab gar keinen Desktop PC mehr - nur noch nen Laptop. Bei mir wrde es ein Macbook air, da er für mich perfekt ist. Und das Teil habe ich ständig dabei.
 
Der iMac könnte meinen 2008er ablösen... ;-) Und bei unimall.de gibts noch ein paar Prozente... :-D
 
Das display ist schon beeindruckend , und für den betroffenen Benutzerkreis sicherlich attraktiv. Ich fand aber bei der Keynote den Check mit dem Security Mann echt saulustig - mein Highlight auf der Keynote :-). Achso und um den Rest mal abzuküren. Yosemite kommt heute und ist we gewohnt kostenlos, iOS 8.1 ab Montag.
 
@Hinweis: ja das video fand ich auch den brüller bitte mehr davon. Entgegen den Nörglern find ich die Keynotes nur noch super derzeit und sie bauen eigentlich immer was zum lachen ein. Sehr Sympathisch
 
@Razor2049: Die Sache mit der Android-Fragmentierung hätten sie meiner Meinung nach bleiben lassen können und die Decknamen-Geschichte fand ich eher peinlich. Aber der Security-Spot hat mich vom Stuhl gerissen.
Ist das Yosmite-Update bei euch schon im Store?
 
@gutenmorgen1: Ich find Seitenhiebe auf Android immer gut;)

Ne ich glaub ich hab schon 1000mal den Update button gehämmert:) Leider noch nicht da:(
 
@gutenmorgen1: nee noch nicht - sie sprachen ja im Laufe des Tages und bei denen ist ja grad mal Mittag ;) Die Decknamen Geschichte war mir auch etwas zuviel. Der Schluss Gag hat mir aber wieder gefallen......gehen Sie gefälligst zurück zur Arbeit, denn wenn ich mein Handgelenk ansehe....sehe ich nur ein Handgelenk ;)
 
@Razor2049: der Jobs war halt bei den Präsentationen echt ne Marke, extrem gut. Cook ist grauenvoll langweilig - seit der letzten WWDC lassen sie das Gott sei dank mit den 1000 Statistik Charts, die der Cook da immer vorgetragen hat. Nun versucht der ein paar Gags, ist aber nicht der Typ dafür. Aber auf jeden Fall besser als früher. Und Mr. Zitterhand hat heute wieder alle Ehre bewiesen. Nicht am Trackpad, sondern wie er das iphone gehalten hat bei der Demo - sehr sympathisch :-)
 
@Hinweis: ich möchte dich mal sehen vor paar 100 man und in dem wissen das Millionen zusehen wie du ein gerät hältst:)

noch nie wohl ne Präsentation gehalten aber die welle machen?
 
@Razor2049: was flippst du denn so aus? Ich habe doch geschrieben, dass ich das sehr sympathisch finde, da es eben nur menschlich ist. Komm mal wieder runter, meine Güte
 
@Hinweis: Naja, zumindest macht er sich mittlerweile deutlich besser als früher. Er ist eben ein BWLer und hatte als er bei Apple angefangen hat wohl kaum damit rechnen können, dass er eines Tages so im Mittelpunkt stehen muss.
Zu Jobs gesunden Zeiten hat man von Cook ja nie etwas gesehen.
 
@gutenmorgen1: ja das stimmt - vom auftreten her können sie gegensätzlicher kaum sein. Aber ja es wird besser und er lockerer.
 
Muss man das nun verstehn das die unbedingt ein schiefes format "neu" " erfinden"
gibt doch 4k und auch 8k.
:s
 
@Finsternis: 4K für den Inhalt +1K für die Navigations und Bearbeitungsleiste der Anwendung. gleiches Beispiel beim bisherigen iMac mit dem Full HD.
 
@AlexKeller: interesannt^^ das man quasi mit 4k arbeitet und rest is von tools bedeckt.
wenns dabei bleibt ok
 
@AlexKeller: Ist trotzdem Schwachsinn, wie die Vergangenheit beweist. Derart hat sich schon bei Monitoren nicht durchgesetzt. Früher hat's auch die 16:10er gegeben, nun fast nur mehr 16:9er.
 
@Lofi007: Wen interessiert es denn was sich durchsetzt und was nicht? Das macht die Lösung von Apple nicht schlechter, wenn die nicht den selben Krempel verbauen wie andere Hersteller.
 
@Lofi007: kann ich dir nicht sagen was sich durchsetzen wird, meine Glaskugel reicht nicht so weit in die Zukunft ;-) vielleicht hast du ein besseres Modell.
 
@Finsternis: der bisherige 27" iMac hatte 2560x1440 ... je X- und Y-Auflösung wurden verdoppelt. Computerbildschirme sind nicht von TV-Standards abhängig.
PS: es ist wohl wieder ein meinungsloser Minusklicker unterwegs gewesen
 
@Finsternis: zumal 1440p(2560x1440) ja gerne 2k genannt wird -> 2880p(5120x2880) = 5k i see...
 
@Wumps: wird von einigen zwar so genannt aber es is ja nicht ganz stimmig
720p *4 entspricht 1440p
1080p *4 entspricht UHDV-1 (~4k)
2160p * 4 entspricht UHDV-2 (~8k)
deshalb 5k verwirrt bissel
 
Wow! Als Grafiker und Leidenschaftlicher Fotograf kommt man da schon sehr ins schwärmen. Für den Fortschritt bin ich Apple in vielerlei Dingen sehr dankbar.

Aber was ich nicht verstehe ist wie man bei der Auflösung auf 14,7 MP kommen soll? Ich komme auf 9,6. Ahhhh war nen Schreibfehler vom Autor. ^^
 
@daaaani: 5120x2880=14745600
 
@frust-bithuner: Anfangs stand da aber 5120x1880. War, wie ich geschrieben hatte ein Fehler vom Autor.
 
Bei dem Preis kann ich mir Vorstellen, dass der Kosten/Nutzen-Faktor nur bei einem farbgetreuen Cinema-Display Sinn machen würde, den sich ohnehin nur Profi-Werkstätten leisten, die den Preis bezahlen und bezahlen können. Retina im Print-Gewerbe ist ja mal mehr als sinnvoll.
 
Retina hin, Retina her... es ist nichts anderes wie ein IPS Bildschirm, wovon es bereits dutzende auf dem Markt gibt.
 
@McClane: Nur halt mit einer Auflösung, die es meines Wissens nach bisher nur in einem anderen Display gibt...
 
@Wurst75: da Apple die Bildschirme nicht selber her stellt werden da wohl bald auch andere kommen. Logischerweise wird Apple den Zuschlag für die ersten dieser Art bekommen, denn niemand sonst wird so einen großen Absatz dieser Displays bieten können.
 
@CvH: Dell Ultrasharp 5K gibt es mit der Auflösung schon vor Apple ...
 
@Rumpelzahn: Imac ist ab nächster Woche Lieferbar. Wo kann ich den Dell Ultrasharp schon kaufen? Nirgends? Na dann gab es das wohl doch nicht vorher...
 
@Fanel: Klar, seit September kannst den schon kaufen;)
Aber wer sich nicht erkundigt, kann nichts finden :D
 
@McClane: Schau an nen schlaumeier, na dann: Wo kann ich mir den Dell 5k Monitor kaufen, wenn alle Quellen sagen dass er erst ab Ende des Jahres Verfügbar ist?... unglaublich
 
@Wurst75: +1..aber fraglich, wer so eine Auflösung WIRKLCH braucht ;)
 
@McClane: sicher kannst Du mir auch dutzende Links zeigen anstatt einfach Behauptungen aufzustellen.
 
@Hinweis: google mal IPS+apple... findest du bündelweise die Infos
 
Ganz toll. Damit und mit dem ebenfalls angekündigten 5K-Monitor von Dell könnte ich dann nach 8 Jahren Wartezeit endlich ein Foto meiner 10MP-DSLR in Gesamtansicht ohne Qualitätsverlust auf einem einzigen Display darstellen.

Das nützt Leuten mit aktuelleren Kameras aber wenig. Selbst 70EUR Kompaktkameras kommen heute schon mit 16MP-Bildern daher (auch wenn die Bilder keine echte 16MP-Auflösung haben und somit qualitativ minderwertig sind und nur Speicherplatz verbrauchen - was man ja heute selbst von Vollformat-DSLRs mit mehr als 16MP kennt - aber sie haben eben derart viele Pixel) und selbst die qualitativ noch miserableren Handykameras kommen schon mit Auflösungen heraus, die auch kein 5K-Display mehr darstellen kann.

Bilder von aktuellen DSLRs der 40MP-Klasse wird man sich erst recht noch jahrelang nur in mieser Qualität ansehen können, da es eben auf absehbare Zeit keinen bezahlbaren Monitor mit auch nur 40 Millionen Pixeln auf dem Display geben wird (und wenn es den gäbe, könnte man die Bilder darauf immer noch nicht anzeigen, wenn der Monitor 16:9-Format hat statt 3:2 bzw. 4:3). Da fragt man sich, was Privatleute heute mit diesen DSLRs tun, wenn man deren Bilder gar nicht wirklich betrachten kann? Oder drucken die tausende Erinnerungsfotos dann Pixel-des-Fotos-auf-Pixel-des-Druckers mit mehreren Metern Bilddiagonale aus, wenn sie sich ihre Fotos mal in guter Qualität, d.h. ohne Skalierungsartefakte ansehen wollen?
 
@nOOwin: ich glaub, da hat einer das Fotografieren mit hoher Auflösung nicht verstanden. Wenn ich ein Foto für Bildschirmanzeige optimiere, habe rechne ich die Auflösung runter auf 1-3 Mpixel. Reicht ja auch vollkommen. Immerhin sind da bei Hi-Iso-Aufnahmen das Rauschen einer Kamera stark reduziert. Will ich zB eine Plakatwand oder was auch immer bedrucken, dann muss die Auflösung einer Kamera immer deutlich höher sein, als das Produkt. Ausserdem lässt eine hohe Pixelauflösung auch eine nachträgliche Bearbeitung besser zu. Alleine das Freistellen oder Gerade Ausrichten macht sich mit ein paar Pixel mehr schon mal ganz gut.
 
@frust-bithuner: Eher ist es umgekehrt, Plakatwände haben eine geringere Auflösung als wie z.B. Flyer. Unrecht hat er mit seiner Argumentation nicht. Computer Monitore hängen der technischen Entwicklung weit hinter her. Und das liegt hauptsächlich daran, dass die etablierten Computer Hersteller, genug Geld mit den alten Mist in neuer Verpackung machen.

Nix was er sagt ist in irgendeiner Hinsicht falsch, eher denke ich, dass du ihn nicht verstehst. Mehr Pixel bei kleinem Sensor bringt dir garnix auch nicht beim freistellen oder sonstigem bearbeiten! Da kannst du auch ein Bild hoch skalieren und hast das selbe Ergebnisse!

Und wenn du einen großen Sensor hast, dann hast du eben auch bei hohen ISO werten ein geringeres bis gar kein Rauschen. Oder glaubst du die machen die Sensoren bei z.B. Vollformat Kameras aus spaß 10 bis 20 mal so groß.

Auflösung hat nix mit Qualität zu tun! Und würde die Kamera gleich mit deinen 1 - 3 MP aufnehmen wäre auch weniger Bildrauschen da ohne, dass du es erst runter rechnen müsstest! Und würdest du es dann hochskalieren hättest du das selbe Ergebnis wie bei kleinem Sensor gleich Hoch Pixelig auf zu nehmen. Vermutlich sogar mit weniger Rauschen. Es ist und bleibt reines Marketing mehr nicht.

Und er redet davon sehr detailreiche Fotos am stück auch in diesem Deteilreichtum zu betrachten. Weiß nicht was daran falsch sein sollte? Fakt ist, dass gute Kameras ein Deteilreichtum und schärfe bieten, welche heutige Monitore nicht wirklich darstellen können. Dass es in der Fotografie und im Design nicht immer darum geht den deteireichtum auf Monitoren dar zu stellen hat mit seiner Aussage nicht das geringste zu tun!
 
@frust-bithuner: Immerhin habe ich verstanden, dass bei pixelbasierten Bildern das Aufnahmesystem mit dem Wiedergabesystem von der Pixelmenge, Pixelanordnung und Pixelform her identisch sein muss um eine qualitativ hochwertige Wiedergabe bieten zu können. D.h. Bilder hoch- oder herunterzuskalieren verbietet sich von selbst, da dabei die Qualität IMMER schlechter wird als sie vorher war. Das liegt in der Natur der Sache, denn sobald man mehrere Pixel, die, insbesondere an Kontrastkanten, sehr verschiedene Luminanz- und Chrominanzinformationen enthalten können, zu einem Pixel "zusammenmatscht" oder gar beim Hochskalieren ein einzelnes Pixel zu mehreren Pixeln "aufbläst" ist das Ergebnis logischerweise fehlerbehaftet, da die originale Information vernichtet und durch eine lediglich näherungsweise ermittelte, künstlich erzeugte Information ersetzt wird.

Im Gegensatz zum normalen Farbfilm, wo man selbst das 8mm-Filmmaterial einer Super8-Kamera aus den 70er Jahren heute noch zu HD-Filmen in durchaus beachtlicher Qualität digitalisieren kann, kann man pixelbasierte digitale Formate von heute nicht in anderen Auflösungen als der mit der sie nativ aufgenommen wurden wiedergeben, ohne erheblich an Bildqualität zu verlieren. Deshalb werden in Hollywood grosse und teure Produktionen auch heute noch auf analogem Film gedreht, denn den kann man zukünftig problemlos selbst in 8K-Auflösung bei beachtlicher Qualität digitalisieren. Mit allem was digital in FullHD oder bestenfalls 4K gedreht wurde, kann man das vergessen. Solches Material wird wegen der dann aufgeblasenen "Makropixel" in 8K so bescheiden aussehen, wie heute SD-Material im Vollbild auf einem FullHD-Fernseher.

>>Wenn ich ein Foto für Bildschirmanzeige optimiere, habe rechne ich die Auflösung runter auf 1-3 Mpixel. Reicht ja auch vollkommen. Immerhin sind da bei Hi-Iso-Aufnahmen das Rauschen einer Kamera stark reduziert.<<

Diese Pseudo-Rauschreduzierung durch das Verwerfen scheinbar rauschender Pixel per Algorithmus beim Herunterskalieren zerstört aber die Qualität des Bildes, da dabei z.B. auch Pixel als vermeintliches Rauschen "entsorgt" werden, die sich in der fotografierten realen Szene wirklich stark von den sie umgebenden Pixeln unterschieden. Da können z.B. bei einem Foto mit einem Sternenhimmel im Hintergrund schon mal einzelne Lichtpunkte des Sternenhimmels durch den Entrauschungsalgorithmus komplett entfernt werden, weil sie für helle, rauschende Pixel gehalten und somit eliminiert wurden. Es ist grausam wie viele hochwertige Kameras heute solche Fehler machen, weil sich die kamerainterne Nachbearbeitung nicht abschalten lässt. Ich hatte sowas beispielsweise schon bei einer 3000EUR-Nikon-D800E, die schöne rauschfreie Aquarelle, aber keine ehrlichen Fotos schoss. Ehrliche Fotos schiessen kann meine alte 10MP-DSLR besser. Die hatte noch nicht genug Prozessorleistung um gross in den Bildern herumzupfuschen und somit erkennt man bei der, wann der Sensor anfängt zu rauschen und kann rechtzeitig für genug Licht sorgen anstatt Aquarelle zu schiessen und sich nachher darüber zu ärgern, dass man Entrauschungs- und Nachschärfungsartefakte selbst im RAW hat.

>>Will ich zB eine Plakatwand oder was auch immer bedrucken, dann muss die Auflösung einer Kamera immer deutlich höher sein, als das Produkt.<<

Nein, auch hier gilt, dass man die beste Qualität erhält, wenn der Drucker bzw. der Druckertreiber das Bild für den Ausdruck weder herunter noch heraufskalieren muss.

>>Ausserdem lässt eine hohe Pixelauflösung auch eine nachträgliche Bearbeitung besser zu.<<

Ich bearbeite meine eigenen Bilder nur in absoluten Notfällen nach, also etwa wenn ein Foto wirklich misslungen ist und sich die Szene nicht wiederholen lässt, was z.B. gelegentlich bei Schnappschüssen, bei denen ich keine Zeit hatte die Belichtung zu korrigieren und wo auch die automatische Belichtungsregelung der Kamera versagt hat, schon einmal vorkommt.
Tatsächlich bearbeite ich hauptsächlich die fehlerhaften Fotos anderer Leute nach. Bei meinen eigenen Fotos würde ich es als persönliche Beleidigung ansehen, wenn die so schlecht wären, dass ich sie nachbearbeiten müsste. Wenn mir wirklich mal ein Foto im ersten Versuch derart misslingt, mache ich es einfach noch einmal und spare mir die Schmach der Nachbearbeitung. Ich bin als 6-Jähriger schon mit der SLR meines Vaters herumgelaufen. Nach bald 35 Jahren Erfahrung habe ich da schon eine ziemlich genaue Vorstellung, wie ich Fotos schiesse, die ich nicht mehr Nachbearbeiten brauche. Ich mag keine zusammengepfuschten Bilder. Das was man heute in der Weltpresse an Aufnahmen sieht ist einfach nur grässlich. Keine Hauttexturen, keine oder falsche Schatten weil irgendwas wegretuschiert wurde und teilweise sogar fehlende Arme und Beine bei den Models, weil man die erst wegretuschiert und später vergessen hat irgendwoanders ins Bild wieder einzubauen. Einfach nur lächerlich, was sich heutzutage alles Fotograf nennt.

>>Alleine das Freistellen oder Gerade Ausrichten macht sich mit ein paar Pixel mehr schon mal ganz gut.<<

Ein Foto gerade am Bildinhalt ausrichten brauchte ich bei meinen eigenen Aufnahmen der letzten 30 Jahre noch nie (Insbesondere bei Digitalfotos wäre das ja auch Schwachsinn, weil ich ja die schrägen Ränder des Fotos dann wegschneiden müsste und das Bild damit bei einer Vorführung kleiner bzw. schlechter aufgelöst wäre als meine anderen Fotos.). Solche Fehler habe ich zuletzt als Kind mit der analogen Kamera meiner Eltern gemacht. Ich habe seit Ewigkeiten einen Sucher mit Gitternetz, damit mir solche Fehler nicht passieren. Da erkennt man sofort, wenn der Horizont oder Gebäudelinien schief durch das Gitternetz laufen und hält die Kamera halt gerade wenn man den Verschluss auslöst.

Freistellen mache ich generell nur bei Spassbildern für Freunde und Bekannte. Das hat mit Fotografieren ebensowenig zu tun wie sonstwie nachbearbeitete Bilder und funktioniert sogar mit 3MP-Bildern problemlos und glaubwürdig, selbst wenn man einen Wasserskifahrer von den kanarischen Inseln auf eine Skipiste in den Alpen "transferiert" und das fliegende Wasser durch fliegenden Schnee ersetzen muss.

Überhaupt reichen 6 Megapixel für fast alle fotografischen Arbeiten bei denen das Bild als Ganzes betrachtet werden soll. Dabei kommt es nämlich auf den Betrachtungsabstand an, bei dem der Betrachter das ganze Bild überhaupt noch auf der Makula lutea seines Auges abbilden kann. 6 Megapixel reichen locker für eine auf Armlänge knackscharf erscheinende Vergrösserung mit 75cm Diagonale. Wenn man das selbe Bild als riesiges Plakat an eine Hauswand klebt, reichen die 6 Megapixel immer noch, weil der Betrachter dementsprechend zurücktreten muss um das ganze Bild überhaupt mit einem Blick erfassen zu können, dass er die einzelnen Pixel auf die Enfernung nicht mehr sieht. Es ist daher kompletter Quatsch, das ein grosses Plakat eine viel höhere Auflösung haben müsste als z.B. Abzug in 30x20cm. Die nötige Auflösung um ein scharfes Bild zu sehen wird durch das menschliche Auge und dessen Abstand zum Bild definiert aus dem es das ganze Bild im Bereich des besten Sehens abbilden kann. Ein riesiges Plakat müsste nur dann höher aufgelöst sein, wenn man es als Suchbild benutzt und den Betrachter daher mit einer Hebebühne daran entlangfährt, damit er sich aus 50cm Abstand Ausschnitte des Bildes ansehen kann. Die meisten Bilder werden aber so nicht verwandt und somit sind heutige 40MP-Kameras, wie etwa meine Hasselblad H4D-40, die ich mir als "ehrliche" Fotos anfertigenden Ersatz für die in den Bildern herumpfuschende Nikon D800E gekauft habe, eigentlich unnötig. Ich benutze die Hasselblad daher auch nur für bestimmte Arbeiten und nutze ansonsten meine 10MP-DSLR von der ich mir bei eBay noch ein paar Gehäuse gekauft habe, da es heute unter 10.000EUR wohl keine DSLRs mehr gibt, die nicht mit Entrauschungs- und Nachschärfungsalgorithmen in den RAWs herumpfuschen und ich daher günstigen Ersatz haben möchte, falls meine alte DSLR mal kaputtgeht.

Wie man sieht, habe mich schon ein wenig mit Fotografie beschäftigt, auch wenn das nicht unbedingt mein professionelles Fachgebiet ist. Ich nutze einfach nicht gerne jeden Quatsch, den mir irgendwelche Marketingstrategen als toll verkaufen wollen. Daher muss ich mehr wissen als diese, damit sie mir keinen Unsinn erzählen können. Denn heute werden von denen z.B. seit Jahren FullHD-Rolling-Shutter-CMOS-Videokameras verkauft, welche, anders als die CCD-Vorgängertechnologie, nicht einmal in der Lage sind schnelle Bewegungen im Bild ohne Geometrietorsionen/Verzerrungen aufzuzeichnen. Man kann heute sogar mehr als 10.000EUR für eine Videokamera ausgeben, bei der alle Testredakteure von der unglaublich tollen Bildqualität schwärmen, aber dabei scheinbar völlig übersehen, dass die nicht einmal Bewegungen korrekt aufzeichnen kann, was noch vor 10 Jahren jede CCD-Videokamera für ein paar hundert Euro problemlos hinbekam. Der Rolling-Shutter-Effekt führt auch dazu, dass man bei heutigen Videokameras kaum noch um ein Stativ herumkommt, wenn man ein stabiles Bild haben möchte. Vibrationen der Kamera führen durch diesen Effekt nämlich trotz Bildstabilisator zum sogenannten Yello-Effekt im Video.

Videokameras, die keine Bewegungen aufzeichnen können und Fotoapparate deren Bilder man erst in 10-20 Jahren auf einem Computermonitor in guter Qualität ansehen können wird. Es ist schon wirklich erstaunlich, was man Leuten alles verkaufen kann, die nur auf Auflösung achten und ansonsten keine Ahnung haben. ;-)
 
@nOOwin: ich glaub du hast den letzten Schuss nicht gehört...
Du willst ein Hasselblad Besitzer sein und redest solchen Stuss? Ich glaub eher, dass du einfach noch nicht begriffen hast worum es bei der Fotografie geht. Man schießt Bilder um den Moment einzufangen, nicht um hinterher Pixel zu zählen und rumzuheulen, dass man die Bilder nicht in ihrer nativen Auflösung betrachten kann. Wenn du sagst du kannst angeblich die automatische Nachbearbeitung innerhalb der Kamera nicht abschalten, bist du entweder zu blöd, oder du hast generell was gegen den technischen Fortschritt. Eine D800e macht fantastische Bilder. Allerdings nur wenn man gutes Glas vor den Sensor schnallt. Wenn du deine Kitscherbe davor hast musst du dich nicht wundern. Nimm ein Zeiss Otus Objektiv Und die richtigen Einstellungen und sag mir nochmal dass da ein Aquarell bei rauskommt.
Und zu den Thema Kameras... Warum kauft sich ein Sportfotograf wohl eine Nikon D4(s) oder eine Canon 1DX? Wegen der "Feuerrate" und dem AF -Tracking. Und ich kenne keinen professionellen Fotografen der auch nur im Ansatz darüber meckert, was du da vom Stapel gelassen hast.
 
@mongini12: >>Du willst ein Hasselblad Besitzer sein und redest solchen Stuss?<<

Ich will kein Hasselblad-Besitzer sein. Ich wollte nur einfach keine hässlichen Bildbearbeitungsartefakte in meinen RAWs.

>>Eine D800e macht fantastische Bilder.<<

Das ist genau das Problem. Wenn ich lediglich "fantastische Bilder machen" möchte, dann nehme ich dafür keinen Fotoapparat, sondern Programmpakete wie z.B. Bryce, Poser, Terragen, PovRay, Cinema 4D usw.
Da brauche ich mich dann bei der Bildkomposition gar nicht erst durch die Realität einschränken zu lassen. Ich kann eine Fee mit elfenbeinfarbener, völlig haar- und blutgefässfreier Haut erzeugen, wie es ja offenbar viele Möchtegern-Fotografen gefällt, die in der Nachbearbeitung aus ihren menschlichen Models gerne solche leblosen Plastikpuppen machen, und diese Fee über einen Gebirgssee laufen lassen in dem sich bei vollem Tageslich der Himmel mit seinen drei Monden spiegelt. Das ist dann ein "fantastisches Bild", hat mit Fotografie aber ebensowenig zu tun, wie ein RAW in dem Pseudo-Bildverbesserungsalgorithmen kein Pixel so gelassen haben, wie es der Sensor ursprünglich einmal durch das Objektiv gesehen hat.

Wenn ich einen Fotoapparat nutze, dann möchte ich keine fantastisch unwirklichen Welten mit drei Monden am Himmel erzeugen, sondern ein der Realität möglichst nahe kommendes Bild einer realen Szenerie aufnehmen und genau das geht mit den meisten heutigen Kameras nicht mehr, weil die nicht einmal mehr das RAW so nah wie möglich an dem lassen, was der Sensor ursprünglich einmal durch das Objektiv gesehen hat.

>>Allerdings nur wenn man gutes Glas vor den Sensor schnallt. Wenn du deine Kitscherbe davor hast musst du dich nicht wundern. Nimm ein Zeiss Otus Objektiv Und die richtigen Einstellungen und sag mir nochmal dass da ein Aquarell bei rauskommt.<<

Wenn man mit einer Kamera arbeitet, die schon im RAW mit Entrauschungs- und Nachschärfungsalgorithmen herumpfuscht, kann man auch gleich den letzten Flaschenboden von Objektiv davorschrauben und dessen Verzerrungen und chromatischen Aberrationen einfach in der Kamera in Echtzeit aus dem Bild rechnen. Auf die paar zusätzlichen Bearbeitungsartefakte im Bild mehr oder weniger kommt es dann auch nicht mehr an und man hätte in dem Fall sogar den Vorteil, dass ein solches "primitives" Objektiv viel billiger und leichter ist und u.U. auch noch kürzer baut als ein aufwändig geometrisch und apochromatisch korrigieres Objektiv derselben Brennweite und man somit eine viel kleiner verpackbare und leichtere Ausrüstung mit sich herumschleppt.

Was nützt mir das fehlerfreiste Objektiv der Welt, wenn die Kameraelektronik, sobald der Sensor die nahezu perfekte Abbildung des Motivs auf seiner Oberfläche vermessen hat, mir in die nahezu verzerrungsfreien, chromatisch fast fehlerfrei erfassten Kontrastkanten mit ihren Entrauschungs- und Nachschärfungsalgorithmen haufenweise Pixelfehler einrechnet? Da ist ein gutes Objektiv verwenden wie "Perlen vor die Säue werfen", wie man so schön sagt.

>>Warum kauft sich ein Sportfotograf wohl eine Nikon D4(s) oder eine Canon 1DX? Wegen der "Feuerrate" und dem AF -Tracking.<<

Ein Sportfotograf kauft sich solche "professionellen" Kameras nicht weil sie viel bessere Bilder machen würden als Consumer-DSLRs, sondern weil sie komfortabler zu bedienen sind und man sie bei täglicher Nutzung nachlässig behandeln kann und sie trotzdem nicht gleich den Dienst quittieren. 10 Bilder pro Sekunde und teilweise weit mehr schaffen heute auch schon Consumer-DSLRs und sogar System-/Kompaktkameras, wie z.B. die Nikon 1. Den AutoFokus benutzen ohnehin nur Sportfotografen, die gerne einmal ein Bild verpassen und das aus folgendem Grund:

Selbst der hochgezüchtete und ziemlich umfassend einzustellende AutoFokus einer Canon 5D Mark III versagt bei ganz simplen Alltagssituationen in der Sportfotografie. Man kann ihm sagen, er soll möglichst lange an einem einmal scharfgestellten Objekt dranbleiben, dann stört ihn z.B. ein näher an der Kamera durchs Bild fahrendes Segel nicht, welches kurz das Hauptmotiv verdeckt, und das Hauptmotiv bleibt weiterhin scharfgestellt. Das fand ich beim ersten Test der Kamera auch noch sehr ansprechend. Dummerweise bemerkte ich dann, dass es bei mehreren, während eines Rennens oft dicht hintereinander an einer Boje halsenden Windsurfern mit dieser Einstellung nicht möglich ist, nach dem Foto vom ersten Surfer direkt eines vom Zweiten zu schiessen, weil der Autofokus dann vorerst beim ersten blieb solange dieser im Sucherbild noch zu sehen war. Man müsste in der Situation im Zehntelsekundenbereich den Autofokusmodus immer kurz wechseln, um schnell auf den nächsten Akteur scharfzustellen und dann blitzschnell wieder zurück, damit der AF nicht versehentlich zwischendurch auf die durchs Bild huschenden Segel der noch folgenden Akteure scharfstellt, bevor man den aktuellen Surfer abgelichtet hat. Das ist einfach nur nervig. Ich mache in solchen Situationen den Autofokus komplett aus, wähle eine halbwegs kleine Blende bzw. einen grossen Blendenwert für viel Schärfentiefe im Bild und stelle vorher auf die Boje oder das Wasser an der Stelle scharf, wo die Akteure herfahren.
Ein ausgeschalteter Autofokus stellt auch nicht plötzlich während des "Dauerfeuers" der Kamera irrtümlich auf einen Lichtreflex im Wasser oder ein Segel im Vordergrund scharf und blockiert mir möglicherweise sogar noch den Auslöser bis er damit fertig ist (Ja, ich weiss, Schärfepriorität kann man auch abschalten. Dann ist das Bild bei einem auf das falsche Objekt scharfstellenden Autofokus zwar im Kasten, aber eben unscharf.) und somit hat man die Bilder immer sicher und scharf und ohne Auslöseverzögerung im Kasten. Mit ein bisschen Übung kriegt man sogar auf einen mit 70km/h auf die Kamera zufahrenden Windsurfer/Kiter manuell scharfgestellt und produziert dann auch in solchen Situationen weniger Ausschuss als wenn man sich auf "professionelle" Autofokussysteme verlässt.

Wenn Du also meinst professionelle Fotografen, die über das Könnensniveau von Presse- und Laufstegmodel-Knipsern hinausgekommen sind würden sich auf den Autofokus ihrer Kamera verlassen, dann irrst Du. Hier http://www.foto-erdmann.de/PDF/Ringfoto_2014_09.pdf ist z.B. auf Seite 31 nach einem Autofokustest bei verschiedensten aktuellen Kameras direkt zu Anfang des Fazits folgender Satz zu lesen:

"Wer sich blind auf den Autofokus verlässt, muss mit unscharfen Bildern rechnen - daran hat sich auch nach langer Entwicklungsarbeit nichts geändert."
Mein Fazit dazu, welches ich zudem aus meiner eigenen Entwicklung seit meinen Kindertagen mit der Kamera meiner Eltern bestätigen kann: Je mehr Wissen, Erfahrungen und Fähigkeiten man in der Fotografie sammelt, desto weniger benutzt man den Autofokus und desto weniger akzeptiert man die Vorgaben der automatische Belichtungsregelung.

Autofokus und automatische Belichtungsregelung gibt es deshalb heute sogar in den teuren, professionellen Voll- und Mittelformatkameras, weil sich eben vielfach auch ungeübte Fotografen diese Geräte aus Prestigegründen kaufen, solange sie auf dem "Komfort" ihrer Consumer-Kompaktkamera bzw. -Spiegelreflex dabei nicht verzichten müssen. Der Industrie ist das nur recht, wenn auch Leute, die nicht wirklich etwas von der technischen Seite der Fotografie verstehen, teure Profikameras kaufen, da das den Gewinn steigert. Daher verpassen sie den Profi-Kameras eben Automatikfunktionen, damit auch ungeübte Leute irgendwie ein halbwegs scharfes und halbwegs richtig belichtetes Bild damit zustandebringen können, ohne das man sie erstmal in einen Lehrgang schicken müsste.

>>Und ich kenne keinen professionellen Fotografen der auch nur im Ansatz darüber meckert, was du da vom Stapel gelassen hast.<<

Manche professionelle Fotografen geben weit über 10.000EUR für eine DSLR von Hasselblad oder Leica aus, weil sie eben keine unnötige Bildbearbeitung in der Kamera wünschen. Wenn jemand über 8000EUR mehr für einen Kamera-Gehäuse ausgibt als er für ein vergleichbar hoch auflösendes Prosumer-DSLR-Gehäuse müsste, würde ich das schon als Kritik in meinem Sinne ansehen.

Die meisten professionellen Fotografen interessiert die Bildqualität aber überhaupt nicht, solange ihre Kunden mit ihren Bildern klarkommen und nicht wegen zu schlechter Qualität ihren Fotografen wechseln. Solange die Medien, als Hauptkunde der meisten Fotografen, Bilder bei denen z.B. die Hauttexturen von Fotomodellen komplett fehlen akzeptieren und sogar völlig unrealistische Glanzeffekte auf menschlicher Haut als akzeptabel ansehen bzw. so einen Quatsch sogar erwarten, braucht kein Profifotograf qualitativ hochwertige Bilder zu schiessen und kann daher getrost auf robuste Reportagekameras Wie Nikon D4 oder Canon EOS 1D zurückgreifen. Übrigens haben diese beiden Kameras lediglich 16MP-Sensoren und müssten daher aufgrund der Tatsache, dass ihre Sensoren weniger rauschen als der 36MP-Sensor einer D800 prinzipiell weniger mit Rauschunterdrückungsalgorithmen in den RAW-Bilddaten herumpfuschen. Die Profis haben also selbst mit diesen Reportagekameras noch eine bessere Bildqualität als der Prosumer mit seine D800, der nur auf die Megapixelzahl guckt.

Daneben findet man wohl tausende Kamera-Testberichte in den Medien, bei denen Tester die übermässige kamerainterne Bildbearbeitung/-entrauschung anprangern, die aufgrund der bei gleicher Chipfläche immer höheren Zahl an Photodioden mit immer kleinerer Oberfläche auf dem Sensor und damit immer schlechter werdendem Signal-Rauschabstand nötig wird. Es ist also nicht so, dass keiner darüber meckert. Die meisten (Möchtegern-)Fotografen interessiert die Bildqualität einfach nicht, weil es ihnen gar nicht darauf ankommt ein originalgetreues, hochwertiges Abbild einer realen Szene anzufertigen, sondern sie ihre Bilder heute nur noch als schnell erstellte Vorlage für ihre dann in der Nachbearbeitung erzeugten Photoshop-Gemälde ansehen. Wer zu faul ist, sich das Erzeugen eines Bildes mittels Pov-Ray, Poser und Co. beizubringen, der kriegt mit heutigen DSLRs eben in einem Bruchteil der Zeit die er mit solcher Software benötigen würde, eine an die Realität angelehnte Vorlage, in der er nur noch ein wenig mit Photoshop, GIMP etc. herumpfuschen muss um sich mit seinem nächsten digitalen Gemälde präsentieren zu können.
 
@nOOwin: Junge was Du vom Stapel lässt passt ja auf keine Kuhhaut (miese Qualität usw) Echt ein Blödquatscher
 
@vectrex: Dann erkläre was Mist ist und stelle es richtig.
 
@AlexKeller: ich hab das Gefühl das ist Zeitverschwendung auf jeden Punkt einzugehen und versuchen die Dinge richtig zu stellen. Er soll weiterhin mit seinen 6 MPX Bilder knipsen, in seiner Nostalgischen Welt leben und einfach keine News wie diese hier lesen.
 
Warum gibt es nicht endlich mal größere Monitore für den PC? Maximal scheint ja so um die 30'' zu sein, wieso keine 40-50'' (mit entsprechender Auflösung natürlich)?
 
@dodnet: was hindert dich daran nen 50" Samsung per HDMI mit deinem TV zu verbinden?
 
@Rumpelzahn: Die Auflösung
 
@coolbobby: UE65HU7200 163 cm (65 Zoll), 4K ... sollten doch für den Anfang reichen? ;-)
 
@Rumpelzahn: Am besten mit vier Beinen und Touch... ;-)
 
@Rumpelzahn: Ich habe es selbst bisher nicht getestet, aber was ich so gelesen habe, sind nur die wenigsten TVs wirklich als Monitor geeignet, vor allem wegen dem enormen Input-Lag. Das spielt bei Filmen keine Rolle, bei Spielen oder der generellen Bedienung mit der Maus aber eine enorme.
 
@dodnet: Du sitzt 30 cm von deinem Monitor weg, wozu brauchst du da bitte 50"? 27 sind schon riesig, alles andere ist für einen normalen arbeitsplatz unnötig.
 
@Fanel: Ich habe hier einen 27'' und der ist alles andere als riesig. Zwei Fenster kann man damit auch nicht wirklich nebeneinander darstellen, wenn man zumindest etwas Inhalt haben will. Da wäre schon noch Platz nach oben.
 
@dodnet: Arbeitest du mit ner Auflösung von 640x480 auf deinem 27'?!
Wozu ein riesen Bildschirm? Ich will den Kopf nicht immer bewegen, sondern beim Arbeiten geradeaus schauen. Und da sind 27' schon ziemlich groß. Man sitzt ja nicht auf Fernsehentfernung vor dem Ding, sondern sehr nah (50cm wohl so im Schnitt). Hier liegt wohl eher noch das Problem an der geringen Auflösung der Monitore. Wenn dort auch ein Retina-Display stehen würde, könnten die Inhalte kleiner dargestellt werden und alles ist gut.
 
@hempelchen: Ich habe eine Auflösung von 1920x1200. Ich weiss ja nicht, was manche für ein kleines Sichtfeld haben, aber ich habe (bei ca. 70cm Entfernung zum Monitor) noch mehr als genug Sichtfeld, um den Kopf nicht drehen zu müssen - man kann übrigens auch die Augen bewegen.

Eine größere Auflösung bei derselben Diagonale bringt rein gar nichts, außer dass alle Inhalte kleiner dargestellt werden. Kleiner will ich sie aber nicht haben, weil ich dann die Schrift nicht mehr lesen kann.
 
@dodnet: Also ich sehe bei meinem Schreibtisch bei FullHD immernoch Pixel und fände eine kleinere Auflösung kein Problem. Und das geht wohl den Meisten so. Wenn du schlechte Augen hast oder eine überdimensional große Entfernung zum Monitor hast, dann ist das aber noch nicht der Standard. Und an dem wie Otto-Normal-Nutzer arbeitet wird sich nunmal bei Massenprodukten orientiert. Demnach ist es ganz normal dass die Bildschirmgröße sich auf ein gewisses Maß eingependelt hat. Wenn du nun spezielle Anforderungen hast, kannst du doch wirklich nen Fernseher nutzen. Die gibt es in allen Größen.
 
@hempelchen: Ich sage ja auch nicht, dass das für alle Benutzer gleich wichtig ist. Für mich wäre es halt relevant.

Und wie bei vielen Sachen sagen die meisten erstmal "brauch ich nicht" - wenn sie es dann aber mal in Aktion gesehen haben oder genutzt haben, gewöhnt man sich schnell daran. Als ich mir vor x Jahren meinen 27'' geholt habe, war der Standard noch 17'' und kleiner. Am Anfang kam es mir auch groß vor.

Ich habe aber gesehen, dass wohl 40''-Zoll-Monitore mit 4k-Auflösung auf der IFA vorgestellt wurden. Da dürfte also die nächste Zeit schon etwas kommen.
 
@dodnet: Dafür gibt es dann noch 21:9 Formate. Allerdings kriege ich sehr viele Fenster auf meinen 27" mit einer 2560x1440 Auflösung.
 
@Fanel: Und wer bitte setzt sich 30cm vor den Bildschirm? Da klebt man ja fast mit der Nase dran! Da ist es klar, dass ein 21'' riesig ist.
 
@dodnet: Wie breit ist den dein tisch? 2 Meter?
 
Sehr schön. Wer jedoch keinen iMac will, weil er bereits einen Mac Mini oder Pro sein eigen nennt... ??? Wo ist der Monitor ?
 
Resolution is the new Gigahertz
 
@Chris Sedlmair: Was ist daran schlecht?
Ich würde mir bei meinem PC sehr gerne einen Monitor mit mehr ppi wünschen.
Leider ist die Skalierung von Win8 immer noch ehr mau was high-dpi angeht, gerade bei Icons etc. Aber das soll sich mit Win10 aber auch endlich Windows-seitig ändern.
Ich begrüße diesen Trend sehr - auch wenn der iMac außerhalb meiner Preisregion liegt.
 
@JK_MoTs: Ich habe grundsätzlich garnichts gegen höhere Auflösungen. Ich sehe nur hier wieder einen Wettrüsten in Quantitäten, das immer dann einsetzt, wenn die Hardware- bzw Gerätehersteller keine Ideen mehr haben. Dann pflanzen sie den potentiellen Konsumenten die Idee in den Kopf, daß es immer noch mehr gigahertz in der CPU, noch mehr Arbeitsspeicher, noch höhere auflösung, noch größere usw. sein müssen. Also Verbesserungen vorangetrieben werden, die sich sowieso "natürlich" durch den Fortschritt kommen müßten. Und die werden dann werbetechnisch gehypet. Und alle Hersteller müssen sich daran anpassen. Und dann wenn alle im Rennen sind, hört das alles ganz schnell wieder auf, weil man wieder an einer technologisch vorgegebenen Grenze angekommen ist. Tatsächlich brauchen das dann die Mehrheit der User nicht, sondern immer nur kleine Gruppen. Leute fordern 4k-Handy-Displays, schauen aber 720p Free-TV auf ihrem Riesen-Flat-TV. Die sinnhaftigkeit von Entwicklungen ist IMHO dann nicht mehr gegeben. Das ist "alles".
 
@JK_MoTs: PS: Minus kommt nicht von mir. Ich finde Deine Frage berechtigt. ;)
 
Die Auflösung ist beeindruckend, aber bei derart würde ich schon mindestens ein 29 Zoll Gerät bevorzugen. Mir sind die 28 Zoll beim Samsung 4K schon zu wenig.
 
Die hier gezeigten Pressebilder erwecken mal wieder den Eindruck, als wäre der iMac durchgängig flach wie eine Flunder, was aber natürlich nicht der Fall ist. Da wird wieder getrickst was das Zeug hält. Als wäre es ein Problem, dass das Gerät Richtung Bildschirmmitte ein paar Millimeter an Dicke mehr aufweist. Allein schon wegen solchen Kleinigkeiten wird mir dieses Unternehmen einfach nicht sympatischer.
 
@Pepe.Grylls: Was ist schlimm an diesen "Tricks"? Die Fotos sind ja nicht manipuliert. Das Gerät schaut von vielen Seiten wirklich so dünn aus. Ich finde diese optische Illusion einen guten Design-Kniff.
 
@Pepe.Grylls: >Allein schon wegen solchen Kleinigkeiten wird mir dieses Unternehmen einfach nicht sympathischer.
Wenn man jemanden unsympathisch finden will, dann findet man eben auch irgendwas. Die einzige Perspektive auf das Gerät, die es genau so "dick" erscheinen lässt wie es eben ist, ist direkt von der Seite. Wann sehe ich mir das Gerät schon so an? Warum sollten dann alle Produktfotos das Gerät so darstellen? Und es ist nicht so, dass Apple ein Geheimnis daraus macht. In der Keynote wurde das Gerät mehrfach direkt von der Seite gezeigt. Auch im Apple Store ist direkt auf der ersten Seite das Produkt von der Seite zu sehen.

http://store.apple.com/us/buy-mac/imac

Ich sehe hier kein "Getrickse", da niemand ernsthaft behaupten kann, dass es Leute gibt, die das Produkt kaufen, weil sie dachten, es wäre durchgängig so dünn. Neben jedem iMac von vorne, ein iMac von der Seite, wie man sehen kann.
 
Man kann Apple nur dankbar sein, dass sie sich dem Thema 4K und 5K annehmen. Ich glaube auch, dass das Gerät so "sexy" ist, dass es ein Erfolg wird. Jetzt ist zu hoffen, dass in den PC-Markt ein wenig Schwung kommt.
 
Während ich es begrüße das die Bildschirme endlich mal eine höhere PPI Dichte erhalten (wieso eigentlich keine ~23" mit nativer 1440p oder 4K Auflösung?) muss man sich vor Augen halten, das die meisten single GPU Lösungen bereits bei 2560x1440p in die Knie gehen bei anspruchsvolleren spielen - zumindest dann, wenn die Settings entsprechend hoch sind.

4K Gaming, oder gar höhere, ist leider ohne exzessiven multi GPU Betrieb in absehbarer Zeit noch nicht möglich. Vielleicht wird es die nächste Grafikgernation lösen - zumindest für die 1440p Hürde.

Aber gut, gesegnet seien die, die keine Verwendung für gaming haben ;)
 
@moeppel: Man kann ja auch mit solchen hochauflösenden Displays Spiele zocken. Nimmt man halt nicht die native Auflösung. Wie Du schon sagst: Jetzt müssen die GPU-Hersteller nachziehen und genug Leistung liefern. Ich denke aber, das wird noch ein paar Jahre dauern, bis man mit einer Grafikkarte um die 500 EUR mit 4k Auflösung flüssig in Ultra-Settings spielen kann.
 
was aber mal komisch vorkommt bedenkt ja keiner hier... das dingen kostet 2499 dollar , nach dem umrechnungskurs(1,2810USD) sollte das dingen ca 1950 euro kosten,. warum 2599 euro, das nenn ich dann wieder absichtliche abzocke weil 2599 euro dann mehr als ca.3330 dollar bedeutet als deren kaufpreis ist.. was soll also der mist? 830 Dollar sind auch nen haufen Geld. Denken die Amis wir Europaer sind kaufsüchtige Idioten?
 
@awwp1987: was mir eher komisch vorkommt ist, das es auf dem Planeten immer noch Menschen gibt die es einfach nicht verstanden haben, oder verstehen wollen. Ich gebe dir ein paar Schlagworte. Mit Steuer, ohne Steuer, starker Euro, schwacher euro. Das kombiniert mit vernetzten denken und Google solltesr du dann hoffentlich hinbekommen.
 
@Hinweis: nicht die GEMA vergessen.
 
Schenkt euch doch die Screenshots, wenn ihr diese eh runterskaliert...
Kommentar abgeben Netiquette beachten!

Apples Aktienkurs in Euro

Apple Aktienkurs -1 Jahr
Zeitraum: 1 Jahr

iPad im Preisvergleich

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles