Dell stellt Monitor mit 4K-Auflösung für 699 Dollar vor

Displays mit der Ultra-HD oder auch 4K genannten Auflösung sind auf der derzeit in Las Vegas stattfindenden Consumer Electronics Show (CES) das ganz große Thema. Den günstigsten 4K-Monitor hat Dell vorgestellt, der P2815Q kostet 699 Dollar. mehr... Logo, Dell, PC-Hersteller Bildquelle: Dell Dell, 4K, Monitor Dell, 4K, Monitor Dell

Diese Nachricht vollständig anzeigen.

Jetzt einen Kommentar schreiben
 
So ehr mich das ganze auch reizen mag, es hilft ja nichts daß der Monitor eine solche Auflösung unterstützt wenn die Grafikkarte damit hoffnungslos überfordert ist.
Wenn ich sehe wie sich meine HD7770 bei WUXGA schon schwer tut möchte ich lieber gar nicht wissen was man da bei 4K so alles braucht. Unter 250W dürfte es wohl kaum was passendes dafür geben.
 
@Johnny Cache: mir stellt sich die frage ob man es hingekommen kann das z.B eine Auflösung von 1080p auf so einem Monitor gut dar gestellt werden können. Mein Monitor interpoliert sehr schlecht wie ich finde. Kann man bei dem Monitor z.B. bespiele nicht 4 Pixel wie eins arbeiten lassen wenn man auf 1080p spielt und so die Unschärfe des Interpolierens vermeiden?
 
@Johnny Cache: Für WUXGA reicht eine alte Intel GMA 950, wenn es nur Desktop und Video sein soll. Für 3D PC-Spiele mit PhysX sollte es dann aber eher doch eine Nvidia sein.
 
@Johnny Cache: GTX 770 im SLI Modus (2x 180W TDP; im Desktop-Modus aber nur 2x 25W) schafft 4K locker. Sogar aktuelle Spiele laufen gewünscht (dann aber eben 2x180W).
AMD Grafikkarten lohnen sich fürs Minen wie jetzt alle wissen; sind aber im Verbrauch und bei der Spiele-Leistung aufgrund ihrer Architektur deutlich hinter nVidia-Karten. Am Verbrauch solls also nicht liegen.
 
@TurboV6: soso, deutlich also... http://www.computerbase.de/artikel/grafikkarten/2013/geforce-gtx-780-ti-sli-vs.-radeon-r9-290-x-cf/2/
 
@mlodin84: klick mal eine Seite weiter und les den Inhalt bzw den Vergleich: mehr Leistung bei geringerer Stromaufnahme (Ausnahme Bioshock - ansonsten Ergebisse mit teilweise 20% Unterschied). Danke für's Gespräch.
 
@TurboV6: Danke fürs Gespräch,..., sei mal nicht so überheblich. Ich habe mir die Benchmarks angesehen und in 7 Spielen ist nvidia vorne, in 7 anderen AMD. Aber anscheinend siehst du nur was du sehen willst.
 
@mlodin84: also ich zähl ein Gesamtverhältnis (beide 1P für (fast) identische Werte) von nVidia 11 : 6 Radeon. Radeon hatte seinen Vorteil schon immer in der parallelen Berechnung und nicht im Rendering. Das liegt einfach an der technischen Architektur (Shader und Co). Aber anscheinend fehlt Dir dieses technische Wissen oder wir haben hier einen Fanboy-Gedanken (PS: ich hab verwende eben aus den Parallel-Vorteilen Radeons...). Man pflügt auch nich mitm Smart den Acker, sondern mitm Traktor...
 
@TurboV6: Ich denke auch wir sollten das Gespräch lieber beenden, da wir es hier anscheinend tatsächlich mit einem Fanboy zu tun haben. Aber nur abschließend fürs Protokoll: Ich habe 3 PC's zu Hause jeweils mit 460gtx, 560gtx und ner 760gtx und 2 Notebooks mit AMD Grafikkarten - von Fanboy kann hier also kaum die Rede sein. Zu anderen Punkt: ich hab zwar einen Master of Science von der TU Wien - aber anscheinend kann ich dir, was technisches Wissen anbelangt, nicht das Wasser reichen.
 
@mlodin84: wow.... ein Master.
 
@TurboV6: Wow... ein Forentroll
 
@mlodin84: darauf will ich nicht hinaus. Aber Du willst jetzt im Ernst sagen, dass Du durch Dein Master Fachwissen erlangt hast? Ich seh die Studenten, die bei "uns" bzw. meinen Kunden mit ihrem Master Software entwickeln und kann nur den Kopf schütteln. Ein Master sagt was aus? Nichts. Höchstens, dass man gut auswendig lernen kann. Anerkennung muss man sich im Job durch Erfahrung und Können erarbeiten - nicht durch einen Titel, der für Personaler von Wichtigkeit ist. Soviel dazu. Und welche nVidias Du hast ist auch völlig egal. Radeons und nVidias verfolgen völlig andere Architekturen im Hinblick auf Shader, Cores und Clocks, Memory.. und deswegen eignet sich eine Radeon ungemein zB parallele Berechnungen und nVidia eben nicht so sehr; dafür im Rendering. Deswegen wirst Du im Grafikbereich zu 90% nVidias finden (vor allem die Tesla Reihe) und im Bereich von parallelen Berechnungen (zB Großrechne von IBM für die Wettervorhersagte Radeons (hier aufgrund der Effizienz von Strom und Leistung die 6000er Reihe). Soviel zum Thema Master und Fachwissen. Danke.
 
@TurboV6: Nein, ich will damit nicht sagen, dass jeder der studiert hat auch was drauf hat. Es gibt genügend Leute, die sich durch das Studium durchmogeln. Zu behaupten, dass ein Studium nur aus "auswendig lernen" besteht, zeugt mal wieder von deiner Überheblichkeit. Ich habe auch nie behauptet, dass nvidia und Radeons sich nicht unterscheiden. Lediglich, dass die Spieleleistung nicht "so" unterschiedlich ist. Dabei vergleicht man nicht nur High-End Karten, die für die meisten irrelevant sind. gtx 760 und r9 270x sind praktisch gleich auf, die AMD ist sogar noch günstiger.
 
@Johnny Cache: Wenn du Battlefield 4 auf nativem 1080P spielst und dann die Auflösungsskalierung ( Supersampling) auf 200% ziehst berechnet der intern 4K und du siehst wie deine Grafikkarte so ne Auflösung verträgt...Mich würde mal interessieren ob man bei der Pixeldichte (4K @28Zoll) weitestgehend auf Kantenglättung verzichten kann/könnte...
 
@TalebAn76-GER-: das kann ich dir jetzt schon beantworten - ich habe zwar nur nen Asus PB278Q mit 2560x1440, habe aber ein paar Spiele in der Auflösung mit dem i7 und der 770, die ich habe, gespielt. Ganz auf Kantenglättung würde ich bei einigen (insbesondere MMO-Titeln - nein, nicht WoW) nicht verzichten wollen. Grundsätzlich aber ist selbst WQHD für nen 27" Bildschirm zu klein. Wenn ich einen 4K Monitor kaufe, dann sicher keinen mit nur 28", sondern zumindest 30 oder 32. Meiner hat übrigens PLS-Panel und ist weitesgehend winkelunabhängig und sehr zu empfehlen.
 
@Johnny Cache: Nun, dass ne HD7770 kein 4K schafft ist nicht ungewöhnlich. Die Karte kostet grade mal 80-90€ und ist nur sehr bedingt zum spielen geeignet. Aber du hast schon recht. Selbst mit zwei High End Karten, (GTX 780ti oder R9 290X) muss man in 4K auf 60 FPS verzichten, muss in den meisten Spielen die Details runterschrauben und Kantenglättung ist auch nicht drin. Fazit. 4K in aktuellen Games ist fast nicht realisierbar. Hinzu kommt die schlechte Optimierung aktueller Spiele. Im Schlimmsten Fall, Assassins Creed Black Flag mit Maximalen Details und PhysX fällt eine GTX780TI auf 30 FPS herunter. OHNE Kantenglättung und NUR in 1080p. Ach ja, Faustregel: der Wechsel von 1080p auf 4K drittelt die FPS in den meisten Fällen.
 
@Johnny Cache: für einen HDPI-Desktop (Stichwort Mac OS X Retina) wäre die aktuelle Leistung bestimmt ausreichend
 
NA ENDLICH geht nach ein paar Jahren Stillstand bei den Monitor-Auflösungen was weiter! Längst überfällig!
 
@moribund: Das waren leider weit mehr als ein paar Jahre....
 
@Islander: +1
 
@moribund: fortschritt mit einem hinkenden bein. dieses modell ist wohl nur für 2d geeignet ... bei 30hz brauchste an 3d überhauptnicht denken.
 
@lazsniper2: scheiss auf 3d. CAD ist hier das große Thema.
 
@crusher²:
Also wenn du mal den Mauszeiger bei 60 Hz, bei 75Hz und bei 120Hz gesehen hast, dann weiß du genau, was du willst und was nicht ;-). Bevor ich mir sowas kaufen würde, müssten die wirklich erstmal 100/120Hz in 4K bringen, alles andere ist wirklich Augenkrebs.
 
@lazsniper2: Stimmt! 30hz ist wohl ein schlecher Witz, auch in 2D.
 
@ Witold Pryjda: genau genommen ist 3840 x 2160 nicht 4K sondern UHD. Sollte man in Deinem Job eigentlich wissen. ^^ Edit: hier mehr dazu: http://www.extremetech.com/extreme/174221-no-tv-makers-4k-and-uhd-are-not-the-same-thing
 
@moribund: genaugenommen weiß ich das. Da die Hersteller selbst aber 4K und UHD wild durcheinander würfeln, ist diese Unterscheidung aber inzwischen sinnlos geworden. Auch ExtremeTech räumt ein: "Yes, as far as the consumer is concerned, there isn’t much of a practical difference"
 
@witek: Dennoch sollte man das richtig stellen. Wir müssen kein zweites GB von Festplatten erleben. Außerdem steht auf der Dell Webseite nichts von 4k, sondern Ultra HD... Soweit ich das bisher mitgekriegt habe, machen die Hersteller schon einen Unterschied zwischen 4k und UHD.
 
@Arhey: Doch doch, auch Dell: "Dell Delivers 4K for less than $1K! Dell’s 28-inch Ultra HD Monitor priced at $699" ... http://en.community.dell.com/dell-blogs/direct2dell/b/direct2dell/archive/2014/01/07/dell-delivers-4k-for-less-than-1k-dell-s-28-inch-ultra-hd-monitor-priced-at-699.aspx
 
@witek: Naja aber auf der Webseite mit Speizifikationen auf die ihr verlinkt, steht nichts von 4k, sondern nur UHD. Dass die Marketing Abteilung bei der Präsentation bissl schummelt ist ja nichts Neues. Ich würde es dennoch abändern.
 
@witek: Ich finde auch das dies lieber Richtig beschrieben werden sollte, statt den Marketingfloskeln zu Folgen. 2k, 4k, HD und UHD sind klar definiert, kein Grund hier schludrig zu werden.
 
@moribund: Danke für den Hinweis. Bin echt gepannt, ob Film und Computer-Industrie auf einen Standard einigen werden. 4K: 4096px (17:9) breite, UHD:3840px! (16:9)
 
@Thomaswww: das konnten die doch bei HD schon nicht mehr. Selbst bei Full-HD verstand die Medienindustrie 1920x1080 (das Filmmaterial war meist aber schmaler in der Höhe) und die Bildschirmhersteller haben früher 1920x1200 daraus gemacht.. gut.. prinzipiell läuft darauf der Film genau so - aber eben das Seitenverhältnis passt nicht.
 
@divStar:
16:10 ist auch das ergonomischste Bildschirmformat für Arbeiten am PC. In dem Format reichen auch 24" und trotzdem kann man auch in der Höhe noch halbwegs "genug" darstellen.
Zu 16:9 und darunter am PC sage ich nur, fresst Scheisse, Milliarden Fliegen können nicht irren.
 
es geeeeht looooos~ :O Ich warte noch 6 Monate. Dann kommen a)mehr alternativen und b) guenstigere Modelle und sogar vllt bessere verbaute Technik. :D
 
Fein.. wurd ja auch Zeit das sich bei Monitoren endlich mal was tut.

Nu wrten wir noch 1-2 Graka generationen damit man damit auch anständig zocken kann ohne nebenher nen Toaster zu betreiben. :D
 
Na endlich! Habe mir zwar erst vor einem Jahr einen WUXGA Monitor geholt, aber in ~vier Jahren kann ich dann hoffentlich günstig auf 30" 4K wechseln.
 
@hhgs: habe genau die selbst situation ... aber ich weiß nicht ob ichs so lange aushalte ... eher nicht. sobald 4k gaming einigermaßen massenmarkttauglich ist, werd ich wohl aufstocken und anschaffen :D
 
Naja 30Hz bei maximaler Auflösung ist eher mager, auch wenn der Preis toll ist.
 
@Arhey: Man könnte ja jetzt wieder das Streit-Thema Auge-24FPS aufrollen aber 60Hz sollten bei einem modernem Monitor schon dabei sein. Ich müsste mir auch mal bald einen neuen zulegen, da wäre etwas mit großer Auflösung schon top.
 
@BrakerB: man merkt sehr wohl einen krassen unterscheid zwischen 60 und 120 hz beim gaming ...
 
@lazsniper2: Ich wollte dieser Diskussion aus dem Wege gehen und ich werde nicht weiter darauf eingehen.
 
@BrakerB: akzeptiert, gut dass du es wenigstens einsiehst ;) weil es ist auch durch tests zu beweisen - tearing und dergleichen ist messbar.
 
@BrakerB: Naja alleine schon, weil vieles auf 60 Hz ausgelegt ist, wärs teilweise problematisch. Ich würde den Monitor sowieso nicht fürs Gaming einsetzen, aber auch in anderen Bereichen könnte es knapp werden.
 
@Arhey: Ich könnte mir den gut für Bildbearbeitung vorstellen, man hätte allgemein mehr Platz auf dem Desktop um mehrere Fenster nebeneinander anzuordnen.
 
Mal sehen wann die Dinger 120Hz machen. Mein verwöhntes Auge mag nichts anderes mehr. Gerade bei FPS-Shootern unabdingbar. Ansonsten bin ich schon neidisch auf die Farbtreue und den Betrachtungswinkel der IPS-Panels.
 
@blume666: ich warte erstmal auf einen 2560*1440 er schirm der 120 oder 144 hz macht OHNE tn panel. vllt bringt ja gsync die modellpalette etwas nach vorn.
 
Also kann man davon ausgehen, dass das offizielle Werbebild von Dell ein reines Fake ist, weil mit einem TN Panel würde es nie und nimmer einen solch guten Kontrast bei diesem Blickwinkel haben.
 
@AlexKeller: werbebilder sind fast immer irgendwo fake ;)
 
Naja ich habe Full HD Auflösung bei meinem Laptop und in Photoshop und anderen Programmen ist die Schrift schon seeehr klein. Bei 4k Auflösung dürfte man dann ja eine Lupe brauchen um was zu erkennen.
 
@nick1: Nein. Die Schrift wird in Windows nur kleiner, weil die Skalierung nicht richtig funktioniert. Siehe Smartphones mit Full HD Auflösung. Die Schrift bleibt gleich groß, die Darstellung wird schärfer.
 
@Laggy: Ja das ist ja das Problem... es gibt in den meisten Programmen keine passende Skalierung.
 
@nick1: dem stimme ich zu, was nutzt einem eine höhere Auflösung, wenn diese nicht nutzbar ist. Weil viel zu kein. Die Schärfe ist bei 1080 oder 1200 Pixel Vertikal weiß Gott mehr als ausreichend. Auch einem 26" Monitor. Ein paar Pixel mehr wären gut so 2500x1600 oder so, weil mehr Platz. Skalieren muss hier noch nicht. Aber wie gesagt, selbst ein 13" Notebook mit 1080er Auflösung ist praktisch nicht nutzbar mit der kleinen Schrift. Hier ist die Pixeldichte wie 26" und UHD.
 
@nick1: unter allen anderen Desktops funktioniert das mit der Skalierung besser: Mac OS X (Retina), GNOME, KDE
 
@Der_da: das ist so ja nicht richtig, zumindest sehe ich einen Unterschied bei nicht an Retina angepassten Programmen. Bei Programmen von Drittanbietern ganz zu schweigen.
 
Dadurch, dass es nur 30 Hz unterstützt, ist es sinnlos, da viele Spiele damit nicht laufen dürften. Da betreibe ich lieber weiterhin Downsampling mit meinem Dell TFT :)
 
Das gute daran is das man AA auf der Grafikkarte nicht mehr braucht
wie bei Retina display
Kommentar abgeben Netiquette beachten!

CES Tweets

WinFuture Mobil

WinFuture.mbo QR-Code Auch Unterwegs bestens informiert!
Nachrichten und Kommentare auf
dem Smartphone lesen.

Folgt uns auf Twitter

WinFuture bei Twitter

Interessante Artikel & Testberichte

WinFuture wird gehostet von Artfiles