4K vs. WQHD

Hier kann über allgemeine Themen diskutiert werden, die sonst in kein Forum passen.
Insbesondere über Szene, Games, Kultur, Weltgeschehen, Persönliches, Recht, Hard- und Software.
Antworten
Benutzeravatar
RustySpoon
Establishment
Beiträge: 298
Registriert: 17.03.2009, 13:59
Wohnort: Dresden

4K vs. WQHD

Beitrag von RustySpoon »

Hallo allerseits,

ich denke derzeit über die Anschaffung eines neuen Monitors nach. Ich bin mir schon relativ sicher, dass ich gerne ein 27 Zoll IPS-Gerät hätte. Noch unschlüssig bin ich bei der Auflösung. Eigentlich war ich mir ziemlich sicher, das es WQHD (2560x1440) werden soll. Nun hab ich aber gesehen, dass die ersten 4K-Displays gar nicht mehr sooo viel teurer sind. Benutzen will ich das Ding eigentlich hauptsächlich zum Zocken und Entwickeln. So Grafik- und Fotogedöns mach ich selten bis nie. Wie seht ihr das denn? Lohnt sich 4K bei der Display-Größe überhaupt? Sind euch da schon irgendwelche Probleme bekannt und wie schauts mit der Anwendungskompatibilität aus?

Konkret ins Auge gefasst hab ich derzeit den Dell U2715H (WQHD) und den den Dell P2715Q (4K). Hat vielleicht irgendjemand mit diesen beiden Modellen schon Erfahrung?

Achja, ich hab immer mal den ein oder anderen Laptop von der Arbeit mit zu Hause. Wäre also auch ganz schön, wenn auch schwächere Rechner mit dem Monitor irgendwas anfangen könnten.

Danke schonmal. :)
Benutzeravatar
Schrompf
Moderator
Beiträge: 4838
Registriert: 25.02.2009, 23:44
Benutzertext: Lernt nur selten dazu
Echter Name: Thomas Ziegenhagen
Wohnort: Dresden
Kontaktdaten:

Re: 4K vs. WQHD

Beitrag von Schrompf »

Ich glaube, das ist egal. Auf beiden Optionen musst Du den Bildschirm horizontal teilen, um Code sinnvoll darstellen und bearbeiten zu können. Und beide sind deutlich zu hoch aufgelöst, um mit der Grafikkarte eines Laptops irgendein Spiel flüssig abspielen zu können.

Wenn Du einen ordentlichen Desktop-Rechner mit mittlerer Gamer-Grafikkarte hast, könnte die 2560er-Auflösung ordentlich funktionieren. Für 4k-Auflösungen in aktuellen Spielen brauchst Du aber das Beste vom Besten, also ne GTX 970er aufwärts. Halte ich aber für unkritisch, ich würde nämlich auch mal Standard-FullHD probieren und schauen, wie es hochskaliert aussieht. Ich kann mir nicht vorstellen, dass da so ein großer Unterschied ist.

Achja: wenn Du wirklich 4k haben willst, achte auch darauf, dass alle Monitorausgänge und die Kabel das mitmachen. Bis vor sehr kurzer Zeit war HDMI1.4 aktuell, das hat 4k nur in 30fps geschafft. HDMI2.0 oder DisplayPort 1.2 sind angeraten. Bei DisplayPort gibt es allerdings verschiedene Ausbaustufen mit verschiedener Anzahl Leitungen, die mir im Detail unbekannt sind.
Früher mal Dreamworlds. Früher mal Open Asset Import Library. Heutzutage nur noch so rumwursteln.
Benutzeravatar
RustySpoon
Establishment
Beiträge: 298
Registriert: 17.03.2009, 13:59
Wohnort: Dresden

Re: 4K vs. WQHD

Beitrag von RustySpoon »

Danke erstmal für die rasche Antwort. :)
Schrompf hat geschrieben:Ich glaube, das ist egal. Auf beiden Optionen musst Du den Bildschirm horizontal teilen, um Code sinnvoll darstellen und bearbeiten zu können.
Ich versteh den Einwand leider nicht ganz. Meinst du eventuell "vertikal teilen", also so mehrspaltig?

Um das flüssig spielen mit irgendwelchen Laptops geht's mir eigentlich gar nicht. Es sollte nur unter den gängigen Betriebssystem irgendwie prinzipiell funktionieren, Laptops mit dem Display (ggf. bei niedrigerer Auflösung) zu betreiben.

Vor 'nem runterskalierten Full HD auf 27 Zoll bei Spielen hab ich irgendwie Grusel. Ich befürchte da ist die Pixeldichte auch einfach nicht mehr das Wahre. Gibt's da eventuell irgendwelche Erfahrungswerte?
Schrompf hat geschrieben:Achja: wenn Du wirklich 4k haben willst, achte auch darauf, dass alle Monitorausgänge und die Kabel das mitmachen. Bis vor sehr kurzer Zeit war HDMI1.4 aktuell, das hat 4k nur in 30fps geschafft. HDMI2.0 oder DisplayPort 1.2 sind angeraten. Bei DisplayPort gibt es allerdings verschiedene Ausbaustufen mit verschiedener Anzahl Leitungen, die mir im Detail unbekannt sind.
Guter Hinweis, danke!
Benutzeravatar
Schrompf
Moderator
Beiträge: 4838
Registriert: 25.02.2009, 23:44
Benutzertext: Lernt nur selten dazu
Echter Name: Thomas Ziegenhagen
Wohnort: Dresden
Kontaktdaten:

Re: 4K vs. WQHD

Beitrag von Schrompf »

Gerne doch :-)
RustySpoon hat geschrieben:Ich versteh den Einwand leider nicht ganz. Meinst du eventuell "vertikal teilen", also so mehrspaltig?
Ja, wir meinen dasselbe: mehrspaltiges Layout.
Vor 'nem runterskalierten Full HD auf 27 Zoll bei Spielen hab ich irgendwie Grusel. Ich befürchte da ist die Pixeldichte auch einfach nicht mehr das Wahre. Gibt's da eventuell irgendwelche Erfahrungswerte?
Nein, ich spekuliere nur. Und meine Spekulation war halt, dass man gegenüber FullHD gar nicht mehr viel Unterschied sieht. Aber wer weiß... vielleicht falle ich ja aus allen Wolken, wenn ich mal ein aktuelles Spiel in 4k sehe.
Früher mal Dreamworlds. Früher mal Open Asset Import Library. Heutzutage nur noch so rumwursteln.
Benutzeravatar
RustySpoon
Establishment
Beiträge: 298
Registriert: 17.03.2009, 13:59
Wohnort: Dresden

Re: 4K vs. WQHD

Beitrag von RustySpoon »

Ich hatte mal in einem Kundenprojekt so 'nen 27 Zoll WQHD-Monitor und fand das damals zum Entwickeln eigentlich ganz geil. Ist jetzt aber auch schon ein paar Jährchen her.

Also mir gehts auch gar nicht so sehr um die 4K, ich tendiere auch eher zu der WQHD-Variante. Aber wenn's halt mitkommt und keine Probleme macht, why not? Das Bild sollte halt im Zweifel nur nicht rotzig ausschauen durch zu niedrige Pixeldichte, irgendwelchen Skalierungs-Fickfack oder Frequenzprobleme.

Im Prinzip läuft es darauf hinaus: Für 100€ mehr, ein Fünkchen mehr Zukunftssicherheit vs. diverse Problem(chen) die ich noch nicht so richtig überblicken kann.
Benutzeravatar
Jonathan
Establishment
Beiträge: 2352
Registriert: 04.08.2004, 20:06
Kontaktdaten:

Re: 4K vs. WQHD

Beitrag von Jonathan »

Ich habe erst vorgestern einen neuen Bildschirm bestellt.
Kriterien waren 4k (weil das so schön von FullHD hochskaliert und so) und G-Sync. Letzteres soll unglaublich toll sein weil sich 30 FPS schon anfühlen wie 60 FPS was halt gerade beim Zocken in hohen Auflösungen sehr wichtig ist. FreeSync wäre vermutlich auch eine Alternative gewesen, aber ich kaufe nunmal seit immer schon meine Karten bei nVidia.

Naja, und in dieser Kombination gibt es derzeit halt irgendwie genau 5 Modelle, da fällt die Auswahl nicht so schwer, zumal die meisten echt richtig teuer sind (die anderen 2 sind 'nur' teuer).
Lieber dumm fragen, als dumm bleiben!
https://jonathank.de/games/
VirtualLabs2000
Beiträge: 15
Registriert: 26.02.2002, 10:34
Kontaktdaten:

Re: 4K vs. WQHD

Beitrag von VirtualLabs2000 »

Hi,

ich habe seit einigen Monaten den Dell P2715Q, den du jetzt auch im Auge hast. Kriterien waren für mich die Auflösung, das IPS-Panel und die Farbdarstellung und Farbkalibrierung, da ich damit mindestens genauso viel Bildbearbeitung mache, wie ich Software entwickele. Pluspunkte sind für mich ganz klar die Verarbeitung, die Ergonomie (höhenverstellbar, drehbar, kippbar), der integrierte USB-Hub und generell auch die Bildqualität. Der Farbumfang ist - gemessen über eine zusätzliche Hardwarekalibrierung - bis zu 100% vom sRGB-Umfang. AdobeRGB könnte noch etwas weiter unterstützt werden, aber das wird mich für die Bildbearbeitung sicher auch mehr stören als dich beim reinen Entwickeln.

Ob es nun tatsächlich 4K sein muss, muss jeder für sich abwägen und entscheiden. Für Fotobearbeitung ist es schon ne feine Sache, da man fast 10 Megapixel Fotomaterial darstellen kann und so wunderbar Schärfe und Kontraste im Gesamteindruck beurteilen kann. Natürlich hat es auch bei der Textbearbeitung Vorteile. Der Text wird durch die höhere Pixeldichte deutlich schärfer dargestellt. Ich hatte vorher mal einen 27 Zoll FullHD-Monitor, zwei Word-Seiten dort nebeneinander zu betrachten führte schon zu deutlicher Klötzchenbildung beim Schrift-Rendering. Jetzt mit 4K ist das sehr angenehm möglich finde ich.
Ob man generell die zweispaltige Bearbeitung mag (egal ob Code oder Word), wie Schrompf es vorgeschlagen hat, muss auch jeder für sich entscheiden. Ich nutze sie erst wirklich seit 4K, da mir vorher dafür die Auflösung zu gering war.

Zu deiner Anmerkung mit dem Laptop: Das Problem habe ich auch und da solltest du definitiv prüfen, ob das so funktioniert. Ich habe meinen Dell meistens an meinem Surface Pro 3 hängen mit Intel i7/Intel HD 5000. Offiziell wird so auch mit DP1.2 nur 4K@30Hz unterstützt, mit einem unkomplizierten Tweak in den Grafikeinstellungen klappt auch 4K@50Hz. 60Hz sind nicht möglich. Bei 50Hz ist es auf jeden Fall schon mal deutlich besser als bei 30Hz - letzteres fühlt sich auch auf dem Desktop irgendwie furchtbar laggy an.
Keine Ahnung, was deine Laptops genau für ne Grafikleistung mitbringen, aber ich würde mal behaupten, dass meine Combo hier das unterste Leistungsniveau für 4K ist. Über aktuelle Spiele unterhalten wir uns jetzt mal nicht ;)

Dazu gebe ich zu Bedenken, dass 4K bei der Displaygröße eigentlich immer erfordern, dass Windows im skalierten Modus betrieben wird. Ich habe die Skalierung meistens auf 150% oder 175% stehen. Dadurch ist auch auf dem Desktop ein angenehmes arbeiten möglich und man bekommt ein sehr scharfes Schriftbild. Gerade wenn du den Bildschirm dann aber am Laptop betreibst, beachte, dass diese ganze Skalierungsgeschichte erst unter Windows 10 einigermaßen vernünftig unterstützt wird. Hier hat jedes angeschlossene Display wirklich einen eigenen Skalierungsfaktor und das Rendering der Anwendungen - sofern es die Anwendungen unterstützen - passen sich diesem an. Verschiebst du unter Windows 10 ein Explorer-Fenster vom 100% skalierten Laptop-Monitor auf den 175%skalierten Dell, dann wird das Fenster tatsächlich mit der höheren Skalierung gerendert und sieht scharf aus. Bis Windows 8.1 fand hier nur eine nachträgliche Skalierung der bereits gerenderten Fensterdarstellung statt, was dazu führte, dass es auf einem der beiden Monitore immer leicht matschig aussah.

Soweit zu 4K. Definitiv sehr angenehm in der Darstellung, ich will den Monitor nicht mehr hergeben - aber man sollte sich auch den noch vorhandenen technischen Tücken bewusst sein.
Psycho
Establishment
Beiträge: 156
Registriert: 16.09.2002, 14:23

Re: 4K vs. WQHD

Beitrag von Psycho »

Hi,

ich habe einen Acer Predator XG270HUomidpx.
27 Zoll, WQHD und für mich wichtig waren 144 Hz.

Bin zufrieden damit. Blickwinkelstabilität ist relativ schlecht. Hat auch nur ein TN-Panel.

Auf der Arbeit haben wir ebenfalls WQHD 27 Zoll, zum Entwickeln sehr gut finde ich. Einige Kollegen haben die 5K-iMacs, man sieht schon einen Unterschied in der Schärfe, finde ich persönlich allerdings nicht gravierend.

Für WQHD@144Hz bzw. 4k@60Hz braucht man ein DisplayPort-Kabel, da HDMI 1.x zu langsam ist.
Stephan Theisgen
Beiträge: 94
Registriert: 29.07.2003, 11:13

Re: 4K vs. WQHD

Beitrag von Stephan Theisgen »

Ich bin gerade erst über ein weiteres Problem mit 4k-Monitoren gestolpert. Ich konnte keine VirtualMachine finden, die das schon unterstützt, d.h. die Schrift der Linux-Console in der VM war unlesbar klein.
(By the way: Wenn hier jemand eine Lösung für dieses Problem weiß. Ich wäre sehr dankbar!)
Benutzeravatar
RustySpoon
Establishment
Beiträge: 298
Registriert: 17.03.2009, 13:59
Wohnort: Dresden

Re: 4K vs. WQHD

Beitrag von RustySpoon »

Vielen Dank für eure Kommentare, ihr habt mir damit sehr geholfen. Ich schlaf nochmal 'ne Nacht drüber, aber im Moment tendiere zu dem U2715H. :)
NytroX
Establishment
Beiträge: 358
Registriert: 03.10.2003, 12:47

Re: 4K vs. WQHD

Beitrag von NytroX »

Hi,

also ich habe zurzeit den Samsung U28D590D.
Das tolle daran ist halt, dass er nicht einfach nur 4k darstellen kann, sondern dass das die native Auflösung ist, also der tatsächliche Lochmasken-Abstand (0,16mm) ist kleiner als vom Auge erkennbar (ca. 0,2mm) [bei einem Abstand von ca. 50 cm; die Zahlen variieren aber stark, je nachdem wen man fragt].
Also der kann tatsächlich dass, was man unter "Retina-Display" verstehen würde ;)
Und bei einer Reaktionszeit von 3ms ist man da auch absolut fix unterwegs und hat keine schlieren oder so, die fallen mir bei TV-Geräten schon mit normalem HD extrem auf.

Dazu muss man aber sagen:
Bei den Anwendungen sieht es leider nicht so rosig aus, da muss man teilweise mit den Einstellungen kämpfen.
Das fängt bei Steam an, da wird die Schriftgröße verschwindend klein, geht über Games in denen die GUI kleiner ist, aber der Rest nicht,
und hört bei so Sachen wie Flash und HTML5 auf - denn ohne eine entsprechende Hardware (CPU/GPU) ruckelt da das Bild da einfach nur vor sich hin; das Zeugs scheint irgendwie total ineffizient programmiert zu sein.
Selbst der Standard-Windows-Desktop braucht einige Anpassungen, damit alles passt.

Also ganz pragmatisch betrachtet macht es bei so manchen Anwendungen nicht viel Sinn (obwohl, ich könnte ja auch die Auflösung einfach kleiner machen :P )
Aber wenn es mal richtig geht, ist es halt auch Ultra-Geil :D
Alleine schon für den Desktop, wenn man viel/lange liest (z.B. SourceCode und ZFX ;) ), lohnt sich das schon (finde ich zumindest).

30Hz kannst du übrigens komplett knicken, selbst wenn man kein Gamer ist, das ist einfach nur gruseligstes Mittelalter.
Da müssen mindestens 60 Bildchen her, damit man das Bild länger als 10 Minuten aushält, und das geht nur mit den neueren HDMI Versionen oder DisplayPort 1.2+ (wo auch das Problem bei meinem Bildschirm liegt, der kann den neuen HDMI nicht, daher muss ich DisplayPort nehmen). Das braucht dann wie gesagt auch immer die richtige Hardware.
Einen PC kaufe ich alle 3-4 Jahre neu, den Bildschirm eher nicht - daher denke ich sollte man vielleicht für sich überlegen, ob man nicht evtl. am falschen Ende spart, wenn man ein billigeres Modell wählt.

Also als Fazit:
Nüchtern betrachtet ist es so la-la, aber man hat ja die Hoffnung, dass es besser wird.
Wenn du aber so ein Grafik-Fanatiker bist wie ich, und auch einen entsprechenden Rechner hast, dann kauf' dir das Teil :D
Benutzeravatar
RustySpoon
Establishment
Beiträge: 298
Registriert: 17.03.2009, 13:59
Wohnort: Dresden

Re: 4K vs. WQHD

Beitrag von RustySpoon »

Ui, vielen Dank dir auch noch für den Erfahrungsbericht. :D
Benutzeravatar
starcow
Establishment
Beiträge: 523
Registriert: 23.04.2003, 17:42
Echter Name: Mischa Schaub
Kontaktdaten:

Re: 4K vs. WQHD

Beitrag von starcow »

NytroX hat geschrieben:Hi,

also ich habe zurzeit den Samsung U28D590D.
Das tolle daran ist halt, dass er nicht einfach nur 4k darstellen kann, sondern dass das die native Auflösung ist, also der tatsächliche Lochmasken-Abstand (0,16mm) ist kleiner als vom Auge erkennbar (ca. 0,2mm) [bei einem Abstand von ca. 50 cm; die Zahlen variieren aber stark, je nachdem wen man fragt].
Kannst du das ein bisschen näher erläutern?

Ich zweifle daran, das diese Aussage so stimmt. Missverständnis vorbehalten.

In all den Jahren bin ich immer davon ausgegangen, das die tatsächliche Anzahl der Pixel (Horizontal / Vertikal) welches ein Gerät besitzt, die eigentliche Definition von "Auflösung" ist.
Ich höre das zum ersten mal, dass ein Monitor eine Auflösung darstellen können soll, die über die Anzahl seiner tatsächlich vorhandenen Pixel hinausgeht.
Der Monitor müsste in einem solchen Fall das Signal zuerst runter skalieren, ehe er es darstellen könnte.

Kannst du ein Beispiel eines Monitor-Modell nennen, der sich mit einer maximal Auflösung brüstet, welche er nativ gar nicht darstellen kann?
Zuletzt geändert von starcow am 05.02.2016, 13:27, insgesamt 4-mal geändert.
Freelancer 3D- und 2D-Grafik
mischaschaub.com
NytroX
Establishment
Beiträge: 358
Registriert: 03.10.2003, 12:47

Re: 4K vs. WQHD

Beitrag von NytroX »

Hm, ich weiß nicht ob es das noch gibt, aber ich habe schon mal irgendwo 2 Bildschirme mit der gleichen Auflösung und Größe gesehen, die einen unterschiedlichen Pixelabstand hatten.
Das kam da rechnerisch irgendwie nicht hin.
Aber ich finde kein konkretes Beispiel, vielleicht hast du recht und das gibt es so gar nicht mehr bei der aktuellen Technologie.

Es gibt aber natürlich Software, die Downsamplen kann - und das könnte natürlich theoretisch auch im Bildschirmtreiber passieren.
Dann wäre die native Auflösung geringer als die maximale Auflösung, so wie bei NVIDIA DSR.
http://www.nvidia.de/object/dsr-technology-de.html
So Sätze wie
Das Ergebnis ist Grafik in 4K-Qualität mit 3840x2160 Auflösung auf jedem Bildschirm.
sind halt einfach glatt gelogen (auch wenn es später genauer erläutert wird), 4k Qualität gibts halt nur auf einem 4k Bildschirm.

Aber ein 4k/UHD-Bildschirm unter 24 Zoll würde mich halt doch eher skeptisch machen :-)
Benutzeravatar
starcow
Establishment
Beiträge: 523
Registriert: 23.04.2003, 17:42
Echter Name: Mischa Schaub
Kontaktdaten:

Re: 4K vs. WQHD

Beitrag von starcow »

Noch zwei kleine Ergänzungen
NytroX hat geschrieben: ... also der tatsächliche Lochmasken-Abstand (0,16mm) ist kleiner als vom Auge erkennbar (ca. 0,2mm)
Soviel ich weiss, besitzen nur Röhrenmonitore eine Lochmaske. LCD's haben keine Lochmaske.
NytroX hat geschrieben:Hm, ich weiß nicht ob es das noch gibt, aber ich habe schon mal irgendwo 2 Bildschirme mit der gleichen Auflösung und Größe gesehen, die einen unterschiedlichen Pixelabstand hatten.
Das wird daher kommen, da die Pixel (je nach Panael Typ) nicht ohne Abstand zueinander sitzen.
Wenn ich das noch richtig in Erinnerung habe, variert die Grösse der "Leerräume" zwischen den Pixel auch je nach RGB-Matrix Typ. Auch wird der Pixel selbst je nach Panel-Typ eine andere Grösse besitzen.
Du kannst die Auflösung daher nicht alleine über Pixelgrösse und Panalgrösse bestimmen.
Ehrlich gesagt übersteigt der Detailgrad dieses Themas aber mein Wissen über Panel-Technik.

Ich bin mir aber ziemlich sicher, dass kein Hersteller sein Gerät mit einer darstellbaren Auflösung anpreisen darf, wenn es die tatsächlichen Pixel gar nicht besitzt.
Das würde Betrügereien Tür und Tor öffnen.
Es heisst ja auch: "Das Gerät besitzt / hat die Auflösung von..." - und nicht: "Das Gerät stellt ein 4K Signal dar"
NytroX hat geschrieben: Dann wäre die native Auflösung geringer als die maximale Auflösung, so wie bei NVIDIA DSR.
http://www.nvidia.de/object/dsr-technology-de.html
So Sätze wie
Das Ergebnis ist Grafik in 4K-Qualität mit 3840x2160 Auflösung auf jedem Bildschirm.
sind halt einfach glatt gelogen (auch wenn es später genauer erläutert wird), 4k Qualität gibts halt nur auf einem 4k Bildschirm.
Die Intension von SuperSampling kannst du nur sehr begrenz damit vergleichen. Den hier geht es um eine bessere Approximation an einen idealen Wert.
SuperSampling stellt meiner Meinung nach _die_ Möglichkeit dar Anti-Aliasing, Moiré-Effekte, Textur- und Kanten-flimmern wirksam zu verhindern.
Salop Ausgerückt könnte man sagen, SuperSampling ist eine erhöhung der "Rechengenauigkeit"

Gruss starcow
Freelancer 3D- und 2D-Grafik
mischaschaub.com
Antworten