Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Hardware
>
MacBook Air M2 mit 1440p Monitor = Text unscharf
MacBook Air M2 mit 1440p Monitor = Text unscharf
Frank707
24.02.23
09:58
Wir haben 2023 und Apple Schaft es nicht, dass die Schrift auf einen 1440p 27 Toll Monitor scharf dargestellt wird.
Mit meinem Dell Monitor (U2722DE) wirkt die Schrift noch immer unscharf, wenn man das mal mit Windows vergleicht.
Wie geht Ihr damit um?
Ignorieren oder gibt es da doch einen Trick, das die Schrift schön scharf wird? Ob ein 4k Monitor was bringen würde? Wie sind eure Erfahrungen?
Hilfreich?
-5
Kommentare
|<
1
2
piik
26.02.23
20:49
marm
Auf einem MacBook ist übrigens die ungradzahlige Skalierung ebenfalls Standard. Das scheint aber nie jemanden zu stören. Auf dem Macbook Air ist Standard 1440x900 bei einer nativen Auflösung von 2560x1600. Da wird 1:1,77 umgerechnet.
Ob es jemand stört, ist ja nicht die Frage, sondern ob es optimale Schärfe gibt, und die gibt es genau bei ganzzahligen Verhältnissen, da sonst das Antialiasing zwar keinen schlimmen, aber doch suboptimalen Schärfeeindruck hinterlässt. Kann man ausprobieren.
Hilfreich?
-1
marm
26.02.23
20:52
piik
Ich habe an ein MBA M2 einen 4K-Monitor angeschlossen. Da ist "Standard" genau das, was ich sagte, nämlich 1/4 = 1920x1080 Pixel.
Du liegst also falsch.
Hast Du den Monitor per HDMI angeschlossen? Der HDMI-Port schafft auch nur 4k. Per Displayport ist 2560x1440 Standard.
piik
da sonst das Antialiasing zwar keinen schlimmen, aber doch suboptimalen Schärfeeindruck hinterlässt. Kann man ausprobieren.
Ob das Antialiasing so, wie von Dir vermutet funktioniert, ist nirgendwo dokumentiert und reine Spekulation.
Hilfreich?
+4
piik
26.02.23
21:06
marm
piik
Ich habe an ein MBA M2 einen 4K-Monitor angeschlossen. Da ist "Standard" genau das, was ich sagte, nämlich 1/4 = 1920x1080 Pixel.
Du liegst also falsch.
Hast Du den Monitor per HDMI angeschlossen? Der HDMI-Port schafft auch nur 4k. Per Displayport ist 2560x1440 Standard.
???
Wenn ich einen 4K-Monitor anschließe, ist das doch völlig Wurscht. 4K-Auflösung bei 4K-Monitor? Was soll da nicht passen? Und ich habe Thunderbolt.
Außerdem geht bei DP wesentlich mehr als WQHD solange DP 1.2 aufwärts.
Die beschriebenen Phänomene hängen nicht vom Kabel ab, sondern von der nativen Auflösung des jeweiligen Displays, seiner Größe und der eingestellten Auflösung/Skalierung beim Mac. Andere Parameter gibt es da m.E. nicht, oder wenn, welche wären das?
Hilfreich?
-1
piik
26.02.23
21:08
marm
Ob das Antialiasing so, wie von Dir vermutet funktioniert, ist nirgendwo dokumentiert und reine Spekulation.
M.E. ist das doch kleines 1x1 bzw. pure Physik. Oder etwa nicht?
Hilfreich?
+2
piik
26.02.23
21:14
ruphi
Ich besitze z.B. einen 43"-4k-Bildschirm, der auf meine Betrachtungsdistanz von 1,80m perfekt funktioniert im UI-Scaling "sieht aus wie 1680x1050", wahlweise auch 1080p. (Ich habe damit ungefähr denselben ppd-Wert wie bei 50cm Abstand zu einem 15"-MBP, also eine Retina-Display-Erfahrung mit 4k auf 43").
Na klar, das glaube ich aufs Wort, denn das ist ein Betrachtungsabstand wie bei einem TV, da kann man auf 1,8m auch kaum noch einzelne Pixel auflösen, wenn 1680x1050 eingestellt sind.
Das ist aber ein Spezialfall und eben NICHT das typische Szenario für die Nutzung eines Monitors - also gut off topic und sagt garnichts über das aus, was ich für normale Betrachtungsabstände aufgelistet habe.
Deine Argumentation nach müsste man alles auf X Betrachtungsabstände beziehen. Wieso das denn? Spezialfälle sind selten und darauf muss man dann extra hinweisen.
Ich hab auch ganz vergessen, dass es in einem anderen Universum anders sein könnte
Hilfreich?
+1
marm
26.02.23
21:20
piik
marm
Ob das Antialiasing so, wie von Dir vermutet funktioniert, ist nirgendwo dokumentiert und reine Spekulation.
M.E. ist das doch kleines 1x1 bzw. pure Physik. Oder etwa nicht?
Nein, das ist bestimmt nicht das kleine 1x1.
Bei 2560x1440 HiDPI rechnet Apple ein 5120x2880-Bild mit größeren Elementen, so liest sich das in den Systeminformationen. Das ermöglicht Buchstaben viel besser darzustellen, als nur 1 Pixel in 4 Pixel umzurechnen, sondern gleich doppelt so groß.
Danach wird erst in 4k skaliert. Wie Apple das macht, weiß ich nicht. Aber da gibt es bestimmt bessere Methoden als jeden fünften Pixel zu löschen (wie es das YouTube-Video suggeriert).
Hilfreich?
+2
piik
26.02.23
21:25
Übrigens hat diese ganze Verwirrung um Schärfe, Auflösung, Diagonalen etc. mit der historische Entwicklung zu tun.
Leider hat man versäumt, es mal "richtig" zu machen bzw. alte anachronistische Zöpfe endgültig abzuschneiden.
Ideal und problemlos für Anwender wäre es, wenn Computer sich die Daten wie physikalische Auflösung und Diagonale sowie Seitenverhältnis und ggf. die Datenraten für die Übertragung der Pixelinfos vom Monitor holen würde. Mit diesen Angaben kann dann die Grafik-Einheit des Betriebssystems schlicht und einfach immer ein passendes Bild rendern, bei dem Antialiasing-Probleme durch ungeradzahlige Verhältnisse der Auflösungen von geändertem und angezeigten Bild so nicht existieren. Es wäre dann sogar ein simpler kleiner Regler (oder ein Eingabefeld) möglich, bei dem man das Bild generell um x% vergrößern oder verkleinern könnte, ohne dass Verhältnisprobleme auftreten, weil es dann so gerendert wird, dass es zur physikalischen Auflösung passt.
Aber wird wohl nie passieren, vermute ich.
Hilfreich?
+1
piik
26.02.23
21:28
marm
piik
marm
Ob das Antialiasing so, wie von Dir vermutet funktioniert, ist nirgendwo dokumentiert und reine Spekulation.
M.E. ist das doch kleines 1x1 bzw. pure Physik. Oder etwa nicht?
Nein, das ist bestimmt nicht das kleine 1x1.
Bei 2560x1440 HiDPI rechnet Apple ein 5120x2880-Bild mit größeren Elementen, so liest sich das in den Systeminformationen. Das ermöglicht Buchstaben viel besser darzustellen, als nur 1 Pixel in 4 Pixel umzurechnen, sondern gleich doppelt so groß.
Danach wird erst in 4k skaliert. Wie Apple das macht, weiß ich nicht. Aber da gibt es bestimmt bessere Methoden als jeden fünften Pixel zu löschen (wie es das YouTube-Video suggeriert).
Definitiv nicht. Das würde kaum übersehbare Artefakte mit sich bringen. Woher hast Du das denn?
Ich bin mir absolut sicher, denn ich sitze vor einem 4K-Monitor und da wird nichts runterskaliert.
Und was wäre bei einem 6K-Display? Erst 5K-rerendert und dann hochskaliert?
So einen Unsinn macht Apple nicht. Da hast Du was grundlegend falsch verstanden
Hilfreich?
-2
marm
26.02.23
21:34
piik
Woher hast Du das denn?
Systeminformation/Grafik, Display. Bei einem 4k-Monitor (3840x2160).
Das ist übrigens der Screenshot. So unscharf sieht das nicht aus, oder? Im Original 1,5 cm hoch.
piik
Und was wäre bei einem 6K-Display? Erst 5K-rerendert und dann hochskaliert?
So einen Unsinn macht Apple nicht. Da hast Du was grundlegend falsch verstanden
Lustige Frage. Ja, Apple würde das tatsächlich machen. Auch 4k-Monitor bei gröbster angebotener HiDPI-Auflösung:
Hilfreich?
+1
piik
26.02.23
21:42
marm
piik
Woher hast Du das denn?
Systeminformation/Grafik, Display. Bei einem 4k-Monitor (3840x2160).
Das ist übrigens der Screenshot. So unscharf sieht das nicht aus, oder? Im Original 1,5 cm hoch.
Mit was hast Du denn das erzeugt? Kann nicht sein.
Wenn Du die reale Auflösung Deines Macs am jeweiligen Monitors sehen möchtest, dann aktiviere:
Apfel-Menü
Systeminformationen
Grafik/Displays
und dann bekommst Du angezeigt, was ist. Und das ist laut Apple an einem 4K-Monitor das, laut Screenshot des OS:
Hilfreich?
-1
marm
26.02.23
21:44
piik
Apfel-Menü
Systeminformationen
Grafik/Displays
Ja, so habe ich meine Screenshots erstellt. Du musst halt mal eine andere Auflösung einstellen.
Hilfreich?
+3
piik
26.02.23
21:54
marm
Jetzt habe ich es kapiert:
Apple macht wirklich komische Sachen.
Schaltet man die Auflösung auf "Mehr Fläche", wird exakt auf die Auflösung des Displays gerendert und das Bild 1:1 ausgegeben.
Wo ich mich getäuscht habe ist, dass Apple das Problem wirklich merkwürdig löst, wohl eine Sache des Antialiasing. Es kann also wirklich sein. Es bestärkt aber meine Argumentation:
Es ist im Wesentlichen, wie ich es gesagt habe. Jetzt habe ich sogar genau verstanden, wie (danke dafür marm).
Faktisch läuft das so (und ich habe es ausprobiert):
Alles bei 4K-Monitor:
"Standard" = Skalierung 4:1, gerendert wird auf eine Größe wie HD und das fein als 4K ausgegeben. Das ist Retina. Optimale Schärfe.
Bei "Mehr Fläche" ist Rendering/Auflösung 1:1, 4K-Bild wird als 4K ausgegeben.
Screenshot hatte ich ja schon.
Bei allen anderen Auflösungen werden diese Tricks mit größer rendern und dann runterskalieren gemacht.
Bei der zweitgrößten Stufe wird sogar auf 6K gerendert. Siehe:
Mit anderen Worten: Es gibt bei 4K genau zwei Auflösungen, die wirklich scharf sind: "Standard" (sieht aus wie HD) oder "Mehr Fläche" (sieht aus wie 4K und ist klassisches Nichtretina).
Alle anderen Auflösungen mögen dem einen oder anderen User bez. Schärfe ausreichen, sie sind aber aus physikalischen Gründen unschärfer als diese beiden Positionen und das lässt sich weder ändern noch wegdiskutieren. Das ist Fakt und pure Physik.
By the way: Ich weiß auch, wo Du den Denkfehler hast:
Die Bilddaten werden bei einem 4K-Monitor niemals in >4K ausgegeben, nicht in 5K und nicht in 6K. Auch wenn es der Mac könnte - der 4K-Monitor kann es ganz sicher nicht. Schau mal in die technischen Daten Deines Monitors.
Es wird vor Ausgabe umskaliert, dass es für 4K passt. Das macht dann ggf. mangelnde Schärfe.
Hilfreich?
+2
marm
26.02.23
21:57
piik
Das ist Fakt und pure Physik.
Ich glaube, das ist bei Dir Synonym für "basta."
piik
Es wird vor Ausgabe umskaliert, dass es für 4K passt. Das macht dann ggf. mangelnde Schärfe.
Vielleicht macht es Apple auch richtig, so dass es scharf ist?
Wir können da Apple nicht in die Karten schauen. Umso blöder sind diese YT-Videos.
Hilfreich?
0
piik
26.02.23
22:43
marm
piik
Das ist Fakt und pure Physik.
Ich glaube, das ist bei Dir Synonym für "basta."
piik
Es wird vor Ausgabe umskaliert, dass es für 4K passt. Das macht dann ggf. mangelnde Schärfe.
Vielleicht macht es Apple auch richtig, so dass es scharf ist?
Wir können da Apple nicht in die Karten schauen. Umso blöder sind diese YT-Videos.
Wenn Du nicht einsehen willst, dass es exakt so ist wie von mir beschrieben, okay, Du hast eben eine "eigene Physik".
Du hast mir ja geholfen zu verstehen, was Apple da genau macht. Dafür danke ich Dir.
Aber meine Behauptung, dass es pure Physik ist, kann nicht dadurch entkräftet werden, dass Du das als "mein basta" umdefinierst, sondern nur indem Du mir zeigst, wo ich da was falsch verstanden hätte.
Es ist nämlich pure Physik:
Immer wenn ein Bild auf eine Auflösung X gerendert wird und dann ungeradzahlig skaliert, gibt das weniger Schärfe als geradzahlig möglich wäre. Kannst Du soweit mitgehen?
Das hat nichts damit zu tun, dass Apple das womöglich für die gegebenen Verhältnisse bei ungeradzahligen Verhältnissen von physikalischen zu Bildpixeln möglicherweise sehr gut macht. Es bleibt trotzdem suboptimal und im Sinne größtmöglicher Schärfe gilt es das zu vermeiden.
Wem weniger Schärfe ausreicht und wer mit Apples Lösung krummer Verhältnisse leben kann, der soll das natürlich.
Trotzdem bleibt festzuhalten dass die Schärfe nur bei geradzahligen Verhältnissen optimal ist.
Mit anderen Worten:
Wenn es einen 32"-Monitor mit z.B. nativen 3008x1692 Pixeln gäbe, wäre das Bild schärfer, als wenn die Apple-Umskalierung von zunächst gerenderten 6K auf 3008x1692 Pixel gemacht wird, die dann auf 4K hochskaliert wird.
Ist das verständlich?
Solche Monitore gibt es nicht. Von daher mag der eine oder andere User keine Wahl haben, wenn er einen 32"-Monitor will, als den mit 4K zu nehmen und den damit verbundenen krummen Lösungen zu leben.
Aber es ist ein suboptimaler Kompromiss.
Optimale Schärfe (bei normalem Betrachtungsabstand) haben daher nur Monitore, wenn man mit den Auflösungen "Standard" oder "Mehr Fläche" leben kann.
Dabei ist ein 27"-Monitor mit 4K schärfer als ein 27"-Monitor, der nur HD = 1020x1080 kann.
Das nur als Beispiel.
Will man die Auflösung von "wie WQHD = 2560x1440 Pixel) haben, empfiehlt sich aus meiner Sicht aber eben kein 32"-4K-Monitor, sondern ein 32"-WQHD-Monitor in Auflösung "Mehr Fläche", weil dieser aufgrund der Vermeidung mehrfacher Umskalierung physikalisch schärfer ist. Das kann man wirklich sehen, auch wenn es vielleicht nicht die Welt ausmacht.
Ich weiß nicht, wie ich das noch verständlicher machen könnte.
Und: Wir können Apple doch in die Karten schauen. Sogar ganz genau.
Dein Hinweis mit den verschiedenen Auflösungen durchzuprobieren hat mir doch geholfen zu verstehen, wie genau es Apple macht. Physik wegzaubern kann aber auch Apple nicht.
Hilfreich?
0
marm
26.02.23
22:54
Nun, piik, ich habe Mathematik studiert und könnte mir auch andere Methoden vorstellen. Aber ich weiß es nicht 🤷♂️
Hilfreich?
+2
piik
26.02.23
23:03
marm
Nun, piik, ich habe Mathematik studiert und könnte mir auch andere Methoden zum Beispiel aus der Approximationstheorie vorstellen.
Na los! Zeige mir, wie man das Problem mathematisch so gut löst, dass es einer geradzahligen Skalierung gleich kommt. Also z.B. Skalierung von 4:3 (was ja noch simpel ist) wird so gut, wie wenn gleich auf 3:3 Pixel gerendert und ausgegeben wird (ohne Umskalierung).
Du müsstest als Mathematiker wissen, dass das nicht möglich ist. Man kann das approximieren, das stimmt, und die Lösung nähert sich der Perfektion, wenn die gerenderte Auflösung gegen Unendlich geht. Dann kann man quasi "verlustfrei" auf beliebige kleine Auflösungen runterskalieren. Sehr gut wird es, wenn Gerenderte Auflösung >> ausgegebene Auflösung ist. Apples Lösung geht zwar in die Richtung, kommt aber nie über ein Verhältnis von 2:1, da sonst die Grafikprozessoren die Grätsche machen und zu viel Speicher für die Bildberechnung gebraucht wird. Apple mag noch ein paar Tricks mit spezifischem Antialiasing für dieses Problem beherrschen, was den prinzipiellen Fehler reduziert, aber an 1:1 kommt man auch mit Tricks nicht ran.
Ich weiß das, bin aber kein Mathematiker (leider), sondern bloß ein anderer Naturwissenschaftler.
Hilfreich?
+1
marm
26.02.23
23:38
piik
Na los! Zeige mir, wie man das Problem mathematisch so gut löst, dass es einer geradzahligen Skalierung gleich kommt.
Ich kenne mich doch viel zu wenig mit der Grafik-Technologie aus. Ich rede mich doch hier um Kopf und Kragen, wenn ich nicht weiß, wie die Bilder an den Monitor übertragen werden.
Nehmen wir den Fall 2560x1440 HiDPI.
Es wird ein Bild erzeugt mit der Auflösung 5120x2880 mit großen Buchstaben, Menüs usw.
Dieses 5k-Bild muss als 4k-Bild (3860x2160, also 3/4 von 5120) an den Monitor übergeben werden.
Aber in welcher Form liegt das 5k-Bild überhaupt vor. Als Bitmap? Oder als Vektorgrafik, jpeg? Wenn es kein Bitmap ist, dann gäbe es auch andere Möglichkeiten daraus ein 4k-Bitmap für den Monitor zu erzeugen.
Beim 6k-Monitor kommt hinzu, dass es auch noch mit Komprimierungsmethoden über DP1.4 (Thunderbolt) übertragen wird.
Jedenfalls wird Apple nicht einfach jede 4 Zeile und Spalte löschen. Wie sollen aus 16 Pixel nun 9 Pixel berechnet werden? Oder rechnet Apple vielleicht auch aus 64 Pixeln 36 Pixel aus? Oder wird berücksichtigt, was in den Nachbarclustern passiert?
Ich habe dazu bislang keine brauchbare Info gefunden.
Hilfreich?
+3
ruphi
27.02.23
00:57
piik
marm
Nein, das ist bestimmt nicht das kleine 1x1.
Bei 2560x1440 HiDPI rechnet Apple ein 5120x2880-Bild mit größeren Elementen, so liest sich das in den Systeminformationen. Das ermöglicht Buchstaben viel besser darzustellen, als nur 1 Pixel in 4 Pixel umzurechnen, sondern gleich doppelt so groß.
Danach wird erst in 4k skaliert. Wie Apple das macht, weiß ich nicht. Aber da gibt es bestimmt bessere Methoden als jeden fünften Pixel zu löschen (wie es das YouTube-Video suggeriert).
Definitiv nicht. Das würde kaum übersehbare Artefakte mit sich bringen. Woher hast Du das denn?
Ich bin mir absolut sicher, denn ich sitze vor einem 4K-Monitor und da wird nichts runterskaliert.
Und was wäre bei einem 6K-Display? Erst 5K-rerendert und dann hochskaliert?
So einen Unsinn macht Apple nicht. Da hast Du was grundlegend falsch verstanden
Du spuckst die größten Töne und hast dich scheinbar überhaupt nicht informiert. Im ganzen 4k/5k-Thema geht es genau darum: Dass erst auf 5k berechnet und dann auf 4k runterskaliert wird.
Die Frage, die wir hier diskutieren, ist, ob sich das drastisch oder doch nur minimal auf die Darstellungsqualität auswirkt.
Hilfreich?
+3
ruphi
27.02.23
01:01
piik
Deine Argumentation nach müsste man alles auf X Betrachtungsabstände beziehen. Wieso das denn? Spezialfälle sind selten und darauf muss man dann extra hinweisen.
Ich hab auch ganz vergessen, dass es in einem anderen Universum anders sein könnte
Nein eben nicht – du musst einfach nur den intendierten ppd-Wert beachten, statt den ppi-Wert. Den du übrigens in 5 Fallunterscheidungen zu unterschiedlichen Situationen betrachtet hast. So viel zum Thema "Spezialfälle".
Hilfreich?
+2
ruphi
27.02.23
01:31
EDIT: Anscheinend ist der Groschen bzgl. 5k-Downscaling ja dann noch gefallen.
Der Hintergrund, wieso Apple dieses (zunächst mal seltsam anmutende) Verfahren gewählt hat, ist, dass jeder Entwickler (inkl. Apple) seine UI-Objekte so nur in 2 Auflösungen (1x und 2x) hinterlegen/rendern können muss.
Für HiDPI-Auflösungen zwischen 1x und 2x wird dann eben von der Grafikkarte "dumm" interpoliert.
marm
Zum Thema Schärfeverlust würde ich piik Recht geben – das lässt sich nicht gänzlich vermeiden. Stichwort Nyquist-Shannon-Abtasttheorem (bin aber nicht 100%ig sicher).
Hilfreich?
+2
radneuerfinder
27.02.23
10:50
Im Browser Opera konnte man bereits vor 20 Jahre beliebige Webseiten stufenlos in der Größe ändern (Sogar ohne, dass sich die Seitenbreite änderte.) Bei Grafiken hatte man da Qualitätseinbußen. Aber bei Buchstaben?? Die wurden halt für die neue Größe jeweils pixelgenau neu gerechnet. Was ich nicht weiß, möglicherweise wurden bestimmte Schriften gerundet auf 187,3 %, statt auf die gewählten 186,00 % vergrößert? Dafür aber pixelgenau. Wäre aus meiner genau richtig um mit den digitalen Beschränkungen von Displays umzugehen.
Verstehe den Trick mit dem Vergrößern > Skalieren > Verkleinern, damit die Skalierung nicht so auffällt. Aber wieso überhaupt Skalieren und nicht die Buchstaben (pixelgenau) größer rechnen? Warum soll ein Computer das 2023 nicht können?
Hilfreich?
+1
piik
27.02.23
11:39
radneuerfinder
Im Browser Opera konnte man bereits vor 20 Jahre beliebige Webseiten stufenlos in der Größe ändern (Sogar ohne, dass sich die Seitenbreite änderte.) Bei Grafiken hatte man da Qualitätseinbußen. Aber bei Buchstaben?? Die wurden halt für die neue Größe jeweils pixelgenau neu gerechnet. Was ich nicht weiß, möglicherweise wurden bestimmte Schriften gerundet auf 187,3 %, statt auf die gewählten 186,00 % vergrößert? Dafür aber pixelgenau. Wäre aus meiner genau richtig um mit den digitalen Beschränkungen von Displays umzugehen.
Verstehe den Trick mit dem Vergrößern > Skalieren > Verkleinern, damit die Skalierung nicht so auffällt. Aber wieso überhaupt Skalieren und nicht die Buchstaben (pixelgenau) größer rechnen? Warum soll ein Computer das 2023 nicht können?
Ein paar Beiträge unten ist das aufgeführt: Aus historischen Gründen - weil die Grafikmaschinen des Betriebssysteme früher auf fixe Auflösungen hin gebaut wurden - ist das so. Also Altlasten.
Hilfreich?
0
piik
27.02.23
11:42
ruphi
piik
Deine Argumentation nach müsste man alles auf X Betrachtungsabstände beziehen. Wieso das denn? Spezialfälle sind selten und darauf muss man dann extra hinweisen.
Ich hab auch ganz vergessen, dass es in einem anderen Universum anders sein könnte
Nein eben nicht – du musst einfach nur den intendierten ppd-Wert beachten, statt den ppi-Wert. Den du übrigens in 5 Fallunterscheidungen zu unterschiedlichen Situationen betrachtet hast. So viel zum Thema "Spezialfälle".
Das eben ist doch der Spezialfall. Ich hatte keine unterschiedlichen Betrachtungsabstände und auch Apple geht auf diesen parameter nicht ein. Er ergibt sich logisch/mathematisch und ist insofern nicht wichtig hier. Alles was vom Standardabstand (30-70cm) weg ist, ist eben selten und nicht häufig, die Ausnahme also. Kann man auch noch reinnehmen, löst aber das Problem nicht und hilft es auch nicht besser zu verstehen.
Hilfreich?
-1
piik
27.02.23
11:52
ruphi
EDIT: Anscheinend ist der Groschen bzgl. 5k-Downscaling ja dann noch gefallen.
Der Hintergrund, wieso Apple dieses (zunächst mal seltsam anmutende) Verfahren gewählt hat, ist, dass jeder Entwickler (inkl. Apple) seine UI-Objekte so nur in 2 Auflösungen (1x und 2x) hinterlegen/rendern können muss.
Für HiDPI-Auflösungen zwischen 1x und 2x wird dann eben von der Grafikkarte "dumm" interpoliert.
Kann man so sehen. Es ist aber eine Krücke und keine wirklich optimale Lösung. Früher gab es für "UI-Objekte" eben nur 1 Auflösung und alles Abweichende wurde skaliert (Interpoliert in der Regel). Ein Fortschritt mit zweien ist da, aber immer noch ne Krücke. Im Prinzip sind ja die UI-Grafiken bei MacOS wie z.B. die Icons für Dateien und Ordner außer in einer quasi handoptimierten Mickerauflösung noch in einer für diese Zwecke enormen Auflösung von 1024x1024 für 144 PpI vorhanden, von der alles unterskaliert wird. Auch ne Krücke, die zwar funktioniert, aber suboptimal ist.
Alles in allem versucht Apple dabei einer richtigen Neukonstruktion auszuweichen, bei der viel mehr Vektorgrafik genutzt wird und immer auf die Kombination physikalische Auflösung des Displays im Verhältnis zur Größe gerendert wird, ohne dreimal ums Eck zu interpolieren. Wir können damit leben, so wie manche auch mit krummen Skalierungen ihrer Monitore leben können und es als scharf genug empfinden.
Für mich ist das nicht scharf genug, denn ich sitze täglich viele Stunden vor dem Bildschirm (typischer Abstand 50cm). Ich hätte am liebsten einen 8K-Monitor in 42,5". In zwei/drei Jahren wird es sowas geben und für mich bezahlbar sein. Dann bin ich schon fast komplett zufrieden
Hilfreich?
+1
marm
27.02.23
11:57
piik
Alles in allem versucht Apple ...
Du stellt da reichlich Hypothesen auf. In einer Mailkorrespondenz mit dem Entwickler von SwitchResX meinte dieser, dass MacOS mittlerweile die Grafikausgabe wie ein iPad erzeugt. Daher gab es auch viel weniger Möglichkeit der Anpassung.
Wenn nun Apple in den Systeminformationen Angaben macht, lässt dies nicht unbedingt Rückschlüsse darauf zu, wie die Grafikausgabe tatsächlich erzeugt wird.
Hilfreich?
+2
marcel151
27.02.23
12:08
Keine Ahnung was Dein Problem ist, ich habe hier 2 27" Monitore nebeneinander stehen am 14" Pro. Einmal 1440p auf 100% skaliert und einmal 2160p auf 150% skaliert, so sehen beide Bildschirme aus als hätten sie die gleiche Auflösung. Klar ist das Bild beim 2160p dank Skalierung etwas klarer, aber unscharf ist es bei 100% sicher nicht. Das liegt dann an Deinen Augen oder falscher Einstellung.
Hilfreich?
+2
piik
27.02.23
12:20
marm
piik
Alles in allem versucht Apple ...
Du stellt da reichlich Hypothesen auf. In einer Mailkorrespondenz mit dem Entwickler von SwitchResX meinte dieser, dass MacOS mittlerweile die Grafikausgabe wie ein iPad erzeugt. Daher gab es auch viel weniger Möglichkeit der Anpassung.
Wenn nun Apple in den Systeminformationen Angaben macht, lässt dies nicht unbedingt Rückschlüsse darauf zu, wie die Grafikausgabe tatsächlich erzeugt wird.
Sagen wir es mal so. 100,000% sicher kann ich das nicht wissen.
Aber wenn man davon ausgeht, dass die Entwickler von Apple a) nicht dumm sind und b) trotzdem nicht zaubern können, ergeben sich aus den Angaben bei den Systeminformationen ziemlich klare Indizien, was da wie gemacht wird. Da kann man also sehr sicher sein. Wie das im Detail gemacht wird, welche Algorithmen exakt zur Interpolation bzw. zum Runterskalieren genommen werden, dass weiß ich natürlich nicht, aber Letzteres ist so ziemlich egal, weil klar ist, was solche Algorithmen zu leisten ind er Lage sind. Sie können die physikalisch-mathematischen Probleme der "krummen Interpolation" nicht abschaffen, sondern nur mildern.
Übrigens halte ich den von Apple gegangenen Weg, wenn es nicht direkt in der nativen Auflösung des Displays renderbar ist (weil man eine andere logische Auflösung braucht), zunächst auf ein Vielfaches (hier das Doppelte) der logischen Auflösung zu rendern (solange die höher als die physikalische ist) und in einem zweiten Schritt die erhöhte logische Auflösung auf die kleinere physikalische herunterzuskalieren, für ziemlich clever.
Diese Lösung hat halt lediglich zur Folge, dass nur die eingestellten Auflösungen "Standard" und "Mehr Fläche" maximal scharf sind und alle anderen mit Schärfeeinbußen zu rechnen haben. Ob das tolerabel ist, muss dann jeder für sich entscheiden. Ich würde raten, andere Auflösungseinstellungen zu vermeiden und daher die Monitor-Diagonale so zu wählen, dass es vermeidbar ist.
Es mag ja sein, dass Apple sich diese Lösung im Zusammenhang mit den IOS-Geräten überlegt hat. Ein Kriterium dabei ist sicher die erzielbare Geschwindigkeit und dann noch der optimierte Einsatz von Systemressourcen. Trotzdem bin ich mir so sicher wie ich nur sein kann, dass die Überlegungen zur Schärfe stimmen. Und dass das prinzipiell besser machbar wäre, was aber sehr viel Entwicklungsaufwand bedeuten würde. Schließlich kommen im Laufe der Jahre auch bei IOS immer mehr Auflösungen bzw. Displays dazu, die andere Verhältnisse erfordern. Das mal generell zu lösen wäre echt ein Ding.
Hilfreich?
0
piik
27.02.23
12:23
marcel151
Keine Ahnung was Dein Problem ist, ich habe hier 2 27" Monitore nebeneinander stehen am 14" Pro. Einmal 1440p auf 100% skaliert und einmal 2160p auf 150% skaliert, so sehen beide Bildschirme aus als hätten sie die gleiche Auflösung. Klar ist das Bild beim 2160p dank Skalierung etwas klarer, aber unscharf ist es bei 100% sicher nicht. Das liegt dann an Deinen Augen oder falscher Einstellung.
Aufgrund dessen, was Du da schreibst, schließe ich, dass Du nicht verstanden hast, was ich versuchte zu erläutern.
Hilfreich?
-1
vta
27.02.23
12:24
piik
Alles in allem versucht Apple dabei einer richtigen Neukonstruktion auszuweichen, bei der viel mehr Vektorgrafik genutzt wird und immer auf die Kombination physikalische Auflösung des Displays im Verhältnis zur Größe gerendert wird, ohne dreimal ums Eck zu interpolieren. Wir können damit leben, so wie manche auch mit krummen Skalierungen ihrer Monitore leben können und es als scharf genug empfinden.
Ich kann mich erinnern, dass Mitte der 2000er Jahre (Versionen könnten Leopard, evtl. auch schon Tiger sein) mit einem anderen Ansatz experimentiert hatte. Man konnte diesen Ansatz wohl im Terminal aktivieren und es gab wohl auch an Entwickler bereits aufforderungen, gewisse Dinge zu beachten. Leider weiß ich nicht mehr was das im Detail war. Hatte es auch selber nie ausprobiert. Aber vielleicht findet man noch alte Infos dazu im Netz bzw. Foren.
Hilfreich?
0
vta
27.02.23
12:30
piik
Alles in allem versucht Apple dabei einer richtigen Neukonstruktion auszuweichen, bei der viel mehr Vektorgrafik genutzt wird und immer auf die Kombination physikalische Auflösung des Displays im Verhältnis zur Größe gerendert wird, ohne dreimal ums Eck zu interpolieren. Wir können damit leben, so wie manche auch mit krummen Skalierungen ihrer Monitore leben können und es als scharf genug empfinden.
Ich kann mich erinnern, dass Mitte der 2000er Jahre (Versionen könnten Leopard, evtl. auch schon Tiger sein) mit einem anderen Ansatz experimentiert hatte. Man konnte diesen Ansatz wohl im Terminal aktivieren und es gab wohl auch an Entwickler bereits aufforderungen, gewisse Dinge zu beachten. Leider weiß ich nicht mehr was das im Detail war. Hatte es auch selber nie ausprobiert. Aber vielleicht findet man noch alte Infos dazu im Netz bzw. Foren.
Edit:
Apple seeks patent on resolution independent user interface
https://appleinsider.com/articles/06/12/21/apple_seeks_patent_on_resolution_independent_user_interface
Hilfreich?
+2
fabisworld
27.02.23
15:33
Effektiv kann macOS – wie hier in einigen Beiträgen ja bereits angedeutet wurde – immer nur 220ppi- oder 110ppi-Displays vernünftig bespielen, bei allem was dazwischen oder darüber liegt hat man entweder viel zu kleine oder viel zu große UI-Elemente, oder aber man muss mit Apples Skalierungs"lösung" – nach(!!) dem Rastern in einer unterstützten Auflösung wird das Bild skaliert – leben (defacto: interpolierter Matsch und Leistungsverlust).
Die Idee war ja zur Einführung von Retina mal praktikabel, um den Übergang schnell und problemlos machen zu können, aber dann haben sie vergessen das UI von macOS wirklich „ppi-independent“ zu gestalten. Stattdessen hat heute noch jede neue Display-Größe der Apple-Geräte auch neue seltsam-krumme Pixeldimensionen, um in Summe immer auf möglichst genau 110 oder 220ppi zu kommen und um bloß nicht mal flexibilisieren zu müssen ...
Windows ist den mühsamen Weg gegangen, seit gut 3 Jahren klappt das aber nun wohl relativ problemlos, das UI völlig unabhängig von der ppi-Zahl skalieren zu können – sogar im Multi-Monitor-Betrieb mit unterschiedlichen Pixeldichten. Womit ein 15"-4k-Display mit etwa 300ppi nicht nur praktikabel nutzbar wird (UI genau so groß wie man es haben möchte), sondern in der Abbildungsschärfe jedes Apple-Gerät im Direktvergleich alt aussehen lässt.
Klar ist es mühsam, das stufenlos skalieren zu lassen ... aber ich verstehe nicht, warum Apple als Premiumhersteller mit kompletter Hardware/Software-Integration das im Jahr 2023 nicht einfach macht…!?
Hilfreich?
+1
marm
27.02.23
16:33
Ich habe den "interpolierten Matsch" nun zweimal fotografiert (iPhone 11).
Das erste Mal in 2560x1440 HiDPI und die Schrift so vergrößert, dass der Text 4 cm lang war.
Das zweite Mal in 1920x1080 HiDPI in meiner Standardschriftgröße, so dass der Text 4 cm lang war.
Größenunterschiede sind nur bedingt durch den unterschiedlichen Bildausschnitt. Bilder sind gleich groß.
Hilfreich?
+3
ruphi
27.02.23
19:58
Nur um das zu Protokoll zu geben: Mir wäre es auch lieber, wenn Apple die GUI vektorbasiert/auflösungsunabhängig rendern würde. Zumal ja früher viele UI-Elemente der Apple-Apps als PDF vorlagen (hab da öfters mal den Resources-Ordner durchgeschaut). Und wenn ich mich richtig erinnere, hatte Apple mit
Quartz Debug
ein Entwicklertool mitgeliefert, das noch vor der Vorstellung von Retina-Displays HiDPI-Modi im Teststadium ermöglichte, und zwar weit über 2x hinaus (d.h. alles vektorbasiert). Schade drum.
Aber die ganze Thematik ist für mich doch eher weiter unten auf meiner Prio-Liste der Dinge, die Apple an macOS reparieren sollte.
Hilfreich?
+1
marm
27.02.23
20:20
ruphi
Nur um das zu Protokoll zu geben: Mir wäre es auch lieber, wenn Apple die GUI vektorbasiert/auflösungsunabhängig rendern würde.
Vielleicht ist das längst der Fall.
Ich bin mittlerweile überzeugt, dass die Angabe 2560x1440 HiDPI 5120x2880 nur zur Veranschaulichung dient.
Wenn ich einen Screenshot mache, ist der doch von der Auflösung 3840x2160. Wenn die Mutmaßungen stimmen, hieße das doch, dass Apple jedes Bild ständig in zwei Auflösungen rechnen würde (5120 und 3840).
Wenn auf dem Monitor ein 4k Foto angezeigt werden soll, wird ist es vermutlich verlustfrei dargestellt und nicht erst auf 5 k hochskaliert und gleichzeitig wieder runter auf 4k.
Apple wollte mal wieder die Details der Technik vom Nutzer fernhalten und hat damit nur Verwirrung gestiftet.
Auf dem iPad funktioniert die Darstellung doch auch in allen Auflösungen - die Grundlagen sind gleich.
Die ganze Diskussion hier basiert auf Mutmaßungen und Fehlinterpretationen.
Hilfreich?
+2
ruphi
27.02.23
22:12
marm
Ich bin mittlerweile überzeugt, dass die Angabe 2560x1440 HiDPI 5120x2880 nur zur Veranschaulichung dient.
Wenn ich einen Screenshot mache, ist der doch von der Auflösung 3840x2160. Wenn die Mutmaßungen stimmen, hieße das doch, dass Apple jedes Bild ständig in zwei Auflösungen rechnen würde (5120 und 3840).
Das mit dem Screenshot ist kein Widerspruch zu den hier getätigten Vermutungen – macOS muss ja durch das Downscaling sowieso genau diese zwei Auflösungen berechnen.
Aber schau z.B. mal in den Resources-Ordner von Mail.app. Da sind alle Icons im gerasterten .icns-Format. Früher waren das alles Vektorbilder im .pdf-Format. Die Anzeichen sprechen schon eher dafür, finde ich.
Hilfreich?
0
piik
27.02.23
22:57
vta
Sehr interessant.
Nachdem ich mir mal überlegt habe, wie ich das auflösungsunabhängig machen würde, bekam ich mehrere Knoten im Kopf, denn das Prinzip ist einfach, der Teufel hingegen wieder einmal im Detail.
Insofern kann ich den Apple-Weg nachvollziehen, auch wenn es besser ginge.
Hilfreich?
0
piik
27.02.23
23:00
marm
ruphi
Nur um das zu Protokoll zu geben: Mir wäre es auch lieber, wenn Apple die GUI vektorbasiert/auflösungsunabhängig rendern würde.
Vielleicht ist das längst der Fall.
Ich bin mittlerweile überzeugt, dass die Angabe 2560x1440 HiDPI 5120x2880 nur zur Veranschaulichung dient.
Aha, was genau ist daran "veranschaulichend"?
marm
Die ganze Diskussion hier basiert auf Mutmaßungen und Fehlinterpretationen.
Äh, und das oben von Dir mit der Veranschaulichung und dass es schon längst gemacht wird, das ist natürlich keine Mutmaßung und schon gar keine Fehlinterpretation?
Ich finde sie albern bis "gewollt". Dafür gibt es genau null Anhaltspunkte, außer eben dass Dir das scheinbar gefällt.
Hilfreich?
-1
marm
27.02.23
23:08
piik
Ich finde sie albern bis "gewollt". Dafür gibt es genau null Anhaltspunkte, außer eben dass Dir das scheinbar gefällt.
Ich habe mich davon ("Mutmaßungen") nicht ausgenommen.
Hier ist ein Testbild in 4k
Stell es als Vollbild in einem HiDPI-Modus dar. Nach deiner Theorie wird es erst in 5k hochskaliert, um dann in 4k dargestellt zu werden. Müssten da nicht Artefakte entstehen?
Meine Schlussfolgerung ist, es wird gar nicht rauf- und runterskaliert. Apple dient die Angabe zur Veranschaulichung, dass hier ein High-dpi-Bild erzeugt wird. Diese Veranschaulichung von Apple funktioniert offenbar nicht, wie man ja an dieser Diskussion sieht.
Und nochmals: Von einem Entwickler wurde mir gesagt, dass die Darstellung mittlerweile wie beim iPad funktioniert. Was bedeutet das als Konsequenz?
Da Du nach einer Weile, wenn man mit Dir diskutiert, offenbar beleidigend wirst, ist die Diskussion nun meinerseits beendet. Also, Feuer frei!
Hilfreich?
+2
ruphi
28.02.23
12:17
marm
Hier ist ein Testbild in 4k
Stell es als Vollbild in einem HiDPI-Modus dar. Nach deiner Theorie wird es erst in 5k hochskaliert, um dann in 4k dargestellt zu werden. Müssten da nicht Artefakte entstehen?
Meine Schlussfolgerung ist, es wird gar nicht rauf- und runterskaliert.
Es wäre aber auch möglich, dass die 5k>4k-Skalierung nur bei den UI-Elementen passiert, und Medieninhalte danach erst eingefügt werden.
Ich gebe dir dennoch vollkommen Recht: Wir wissen es nicht, was genau passiert.
Hilfreich?
+3
piik
28.02.23
14:50
ruphi
Es wäre aber auch möglich, dass die 5k>4k-Skalierung nur bei den UI-Elementen passiert, und Medieninhalte danach erst eingefügt werden.
Ich gebe dir dennoch vollkommen Recht: Wir wissen es nicht, was genau passiert.
M.E. nicht möglich, denn dann wären die Größen der Medieninhalte abhängig von der Auflösung und unterschiedlich im Verhältnis zu den UI-Elementen. Und das ist ganz sicher nicht so, kann man ja sehen.
Hilfreich?
0
HAL 9000
28.02.23
23:44
Frank707
Wir haben 2023 und Apple Schaft es nicht, dass die Schrift auf einen 1440p 27 Toll Monitor scharf dargestellt wird.
Mit meinem Dell Monitor (U2722DE) wirkt die Schrift noch immer unscharf, wenn man das mal mit Windows vergleicht.
Wie geht Ihr damit um?
Ignorieren oder gibt es da doch einen Trick, das die Schrift schön scharf wird? Ob ein 4k Monitor was bringen würde? Wie sind eure Erfahrungen?
WAS lässt du denn auf dem Monitor darstellen?
Läuft er als Hauptmonitor mit nativer Auflösung?
Läuft er als Spiegel des internen Displays?
Läuft er als zusätzlicher Monitor zum internen Display?
Mein Dell U2515H (25", 2560x1440 Pixel) liefert seit Jahren scharfen Text an allen Macs. OK, das 27" mit 5120x2880-Pixel-Display in meinem iMac 27" ist noch schärfer...
Hilfreich?
+2
|<
1
2
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
Das MacBook Pro M4
Musikbranche verklagt KI-Anbieter
Ransomware eingefangen? Die meisten bezahlen ih...
iPhone 16 Pro: Erfahrungen
M4-Benchmarks: Deutliche Leistungssteigerung im...
Apple zieht iPadOS 18.0 für das iPad Pro M4 zur...
Eskalationskurs: ARM kündigt Qualcomm die Desig...
Apples interne Einschätzung: Zwei Jahre Rücksta...