Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Vor 3 Jahren: Der neue Mac Pro ist da – und steht für das Ende einer Ära

Zwar gibt es keine Hinweise darauf, dass Apple den Mac Pro als Baureihe komplett beerdigen will, dennoch lässt sich der aktuell angebotene Tower als "Letzter seiner Art" bezeichnen. Alle Macs wurden im Verlaufe der letzten beiden Jahre auf hauseigene M-Chips umgestellt, lediglich der Mac Pro setzt weiterhin auf Intel-Prozessoren. Übereinstimmenden Berichten zufolge steht beim mit Abstand teuersten Mac im Sortiment allerdings ebenfalls in absehbarer Zeit die Wachablösung an. Für Frühjahr, spätestens allerdings zur WWDC im Sommer, wird allgemein mit der Vorstellung des M2- basierten Mac Pro gerechnet. Mit den Chip-Varianten "M2 Ultra“ und "M2 Extreme“ dürfte das Gerät selbst einen Mac Studio eindrucksvoll überbieten.


Drei Jahre alt – letzter Intel-Mac
Die Markteinführung des Mac Pro ist inzwischen auch schon wieder ganze drei Jahre her – die damals noch vage Ankündigung sogar fünfeinhalb Jahre. Im April 2017 hatte Apple nämlich ungewohnt selbstkritisch eingestanden, mit dem vorherigen Mac Pro eine Sackgasse eingeschlagen zu haben. Bis zur Vorstellung des "modularen" Nachfolgers, so der damalige Duktus, sollte viel Zeit verstreichen. Die Ankündigung erfolgte erst zur WWDC 2019, im Dezember 2019 kam das Gerät auf den Markt. Anders als die "Mülltonne", so die spöttische Bezeichnung des runden Mac Pro, handelt es sich beim 2019er Modell wieder um ein klassischeres Konzept.

Ebenfalls Dezember 2019: Pro Display XDR
Die mit dem Mac Pro dokumentierte Kursumkehr war in zweierlei Weise erfolgt, denn Apple reanimierte nicht nur das Tower-Konzept (im Käsereiben-Design), sondern wagte sich zudem wieder auf den Display-Markt vor. Im Herbst 2016 lautete die offizielle Aussage noch, Apple wolle keine Displays mehr anbieten und sich stattdessen auf Drittanbieter verlassen – seit Dezember 2019 gibt es hingegen das Pro Display XDR, in diesem Jahr folgte das Studio Display mit einer Diagonale von 27". Man darf in jedem Fall sehr gespannt sein, wie ein "komplettes Apple-Setup" im nächsten Jahr aussieht. Angeblich bereitet Apple nämlich zwei Varianten des Mac Pro vor, einmal in ähnlichen Abmessungen wie jetzt, einmal als kompakte Version ähnlich des früheren Power Mac G4 Cube.

Kommentare

ideal12.12.22 10:29
was meint ihr dazu? wird es ein mac pro mit M2 als Tower und Mini-Tower oder was ganz anderes? oval oder 8 eckig
0
gorgont
gorgont12.12.22 10:32
Ich glaube der M Prozessor MacPro wird alles was es aktuell gibt in den Schatten stellen. Apple lässt sich nicht ohne Grund soviel Zeit. Das Ding wird teuer (wie immer) aber auch grandios.
touch eyeballs to screen for cheap laser surgery
+7
Gammarus_Pulex
Gammarus_Pulex12.12.22 11:20
Für die meisten Nutzer solcher zu erwartender Leistung wird wohl immernoch relevant sein, welche Möglichkeiten der Erweiterbarkeit Apple im neuen Highend Mac bieten wird.

Aufrüsten von CPU, Ram und Datenspeicher ist dabei gar nicht mal son das Ding. Eher dedizierte Grafikkarten (sonst kastrieren sie sich weiterhin um die ganzen 3D Nutzer) und gängige Steckplätze für allerlei Erweiterungsmodule für Video, Sound, etc.

Man darf gespannt sein.
+5
pünktchen
pünktchen12.12.22 11:33
Das Problem ist ja, dass sie mit den gängigen Standards weder was den Preis noch was die Kompatibilität angeht mit den Wintel-Lager konkurrieren können. Also brauchen sie etwas eigenes, was hinreichend besser als der Standard ist, um die Entwicklung von Erweiterungen dafür wirtschaftlich sinnvoll zu machen. Mir scheint das fast unmöglich zu sein, der Markt für MPs ist einfach zu klein für Sonderwege. Apple könnte allerdings aus der Not eine Tugend machen, auf die maximale Flexibilität gleich ganz verzichten und sich dafür auf ein paar Anwendungsfälle spezialisieren.
+3
ExMacRabbitPro12.12.22 11:50
Apples aktuelle ARM Computer Architektur in Form eines SOC (CPU + GPU + RAM in einem Chip) widerspricht einem Konzept wie dem aktuellen Mac Pro.
Ich bezweifele dass Apple "nur" für den Mac Pro eine zweite System-Architektur entwirft mit dediziertem RAM, PCI Lanes für Grafikkarten usw. Das lohnt sich nicht und die "klassische" Architektur bringt wieder Performance einbußen.

Ich erwarte eher ein gänzlich anderes Konzept zum klassischen Mac Pro: z.B. mit Steckplätzen für "Compute-Modules", mit denen man dann, je nach Leistungsbedarf, Erweiterungen mit der üblichen SOC Architektur einbauen kann, um so in einem Schritt CPU/GPU Kerne und RAM aufzurüsten.
Das Logic Board wäre dann mit der Mac Pro mindest-Konfiguration fest bestückt. Meinetwegen mit 64GB RAM, 16 Kernen + was-auch-immer für eine GPU Konfiguration. Und dann ein halbes Dutzend Steckplätze für weitere SOC Karten.
+3
esc
esc12.12.22 11:54
Ich glaube die Entwicklung des „Tonnen“ Macs und auch die letzte Version, scheinen nicht gerade weitsichtig geplant zu sein.
Mit den eigenen Chips würde das „Tonnen“ Design mehr Sinn ergeben oder man hätte das „Tonnen“ Design als Studio weiterführen können.
+4
macuser96
macuser9612.12.22 13:29
Mac Pro ist nicht meine Liga, aber ich hoffe inständig, dass der Mac Studio keine Eintagsfliege ist, sondern dass sie ihn noch viele Jahre im Programm halten. Das ist mein Rechner, macht für mich am meisten Sinn.
+2
gfhfkgfhfk12.12.22 14:05
Am sinnvollste wäre es, wenn Apple für einen MacPro eine CPU zukaufen würde. Wenn man einmal vergleicht was Apple bisher anbietet, ist das kaum geeignet in einer Workstation eingesetzt zu werden. Der Ampere Altra Max (ARM CPU von Ampere Computing) hat 128 Kerne, 8 RAM Kanäle und 128 PCIe 4.0 Lanes. Das ist sehr viel mehr IO-Bandbreite als alles was Apple liefern kann, und es wird deutlich mehr RAM unterstützt. Ein Mangel hätte diese CPU in einem Apple Produkt, die SingleThread Performance ist nicht gut.

Man ein Beispiel was die Konkurrenz als Highend-Workstation verkauft: Die nVidia DGX-Workstation.
+1
Gammarus_Pulex
Gammarus_Pulex12.12.22 15:04
gfhfkgfhfk

Gibt es denn auf Macs irgendeine Software aus diesem Bereich?

Absolut nicht mein Metier, daher die Frage.

Weil wenn da nix an Software existiert, lohnt es ja auch nicht einen Mac für diesen Bereich anzubieten.
+4
esc
esc12.12.22 18:49
Was ich mir wünschen würde, währe high end CAD Software von Siemens oder Dasault für den Mac.
0
gfhfkgfhfk12.12.22 20:24
Gammarus_Pulex
Gibt es denn auf Macs irgendeine Software aus diesem Bereich?
Den noch aktuellen mMP gibt es auch in einer vier GPU Konfiguration. AMD stellt ganz ähnliche GPU-Beschleuniger her, wie nVidia in dieser Workstation verbaut. Bisher gibt es bloß keine Workstation mit den Instinct AMD-Beschleunigern. Wesentlich ist, dass es zuverlässig Systeme von Apple gibt, so dass es sich auch lohnt Software dafür zu schreiben. Das ist bei Apple über die letzten 20 Jahre das größte Problem gewesen. Apple wechselt zu schnell die APIs, und bietet dann nicht verlässlich Workstations an.

Momentan dürfte es für Macs vor allem um Kreativsoftware gehen. Als Paradigma kann man Blender nehmen. Das kann auf GPUs rendern, und somit enorm von schnellen GPUs beim Rendern profitieren. Es existiert ein macOS Port mit Metal Support, so dass man auf einem Mac sowohl die CPU oder die GPU nutzen kann. Hier gibt es enormes Potential das Rendern schneller zu machen. Die großen Beschleuniger GPUs haben auch den Vorteil, dass sie mit höherer numerischer Genauigkeit schnell rechnen können. Die normalen Grafikkarten haben hier ein Nachteil.
+1
vta13.12.22 09:05
gorgont
Ich glaube der M Prozessor MacPro wird alles was es aktuell gibt in den Schatten stellen. Apple lässt sich nicht ohne Grund soviel Zeit. Das Ding wird teuer (wie immer) aber auch grandios.
Apple läßt sich seit Jahren immer wieder soviel Zeit, was den Mac Pro betrifft. Soviel Zeit, bis nachher kaum noch potentielle Anwender da sind - insbesondere solcher, die das Thema pragmatisch sehen und sich nicht an Apple klammern.

Blender ist wohl eine der Anwendungen, die bereits jetzt durch Raytracing profitieren kann. RT kann Apple im Gegensatz zur Konkurrenz bisher nicht (in Hardware).
Apple nutzt proprietäre Schnittstellen (Metal), die offenbar in den Features gegenüber Vulkan hinterherhinkt. Das erfordert für Apple extra Aufwand oder den Einsatz von Zwischenlayern, die nicht optimal sind. Daher wir OpenSource-Software wie Darktable für Windows auch besser gepflegt als für macOS (und läuft dort auch besser), obwohl macOS eigentlich dem Linux-System mal näher war.

So ein Zickzack-Kurs und immer Unsicherheiten hinsichtlich Weiterentwicklungen, fehlenden Roadmaps, etc. sind nicht gerade förderlich.
+2
ideal13.12.22 10:33
gfhfkgfhfk
Gammarus_Pulex

"Momentan dürfte es für Macs vor allem um Kreativsoftware gehen. Als Paradigma kann man Blender nehmen. Das kann auf GPUs rendern, und somit enorm von schnellen GPUs beim Rendern profitieren. Es existiert ein macOS Port mit Metal Support, so dass man auf einem Mac sowohl die CPU oder die GPU nutzen kann. Hier gibt es enormes Potential das Rendern schneller zu machen."
- - - -

ExMacRabbitPro
"Ich erwarte eher ein gänzlich anderes Konzept zum klassischen Mac Pro: z.B. mit Steckplätzen für "Compute-Modules", mit denen man dann, je nach Leistungsbedarf, Erweiterungen mit der üblichen SOC Architektur einbauen kann, um so in einem Schritt CPU/GPU Kerne und RAM aufzurüsten."

sehe es auch so, wie exmacRabbit:
kann mir nicht vorstellen, dass Apple zb. Nvidia Grakas irgendwie einbinden will, sondern diesen Sonderweg mit Modulen geht. Die techn. Vergleiche mit PC's bringen mir nicht viel, da ich keinen PC will, sondern einen mac mit Leistung. Auch wenn der PC viel mehr Leistung, gepaart mit mehr Stromverbrauch hätte, würde ich keinen wollen.

Blender ist in meinem Umfeld seit ein paar Jahren der "hotShit" für CGI Visualisierungen im Bereich Produkt, Interior, Architektur, kostenlos, einfacher und besser als Adobe Software, laut deren Aussage. Auch bei den jungen Leuten (15-18), nutzen einige Blender, das wird was für die Zukunft und könnte kommerzielle Fotografie zu gewissen Teilen ablösen ...
-1
vta13.12.22 10:43
ideal
Blender ist in meinem Umfeld seit ein paar Jahren der "hotShit" für CGI Visualisierungen im Bereich Produkt, Interior, Architektur, kostenlos, einfacher und besser als Adobe Software, laut deren Aussage. Auch bei den jungen Leuten (15-18), nutzen einige Blender, das wird was für die Zukunft und könnte kommerzielle Fotografie zu gewissen Teilen ablösen ...
In Darktable hat dies für die Raw-Entwicklung erheblichen Einfluss.
"Das Modul stammt von einem anderen Modul mit gleichem Namen Blender 3D modeller by T. J. Sobotka. Obwohl es in erster Linie dazu gedacht ist, den hochdynamischen Bereich der Rohdaten des Sensors wiederherzustellen, kann es als Ersatz für das Modul Basiskurve verwendet werden. Das folgende Video dieses Moduls gibt eine nützliche Einführung filmic rgb: remap any dynamic range in darktable 3."
https://docs.darktable.org/usermanual/development/de/module-reference/processing-modules/filmic-rgb/?

Darktable entwickelt sich komplett weg von einer anzeigebezogenen Bearbeitung hin Richtung einer szenenbezogenen Bearbeitung.

Die alten Module werden wohl nicht entfernt werden (Kompatibilitätsgründe). Zukunft ist bei Darktable aber die szenenbezogene Bearbeitung.
+1
ideal13.12.22 11:02
Darktable kannte ich nicht, danke für den Tip - Geht in eine tolle Richtung! Sehr begrüssenswert. Nutze Capture One, Lightroom, CameraRaw, bin von keinem überzeugt, viel zu teuer und keine benutzerfreundliche Oberfläche. Bedienung Note 6, Funktionen könnten intuitiver sein, in die Richtung von Darktable. Sorry für meine kritische Sichtweise, ich brauche diese Tools oft und dann nervt einiges, obwohl man viel dafür zahlt.
0
vta13.12.22 11:11
ideal
Darktable kannte ich nicht, danke für den Tip - Geht in eine tolle Richtung! Sehr begrüssenswert. Nutze Capture One, Lightroom, CameraRaw, bin von keinem überzeugt, viel zu teuer und keine benutzerfreundliche Oberfläche. Bedienung Note 6, Funktionen könnten intuitiver sein, in die Richtung von Darktable. Sorry für meine kritische Sichtweise, ich brauche diese Tools oft und dann nervt einiges, obwohl man viel dafür zahlt.
Darktable ist super Software - opensource und kostenlos.
Darktable ist aber nicht unbedingt benutzerfreundlich. Steile Lernkurve. Bei Interessse am Thema kann das aber auch sehr interessant sein. Und die szenenbezogene Berarbeitung ist halt etwas anders. Wenn man in DT einsteigt, sollte man aber auf szenenbezogene Bearbeitung setzen, da sich DT in die Richtung immer mehr bewegt.

Eine andere OpenSource-Alternative ist Rawtherapee (und dessen Fork ART).
0
Gammarus_Pulex
Gammarus_Pulex13.12.22 11:30
Jetzt bin ich aber auch neugierig auf Darktable.

Nur die Differenzierung anzeigenbezogen und szenenbezogene Bearbeitung will sich in meinem Kopf grade nicht erklären. Könnt ihr das nochmal kurz erläutern?

Vielleicht kenn ich die Thematik auch nur unter anderem Namen *grübel
0
vta13.12.22 12:23
Bevor ich das in eigenen Worten falsch Wiedergebe, verweise ich lieber auf das Handbuch:
Falls bereits mit anderer RAW-Software (oder darktable vor der Version 3.0) gearbeitet wurde, sind deutliche Unterschiede festzustellen: darktable verwendet jetzt eine szenenbezogene Bearbeitung für die meisten seiner Dunkelkammer-Module. Dieses Vorgehen wird auch weitgehend in der Filmbranche genutzt und ist bekanntermaßen robuster als die anzeigebezogene Bearbeitung.

In der anzeigebezogenen Bearbeitung werden die Daten aus der RAW-Datei zuerst in einen Bereich komprimiert, der reines Schwarz als 0 und reines Weis als 1 repräsentiert und mittleres Grau wird als 0.5 fixiert. Eine Tonkurve wird automatisch (und irreversibel) auf diese Daten angewendet, um diese auf deinem Bildschirm “gut” aussehen zu lassen, und die nachfolgenden Bearbeitungen werden auf diese bereits hoch-modifizierten Bilddaten aufgesetzt. Die Kosten der anzeigebezogenen Bearbeitung ist ein früher Verlust des Verhältnisses zwischen Pixel-Helligkeit und -Sättigung (normalerweise auch noch mit Farbverschiebungen), die verantwortlich sind für den unrühmlichen HDR-Look, wenn der Dynamikumfang größer wird.

In der realen Welt existiert kein “reines Schwarz”, denn es gibt immer etwas Licht. Und es gibt keine Obergrenze für die Helligkeit von Dingen, also auch kein “reines Weiß”. Die szenenbezogene Bearbeitung versucht, die physikalischen Eigenschaften der Aufnahme so lange wie möglich zu erhalten. Dabei werden die RAW-Werte auf einer unlimitierten linearen Skala angeordnet, und die Daten erst am Ende nach der Bildbearbeitung in den Dynamikumfang der Anzeige komprimiert.

In einer szenenbezogenen Bearbeitung sind viele übliche Werkzeuge, wie z.B. Tonwertkurven, nicht mehr für die Bildbearbeitung geeignet, da diese auf nun nicht mehr geltenden Definitionen von Schwarz, Weiß und Grau basieren. Erfahrene Nutzer werden neue Techniken lernen und alte verwerfen müssen, jedoch mit robusteren und besser vorhersagbaren Ergebnissen belohnt werden.

Die szenenbezogene Bearbeitung in darktable aktiviert standardmäßig die Module Filmic RGB und Belichtung, wenn ein neues Bild in der Dunkelkammer geöffnet wird.


Es finden sich im Netz weitere Infos dazu. Auch findet man in YouTube Videos. Filmic wurde ständig weiterentwickelt, so dass manche Infos sich noch auf alte Versionen beziehen.

Der Entwickler dahiner ist vorallem Aurelien Pierre, der auch YoutTube-Videos veröffentlicht. Ein paar Links in der Schnelle rausgesucht (ich kenne nicht jedes Video der geposteten Links).

https://eng.aurelienpierre.com/2018/11/filmic-darktable-and-the-quest-of-the-hdr-tone-mapping/


Filmic RGB: remap any dynamic range in darktable 3.0
https://www.youtube.com/watch?v=zbPj_TqTF88


Filmic v6 and white balance interactions
https://www.youtube.com/watch?v=34iZotlYBBs


Bruce Williams Photography: darktable ep 057 - The Filmic RGB module
https://www.youtube.com/watch?v=v8Z63QZ1IVI


Modul filmic RGB, Teil 1 von 2
https://www.youtube.com/watch?v=9pUWNm4p6Jk


A dabble in photography
https://www.youtube.com/@adabbleinphotography8721/videos


Darktable Tutorial v3.8 Full Edit: Recover Highlights and Color Grading
https://www.youtube.com/watch?v=cLQ5dX73VHg


Forum: https://discuss.pixls.us/
+1
Gammarus_Pulex
Gammarus_Pulex13.12.22 12:36
Danke für die umfangreiche Zusammenstellung und Recherche

Die erste Erläuterung klingt ja schonmal einleuchtend, auch wenn es natürlich immer eine Frage des angestrebten Ziels ist. Oft ist die Realität ja gar nicht so "subjektiv schön" wie wir Menschen sie gerne sehen wollen.

Meine Kamera ist beispielsweise sehr sehr gut darin mit ihrer Color Science die Farben sehr nah an der Realität darzustellen. Dennoch fasse ich Farben und Tonwerte im Anschluss nochmal an, da ich bis auf die Reprofotografie keinerlei Bedarf habe lediglich die Wirklichkeit darzustellen.

Dennoch finde ich den szenenbezogenen Ansatz interessant und werde ohne testen. Auch wenn mir die Namensgebung nicht einleuchten will
0
vta13.12.22 12:44
Vielleicht interessant auch das nachfolgende Video (u.a. am Beispiel CaptureOne).
0
Weia
Weia14.12.22 17:35
Gammarus_Pulex
Nur die Differenzierung anzeigenbezogen und szenenbezogene Bearbeitung will sich in meinem Kopf grade nicht erklären. Könnt ihr das nochmal kurz erläutern?

Vielleicht kenn ich die Thematik auch nur unter anderem Namen *grübel
Ganz sicher.

Das ist eine fehlerhafte Eindeutschung von scene referred und output referred, die man als Fachbegriffe vermutlich nicht eindeutschen sollte und jedenfalls nicht falsch (outputanzeige!).

Das Begriffspaar spielt eine elementare Rolle im Farbmanagement. Wenn Dir das nicht so vertraut ist und Du zumindest auch mit Druck zu tun hast, kennst Du vielleicht stattdessen das Begriffspaar medienneutral vs. medienzentriert, das ist dasselbe.

Beispiel: Du scannst ein Bild ein oder verwendest ein Digitalphoto und willst es bearbeiten und drucken. Dazu kannst Du entweder erst die RGB-Bilddaten bearbeiten und dann nach CMYK konvertieren (scene referred / medienneutral) oder erst nach CMYK wandeln und dann bearbeiten (output referred / medienzentriert). Das ist ein uralter Hut. Früher hat man oft output referred gearbeitet, weil es hauptsächlich um Druck ging und das ICC-Farbmanagement gerade für CMYK noch in den Kinderschuhen steckte, so dass man beim Bearbeiten sowas wie Schwarzanteile lieber manuell einstellen wollte. Dann konnte man beliebig detailliert optimieren, aber halt um den Preis, dass das Ergebnis nur für einen Drucker mit diesem CMYK-Farbraum galt. Das macht heute bis auf Spezialfälle hoffentlich niemand mehr.

Wie gesagt, das sind olle Kamellen. Mittlerweile hat sich, weil Kameras und Scanner keine Standardfarbräumen haben, das Konzept des Arbeitsfarbraums durchgesetzt, der natürlich größer als Kamera- bzw. Scannerfarbraum sein muss, um noch nichts zu beschneiden, und in den zunächst konvertiert wird. In einem solchen Arbeitsfarbraum kann man dann scene referred, aber unabhängig vom spezifischen Scanner / der spezifischen Kamera arbeiten. Das Beschneiden geschieht dann erst bei den gerätespezifischen Ausgabeprofilen (output referred), also Display- oder Druckerprofil.

Im Idealfall verwendet man eine Variante des Arbeitsfarbraums mit linearer Tonwertkurve (Gamma = 1), weil sich dann präziser arbeiten lässt; allerdings braucht man dann eine sehr hohe interne Auflösung, um verlustfrei arbeiten zu können (der ganze Sinn von Tonwertkurven besteht ja darin, auch bei begrenzter Bittiefe den kompletten Kontrastverlauf ohne Banding und Zulaufen abbilden zu können). CoreImage, die in macOS seit den Anfangstagen von Mac OS X integrierte Bildbearbeitungstechnologie, arbeitet z.B. seit eh und je mit einem sehr großen internen Arbeitsfarbraum mit linearer Tonwertkurve und 128 Bit Auflösung.

Kein Mensch (hoffentlich) käme heute noch auf die Idee, ein Bild erst in einen kleinen Ausgabefarbraum (Display oder Drucker) zu konvertieren und dann zu bearbeiten.

Der von vta zitierte Ausschnitt der darktable-Anleitung ist für mich allerdings eine schwer verdauliche Mischung aus Halbwissen, schräger Darstellung und Esoterik-Anflügen, wie man sie von den High-Endern im Audiobereich kennt. Beispiel:
Handbuch darktable
In der realen Welt existiert kein “reines Schwarz”, denn es gibt immer etwas Licht. Und es gibt keine Obergrenze für die Helligkeit von Dingen, also auch kein “reines Weiß”. Die szenenbezogene Bearbeitung versucht, die physikalischen Eigenschaften der Aufnahme so lange wie möglich zu erhalten. Dabei werden die RAW-Werte auf einer unlimitierten linearen Skala angeordnet, und die Daten erst am Ende nach der Bildbearbeitung in den Dynamikumfang der Anzeige komprimiert.
Das ist natürlich kompletter Bullshit. Wir haben es bei Digitalfotos und Scans nicht mit der „realen Welt“ zu tun, sondern mit digitalen Bilddaten, die vom Sensor des entsprechenden Geräte geliefert werden. Und natürlich haben diese Sensoren Maximal- und Minimalwerte, die sie erfassen können und dann als 1 und 0 ausgeben. Was „physikalische Eigenschaften“ einer Aufnahme (eine Digitalaufnahme ist ein virtuelles Gebilde!) sein sollen, weiß nur der Autor dieses Unsinns und unlimitierte Skalen gibt es im Universum nirgendwo. Auch 128 Bit interne Auflösung sind auf 3,4^38 Abstufungen begrenzt. Dass das Wort linear auftaucht, lässt vermuten, dass der ganze Absatz eine maßlos geschwurbelte Umschreibung der Tatsache ist, dass darktable intern mit einem Arbeitsfarbraum mit Gamma = 1 arbeitet. Wie gesagt, CoreImage tut das seit eh und je.

Fehlt nur noch der Hinweis, dass darktable die „physikalischen Eigenschaften der Aufnahme“ besonders präzise erhalten kann, wenn der Mac über eine 1750€ teure Steckdosenleiste mit Strom versorgt wird. 🙄

Wenn diese Anleitung einen Hinweis auf die Qualität der Software selbst gibt, würde ich einen weiten Bogen um sie machen. Warum greift denn dieser Esoterikmüll immer weiter um sich?
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
+3
vta17.12.22 14:51
Weia
Und natürlich haben diese Sensoren Maximal- und Minimalwerte, die sie erfassen können und dann als 1 und 0 ausgeben.

Ich vermute, dass das anderes gemeint ist.
...
Unlike display-referred image editors, scene-referred image editors are not programmed to automatically clamp the resulting RGB channel values to the range between 0.0 and 1.0, as such clamping code would destroy the scene-referred nature of the data. Nonetheless, the resulting RGB channel values always represent colors that are bounded by the range of xy values enclosed in the triangle of xy values formed by the user-chosen RGB working space's chromaticities.

Scene-referred RGB data can contain, and editing operations can produce, RGB colors with corresponding Y values that greatly exceed the "canopy" of an RGB working space's "maximum channel value=1.0" Y values. For example, Y might be 2.00, 10.00, 1000.00, etc.
...

https://ninedegreesbelow.com/photography/display-referred-scene-referred.html

Ich steige da nicht mehr durch bzw. mir fehlt Vorwissen.

Infos sollte man bei Aurelien Pierre finden. Das ist der Entwickler, der glaube ich dem Bereich am meisten gemacht hat. Er hat auch verschiedene Videos gemacht: https://www.youtube.com/watch?v=zbPj_TqTF88
Das Zonensystem von Ansel Adams wird meine ich auch aufgegriffen.
0
Weia
Weia19.12.22 13:23
vta
Weia
Und natürlich haben diese Sensoren Maximal- und Minimalwerte, die sie erfassen können und dann als 1 und 0 ausgeben.
Ich vermute, dass das anderes gemeint ist.
Deine Grafik bezieht sich auf die Bildbearbeitung. Während Sensoren (und Ausgabegeräte) physikalisch zwingend Maximalwerte haben, die per Konvention auf 1 skaliert werden, sind „Bearbeitungen“, d.h. mathematischen Operationen natürlich keinerlei Grenzen gesetzt, da die Menge der rationalen Zahlen unendlich ist.

Klar kannst Du die Helligkeit in einem beliebigen Farbraum durch Multiplikation so „bearbeiten“, dass sie 1 beliebig weit übersteigt. Aber was hast Du davon? Um die Früchte Deiner Bearbeitung sehen zu können, muss Du sie auf irgendein real existierendes Ausgabegerät zurückskalieren und dann bist Du wieder, wo Du vorher warst.

Es ist eine rein mathematische Frage der Transformation, ob Du nun lieber einen größeren Farbraum wählst oder einen kleinen wie sRGB, bei dem Du aber Werte < 0 und > 1 zulässt; mathematisch kommt das aufs selbe raus. Und am Ende musst Du so oder so auf einen output referred Farbraum transformieren, bei dem Werte < 0 und > 1 keinen Sinn ergeben, weil 0 und 1 nunmal die physikalischen Grenzen des Ausgabegerätes beschreiben.

Praxisrelevant ist einzig, dass man erst am Ende der Kette auf einen engen Ausgabefarbraum konvertieren sollte und Bildbearbeitung in einem möglichst großen internen Farbraum bei hoher Bittiefe und idealerweise linearem Gamma erfolgen sollte.
“I don’t care” is such an easy lie. (The Warning, “Satisfied”)
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.