Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Vorstellung KI-Funktion generatives Füllen/Erweitern in Photoshop

In diesem Bericht soll es nicht um die möglichen und sehr weitreichenden Auswirkungen von KI auf unsere Gesellschaft gehen. Oder die Missbrauchsmöglichkeiten selbiger. Und auch nicht darum, ob wir es hier mit echter Intelligenz zu tun haben. Vielmehr möchte ich Ihnen einfach ein paar Möglichkeiten der neuen KI-Features in Photoshop zeigen, die vor allem für Grafiker/Layouter, aber auch für Privatanwender interessant sein können.

Was machen die neuen KI-Funktionen?
Im Prinzip ganz einfach: mit generativem Erweitern können Bereiche außerhalb des Originalbildes auf „intelligente“ Weise ergänzt werden. Generatives Füllen erlaubt es beispielsweise, einem Bild Elemente hinzuzufügen, oder auch unerwünschte Elemente zu entfernen. Also wie der gute alte Reparaturpinsel, aber viel cleverer und einfacher. Im Folgenden möchte ich Ihnen anhand von ein paar praktischen Beispielen zeigen, was das bedeutet.

Um die Funktionen nutzen zu können, ist ein Adobe-Abo erforderlich, das Photoshop enthält. Dafür reicht schon ein einfaches Foto-Abo mit Lightroom und Photoshop und ein Mac/PC. Auf dem iPad funktioniert das momentan noch nicht.

Beispiele
Wir beginnen mit einer generativen Erweiterung. Hier das Original-Foto unseres Nachbar-Hundes:


Der Hund steht auf einem den Boden bedeckenden Gewächs. Am unteren Bildrand unter dem Kopf des Hundes ist ein winzig kleiner Teil eines zweiten Hundes zu sehen. Der Teil ist zu klein, um ihn zweifelsfrei als Hund erkennen zu können, oder gar die Rasse bestimmen zu können.

Im ersten Schritt öffne ich das Foto in Photoshop. Die Vorgehensweise zur Erweiterung ist ganz einfach. Ich nehme das Freistellungswerkzeug und ziehe damit um des gesamte Bild einen Rahmen in der Größe, in der das Bild erweitert werden soll. Innerhalb dieses Rahmens verschiebe ich das Originalbild etwas nach rechts oben.


In der Tool-Leiste unterhalb gebe ich den Text ein: „Vervollständige den Hund“ und klicke anschließend auf Generieren. Der Vorgang kann ein paar Sekunden oder länger dauern. Hier das Ergebnis:


Photoshop erzeugt stets drei Varianten der Erweiterung, aus denen man sich die Beste raus pickt. Überzeugt keines der Ergebnisse, können durch einen erneuten Klick auf „Generieren“ weitere Varianten erzeugt werden.

Zunächst einmal begeistert in diesem Beispiel, wie realistisch die KI den Hund bereits im ersten Versuch vervollständigt hat. Sogar die Proportionen sind stimmig. Der zuvor aufgezogene Erweiterungsrahmen reichte nicht ganz aus, damit auch die Pfoten und der Schwanz vollständig ins Bild passen. Das könnte man in einem zweiten Schritt nochmal erweitern. Auch die Pflanzen passen in praktisch allen Details sehr gut und selbst der (Un-) Schärfeverlauf ist glaubhaft stimmig.

Auffällig ist nur das seltsame Mutantenwesen rechts unten. Die KI hat offenbar erkannt, dass es sich um ein weiteres Tier handeln dürfte, konnte sich aber wohl nicht zwischen Hund und Katze entscheiden. Aber kein Problem. Das lässt sich leicht korrigieren. Mit dem Auswahlrechteck-Werkzeug markiere ich den unstimmigen Bereich:


Nun gebe ich im Textfeld unten einfach das Wort „ohne“ ein und klicke auf Generieren. Hierbei handelt es sich um generatives Füllen. Und das sieht in diesem Beispiel so aus:


Das Ergebnis ist nahezu perfekt und bedarf kaum einer weiteren Nachbearbeitung.

So einfach und gut das in diesem Beispiel auch geklappt hat, es gibt unendlich viele Stolpersteine, sodass in der Regel weit mehr als nur zwei, drei Schritte notwendig sind, um zum gewünschten Ergebnis zu kommen. Hier ein etwas kompliziertes Beispiel:


Die Strandszene mit Schiff im Fokus enthält ein paar harte Nüsse für die KI. Das Ergebnis der Erweiterung sieht so aus:


Auch hier überzeugt auf einen flüchtigen Blick, wie nahtlos die KI die Landschaft und Umgebung an das Original angepasst hat. Ich habe hier aber ein paar Versuche bzw. Varianten benötigt, um zu einem einigermaßen brauchbaren Bild zu kommen. Die KI hat beispielsweise die Strandkörbe links und rechts teilweise bis ins unkenntliche verzerrt, weshalb ich mittels Markierung und generativer Füllung um „Strandkörbe wie in der Bildmitte“ gebeten habe. Doch so richtig überzeugend hat das nie geklappt.


Im Original ist oben links ein dunkler Schatten zu sehen. In einigen Varianten hat die KI das einigermaßen glaubhaft zu einem Dachüberstand erweitert. Aber ich habe das lieber entfernt (Markieren „ohne“ generieren). Der Vordergrund wurde durchaus glaubhaft neu generiert, auch wenn die Objekte dort nicht einwandfrei identifizierbar sind. Der Schärfeverlauf stimmt allerdings nicht. Im Vordergrund eher scharf, dann im Origninalteil des Bilder der Bokeh-Bereich und zur Mitte des Bildes wird es wieder schärfer. Das passt nicht.

Ich hatte versucht, ein paar in größerer Distanz vorbei fliegende Möwen zu ergänzen, aber mit wenig Erfolg. Zahleneingaben, wie etwa „Fünf Möwen“ ignoriert die KI, und mit „in größerer Distanz“ kann sie auch nichts anfangen. Es wurden stets nur eine unstete Anzahl an Möwen groß im Vordergrund generiert. Auch die Eingabe „ein Schwarm Möwen“ führte nur zu drei größeren Vögeln im Vordergrund.

Noch ein Beispiel anhand einer Produktfotografie. Hier ein Lautsprecher in einem sehr rustikalen, ur-amerikanischen Wohnraum mit teils kitschigen Accessoires.


Mit den KI-Features in Photoshop habe ich nicht nur den Umgebungsbereich erweitert, sondern nach und nach Gegenstände ergänzt. Darunter den Totempfahl rechts, die zweite Holzmaske an der Wand, Pfahl und Feder links, sowie die Katze im Vordergrund. Außerdem habe ich das „Aquarium“ gegen eine alte TV-Bildröhre ersetzt. Das alles hat schon einige Durchläufe aus Versuch und Irrtum erfordert. Oft wurde nicht das Gewünschte erzeugt, sodass ich auf alternative Ideen zurückgreifen musste, die besser umgesetzt wurden. Alles in Allem hätte es mit herkömmlicher Bildbearbeitung aber erheblich länger gedauert und bessere Photoshop-Skills erfordert, um dieses Ergebnis zu erzielen.

Und zum Schluss noch ein Beispiel für eine Raum-Erweiterung, wieder mit einem Produktfoto von Lautsprechern als Original:


Hier das Ergebnis einmal erweitert:


Und hier ein zweites Mal erweitert, basierend auf der ersten Bilderweiterung:


Fazit: Wir sind noch ganz am Anfang
Schon mit den jetzigen Möglichkeiten der KI in Photoshop ist einiges Möglich. Online nutzbar stehen auch weitere Features zur Verfügung, wie etwa die Text-zu-Bild-Erzeugung, Skizze zu Grafik, Textfunktionen und mehr. In vielen Fällen und mit ein wenig Übung sind die Ergebnisse sehr überzeugend und teilweise durchaus kommerziell nutzbar. Oft jedoch scheitert die KI an scheinbar einfachen Aufgaben.

Unter dem Strich jedoch sind die PS-KI-Features ein mächtiges neues Werkzeug, dass mir in der kurzen Zeit seit ihrem Erscheinen schon mehrfach Lösungen ermöglicht haben, die bislang meine Photoshop-Fähigkeiten überstiegen hätten. Und ich denke, vielen anderen Nutzern wird es ganz genau so gehen.

Kommentare

breaker
breaker07.10.23 08:58
Habe damit schon während der Photoshop Beta in den letzten Monaten rumgespielt und bin jetzt sehr zufrieden mit der finalen Version, die man jetzt auch im Agentur Alltag für Kunden einsetzen darf. Wie schon im Artikel angeklungen ist, nicht alles ist direkt perfekt. Aber die Zeitersparnis ist schon sehr enorm. Nicht so sehr, weil ich mittels KI jetzt Composings im Alltag damit erstellen möchte, ich brauche es am meisten dafür, mal ein Bild zu erweitern oder Objekte rauszunehmen – insbesondere Retuschen von Objekten vor Mustern oder Geländern, wo man früher ewig gestempelt hat sind jetzt innerhalb von Sekunden nahezu perfekt.
+8
tranquillity
tranquillity07.10.23 09:21
Bin nur Laie hinsichtlich Bildbearbeitung, aber ich finde die Möglichkeiten ziemlich beeindruckend. Vor allem die Retuschefunkton, davon haben wir früher immer geträumt.
0
net_zwerg
net_zwerg07.10.23 11:00
Die Technik hinter alldem ist wirklich beeindruckend. Trotzdem macht mir dieses künstliche Generieren von Bildinformation auch etwas Angst, weil die Technik unweigerlich mißbraucht werden wird (Stichwort: FakeNews) und es immer schwieriger werden wird, falsche Bilder zu entlarven.
Am sinnvollsten finde ich KI Unterstützung im Bereich Entrauschen und Schärfen von 'echten' Fotos.
Irgendwann wird vielleicht im Duden stehen: "Fotografieren: veraltete Art der Bilderzeugung, heute weitgehend abgelöst durch Image Content Creating."
+15
scheubo07.10.23 11:33
net_zwerg

Irgendwann wird vielleicht im Duden stehen: "Fotografieren: veraltete Art der Bilderzeugung, heute weitgehend abgelöst durch Image Content Creating."

Oder Image Content Composing? (Ich bin allerdings nicht mal Laie in der Bildbearbeitung.)
Diesen Duden-Eintrag halte ich auf jeden Fall für eine (sprichwörtlich) eindrucksvolle Vision von dir!
+1
Nebula
Nebula07.10.23 12:28
Passiert das eigentlich alles in der Cloud, oder macht Photoshop das lokal, so wie man mittels Stable Diffusion oder Whisper endlich mal fordernde Aufgaben für Apple Silicon hat.
»Wir werden alle sterben« – Albert Einstein
+1
breaker
breaker07.10.23 12:33
Nebula
Passiert das eigentlich alles in der Cloud, oder macht Photoshop das lokal, so wie man mittels Stable Diffusion oder Whisper endlich mal fordernde Aufgaben für Apple Silicon hat.
Läuft auf Adobes Servern.
+3
moosegcr
moosegcr07.10.23 12:47
Nun gut. Das zeigt eindrucksvoll, daß man jetztr wirklich nichts mehr glauben kann. Ich gehe mal davon aus, daß Adobe in KI-modifizierte Bilder keine SEHR gut geschützte Metadaten reinschreibt, in denen steht "mit KI massiv verändet" oder so - das wäre ethisch korrekt. Aber was soll's - Ethik und Moral - die Fremdworte der heutigen Gesellschaft...
+6
breaker
breaker07.10.23 13:11
moosegcr
Nun gut. Das zeigt eindrucksvoll, daß man jetztr wirklich nichts mehr glauben kann. Ich gehe mal davon aus, daß Adobe in KI-modifizierte Bilder keine SEHR gut geschützte Metadaten reinschreibt, in denen steht "mit KI massiv verändet" oder so - das wäre ethisch korrekt. Aber was soll's - Ethik und Moral - die Fremdworte der heutigen Gesellschaft...

+6
moosegcr
moosegcr07.10.23 13:34
breaker
moosegcr
Nun gut. Das zeigt eindrucksvoll, daß man jetztr wirklich nichts mehr glauben kann. Ich gehe mal davon aus, daß Adobe in KI-modifizierte Bilder keine SEHR gut geschützte Metadaten reinschreibt, in denen steht "mit KI massiv verändet" oder so - das wäre ethisch korrekt. Aber was soll's - Ethik und Moral - die Fremdworte der heutigen Gesellschaft...

Bin schwer beeindruckt. Ich muß gestehen, ich hätte das jetzt zu Beginn des KI-Hypes nicht so erwartet - so gesehen: Hut ab! Daumen halten, daß die Metadaten nicht ausgehebelt werden können...
+2
verstaerker
verstaerker07.10.23 13:40
moosegcr
Daumen halten, daß die Metadaten nicht ausgehebelt werden können...

man macht einfach n Screenshot
+2
verstaerker
verstaerker07.10.23 13:46
die Lautsprecher Wilson Audio AlexiaV kosten 92000.. nice
0
Kapeike
Kapeike07.10.23 13:51
verstaerker
die Lautsprecher Wilson Audio AlexiaV kosten 92000.. nice

so teuer wie die sind, so hässlich sind sie auch...
+9
doppelherz07.10.23 16:21
Wäre alles weitaus gefährlicher, wenn man es nicht mit einem extrem prüden amerikanischen Unternehmen zu tun hätte. Ich versuchte eine Strandsituation zu erstellen. Vorgabe, Auswahl mit Strand Palmen Karibik Sonne Meer.
Das ging alles, auch alter Mann in Hawaihemd, dicker Junge in Badehose etc.pp..
Die Eingabe Frau in Bikini oder Frau in Badeanzug bescherte mir aber sofort eine Meldung, dass ich gegen die Bestimmungen verstosse.
+8
MacPit07.10.23 17:02
doppelherz
Das ging alles, auch alter Mann in Hawaihemd, dicker Junge in Badehose etc.pp..
Die Eingabe Frau in Bikini oder Frau in Badeanzug bescherte mir aber sofort eine Meldung, dass ich gegen die Bestimmungen verstosse.

Hab das mit Frau im Regenmantel versucht, das hat geklappt. Sieht zwar aus wie Rotkäppchen, aber immerhin.

Für mich ist die Retusche im Moment am brauchbarsten. Vielleicht noch leichte Erweiterung bei Pflanzenhintergründen und oder Himmel. Da ist noch verflixt viel Luft nach oben. Eh das mal sauber läuft, vergehen sicher noch ein paar Monde.
0
sonorman
sonorman07.10.23 17:13
doppelherz

Die Eingabe Frau in Bikini oder Frau in Badeanzug bescherte mir aber sofort eine Meldung, dass ich gegen die Bestimmungen verstosse.
Vielleicht geht es mit Burkini.
+8
sonorman
sonorman07.10.23 17:17
MacPit
…Da ist noch verflixt viel Luft nach oben. Eh das mal sauber läuft, vergehen sicher noch ein paar Monde.
Habe jetzt schon mehrfach Erweiterungen von Ambiente-Produktbildern gemacht, die schon beim ersten oder zweiten Versuch astrein waren. Kommt natürlich immer auf die Komplexität an, aber das Tool ist für mich jetzt schon eine große Hilfe. Weitere Verbesserungen natürlich jederzeit willkommen. Die KI lernt ja nie aus.
+1
teorema67
teorema6707.10.23 21:00
Die KI hat beispielsweise die Strandkörbe links und rechts teilweise bis ins unkenntliche verzerrt, weshalb ich mittels Markierung und generativer Füllung um „Strandkörbe wie in der Bildmitte“ gebeten habe. Doch so richtig überzeugend hat das nie geklappt.

Das ist nicht nur nicht überzeugend, sondern die Unsinnigkeit des Fotos fällt sofort ins Auge: Die Pfähle im Vordergrund sind (fast) scharf, die im Mittelgrund (stark) unscharf, der Hintergrund ist scharf. So wir das nix.
Wenn ich groß bin, geh ich auch auf die Büffel-Universität! (Ralph Wiggum)
+1
makku
makku07.10.23 21:32
... wenn ich mir das letzte Beispiel des Berichts so anschaue, hat die KI kein wirklich gutes Gespür für Licht. Wie kann eine Wand gegenüber eines Fensters so abgedunkelt sein? Oder ist das eine nachträgiche Bearbeitung? Der Verlauf ist schon echt grottig!
Und was machen diese unerklärlichen "Schattenverläufe" auf der Fensterwand links? Bei genauerer Betrachtung sollte man doch noch ein Auge auf die Plattencover rechts auf dem Board lenken ...
Fragen über Fragen ... die Antwort weiß wahrscheinlich nicht mal die KI
+1
makku
makku07.10.23 21:41
Das habe ich ganz vergessen:
Vielen Dank für den Selbstversuch und für die ausführliche Beschreibung!
Es bereitet mir jedes Wochende viel Freude auf diese Seite zu kommen!
0
AndreasDV07.10.23 22:39
Kollege hat mir heute ein Video geschickt, wo Politiker etwas sagen, was sie nie gesagt haben. Aber es sieht so verdammt echt aus. Auch die Sprache, wie ob es wirklich die echten Stimmen von denen wären. Da werden wir sehr viele Fakes aus der Rechten Bubble kommen, aus China und Russland. Und sehr viele Menschen werden diesen Mist glauben.
+7
Ölförderung 6508.10.23 01:38
Wichtig zu ergänzen: da das Ergebnis immer ein zufälliges ist, immer mit den finalen HiRes-Daten arbeiten. Das Probieren mit Layoutdaten und anschließendem Umsetzen mit den Feindaten funktioniert nicht, da das ursprüngliche Layoutbild niemals mehr zu erreichen ist.
D. h. entweder direkt das Bild proaktiv kaufen und auf das OK vom Kunden hoffen, oder beim Layoutbild den Kunden explizit darauf hinweisen, dass am Ende alles ganz anders wird …
+3
penumbra08.10.23 09:39
moosegcr
breaker
moosegcr
Nun gut. Das zeigt eindrucksvoll, daß man jetztr wirklich nichts mehr glauben kann. Ich gehe mal davon aus, daß Adobe in KI-modifizierte Bilder keine SEHR gut geschützte Metadaten reinschreibt, in denen steht "mit KI massiv verändet" oder so - das wäre ethisch korrekt. Aber was soll's - Ethik und Moral - die Fremdworte der heutigen Gesellschaft...

Bin schwer beeindruckt. Ich muß gestehen, ich hätte das jetzt zu Beginn des KI-Hypes nicht so erwartet - so gesehen: Hut ab! Daumen halten, daß die Metadaten nicht ausgehebelt werden können...

Das ist bestimmt ein guter Ansatz, wird aber in der Realität wahrscheinlich nicht viel bringen.
Wenn ich mit dieser Funktion Fake News erzeugen wollte, würde ich das einfach machen und von dem schlussendlich erzeugten Bild ein Screenshot machen (keine Metadaten mehr) und das dann für meine Kampagne in den sozialen Medien verwenden.
Eigentlich müsste Adobe von jedem auf diese Weise erzeugten Bild einen Hash auf ihrem Server speichern, damit Journalisten oder auch einfache User später ganz einfach überprüfen können, ob die Adobe K.I. mit diesem Bild etwas zu tun hat. Eigentlich müsste dieser Hash-Algorithmus dann auch einzelne Teilbereiche des Bildes erkennen können. (man kann ja auch nur einen Teil des Bildes als Screenshot verwenden).
enjoy life in full trains
+1
jmh
jmh08.10.23 11:03
der wtf?-blick des boston-terriers passt gut zur thematik ...
wir schreiben alles klein, denn wir sparen damit zeit.
0
sonorman
sonorman08.10.23 11:38
jmh
der wtf?-blick des boston-terriers passt gut zur thematik ...
Ist ne französische Bulldogge.
+1
jmh
jmh08.10.23 12:45
sonorman
jmh
der wtf?-blick des boston-terriers passt gut zur thematik ...
Ist ne französische Bulldogge.
oh, dafuer hat sie aber lange beine! oder ist meine fehldeutung am ende auch der ki-involvierung geschuldet?
wir schreiben alles klein, denn wir sparen damit zeit.
0
sonorman
sonorman08.10.23 12:58
jmh
Na, das kommt ungefähr hin mit den Beinen. Der ist nicht ganz so extrem tief gelegt.
+2
macuser96
macuser9608.10.23 13:32
Ich beschäftige mich auch seit ein paar Tagen damit und muss ganz ehrlich sagen, dass das absolut groundbreaking ist, nichts weniger als eine echte Revolution. Wie oft haben wir uns schon geärgert, wenn Fotos zu eng beschnitten waren, wenn oft nur ein paar Zentimeter gefehlt haben oder wenn irgendein Element den Bildeindruck gestört hat. Oft bist du dann auch nicht mit Stempeln hingekommen und musstest es halt so nehmen wie es ist. Ab jetzt ist das praktisch kein Thema mehr.

Klar, die Ergebnisse sind oft noch nicht perfekt, aber das sind Kinderkrankheiten. Für eine Version 1.0 sozusagen, ist das absolut revolutionär. Und man stelle sich nur vor, wie das in 1, 5 oder 10 Jahren funktionieren wird.

Auch klar: Bildmanipulation mit gefakten Inhalten ist ein großes Thema, das unbedingt geregelt gehört, keine Frage - und wahrscheinlich auch gar nicht in vollem Umfang geregelt werden KANN.
Ich seh es halt mehr vom praktischen Standpunkt, wieviel Arbeit es erspart oder welche Möglichkeiten sich ergeben, wenn es um rein technische Retuschen geht.
0
ideal09.10.23 10:08
moosegcr
Nun gut. Das zeigt eindrucksvoll, daß man jetztr wirklich nichts mehr glauben kann. Ich gehe mal davon aus, daß Adobe in KI-modifizierte Bilder keine SEHR gut geschützte Metadaten reinschreibt, in denen steht "mit KI massiv verändet" oder so - das wäre ethisch korrekt. Aber was soll's - Ethik und Moral - die Fremdworte der heutigen Gesellschaft...

es gibt eine neue palette, die ein zertifikat in den header des bildes schreibt (mit photoshop firefly erzeugt oder so..), aber nur wenn du es freigibst, nicht automatisch.

obige beispiele sind auch für mich als alten (photoshop)hasen beeindruckend, ich arbeite seit der midjourney beta 2022 viel damit (und jetzt auch mit adobe firefly) - v.a. beruflich
photoshop firefly (oder vorher "inhaltsbasiert füllen") hat noch ein problem mit texturen, es klappt oft nicht, wenn ich ein karomuster, wolldecke oder komplizierte strukturen erweitere

die bildmontagen (mit dem hund, oben) wären ohne AI nicht möglich, ausser man hätte mehr schüsse aus verschiedenen bereichen und macht damit ein neues composing. ich arbeite seit 1997 mit photoshop, (meist grosse bildmontagen) das ist zeitaufwändig in druckauflösung oder grossformatdruck > ändert sich jetzt langsam und ich freue mich. natürlich hat jeder recht, der den missbrauch der KI kritisch sieht.
vor 100 jahren wurden schon menschen auf bildern entfernt oder hinzugefügt in der dunkelkammer per pinsel/eiweisslasur und Belichtungstechniken (fakenews > kriegs-propaganda).
nur aktuell ist viel mehr möglich!
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.