Bewegte Bilder per KI – Apple erforscht Animationswerkzeuge
Es ist ein lang gehegter Traum von Grafik- und Animationsdesignern: Aus einem Einzelbild und einer Beschreibung entsteht eine natürlich wirkende Bewegtbildszene. Bisher ist stunden- bis tagelange Arbeit notwendig, um eine Figur laufen, eine Sonne untergehen oder ein Raumschiff abheben zu lassen. Ein als
Preprint veröffentlichtes Paper offenbart: Apple experimentiert damit, einzelne Schritte gestalterischer Arbeit einer KI anzuvertrauen. Das Resultat ist ein rudimentäres Werkzeug – die Autoren nennen es Keyframer. Es soll in der Lage sein, Vektorgrafiken nach Texteingabe zu animieren. Der Fokus der Studie liegt nicht auf einer speziellen KI, sondern vielmehr auf der Methodik: Wie können Software-Entwickler die Wünsche von Designern effizient an ein Large Language Model (LLM) übergeben?
Das Animationswerkzeug lässt sich nirgendwo herunterladen. Das vorgestellte Keyframer ist lediglich ein Prototyp. Es hat ohnehin eine sehr eingeschränkte Funktion: Es kann Farbe, Position und Größe einzelner Elemente verändern, und das nur in speziell aufbereiteten Vektorgrafiken. Die Studie beschreibt, wie Apple-Entwickler eine GPT4-Anfrage in eine Bedienoberfläche einbetteten. Die KI erstellt CSS-Anweisungen, um benannte Elemente einer SVG-Datei zu animieren. Keyframer zeigt das animierte Resultat – nur 6,7 Prozent der GPT4-Antworten enthielten Fehler, sodass keine Animation entstand. Ein zusätzliches Fenster präsentierte die entstandenen CSS-Anweisungen, die Tester dann nachträglich bearbeiten konnten.
Apples Keyframer-Prototyp animierte mit KI-Hilfe einfache Illustrationen. Quelle: "
Keyframer: Empowering Animation Design using Large Language Models"
Kernfrage: Wie integriert man KI in Design-Apps?In ihrer Studie beschreiben die vier Autoren ihr Vorgehen: Zunächst fragten sie Animationsdesigner, welche Arbeitsschritte ihnen Schwierigkeiten bereiteten, und bei welchen sie sich KI-Unterstützung wünschten. Darauf bauten sie dann ihren Keyframer-Prototypen auf. Das Resultat durften dann einige Tester ausprobieren. Dabei beobachteten die Autoren, wie die Tester die KI-Funktion einsetzten. Zum Schluss fragten sie die Tester noch, was ihnen an Möglichkeiten fehlte.
Ideen für smarte KI-IntegrationIhre wichtigsten Beobachtungen: Viele Anwender wollen ihre Animation schrittweise aufbauen, also etwa erst die Wolken animieren, dann die Rakete, dann den Mond. 80 Prozent aller Anwender interagierten mit den entstandenen Stilanweisungen, um das Resultat zu verfeinern. Das galt auch für Nutzer mit wenig Code-Erfahrung. Eine weitere wichtige Erkenntnis: Geschwindigkeit ist ein entscheidender Faktor. Je mehr Zeit die KI für das Entstehen einer Animation benötigt, desto unwahrscheinlicher ist es, dass die Tester experimentierten, also alternative Animationen anforderten.