Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Interessante technische Hintergründe zu Apple Intelligence: Foundation-Modell, Adapter und abgesicherte Cloud-Berechnungen

Gespannt warteten viele darauf, wie Apple KI-Funktionen in die nächste OS-Generation integriere. Die WWDC-Keynote erklärte hauptsächlich, welche Fähigkeiten in macOS, iOS und iPadOS Einzug halten werden. In der "Platforms State of the Union" ging Apple auf die Details ein und offenbarte, aus welchen Komponenten Apple Intelligence aufgebaut wird. Die Basis stellen auf dem Gerät installierte Große Sprachmodelle (LLM). Komplexe Anfragen delegiert das jeweilige Gerät an Private Cloud Compute – und setzt dabei auf besonders datensparsame und angriffssichere Methoden.


Für die meisten Anforderungen soll das auf dem jeweiligen Gerät lokal installierte LLM passende Antworten liefern. Dabei setzt Apple auf ein Basis-Modell (Apple nennt es "Foundation Model"). Um dies für verschiedene Zwecke multifunktional einzusetzen, etwa die Zusammenfassung langer Texte oder das Umformulieren einer E-Mail, ergänzen feinjustierte zweckgebundene Adapter das Foundation Model. Diese Architektur mache das lokale LLM effizienter, erklärt Sebastien Marineau-Mes, Vice President of Intelligent System Experience Engineering.

Anstatt auf unzählige verschiedene LLMs zu setzen, verwendet Apple Intelligence sogenannte Adapter, die an das Foundation-Modell ankoppeln und eine Antwort nachträglich für den jeweiligen Verwendungszweck optimieren.

Eins für Sprache, eins für Bilder
Anschließend habe man die 16-Bit-Parameter des LLM-Konstrukts auf bis zu 4 Bit pro Parameter komprimiert, bei gleichbleibender Qualität. Schließlich haben sich die Apple-Entwickler auf die Geschwindigkeit konzentriert, um schnellstmöglich Antworten zu erzeugen. Verschiedenste moderne Verfahren kämen dabei zum Einsatz. Insgesamt zwei KI-Komplexe sind lokal installiert: Zum Sprach-Modell gesellt sich das Diffusion-Modell - dies erzeuge Bilder, bestehe aber ebenfalls aus einem Foundation-Modell sowie angeschlossener Adapter. Auf diese Weise realisiere Apple beispielsweise die unterschiedlichen Stilrichtungen beim Erzeugen der Genmoji.

Abgesicherte Umgebung für Private Cloud Compute
Komplexere KI-Abfragen mit größerem Berechnungs- und Datenaufwand lagert das iPhone, iPad oder der Mac an einen Server mit Apple-Silicon-Hardware aus. Um die dafür verwendeten Nutzerdaten abzusichern, habe Apple dafür ein eigenes Betriebssystem namens Private Cloud Compute OS aufgesetzt. Dies verzichte von vornherein auf dauerhafte Datenspeicherung sowie auf privilegierte Zugriffe via Remote Shell, um unbefugtes Abgreifen von Daten zu vermeiden. Die Kommunikation zwischen dem individuellen Gerät und dem KI-Server erfordere ein kryptografisch signiertes unveränderliches Betriebssystem (Signed System Volume). Apple stelle zukünftig virtuelle Images der Betriebssysteme für Sicherheitsforscher bereit; wer potenzielle Sicherheitslücken entdecke und melde, werde über Apple Security Bounty dafür belohnt.

Die just als Entwickler-Beta erschienenen OS-Versionen delegieren KI-Aufträge an zwei lokale KIs oder Private Compute Cloud über eine verschlüsselte und signierte Verbindung.

Entwickler dürfen KI-Werkzeuge einbinden
Sowohl lokale Foundation-Modelle als auch Anfragen über die Private Computing Cloud werden auf Betriebssystemebene geregelt. Entwickler können sie in ihre Apps integrieren: Sofern eine textverarbeitende App Standard-UI-Frameworks verwende, seien die auf Sprache fokussierten "Writing Tools" bereits eingebunden. Auch der Assistent für individuelle Emoji (Genmoji) und die Illustrations-KI (Image Playground) ließen sich einfach integrieren.

Kommentare

FlyingSloth
FlyingSloth12.06.24 08:47
Ok, Ich muss mich wohl entschuldigen.

Haette ich dieses Platforms State of the Union Video gestern gesehen, dann haette ich mir meinen "Apple hats verschlafen Thread" gespart.

In dem Video hier wird die Thematik weitaus besser erklaert und man muss zugeben. Apple hat da ganz schoen Hirnschmalz einfliessen lassen. Sorry Apple fuer meinen Schnellschuss gestern!

Der einzig fade Beigeschmack fuer mich bleibt jedoch die optionale Open AI Integration.
Fly it like you stole it...
+33
macuser22
macuser2212.06.24 08:53
FlyingSloth
Der einzig fade Beigeschmack fuer mich bleibt jedoch die optionale Open AI Integration.

Warum, wenn’s doch optional ist? Oder gerade deshalb? Ich find’s gut, dass ich wählen kann, ob ich es nutzen möchte, oder nicht.
Erkenne dich selbst –//– Nichts im Übermaß
+10
MLOS12.06.24 08:53
FlyingSloth

Glücklicherweise ist es optional und ich hoffe, man kann das komplett abschalten ähnlich wie Ortungsdienste, Tracking usw.
+5
Murx12.06.24 09:03
Es ist für die Vorredner als auf dem Gebiet bewanderte Leute optional.

KI für alle - mit Apple und Privacy im Werbekontext - birgt die Gefahr, dass der Rest einfach OK klickt, wenn er nach Open Ai gefragt wird. Es sei denn, man muss aktiv nach der Option zum Zuschalten suchen (Hürde), und es wird leicht zugänglich erklärt, was das für die eigenen Daten bedeutet. Dann wird vielleicht mehr nachgedacht. Die meisten werden wohl trotzdem zustimmen.
+2
westmeier
westmeier12.06.24 09:16
FlyingSloth
Ok, Ich muss mich wohl entschuldigen.

Siehst du, deswegen mag ich dich und deine Beiträge hier so gerne. Du kannst Größe beweisen, wenn’s drauf ankommt. Danke!
+19
macfreakz12.06.24 09:33
Die Integration mit OpenAI ist genau das gleiche, was Apple mit Google Suche macht. OpenAI = globale Information.

Apple Model = persönliche Information, die lokal verarbeitet werden kann (+ Apple Private Cloud Compute)
+1
macfreakz12.06.24 09:34
Schon beeindruckend, wie Apple geschafft hat, das Modell so klein zu bauen, dass es lokal ausgeführt wird, ohne die Qualität zu sehr leiden muss. Das ist schon eine Innovation.
+6
trw
trw12.06.24 09:34
FlyingSloth
Ok, Ich muss mich wohl entschuldigen.
Haette ich dieses Platforms State of the Union Video gestern gesehen, dann haette ich mir meinen "Apple hats verschlafen Thread" gespart. ...

Respekt!
... machen so (auch hier) leider nicht soooo viele!
+12
Stefanie Ramroth12.06.24 09:38
FlyingSloth
Ok, Ich muss mich wohl entschuldigen.
Schließe mich den Vorrednern gerne an. Vielen Dank für Deine Reaktion hier.
Nach "Daumen runter" gestern habe ich hier gerne die Balance wiederhergestellt
+2
oculi12.06.24 10:05
Ich bin KI Laie - deshalb mag meine Frage etwas simpel und unwissend klingen.
Ich bin bisher immer davon ausgegangen, dass KI System viele und vor allem immer neuere Daten benötigen und außerdem in Kombination mit den Anfragen der Nutzer daraus lernen und so immer besser werden.
Wenn also Apple behauptet das die Anfragen nicht gespeichert werden, wie kann und soll die KI dahinter denn besser werden?
Oder werden zwar die Daten dennoch gesammelt und gespeichert aber lediglich von meiner Person als Anwender getrennt? Wenn zweites der Fall ist, dann wäre das der eigentlichen Knackpunkt wo alle kritischen Augen hinschauen müssten, wie genau sie das sicherstellen und es auch nachträglich nicht aushebeln können.
Wir haben ja gerade alle gesehen, wie gut das mit den angeblich gelöschten Fotos bei Apple funktioniert. Alles noch da. Nichts war da gelöscht. Es war nur nicht mehr für den Anwender sichtbar.
+1
Schildie
Schildie12.06.24 11:08
oculi, so wie ich das (ebenfalls als Laie) verstehe, braucht man natürlich zuerst einmal Daten, um die Modelle zu trainieren. Es ist allerdings nicht zwingend erforderlich, die Modelle mit den Daten der Anfragen weiter zu trainieren; man kann auch «abgeschlossene» Modelle nehmen, die nicht weiter dazu lernen, oder natürlich auch ausgewählte neue Daten zum Weiter-Trainieren verwenden.
+1
PorterWagoner
PorterWagoner12.06.24 11:13
Ich dachte immer, ein trainiertes Modell ist "fertig" und lernt nicht mehr, bis man es eben ganz neu trainiert? War es nicht so, dass dieses Dazulernen etwas ist, das ai einfach fehlt, im Gegensatz zu echter Intelligenz?
+4
tangoloco12.06.24 11:22
War es nicht so, dass dieses Dazulernen etwas ist, das ai einfach fehlt, im Gegensatz zu echter Intelligenz?
Naja, so ganz fehlen kann nicht gesagt werden, aber so wie ein menschliches Gehirn, davon kann die nächsten 20 Jahre nicht die Rede sein. Die Milliarden der möglichen Verknüpfungen eines menschlichen Gehirns sind schon Unikat und nicht so leicht zu toppen, auch wenn die menschlichen Verhaltensweisen das Potenzial nicht so vermuten lassen
... sehr veraltete mentale Schaltkreise lassen Menschen überall geheimnisvolle Kräfte vermuten
+4
Quickmix
Quickmix12.06.24 12:26
westmeier
FlyingSloth
Ok, Ich muss mich wohl entschuldigen.

Siehst du, deswegen mag ich dich und deine Beiträge hier so gerne. Du kannst Größe beweisen, wenn’s drauf ankommt. Danke!

+1
0
Unwindprotect12.06.24 15:28
oculi
Ich bin KI Laie - deshalb mag meine Frage etwas simpel und unwissend klingen.
Ich bin bisher immer davon ausgegangen, dass KI System viele und vor allem immer neuere Daten benötigen und außerdem in Kombination mit den Anfragen der Nutzer daraus lernen und so immer besser werden.

Es gibt erstmal die sogenannten "Foundation Models". Das sind die LLMs die mit enormen (monatelangem) Training und gigantischen Daten trainiert wurden. Diese sind für sich erstmal abgeschlossen. Sie werden mitunter auch mal ersetzt durch ein neueres ebenfalls aufwändig komplett neu trainiertes Modell. Wir sprechen hier aber schon meistens von Monaten oder mehr. Wann man aufhört Daten reinzufüttern und Trainings laufen zu lassen ist ja kein fester Punkt. Man entscheidet einfach anhand der Bewertung der Ergebnisse "so das ist erstmal genug". Man kann aber an dem Punkt anknüpfen und weiter trainieren. Es ist nur nicht so, dass das Modell "im laufenden Betrieb" trainiert wird. "Learning" und "Inferenzing" sind komplett getrennte Phasen.

Weiterhin gibt es das sogenannte "Fine tuning" und "Alignment". Im Prinzip trainiert man das bereits trainierte Foundation Modell mit einer meist eher kleinen Menge an Daten nochmal weiter. Im Resultat kriegt man ein neues Modell, das ein bisschen besser reagieren sollte für die neu gelernten Frage/Antwort Paare. Das wird gemacht um das Foundational Model besser für konkrete Anwendungsfälle zu optimieren indem man eben eine Reihe gewünschter Anfrage/Antwort paar dazu trainiert. Bei "Alignment" geht es dabei spezifisch darum dem Modell bestimmte "problematische" Antworten abzutrainieren indem man grob auf entsprechende Anfragen eine Antwort wie "Dazu darf ich Dir nichts sagen" auftrainiert. Fine tuning kann man natürlich auch mit Daten machen, die man im Rahmen von Konversationen der Nutzer zwischenzeitlich gesammelt hat. Aber auch da geht das nicht automatisch. Es werden eben immer Frage/Antwort Paare entworfen und im Anschluss einige Stunden "dazutrainiert". Durch solches Finetuning können natürlich auch Dinge die schon gingen "wegtrainiert" werden, weswegen man manchmal auch erlebt, dass die Modelle sich plötzlich verschlechtern.
oculi
Wenn also Apple behauptet das die Anfragen nicht gespeichert werden, wie kann und soll die KI dahinter denn besser werden?
Oder werden zwar die Daten dennoch gesammelt und gespeichert aber lediglich von meiner Person als Anwender getrennt? Wenn zweites der Fall ist, dann wäre das der eigentlichen Knackpunkt wo alle kritischen Augen hinschauen müssten, wie genau sie das sicherstellen und es auch nachträglich nicht aushebeln können.
Wir haben ja gerade alle gesehen, wie gut das mit den angeblich gelöschten Fotos bei Apple funktioniert. Alles noch da. Nichts war da gelöscht. Es war nur nicht mehr für den Anwender sichtbar.

Naja "Konversationen der Nutzer" sind ja nicht die einzigen Möglichkeiten für Finetuning und man muss ja Konversationen auch nicht live "abschnorcheln". Man kann z.B. einfach auf "Nutzerfeedback" hören... wenn viele Nutzer sagen, das bestimmte Anfragen doofe Antworten liefern, dann kann man daraus Finetuning-Material gewinnen. Man kann auch interne Tests mit Nutzern machen die einfach das System benutzen und Vorschläge zur Verbesserung machen. Man könnte auch ein "Feedback-System" einbauen, dass man bei einer Antwort die nicht gut ist als Nutzer eben diese an Apple senden kann - bewusst.

Eines sollte jedoch klar sein: Bei diesen LLMs geht es NICHT darum, dass sie ständig (oder überhaupt!) etwas über den Nutzer lernen. Die persönlichen Daten werden nie vom Modell "erlernt" sondern werden lediglich als "Kontextinformation" bei Anfragen mitgesendet. Es gibt also immer EIN LLM für alle, das völlig gleich funktioniert... aber eben Kontextabhängig
+4
Unwindprotect12.06.24 15:41
macfreakz
Schon beeindruckend, wie Apple geschafft hat, das Modell so klein zu bauen, dass es lokal ausgeführt wird, ohne die Qualität zu sehr leiden muss. Das ist schon eine Innovation.

Definitiv, wobei sich das abgezeichnet hat. Es gibt mittlerweile eine Vielzahl von Modellen auf klein optimiert sind. Man gibt ihnen eben z.B. weniger "Parameter" damit sie weniger Speicher brauchen oder man reduziert die "Auflösung" der einzelnen Parameter. Man könnte es sich ein bisschen Vorstellen wie ein Bild zu verkleinern. Es kann weniger Pixel haben und die Farbauflösung geringer sein... dann braucht es weniger Speicher... funktioniert aber vielleicht in vielen Fällen dennoch ähnlich gut... es gehen aber evtl. bestimmte Nuancen und Details verloren
+2
Unwindprotect12.06.24 16:05
FlyingSloth
Der einzig fade Beigeschmack fuer mich bleibt jedoch die optionale Open AI Integration.

Kann ich nachempfinden, aber EIGENTLICH ist das ein extrem cleverer Schachzug. Statt mit Microsoft in den Wettbewerb zu gehen bieten sie eben schlicht auch das gerade am Markt als "bestes LLM" wahrgenommene Model _zusätzlich_ an. So kann Microsoft diesbezüglich schonmal nicht mehr punkten. Im Gegenzug hat Apple jedoch ein wesentlich umfangreicheres Ökosystem um "persönliche Kontextdaten" bereitzustellen. Durch die Frameworks und die riesige Entwicklergemeinde gibt es auch extrem schnell eine Integration der KI-Features nahezu überall (also auch 3rd-Party). Last not least können sie auch bei diesem Punkt wieder mit einem "Privacy"-Fokus punkten und dabei gleichzeitig noch von den Fehlern der Konkurrenz profitieren.

Also eigentlich war dieser erste Wurf von Apple eine ziemlich klare Ansage!
+3
Dieter Pete12.06.24 18:23
Ich musste noch „nach gucken“ und bin auch erst mal angetan. Der Usecase mit „Mutter vom verspäteten Flug abholen und in welchem Restaurant noch mal zum essen gehen?“ oder „wende denselben Filter an, wie auf dem bild mit Alice letzte Woche“ ware schon recht nah an dem, was ich mir von einem AI unterstützen Assistenten vorstelle.
Wenn das dann so „privacy, privacy, privacy“ kommt wie versprochen („Ach, hey, das Modell braucht mehr Power, wir connecten dich mal eben mit deiner kostenlosen privaten server VM“): ist genommen.
Und auch Image playground in den unterschiedlichen Möglichkeiten scheint von „verspielt“ (Genmoji) bis ernsthaft (Sketches in z.b. Präsentationen) aber vor allem kontextbasiert sinnvoll eingebaut.
Bin gespannt, wie es sich anfühlen wird
+2

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.