Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Kündigt Apple bald weitere Partnerschaft mit Google an und integriert Gemini in iOS 18 und macOS 15?

Als Apple bei der WWDC eine Partnerschaft mit OpenAI ankündigte, damit das iPhone, iPad und der Mac gegebenenfalls auf ChatGPT zugreifen können, fiel das Medienecho teilweise durchwachsen aus. So wurde bisweilen kritisiert, dass der Chatbot fortan fester Bestandteil der Betriebssysteme sei und Apples Bemühungen um das Thema Datenschutz ausheble. Dieser Annahme liegt allerdings ein gravierendes Missverständnis zugrunde: Die Geräte versuchen zunächst, an die KI gerichtete Anfragen lokal zu verarbeiten, ehe sie Private Cloud Compute in Anspruch nehmen. Liefern diese Schritte nicht die gewünschten Ergebnisse, kann der Nutzer nach Rückfrage von Siri ChatGPT zurate ziehen. Andere Drittanbieter-Lösungen sind ebenfalls denkbar.


Nächste Partnerschaft mit Google Gemini?
Mark Gurman weist darauf hin, dass Apple einen Deal mit Google und Anthropic anstrebe. Bei Anthropic handelt es sich um ein US-Unternehmen, das auf ehemalige Mitglieder von OpenAI zurückgeht. Die Kooperation mit Google soll bis Herbst dieses Jahres stehen. Unter Umständen ist es Nutzern also möglich, zwischen mehreren Chatbots wie ChatGPT und Gemini zu wählen. Das betrifft zumindest jene Weltregionen, in denen Apple Intelligence in diesem Jahr verfügbar sein wird, hierzulande müssen sich Anwender ja bekanntermaßen länger gedulden. Gurmans Annahme wirkt plausibel: Craig Federighi machte bereits darauf aufmerksam, auf mehrere KI-Modelle setzen zu wollen, um Anwendern die Wahl zu geben und erwähnte auch Google Gemini (siehe hier).

Meta ist aus dem Rennen
Völlig beliebig geht Apple übrigens nicht vor, wenn das Unternehmen neue Partnerschaften erwägt. So habe Cupertino zwar Berichten zufolge auch mit Meta verhandelt, um das Angebot um einen weiteren Chatbot zu erweitern. Bedenken hinsichtlich der Privatsphäre und des Datenschutzes hätten Cupertinos Pläne aber letztlich zunichte gemacht. Wer auf externe Dienste dieser Art gänzlich verzichten möchten, kann übrigens Siris Bitten um entsprechende Erlaubnis kategorisch ausschalten.

Kommentare

itomaci
itomaci02.07.24 16:16
Lobenswertes Vorgehen von Apple. Besonders Datenfurie Zuck die Türe zu sperren gefällt mir. Bin mega gespannt auf die neuen Versionen im Herbst. Es bleibt spannend
“An iPod. A phone. An internet communicator. And a camera”
0
andreasm02.07.24 16:38
Ich bin ja eher gespannt wie lange es dauern wird bis die ganzen 8gb ram basismodelle im Hinblick auf lokale KI ausgeschlossen werden weil zu wenig RAM
+4
Frost02.07.24 17:33
andreasm
Ich bin ja eher gespannt wie lange es dauern wird bis die ganzen 8gb ram basismodelle im Hinblick auf lokale KI ausgeschlossen werden weil zu wenig RAM

Das wird sicher nicht allzo lage dauern. Zumindest wenn man (Apple) den Anspruch aufrecht erhalten moechte die Inferenz von komplexen Modellen lokale auf dem Geraet ausfuehren zu wollen. Hier hilft halt nur Memory und noch mehr Memory zumal die Anwendung ja auch noch parallel auf dem Geraet laufen soll, Apple moechte ja die AI direkt im System und nicht als App verfuegbar machen und diese AI soll ja direkt mit laufenden Programmen interagieren.

In Zukunft kann man moeglicherweise mittels 4-bit quantisierter Modelle den Bedarf an Memory fuer das Inferencing weiter reduzieren, nur nutzt einem das bei den bestehenden Geraeten nichts denn die NPU (in der Apple Sprache Neural Engine) muss dann auch mit den 4-bit Datentypen in Hardware umgehen koennen.
Also nur eine Loesung fuer neue Geraete, die werden dann aber sicher auch mehr RAM ab Werk bekommen, denn ausreichend RAM wird in Zukunft (sofern man lokale KI moechte) sehr wichtig werden.
0
flyingangel03.07.24 07:36
Mal abwarten, wieviel wir in Europa (der EU) davon überhaupt sehen werden…
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.