Ein Apple-Insider hat gerade verraten, wie die KI-Funktionen von iOS 18 funktionieren werden

Ein iPhone 15 Pro Max liegt mit der Vorderseite nach unten und zeigt die Farbe „Natural Titanium“.
Joe Maring / Digitale Trends

Während die Worldwide Developers Conference (WWDC) von Apple immer näher rückt , nimmt das Gerede über die KI-Arbeit des Unternehmens eine fieberhafte Wendung. In einem Jahr, in dem sich Smartphone- und Computermarken ausschließlich auf KI-Feinheiten konzentriert haben, hat sich Apple ungewöhnlich ruhig zum KI-Hype geäußert – was Befürchtungen hervorrief, dass die Marke den Zug verpassen könnte.

Ein neuer Bericht hat uns jedoch einen genaueren Blick darauf gegeben, wie Apples KI-Träume später in diesem Jahr mit dem iOS 18-Update Wirklichkeit werden könnten.

Neue Details zu Apples KI-Plänen

Der Homescreen auf dem Apple iPhone 15 Plus.
Andy Boxall / Digitale Trends

Es scheint, dass Apple voll im Spiel ist, allerdings mit einem etwas anderen Ansatz als seine Konkurrenten. „Apple hat ein großes Sprachmodell entwickelt – den Algorithmus, der generativen KI-Funktionen zugrunde liegt – und alle Anzeichen deuten darauf hin, dass es vollständig auf dem Gerät verfügbar sein wird. Das bedeutet, dass die Technologie vom Prozessor im iPhone und nicht von der Cloud angetrieben wird“, berichtet Bloomberg .

Gerüchte über ein internes Tool mit dem Codenamen „AppleGPT“ kursieren schon seit einiger Zeit. Aber es scheint, dass Apple nicht ganz das Maß an Finesse erreicht hat, das Unternehmen wie Google und Microsoft (mit OpenAI) mit Tools wie ChatGPT, Copilot und Gemini erreicht haben. Dies erklärt auch aktuelle Berichte, wonach Apple Gemini AI von Google – genau wie Samsung und OnePlus – für iPhones lizenzieren könnte, anstatt ein Produkt anzubieten, das nicht ganz herausragt.

Oder genauer gesagt: Es entspricht nicht den Standards von Apple. Generative KI-Tools, selbst solche, die auf den größten vorhandenen Datensätzen basieren, scheitern zumindest in ihren Anfängen weiterhin auf ziemlich spektakuläre Weise. Google musste sich kürzlich für einen verheerenden Fehler beim Text-zu-Bild-System von Gemini AI entschuldigen. Metas KI liegt nicht allzu weit zurück. Dann braut sich da noch der ganze Sturm über Urheberrechtsgesetze, faire Offenlegung und Schulungstransparenz zusammen, was Apple vermeiden möchte.

Siri auf einem iPhone.
Kommt die KI-Revolution für Siri? Alle Anzeichen deuten auf eine WWDC-Enthüllung hin. Nadeem Sarwar / Digitale Trends

Aber es scheint, dass Apple, anstatt das sprichwörtliche KI-Schlangenöl zu verkaufen, vorsichtiger vorgehen will. „Anstatt die Leistungsfähigkeit von Chatbots und anderen generativen KI-Tools anzupreisen, plant Apple zu zeigen, wie die Technologie Menschen in ihrem täglichen Leben helfen kann“, fügt der Bloomberg-Bericht hinzu.

Seit ChatGPT auf der Bildfläche erschien und eine KI-Revolution auslöste, sind wir Zeuge einer Flut von KI-Tools geworden, die alles können, von der Erzeugung realistischer Bilder und dem Klonen von Stimmen über die Erstellung fotorealistischer Videos aus Text bis hin zum versauten Chat als virtueller Partner. Die größte Frage ist jedoch, wie lohnend diese auffälligen Tricks für den Durchschnittsverbraucher im Alltag sind.

Das heißt aber nicht, dass Apple nicht versucht, im KI-Wettbewerb herauszustechen. Ganz im Gegenteil, eigentlich. In den letzten Monaten hat Apple mehrere Forschungsarbeiten veröffentlicht, die ein KI-Tool namens MGIE dokumentieren, das Tricks wie die Medienbearbeitung mit Sprachbefehlen ausführen kann. Ein anderes beschreibt MM1 , ein multimodales Großsprachenmodell, das die Türen für „verbessertes kontextbezogenes Lernen und mehrbildbasiertes Denken“ öffnet.

Wie weit ist Apple im KI-Rennen?

Das Apple-Logo auf der Rückseite eines iPhone 14.
Joe Maring / Digitale Trends

Wir haben kürzlich einen weiteren Teil der Apple-Forschung analysiert, der sich darauf konzentriert, dass KI Bildschirminhalte versteht und Benutzer entsprechend unterstützt. Der folgende Thread eines Apple-Ingenieurs auf X, früher bekannt als Twitter, beschreibt detailliert die Fortschritte, die Apple im Vergleich zu Konkurrenten wie Googles Gemini AI-Modell gemacht hat:

In anderen Artikeln wurde KI im Zusammenhang mit Datenschutz und Sicherheit diskutiert , was für Apple nicht überraschend ist. Der oben erwähnte On-Device-Ansatz ist für diesen gesamten Datenschutzansatz von zentraler Bedeutung. Das Ausführen von KI-Modellen auf dem Gerät würde sicherstellen, dass keine Daten das iPhone verlassen. Dies steht im Gegensatz zum Senden von Benutzeranfragen an einen Cloud-Server, eine Strategie, die ebenfalls die gesamte Interaktionskette zwischen Mensch und KI verlangsamt.

Außerdem hält Apple die Kernhardware bereits bereit . Das Unternehmen liefert seit 2017 eine neuronale Verarbeitungseinheit (NPU) in iPhones aus. Dabei handelt es sich um eine dedizierte KI-Beschleuniger-Hardware, die auf die gleiche Weise funktioniert wie die Tensor Processing Unit (TPU) in den Pixel-Smartphones von Google, auf denen jetzt Gemini ausgeführt werden kann Modell auf dem Gerät. Interessanterweise hat auch Apple vor einiger Zeit damit begonnen, den Grundstein zu legen.

Auf der WWDC 2022 veröffentlichte das Unternehmen eine sogenannte „Open-Source-Referenz-PyTorch-Implementierung der Transformer-Architektur“. Transformatoren sind das grundlegende Werkzeug hinter der gesamten generativen KI-Technologie. Dieser Artikel der Financial Times ist eine hervorragende (und schmackhafte) Erklärung der Transformer-Technologie, die aus einem Google-Forschungsbericht aus dem Jahr 2017 hervorgegangen ist, im selben Jahr, in dem wir eine NPU in das iPhone X eingebaut haben.

Im neuesten Bloomberg-Bericht heißt es, dass Apple auf der WWDC 2024, die im Juni beginnt, einen Einblick in seinen KI-Ansatz geben wird. Wird ein generativer KI-Ansatz auf dem Gerät Siri endlich intelligenter machen, so wie Google in letzter Zeit versucht hat, Google Assistant zu verbessern? Nur die Zeit kann es verraten.