Apple braucht eine KI-Wunderpille, aber ich bin nicht verzweifelt auf der Suche nach einer für macOS

In den letzten Monaten richteten sich alle Augen auf Apple und die KI-Initiative des Unternehmens. Der Druck ist spürbar und durchaus berechtigt . Google hat einige wirklich überzeugende KI-Tools demonstriert, insbesondere mit Project Astra und Mariner, die Ihr Smartphone in einen allwissenden, allgegenwärtigen digitalen Begleiter verwandeln.

Unternehmen wie Microsoft, OpenAI, Claude und sogar Amazon haben bereits einige KI-Lösungen der nächsten Generation vorgestellt, die Siri wie einen alten Prototypen erscheinen lassen. Es besteht jedoch ein feiner Unterschied zwischen dem Einsatz von KI auf Smartphones und der Umsetzung auf einem Computer wie einem MacBook Air .

Sie sprechen nicht wirklich mit einem Assistenten wie Siri auf einem Desktop

Ich stoße oft auf Situationen, in denen KI auf einem Smartphone nützlich ist, wie zum Beispiel Visual Intelligence , die die Welt um einen herum anhand des Kamerabilds verstehen kann. Der Mac braucht das nicht wirklich, vor allem, weil er keine nach außen gerichtete Kamera hat. Und zweitens kann man die Webcam des Macs – insbesondere an öffentlichen Orten – nicht ergonomisch auf ein Objekt richten, wie man es mit einem Smartphone in der Hand tun würde.

Das Problem mit der ganzen „Apple muss KI besser machen“-Thematik betrifft jedoch eher mobile Geräte als Macs, da diese auf einem grundlegend anderen Eingabe-Ausgabe-Modus und der Art und Weise basieren, wie wir in Apps und Software arbeiten. Ich habe schon viele KI-orientierte Copilot+-Laptops mit Windows genutzt und bin der festen Überzeugung, dass Apples KI-Bemühungen aus mehreren Gründen nicht so dringend einen Fokus auf macOS wie auf mobile Geräte benötigen.

Der Mac ist schon gut genährt

Mark Gurman von Bloomberg argumentierte in der neuesten Ausgabe seines PowerOn-Newsletters , dass Perplexity ein attraktives Ziel für Apple sei, um ein eigenes KI-Labor zu errichten und einen fertigen KI-Stack zu erhalten.Die Antwortmaschine von Perplexity ist recht lohnend , für Apple-Verhältnisse nicht zu teuer und funktioniert hervorragend auf iPhones.

In den letzten Quartalen hat das Unternehmen eine ganze Reihe von Integrationen für Telegram und WhatsApp, den Deep Research-Modus , ein logisches KI-Modell, einen Shopping-Hub in Partnerschaft mit Amazon, Mediengenerierung und Bild-Uploads sowie die Suche in Audio- und Videodateien und vieles mehr eingeführt.

Es gibt nur zwei Probleme, insbesondere beim Zugriff auf Perplexity auf einem Mac. Erstens kann es bereits alle Funktionen seiner Funktion über die Mac-App und das Web-Dashboard ausführen, sodass eine tiefere Integration mit dem Mac nicht allzu viele Computerprobleme lösen wird. Zweitens ist ChatGPT bereits tief in Siri und den Apple-Stack integriert , und es ist nur eine Frage der Zeit, bis beide nachziehen.

Seien wir ehrlich: Perplexity ist ein cooles Produkt, aber nicht gerade revolutionär in dem Sinne, dass es das macOS-Erlebnis deutlich verbessern könnte. Enterprise-KI ist ein anderes Kaliber, aber für den Durchschnittsnutzer existiert jedes KI-Tool – ob Gemini, ChatGPT, Copilot, Claude oder Perplexity – als eigenes Webtool (oder App), mit dem man das Beste aus ihm herausholen kann.

Wie sieht es also mit Integrationen aus? Diese hängen von den verfügbaren Tools ab. Ein großer Teil des Computermarktes setzt entweder auf Microsoft und seine Office-Tools oder auf Google Workspace-Produkte wie Docs, Drive, Sheets und mehr. Von Windows bis Office ist Copilot mittlerweile allgegenwärtig. Ähnlich verhält es sich mit Gemini und Google-Software.

Millionen von Mac-Nutzern nutzen diese Tools täglich, und Apple bietet keinen brauchbaren Ersatz. Zudem ist es unwahrscheinlich, dass Google Apples KI tiefer in seinen Workspace eindringt als Gemini. Microsoft wird mit Copilot und Office nichts anderes machen. Zudem ist es schwer vorstellbar, dass eine externe KI in Docs oder PowerPoint besser funktioniert als Gemini bzw. Copilot.

Der Platz ist bereits knapp, aber vor allem gut gefüllt. Und nicht zu vergessen: OpenAI und sein GPT-Stack sind fester Bestandteil von macOS. Wenn Apple Integrationen entwickeln wollte, bietet OpenAI den wohl fortschrittlichsten KI-Technologie-Stack auf dem Markt. Weitere KI auf Systemebene würde die Verwirrung eines durchschnittlichen Mac-Nutzers nur noch verstärken, ohne echte Probleme zu lösen.

Der Platz für einen zusätzlichen KI-Player auf dem Mac ist aus einem weiteren Grund knapp: Apples Foundation Model Framework, das sowohl auf dem Gerät als auch im Cloud-Format funktioniert, aber höchste Privatsphäre bietet. Apple sagt, es werde Entwicklern ermöglichen, ein „persönliches Intelligenzsystem zu entwickeln, das tief in iPhone, iPad und Mac integriert ist und leistungsstarke Funktionen für Sprache, Bilder, Aktionen und den persönlichen Kontext bietet“.

Kurz gesagt: Apples eigene Basismodelle stehen Entwicklern zur Verfügung, damit sie KI-Erlebnisse in ihre Apps integrieren können. Und das Beste daran? Sie sind kostenlos. Sie sind zwar nicht annähernd so leistungsstark wie die Modelle von OpenAI oder Google, aber für die lokale Erledigung von Aufgaben – wie anwendungsübergreifende Workflows, intelligente Dateisuche und mehr – sollten sie ohne Datenschutzbedenken nützlich sein.

Die Produktivitätsfrage

Das M4 MacBook Air ist derzeit mein täglicher Begleiter und ein fantastisches Gerät. Ich nutze täglich intensiv KI-Tools. Dennoch habe ich macOS nie als KI-Flaschenhals empfunden. Jedes KI-Tool, auf das ich mich verlasse, ist entweder bereits in die Software meiner Wahl integriert oder als eigene App oder Website verfügbar.

Dennoch verwirrt mich die Idee, ein Produkt in ein KI-Produkt umzuwandeln. Für ein Smartphone wie das Pixel 9 ist das sinnvoll, für einen Laptop jedoch weniger. Ich habe bisher fünf Copilot+ Windows-Rechner getestet. Doch die Hauptvorteile – schnelle Leistung, sofortiges Aufwachen und lange Akkulaufzeit – haben wenig mit benutzerorientierter KI zu tun.

Ich konnte Gemini oder Copilot auf einem normalen Windows-Laptop genauso gut nutzen wie auf einem Copilot+-Rechner mit mindestens 45 TOPS KI-Fähigkeit. Der Mac ist kein Problem, und interessanterweise sind alle KI-Tools in meinem Produktivitäts-Workflow unter macOS genauso gut nutzbar wie unter Windows.

Es gibt zwar einige exklusive Extras wie Windows Recall , aber die sind für den durchschnittlichen Computernutzer kein Muss. Und vergessen wir nicht: Apple hat die Grundlagen bereits geschaffen, und wir werden die Ergebnisse nächstes Jahr sehen .

Als Apple das M4 MacBook Air vorstellte, konzentrierte sich das Unternehmen auf seine KI-Kompetenzen. Was jedoch unter dem Radar blieb, war Apples App Intents Framework, das sich mühelos in Apple Intelligence integrieren lässt. Vereinfacht ausgedrückt: Jede App – ob KI-basiert oder nicht – kann die Vorteile der geräteinternen KI-Verarbeitung, wie beispielsweise die Erkennung von Bildschirminhalten, in einer nativen macOS-Umgebung nutzen.

Nun ist es berechtigt, Apple für seine KI-Fehltritte zu kritisieren. Ich bin mittlerweile an einem Punkt angelangt, an dem ich Gemini überall auf meinem iPhone nutze , von den Sperrbildschirm-Widgets bis zur dedizierten App, statt Siri. Bei Macs ist das jedoch nicht der Fall. Mein Arbeitsablauf und der vieler anderer Mac-Nutzer da draußen verlangen nicht nach einer Apple-KI der nächsten Generation. Was sie brauchen, ist ein zuverlässiges Gerät, auf dem die KI ihrer Wahl läuft. Selbst der günstigste Mac kann diese Anforderungen erfüllen.