Apples KI-Brille kommt, aber nicht so, wie Sie denken

Apple beschleunigt Berichten zufolge die Entwicklung seines neuen Wearables: einer KI-gestützten Smart Glasses, die direkt mit Metas Ray-Bans konkurrieren soll. Laut Bloomberg strebt das in Cupertino ansässige Unternehmen eine Markteinführung Ende 2026 an und hat mit der Vorbereitung großformatiger Prototypen für die Produktion begonnen.

Dieser neue Bericht präzisiert und aktualisiert frühere Informationen unserer Publikation . Darin wurde spekuliert, Apple werde seine Smart Glasses zusammen mit maßgeschneiderten Chips auf Basis der Apple Watch -Architektur vorstellen. Quellen vermuteten damals einen Produktionsstart der Chips im Sommer 2026. Bloomberg bestätigt nun jedoch, dass Apple bereits Ende 2025 mit der Produktion signifikanter Mengen der Smart Glasses selbst – nicht nur der Komponenten – beginnen will. Dies deutet auf einen ambitionierteren Zeitplan hin als bisher erwartet.

Während Apples futuristische AR-Brille noch Jahre auf sich warten lässt, wird diese Neuentwicklung mit dem Codenamen N401 Siri realitätsnahe Informationen liefern – und das in einem eleganteren Design als ein Headset. Man könnte sie als „Vision Light“ bezeichnen: eine intelligente Brille mit integrierten Kameras, Lautsprechern und Mikrofonen, die Live-Übersetzung, Anrufbearbeitung und Wegbeschreibungen ermöglicht. Im Gegensatz zum Vision Pro-Headset wird die Brille keine Augmented-Reality-Displays bieten. Stattdessen setzt sie auf Audio- und Sprachfeedback, was bewusst Komplexität, Kosten und Volumen reduziert. Dies bestätigt frühere Berichte, die darauf hindeuteten, dass Apple sowohl an einem AR- als auch an einem Nicht-AR-Modell arbeitet, wobei die N401 eindeutig Letzteres repräsentiert.

Apples Brillen sind Teil einer umfassenderen Strategie, um im schnell wachsenden Markt für KI-fähige Geräte relevant zu bleiben. Meta und Google sind bereits dabei, und die neu angekündigte Hardware-Partnerschaft von OpenAI mit Jony Ive dürfte den Markt weiter drängen.

Ebenfalls erwähnenswert: Dieser neueste Bericht erwähnt die im vorherigen Leak genannten Spezialchips – Glennie für AirPods und Nevis für die Apple Watch – nicht. Er bekräftigt jedoch, dass Apple vor Herausforderungen bei der Integration von Kamera- und Sensordaten in ein leichtes Gehäuse steht. Das bereits in früheren Berichten erwähnte Konzept, die Verarbeitung auf das iPhone auszulagern, ist weiterhin relevant, da Apple weiterhin mit der Balance zwischen Leistung und Energieeffizienz ringt.

Was ist mit Apples anderen Wearable-Experimenten?

Nicht alle Ideen kommen in die engere Auswahl. Apple hat Berichten zufolge die Entwicklung einer Smartwatch mit integrierter Kamera und Möglichkeiten zur Echtzeitanalyse auf Eis gelegt. Dieses Gerät sollte Umgebungssensoren am Handgelenk ermöglichen, wurde aber aufgrund technischer Hürden und Datenschutzbedenken verworfen.

Intern soll das Smart-Glasses-Projekt mit einigen der gleichen KI-Einschränkungen zu kämpfen haben, mit denen Apple auch anderswo zu kämpfen hat. Während Metas Ray-Bans von Llama profitieren und Android XR-Brillen auf Googles Gemini basieren, setzte Apple bisher für das visuelle Verständnis auf dem iPhone auf KI von Drittanbietern wie OpenAI oder Google Lens . Analysten erwarten, dass Apple bald eigene Modelle vorstellen wird, möglicherweise parallel zu den neuen Smart Glasses.

Wenn alles nach Plan läuft, wird Apples KI-Brille der erste echte Vorstoß des Unternehmens in den Bereich der KI-basierten Wearables sein und verspricht, die Art und Weise, wie wir mit dem Alltag interagieren, neu zu definieren. Ob das Unternehmen Meta mit seinen eigenen Waffen schlagen kann, bleibt abzuwarten, aber Apple gibt sich nicht damit zufrieden, außen vor zu bleiben.