Ich denke, das iPhone Air bereitet uns auf die Smart Glasses von Apple vor
Apple hat noch keine Smart Glasses auf den Markt gebracht. Und mit Smart Glasses meine ich nicht die schicken Brillen mit eingebautem holografischem Display, miniaturisiertem Projektor oder gar einem Display, das 3D-Tricks beherrscht. Ich spreche von einer durchschnittlichen Smart Glasses, die lediglich über eine eingebaute Kamera, Lautsprecher und Touch-Eingabe verfügt.
Sie wissen schon, die Art, die Meta in Zusammenarbeit mit Ray-Ban und Oakley entwickelt hat. Trotz aller Skepsis haben sie sich als Volltreffer erwiesen. Groß genug, dass Meta für Ende 2025 ein weiterentwickeltes Modell auf den Markt bringen wird, gefolgt von einer weiterentwickelten Version mit Siliziumkarbid-Gläsern und Mikro-LED-Projektoren . Das wirft eine naheliegende Frage auf:
Also, wo ist Apple?
Apple, ein Unternehmen mit einer langen Tradition in der Herstellung erstaunlich gut konstruierter Produkte wie dem Vision Pro-Headset , fehlt im Rennen um die Smart Glasses bisher auffällig. Doch nachdem ich das iPhone Air gesehen habe, denke ich, dass das Unternehmen auf dem besten Weg ist, die wohl beste Smart Glasses auf dem Markt herzustellen. Oder zumindest etwas, das mit Meta vergleichbar ist.
Laut Bloomberg hat Apple tatsächlich ein Auge auf Smart Glasses geworfen, und der erste Versuch könnte bereits im nächsten Jahr erfolgen. Das Unternehmen will Berichten zufolge bescheiden starten und etwas Ähnliches wie die Smart Glasses Meta Ray-Ban Stories auf den Markt bringen. Die Kernidee ist ein vernetztes Wearable mit integrierter Kamera, Lautsprecher und Mikrofon.
„Eine Person mit Kenntnis der Brille sagte, sie werde dem Meta-Produkt ähneln, aber besser verarbeitet sein“, berichtet Bloomberg. Ich habe wenig Zweifel, dass Apple ein „besseres“ Produkt als Meta herstellen kann, insbesondere nachdem ich das iPhone Air gesehen habe.
Abgesehen von seiner rekordverdächtig schlanken Taille haben wir im Wesentlichen einen Computer, der in einen pillenförmigen Buckel auf der Rückseite des Telefons eingebaut ist. Ein guter Teil dieses Plateaus wird vom Rückkamerasensor mit Sensor-Shift-Stabilisierungshardware und dem Frontkamera-Kit eingenommen.
Wir sprechen hier nicht von irgendeinem einfachen Computer. Wir sprechen vom A19 Pro, einem Chip, der kürzlich auf einer Benchmark-Plattform auftauchte und Desktop-Prozessoren, darunter Apples eigenen M4 und AMDs Ryzen 9 9950X-Chip, schlug. Das ist nicht verwunderlich, wenn man bedenkt, dass Apple den Chip des iPad Pro vor über einem halben Jahrzehnt in spezielle Mac-Kits eingebaut hat, um von Intel auf den hauseigenen M-Serie-Prozessor umzusteigen.
Noch wichtiger ist die einzigartige Architektur des A19 Pro, bei der die neuronalen Beschleuniger für KI-Aufgaben mit den GPU-Kernen für zusätzliche Leistung kombiniert werden. Auf dem Mainboard befinden sich außerdem reichlich RAM, Speicher und das gesamte Netzwerk-Kit – alles in einem pillenförmigen Höcker untergebracht.
Gemessen an der Höhe des Telefons ist der Kamerabuckel nicht höher als 1,5 bis 1,7 Millimeter. Das entspricht in etwa der Größe der Meta-Datenbrillen oder der von Herstellern wie Xreal. Mit ein paar Anpassungen lässt sich das Mainboard in den Bügel der Datenbrille einbauen.
Grob gesagt kann man davon ausgehen, dass Apple die wohl leistungsstärkste, KI-fähige Prozessorhardware in eine Smartbrille packen kann. Das iPhone Air ist ein lebendiger Beweis dafür. Und nebenbei kann Apple diese KI-Brille auch noch gut aussehen lassen. Die größere Frage ist …
Welchen Weg wird Apple einschlagen?
Sofern Sie nicht vorhaben, eine Anzeigeeinheit (physisch oder lichtprojizierend) auszustatten, die die Türen für eine grafische Benutzeroberfläche auf einem Betriebssystem öffnet, benötigen Sie nicht wirklich etwas so Leistungsstarkes wie den A19 Pro in einer Smartwatch. Selbst die inhärente Architektur der Apple Watch sollte für einen solchen Ansatz ausreichen.
Wir leben jedoch im KI-Zeitalter, was bedeutet, dass die Anforderungen eines generativen KI-Assistenten ein leistungsstarkes System erfordern. Ein schnellerer Chip bedeutet einen höheren Stromverbrauch, was letztendlich den Verbrauch pro Ladung reduziert. Gleichzeitig bedeutet eine geringere Rechenleistung jedoch ein Erlebnis, das das von MetaAI auf den Ray-Ban Stories oder den Oakley-Brillen möglicherweise übertrifft – oder auch nicht.
Angesichts der aktuellen Situation würde ich sagen, dass MetaAI die bessere Wahl ist. Apple verfügt jedoch über das ausgereifteste und am besten vernetzte Software-Ökosystem, sowohl auf Mobilgeräten als auch auf Desktop-Computern. Daher wäre es nicht ratsam, Apples Leistungsfähigkeit grundsätzlich zu untergraben. Laut Bloombergs Berichten wird Apple Intelligence sicherlich Teil des Pakets sein . Vielleicht kommen Apples Smart Glasses gerade rechtzeitig zur prophezeiten KI-gestützten Siri-Überarbeitung ?
Die größere Frage ist, ob Apple Leistung dem Komfort vorzieht. Wählt Apple Letzteres, wäre es schwierig (wenn auch nicht unmöglich), die Brille eigenständig zu betreiben. Andernfalls bräuchte sie eine Stromquelle, ähnlich dem Akkupack der Vision Pro.
Alternativ könnte Apple die Stromversorgung über ein iPhone sicherstellen, das jeder Käufer bereits in der Tasche hat und über einen eigenen leistungsstarken Chip verfügt. Derzeit muss jede Smart Glasses mit eingebauter physischer Anzeigeeinheit an ein Telefon, Tablet, einen Computer oder einen eigenen Hub im Taschenformat angeschlossen werden.
Zum jetzigen Zeitpunkt stellt sich nicht die Frage, ob Apple eine Datenbrille herstellen kann. Das iPhone Air hat bereits bewiesen, dass Apple ein extrem leistungsstarkes Rechenzentrum in ein Gehäuse integrieren kann, das in die Bügel einer schicken Wayfarer-Brille passt. Die eigentliche Frage ist, wie viel Power Apple in eine Datenbrille stecken will.
Das würde letztendlich entscheiden, welches Format die Brille haben wird – eigenständig oder kabelgebunden. Oder vielleicht geht Apple einen Hybrid-Modus ein – beschränkt die Funktionen im eigenständigen Modus und lässt sie bei Verbindung mit einem iPhone oder Mac voll ausschöpfen. Apple hat die Grundlagen dafür geschaffen, dass Smart Glasses überlegene Kamerafunktionen (denken Sie an 4K oder räumliche Videoaufnahme) und eine tiefere Interaktion mit „echten“ Betriebssystemen wie iOS, iPadOS und macOS bieten. Es ist nur eine Frage der Zeit, bis es so weit ist.
Alles in allem handelt es sich um einen verlockenden Vorschlag, der Spannung auslöst, wenn auch mit einer gehörigen Portion Unvorhersehbarkeit.
