Google stellt seine Smartglasses vor und macht Lust auf die Zukunft
Bei einem kürzlichen TED-Vortrag wurden Googles aufregende XR-Smartglasses zum ersten Mal der Öffentlichkeit vorgestellt. Obwohl wir die Datenbrillen schon einmal gesehen haben, waren sie immer nur in hochglanzpolierten Videos zu sehen, in denen das Projekt Astra vorgestellt wurde, und in denen wir nie ein wirkliches Gefühl für die Merkmale und Funktionen in der realen Welt bekommen. Mittlerweile hat sich alles geändert und unser erster Blick in die Zukunft ist sehr aufregend. Allerdings ist Zukunft das entscheidende Wort.
Die Demonstration der Möglichkeiten der Smartglasses nimmt den Großteil der 16-minütigen Präsentation ein, die von Shahram Izadi, Vizepräsident für Augmented und Extended Reality bei Google, eingeleitet wird. Er beginnt mit einigen Hintergrundinformationen zu dem Projekt, in dessen Mittelpunkt Android XR steht, das Betriebssystem, das Google gemeinsam mit Samsung entwickelt. Es bringt Google Gemini auf XR-Hardware wie Headsets, Smartglasses und „Formfaktoren, von denen wir noch nicht einmal geträumt haben“.
Für die Demonstration wird eine Datenbrille verwendet. Das Design ist gewagt, da die Rahmen schwarz poliert und „schwer“ sind, ähnlich wie bei den Ray-Ban Meta- Datenbrillen. Sie verfügen über eine Kamera, einen Lautsprecher und ein Mikrofon, damit die KI sehen und hören kann, was um Sie herum passiert, und über eine Verbindung mit Ihrem Telefon können Sie Anrufe tätigen und entgegennehmen. Sie unterscheiden sich von Ray-Ban Meta durch das Hinzufügen eines winzigen Farbdisplays im Objektiv.
Headset und Brille
Was die Android XR-Smartglasses in der Demo zunächst auszeichnet, ist die Fähigkeit von Gemini, sich an das zu erinnern, was es „gesehen“ hat, und es erinnert sich korrekt an den Titel eines Buches, auf das der Träger einen Blick geworfen hat, und notiert sogar, wo eine Hotelschlüsselkarte zurückgelassen wurde. Dieses Kurzzeitgedächtnis ist vielseitig einsetzbar, nicht nur als Gedächtnisstütze, sondern auch als Möglichkeit, Details zu bestätigen und die Zeit besser zu organisieren.
Die KI-Vision wird auch verwendet, um ein Diagramm in einem Buch zu erklären und Text in verschiedene Sprachen zu übersetzen. Es übersetzt auch gesprochene Sprachen direkt in Echtzeit. Der Bildschirm wird in Aktion gesetzt, wenn Gemini gebeten wird, zu einem lokalen Schönheitspunkt zu navigieren, wo auf dem Objektiv Anweisungen angezeigt werden. Gemini reagiert schnell auf seine Anweisungen und während der Live-Demonstration scheint alles reibungslos zu funktionieren.
Nach den Smartglasses wird dann Android XR auf einem vollwertigen Headset gezeigt. Das visuelle Erlebnis erinnert an das Vision Pro-Headset von Apple , mit mehreren Fenstern, die vor dem Träger angezeigt werden, und Pinch-Gesten zur Steuerung des Geschehens. Gemini war jedoch der Schlüssel zur Verwendung des Android XR-Headsets. Die Demonstration zeigte die Fähigkeit der KI, das Gesehene oder Gezeigte auf äußerst gesprächige Weise zu beschreiben und zu erklären.
Wann können wir es kaufen?
Izadi beendete die Präsentation mit den Worten: „Wir treten in eine aufregende neue Phase der Computerrevolution ein. Headsets und Brillen sind erst der Anfang. All dies deutet auf eine einzige Zukunftsvision hin, eine Welt, in der hilfreiche KI mit leichtem XR zusammenwachsen wird unsere Intelligenz erweitern.“
Das ist eine verlockende Sache, und für alle, die das Potenzial von Google Glass erkannt haben und bereits Ray-Ban Meta genossen haben, scheinen insbesondere die Smartglasses sicherlich der wünschenswerte nächste Schritt in der Entwicklung alltäglicher Smart-Brillen zu sein. Der Schwerpunkt sollte jedoch auf der Zukunft liegen, denn obwohl die Brille fast bereit für die Veröffentlichung zu sein schien, ist dies möglicherweise überhaupt nicht der Fall, da Google die scheinbar endlose Werbung für seine Smart-Brillen fortsetzt.
Izadi hat während des TED-Talks nicht über ein Veröffentlichungsdatum für eines der beiden XR-Geräte gesprochen, was kein gutes Zeichen ist. Wann werden es also wahrscheinlich echte Produkte sein, die wir kaufen können? Die gezeigten Smartglasses sollen eine weitere Zusammenarbeit zwischen Google und Samsung sein – das Headset wird ebenfalls von Samsung hergestellt – und laut einem Bericht von The Korean Economic Daily voraussichtlich nicht vor 2026 auf den Markt kommen, was den möglichen Starttermin wie zuvor gemunkelt über Ende 2025 hinaus verlängert. Auch wenn dies noch in weiter Ferne zu liegen scheint, ist es tatsächlich näher an der Zeit als die Consumer-Version von Metas Orion-Smartglasses , die voraussichtlich erst Ende 2027 in die Läden kommen wird.
Kommt es zu spät?
Wenn man bedenkt, dass die während des TED-Talks gezeigten Smartglasses Aspekte von Glass, Ray-Ban Meta und Smartglasses wie denen von Halliday sowie den Google Gemini-Assistenten, den wir jetzt bereits auf unseren Telefonen und Computern verwenden, zu vereinen scheinen, ist das anhaltende lange Warten überraschend und frustrierend.
Schlimmer noch: Die Überlastung der Hardware mit KI sowie die vielen Ray-Ban-Meta-Kopien und -Alternativen, die bis Ende 2026 erwartet werden, bedeuten, dass die Bemühungen von Google und Samsung Gefahr laufen, zur Vergessenheit zu gehören oder irgendwann einer unglaublich abgestumpften Öffentlichkeit zugänglich zu machen. Das Android XR-Headset, bekannt als Project Moohan , wird voraussichtlich im Jahr 2025 auf den Markt kommen.
Vielleicht sind wir nur ungeduldig, aber wenn wir eine Demo mit einem Produkt sehen, das so endgültig und verlockend aussieht, ist es schwer, es nicht schon früher als nächstes Jahr in unseren Händen (oder auf unseren Gesichtern) haben zu wollen.
