Ich hoffe, dass Apple diese Vision Pro-Funktion auf das iPhone bringt
Digital gestaltete alternative Realitäten können aufregend oder unangenehm sein, je nachdem, wie Sie sie sich vorstellen. Aber Apple möchte neben anderen Unternehmen, die in eine AR- und VR-dominierte Zukunft investieren, eindeutig, dass Sie sich auf die positive Seite konzentrieren. Aus diesem Grund hat Apple auf seiner Entwicklerkonferenz WWDC 2023 viel Zeit darauf verwendet, die verschiedenen Funktionen des Apple Vision Pro – Apples extravagantes neues Mixed-Reality-Headset – hervorzuheben.
Laut Apples sicherer Erzählung auf der Veranstaltung führt uns das Vision Pro in eine neue Ära der Computertechnik und sprengt die Grenzen fester Displays . Die Werbe-Komplettlösungen überzeugen uns leicht davon, dass das Headset in vielerlei Hinsicht sowohl optisch als auch funktionell einzigartig ist.
Von der Möglichkeit, Ihren Arbeitsablauf mit unzähligen Bildschirmen zu erweitern, die sich im Umgebungsraum ausbreiten, bis hin zum Eintauchen in hyperrealistische Naturtore bietet das Headset viele faszinierende Funktionen. Und wir hoffen natürlich, dass einige seiner Funktionen auch auf andere Geräte, insbesondere das iPhone, Einzug halten.
Apples neue FaceTime-Avatare sehen unglaublich aus
Der Vision Pro soll reale und fantasievolle Szenarien nahtlos miteinander verbinden, was den menschlichen Geist dazu bringen kann, die Grenzen zwischen dem physischen und dem virtuellen Bereich tatsächlich zu vergessen. Dies wird durch virtuelle Elemente erreicht, die nicht einfach in Ihrem physischen Raum herumschweben, sondern auch Ihre physische Umgebung aufwerten. Eine Möglichkeit besteht darin, winzige Details, wie etwa die Schatten dieser schwebenden Fenster, auf reale Objekte in Ihrer Umgebung zu werfen.
Eine andere Möglichkeit, mit der Apple Nicht-Benutzer in Erstaunen versetzen (und auch verwirren) möchte, ist die Verwendung virtueller Avatare in FaceTime. Mit dem Headset läutet Apple die neue Ära des „räumlichen FaceTime“ ein, bei dem Videos jedes Teilnehmers in Fenstern erscheinen, die reale Umgebungen der Vision Pro-Benutzer darstellen. Aber die Leute auf der anderen Seite werden Ihr in die Kopfbedeckung gehülltes Gesicht nicht sehen.
Der Vision Pro wird stattdessen kunstvoll realistische – und gleichzeitig seltsam beunruhigende – virtuelle Darstellungen des Benutzers erstellen. Diese Avatare werden anstelle der tatsächlichen Ansicht angezeigt und mit den beiden TrueDepth-Kameras am Headset erstellt. Insbesondere ist die TrueDepth-Kamera ein einzigartiges Kamerasystem, das ursprünglich auf dem iPhone X eingeführt wurde. Sie besteht aus einem Infrarot-Flutlichtstrahler, einem Punktprojektor und einer Infrarotkamera. Alle drei dieser Systeme tragen zusammen dazu bei, eine 3D-Karte des Gesichts des Benutzers zu erstellen, die zum Entsperren des iPhones mithilfe der Face ID verwendet werden kann.
Der Avatar reproduziert Ihre Mimik, Augenbewegungen und Gesten, um natürlicher zu wirken. Dadurch wird das Problem gelöst, dass Sie ständig Ihr iPhone in der Hand halten oder auf den Bildschirm Ihres Mac blicken, während Sie FaceTime verwenden – oder wie ein verrückter Technikbegeisterter wirken, der beim Ausprobieren der neuesten Gadgets gerne unbeholfen bleibt.
Für Apple ist dies auch eine konkrete Möglichkeit, mehr Menschen für die aufkommende Ideologie des Spatial Computing zu gewinnen – und sei es aus einem anderen Grund, als der Angst zu entgehen, etwas zu verpassen (FOMO). Aber abgesehen davon, bestehende Apple-Benutzer davon zu überzeugen , 3.500 US-Dollar für eine neue Technologie auszugeben , gibt es noch eine andere Möglichkeit, wie Apple diesen hyperrealistischen Avataren ein alltäglicheres Gefühl verleihen kann – indem es sie auf das iPhone und das iPad bringt.
Sie sollten nicht nur Vision Pro vorbehalten sein
Es gibt gute Gründe, warum virtuelle FaceTime-Avatare für andere Apple-Geräte genauso gut geeignet sind wie das Vision Pro.
Erstens steht die Einführung von räumlichem FaceTime auf allen Geräten im Einklang mit Apples geplantem neuen Zeitalter des „Spatial Computing“. Bis in eine greifbare Zukunft, in der Augmented Reality andere Interaktionen mit Computern vollständig übernimmt und insbesondere unsere geliebten Smartphones ersetzt , kann Apple diese Gelegenheit nutzen, um die Vertrautheit mit der Technologie zu verbessern.
Das Anbieten eines räumlichen FaceTime-Erlebnisses steht nicht nur im Einklang mit der Aufhebung der Grenzen zwischen der realen und der virtuellen Welt, sondern steht auch im Einklang mit Apples Prinzipien eines Ökosystems, in dem alle Geräte – zumindest die Top-Tier-Geräte – ähnlich und im Einklang miteinander funktionieren. Auch der renommierte Analyst Ming-Chi Kuo bekräftigt die Notwendigkeit, eine Harmonie zwischen dem Vision Pro und anderen Geräten innerhalb des Apple-Ökosystems herzustellen, und nennt dies als entscheidend für den anfänglichen Erfolg des Headsets.
Um ein konvergierendes Software-Erlebnis voranzutreiben, wird Apple außerdem daran arbeiten, die Hardware seiner anderen Geräte, insbesondere des iPhone, zu verbessern. Natürlich wird das iPad (zumindest die Pro-Variante) nachziehen. Das macht das iPhone und das iPad Pro zu würdigen Kandidaten, um Erfahrungen mit dem Vision Pro zu teilen, und ein räumliches FaceTime-Erlebnis steht ganz oben auf der Liste unserer Erwartungen.
Apple hat die Tricks bereits im Ärmel
Apple hat bereits den Grundstein für diesen Übergang zu realistischen Avataren gelegt und jahrelange Arbeit in die Erstellung und Verbesserung von Animoji gesteckt. Diese großen animierten Emojis auf Apple-Geräten ahmen die Mimik und Kopfbewegungen einer Person nach.
Wenn Sie es nicht kennen: Apple bietet auch eine spezielle Version von Animoji an – Memoji genannt – die eine 3D-Karikatur des Gesichts des iPhone-Benutzers erstellt. Diese Karikatur kann dann für personalisierte Emojis, als animierte Reaktionen in iMessage oder sogar – Trommelwirbel – FaceTime verwendet werden, um ihr Gesicht zu verschleiern.
Das ist nicht überraschend, wenn man bedenkt, dass Memoji der Vorbote der animierten Avatare von Vision Pro ist. Wie der animierte Avatar auf dem Vision Pro nutzt Memoji die TrueDepth-Kamera auf dem iPhone oder iPad Pro, um die Bewegungen des Kopfes zu verfolgen.
Neben Face ID und Animoji nutzt Apple die TrueDepth-Kamera auch für weitere Kamerafunktionen, etwa Studiolichteffekte auf dem iPhone und die Center Stage- Funktion auf dem iPad Pro. Darüber hinaus können Drittentwickler über eine API eine neue Dimension an Daten von den TrueDepth-Sensoren zu ihren Anwendungen hinzufügen. Für Apple ist es nur sinnvoll, auf diesen vorhandenen Funktionen aufzubauen, um Unterstützung für ein verbessertes FaceTime-Erlebnis ähnlich dem Vision Pro zu bieten.
Für unsere Argumentation spricht auch die Tatsache, dass Apple das optische Erscheinungsbild von Animoji in den letzten Jahren nicht aktualisiert hat. Das letzte Animoji-Update kurz vor der Markteinführung des iPhone 14 hatte lediglich neue Animationen und ein paar weitere Gesichtsausdrücke hinzugefügt, was Raum für Verbesserungen ließ.
Das iPhone und das iPad sind bereit
Neben der TrueDepth-Kamera stimmt auch die Hardware der Mobilgeräte von Apple mit der Idee überein. Die meisten iPhone- und iPad-Pro-Modelle werden von der gleichen (oder ähnlich) leistungsstarken Hardware unter der Haube angetrieben wie das Vision Pro-Headset, das Apples maßgeschneidertes M2-Silizium enthält. Dasselbe ist auf dem MacBook Air, dem 13-Zoll MacBook Pro und dem 2022 iPad Pro zu sehen.
Ebenso ist der A16 Bionic- Chipsatz, der die Modelle iPhone 14 Pro und iPhone 14 Pro Max antreibt, identisch mit dem M2, allerdings mit etwas weniger Rechenleistung aufgrund einer vergleichsweise schwächeren CPU und GPU. Obwohl das iPhone weniger leistungsstark ist, ist es dennoch leistungsstark genug, um eine 3D-Version von Ihnen darzustellen und gleichzeitig Gesichtsausdrücke und Handgesten in Echtzeit nachzustellen.
Mit dem Nachfolger des A16 wird Apple voraussichtlich strukturelle Verbesserungen am Chipsatz vornehmen, indem es auf einen wesentlich effizienteren 3-Nanometer-Herstellungsprozess (3 nm) umsteigt. Basierend auf einer Reihe von Gerüchten über Benchmark-Ergebnisse könnte der A17 Bionic dem M2 noch weiter nahe kommen .
Mobile Geräte sind das Tor zu AR
Neben der Verwendung der TrueDepth-Kamera des iPhones zum Erstellen virtueller Personas für FaceTime sind die iPad Pro- und iPhone Pro-Modelle auch gut dafür gerüstet, die Kacheln jedes Teilnehmers in FaceTime geometrisch verteilt auf dem Vision Pro zu reproduzieren. Das iPad Pro (2020 und neuer) und das iPhone (12 Pro und neuer) verfügen neben den Kameras auf der Rückseite über einen Lidar-Scanner.
Der Lidar-Scanner (kurz für Light Detection and Ranging) kann die Entfernung vom iPhone und iPad Pro zu jedem physischen Objekt genau ermitteln, indem er Licht darauf richtet und die zurückreflektierte Menge misst. Dies macht den Lidar-Scanner enorm nützlich für Augmented Reality (AR)-Anwendungen.
Bei früheren iPhone- und iPad-Starts hat Apple AR-Spielen und -Apps ausführliche Demos gewidmet. Die Erweiterung der Technologie auf Apples eigenes FaceTime macht absolut Sinn, um räumliches FaceTime über das Vision Pro hinaus zu erweitern.
Apple könnte dennoch enttäuschen
Trotz unseres Wunschdenkens werden wir in diesem Jahr möglicherweise kein räumliches FaceTime auf anderen Geräten sehen. Wenn Apple das FaceTime-Erlebnis des Vision Pro vor seiner Markteinführung, die für „Anfang 2024“ geplant ist, auf andere Geräte bringt, würde dies bedeuten, dass die Spannung und Neuheit, die mit seinem futuristischen Headset verbunden sind, abgeschwächt wird. Darüber hinaus wäre es Apple nicht unähnlich, wenn diese Funktionen auf das Vision Pro beschränkt würden, um ausschließlich den Verkauf des extravaganten Geräts anzukurbeln.
Wenn Apple beschließt, räumliches FaceTime auf andere Geräte zu übertragen, wären das iPad Pro 2024 oder das iPhone 16 die ersten Nutznießer. Sollte sich das jedoch als wahr herausstellen, wird räumliches FaceTime auf dem iPhone 16 von einem verbesserten TrueDepth-System profitieren, wie spekuliert wird zum Verstauen und Verstecken unter dem Display.
Ich möchte räumliches FaceTime auf meinem iPhone
Gemeinsame Erfahrungen sind der Kern der Philosophie von Apple , was uns ungerechtfertigte Hoffnungen macht, dass das Unternehmen diese wichtige Vision Pro-Funktion auf das iPhone und andere unterstützte Geräte bringen wird. Während unsere Erwartungen teilweise durch den bloßen Wunsch gestützt werden, FaceTime auf eine neuartige und aufregende Art und Weise zu erleben, ohne 3.500 US-Dollar auszugeben, werden sie auch durch die Tatsache gestützt, dass neuere iPhone- und iPad-Pro-Modelle über die nötige Hardware verfügen, um diesen Traum Wirklichkeit werden zu lassen.
Es besteht jedoch eine gleiche – oder wahrscheinlich höhere – Wahrscheinlichkeit, dass dies nicht geschieht, nur damit Apple mehr Leute dazu bringen kann, seine Vision (Wortspiel beabsichtigt!) für die surreale, aber digital verwobene Zukunft zu teilen. Schließlich bringt eine einzige Einheit des Vision Pro der geldhungrigen Kuh etwa dreimal so viel Umsatz wie ein iPhone oder iPad Pro. Gerüchte deuten auch auf ein relativgünstigeres Headset mit visionOS hin, aber es wird bei weitem keine deutlich günstigere SE-Version sein.
Vielleicht ist es im Moment die beste Vorgehensweise, bis ein paar Monate im Jahr 2024 zu warten. Dies wird der Zeitraum sein, in dem der Vision Pro (hoffentlich) bereits auf den Markt gekommen ist und Apple die Möglichkeit – und umfangreiche Kennzahlen – zur Bewertung gegeben hat ob sich das Headset als eigenständiges Gerät (mit eindeutigem Vorsprung) gewinnbringend verkaufen lässt oder Unterstützung von seinen älteren Geschwistern benötigt, die durch ein Gefühl der Vertrautheit gestützt werden.