ToF vs. LiDAR: Was ist der Unterschied?

In letzter Zeit hat LiDAR auf neuen Apple-Geräten so viel Aufsehen erregt, dass man leicht vergisst, dass mobile Augmented Reality auf andere Weise funktionieren kann. Dies ist jedoch möglich, insbesondere wenn die ToF-Tools bei Samsung-Handys neue Höhen erreichen.

Egal, ob Sie Entwickler, auf dem Markt für ein neues Gerät oder einfach nur neugierig sind, es lohnt sich, sich etwas Zeit zu nehmen, um diese Akronyme auszupacken und die Vor- und Nachteile der Tiefenerkennung für Mobiltelefone kennenzulernen.

Was ist ToF?

ToF ist die Abkürzung für Time of Flight.

Technisch bezieht sich ToF auf die Verwendung der Lichtgeschwindigkeit (oder sogar der Schallgeschwindigkeit) zur Bestimmung der Entfernung. Es misst die Zeit, die Licht (oder Ton) benötigt, um das Gerät zu verlassen, von einem Objekt oder einer Ebene abzuprallen und zum Gerät zurückzukehren. Alle durch zwei geteilten Werte zeigen die Entfernung vom Gerät zum Objekt oder zur Ebene an.

ToF vs. LiDAR: Was ist der Unterschied? - ToF Equation

Die Beziehung ist also, dass alles LiDAR eine Art Zeit des Kampfes ist, aber nicht jede Zeit des Fluges ist LiDAR. Um die Dinge einfach zu halten, meinen wir mit "ToF" die optische Entfernungsmessung ohne LiDAR.

Wenn LiDAR und optisches Nicht-LiDAR-ToF Licht zur Entfernungsbestimmung und 3D-Kartierung verwenden, wie unterscheiden sie sich dann?

Was ist LiDAR?

LiDAR steht für Light Detection and Ranging . Diese Technologie verwendet einen Laser oder ein Lasergitter als Lichtquelle in der oben beschriebenen Gleichung.

Ein einzelner LiDAR-Messwert kann verwendet werden, um beispielsweise die Breite eines Raums zu messen, aber mehrere LiDAR-Messwerte können verwendet werden, um "Punktwolken" zu erstellen. Diese können verwendet werden, um dreidimensionale Modelle von Objekten oder topografische Karten ganzer Gebiete zu erstellen.

Während LiDAR für mobile Geräte möglicherweise neu ist, gibt es die Technologie selbst schon seit einiger Zeit. In nicht mobilen Umgebungen wird LiDAR verwendet, um alles von der Kartierung von Unterwasserumgebungen bis zur Entdeckung archäologischer Stätten zu erledigen.

Wie unterscheiden sich LiDAR und ToF?

ToF vs. LiDAR: Was ist der Unterschied? - image depth map

Der funktionale Unterschied zwischen LiDAR und anderen Formen von ToF besteht darin, dass LiDAR gepulste Laser verwendet, um eine Punktwolke zu erstellen, die dann zum Erstellen einer 3D-Karte oder eines 3D-Bildes verwendet wird. ToF-Anwendungen erstellen "Tiefenkarten" basierend auf der Lichterkennung, normalerweise über eine Standard-RGB-Kamera.

Der Vorteil von ToF gegenüber LiDAR besteht darin, dass ToF weniger spezielle Geräte benötigt, damit es mit kleineren und kostengünstigeren Geräten verwendet werden kann. Der Vorteil von LiDAR liegt in der Leichtigkeit, mit der ein Computer eine Punktwolke im Vergleich zu einer Tiefenkarte lesen kann.

Die von Google für Android-Geräte erstellte Tiefen-API funktioniert am besten auf ToF-fähigen Geräten und erstellt Tiefenkarten und erkennt "Feature-Punkte". Diese Merkmalspunkte, häufig Barrieren zwischen verschiedenen Lichtintensitäten, werden dann verwendet, um verschiedene Ebenen in der Umgebung zu identifizieren. Dies erzeugt im Wesentlichen eine Punktwolke mit niedrigerer Auflösung.

Wie ToF und LiDAR mit Mobile AR arbeiten

Tiefenkarten und Punktwolken sind cool und für manche Menschen und Anwendungen ausreichend. Für die meisten AR-Anwendungen müssen diese Daten jedoch kontextualisiert werden. Sowohl ToF als auch LiDAR arbeiten dazu mit anderen Sensoren auf dem mobilen Gerät zusammen. Insbesondere müssen diese Plattformen die Ausrichtung und Bewegung Ihres Telefons verstehen.

Das Erkennen des Standorts des Geräts in einer zugeordneten Umgebung wird als "Simultane Lokalisierung und Zuordnung" oder "SLaM" bezeichnet. SLaM wird für andere Anwendungen wie autonome Fahrzeuge verwendet. Für mobile AR-Anwendungen ist es jedoch am wichtigsten, digitale Objekte in der physischen Umgebung zu platzieren.

Dies gilt insbesondere für Erlebnisse, die bestehen bleiben, wenn der Benutzer nicht mit ihnen interagiert, und für das Platzieren digitaler Objekte, die sich scheinbar hinter physischen Personen und Objekten befinden.

Ein weiterer wichtiger Faktor bei der Platzierung digitaler Objekte in LiDAR- und ToF-basierten Anwendungen sind "Anker". Anker sind digitale Punkte in der physischen Welt, an denen digitale Objekte "befestigt" sind.

In Anwendungen im Weltmaßstab wie Pokemon Go erfolgt dies über einen separaten Prozess namens "Geotagging". In mobilen AR-Anwendungen ist das digitale Objekt jedoch an Punkten in einer LiDAR-Punktwolke oder einem der Merkmalspunkte auf einer Tiefenkarte verankert.

Ist LiDAR besser als ToF?

Genau genommen ist LiDAR schneller und genauer als die Flugzeit. Dies gewinnt jedoch bei technologisch fortschrittlicheren Anwendungen an Bedeutung.

Beispielsweise haben ToF und die Tiefen-API von Google Schwierigkeiten, große Ebenen mit geringer Textur wie weiße Wände zu verstehen. Dies kann es für Anwendungen, die diese Methode verwenden, schwierig machen, digitale Objekte auf einigen Oberflächen in der physischen Welt genau zu platzieren. Bei Anwendungen, die LiDAR verwenden, ist dieses Problem weniger wahrscheinlich.

Bei Anwendungen mit größeren oder strukturell unterschiedlichen Umgebungen ist es jedoch unwahrscheinlich, dass dieses Problem auftritt. Darüber hinaus verwenden die meisten mobilen AR-Anwendungen für Endverbraucher die Verwendung eines AR-Filters im Gesicht oder am Körper des Benutzers – eine Anwendung, bei der aufgrund großer, nicht strukturierter Oberflächen wahrscheinlich keine Probleme auftreten.

Warum verwenden Apple und Google unterschiedliche Tiefensensoren?

ToF vs. LiDAR: Was ist der Unterschied? - android and apple logos

Bei der Veröffentlichung ihrer LiDAR-kompatiblen Geräte gab Apple an , dass sie die Sensoren sowie andere Hardware einbezogen haben, um "mehr professionelle Workflows zu eröffnen und professionelle Foto- und Video-Apps zu unterstützen". In der Veröffentlichung wurde auch das LiDAR-kompatible iPad Pro als "das weltweit beste Gerät für Augmented Reality" bezeichnet und die Mess-Apps von Apple angepriesen.

Google hat nicht so direkt erklärt, warum die Tiefen-API und die neue Reihe unterstützender Geräte LiDAR nicht verwenden. Neben der Arbeit mit LiDAR, um Android-Geräte leichter und erschwinglicher zu halten, gibt es auch einen großen Vorteil bei der Barrierefreiheit.

Da Android auf Mobilgeräten mehrerer Unternehmen funktioniert, würde die Verwendung von LiDAR LiDAR-kompatible Modelle auf Kosten aller anderen bevorzugen. Da nur eine Standardkamera erforderlich ist, ist die Tiefen-API außerdem mit mehr Geräten abwärtskompatibel.

Tatsächlich ist die Tiefen-API von Google geräteunabhängig. Dies bedeutet, dass Entwickler, die die AR-Plattform zum Aufbau von AR-Erfahrungen verwenden, Erfahrungen entwickeln können, die auch auf Apple-Geräten funktionieren.

Haben Sie die Tiefenerkennung untersucht?

Dieser Artikel hat sich hauptsächlich auf LiDAR und ToF in mobilen AR-Erfahrungen konzentriert. Dies liegt hauptsächlich daran, dass diese komplexeren Erfahrungen die meisten Erklärungen erfordern. Es ist auch so, weil diese Erfahrungen am meisten Spaß machen und am vielversprechendsten sind.

Solche Tiefenerkennungsansätze sind jedoch die Grundlage für viele einfachere und praktischere Erfahrungen und Werkzeuge, die Sie jeden Tag verwenden können, ohne viel darüber nachzudenken. Wenn Sie sich über ToF und LiDAR informieren, werden Sie diese Anwendungen hoffentlich besser verstehen.