Ostatnio wokół LiDAR pojawiło się tyle szumu na nowych urządzeniach Apple, że łatwo zapomnieć, że mobilna Rozszerzona Rzeczywistość może działać w inny sposób. Ale może i tak, szczególnie w przypadku narzędzi ToF osiągających nowe wyżyny w telefonach Samsung.

Niezależnie od tego, czy jesteś programistą, szukasz nowego urządzenia, czy po prostu jesteś ciekawy, warto poświęcić trochę czasu na rozpakowanie tych akronimów i poznanie tajników wykrywania głębokości telefonu komórkowego.

Co to jest ToF?

ToF jest skrótem od Time of Flight.

Z technicznego punktu widzenia ToF odnosi się do używania prędkości światła (lub nawet dźwięku) do określania odległości. Mierzy czas, po jakim światło (lub dźwięk) opuszcza urządzenie, odbija się od obiektu lub samolotu, i wróć do urządzenia, wszystko podzielone przez dwa ujawnia odległość od urządzenia do przedmiotu lub samolot.

Tak więc związek jest taki, że cały LiDAR jest rodzajem Time of Fight, ale nie cały Time of Flight to LiDAR. Aby uprościć sprawę, kiedy mówimy o „ToF”, mamy na myśli optyczny pomiar odległości, z wyłączeniem LiDAR.

instagram viewer

Tak więc, jeśli LiDAR i optyczny non-LiDAR ToF używają światła do określania odległości i mapowania 3D, czym się różnią?

Co to jest LiDAR?

LiDAR to skrót od Wykrywanie i zasięg światła. Ta technologia wykorzystuje laser lub siatkę laserów jako źródło światła w równaniu opisanym powyżej.

Co to jest Lidar i jak działa?

Szukasz nowego smartfona? Chcesz najlepszych funkcji? Następnie możesz rozważyć smartfona z LiDAR.

Pojedynczy odczyt LiDAR może służyć do pomiaru takich rzeczy, jak szerokość pomieszczenia, ale można użyć wielu odczytów LiDAR do utworzyć „chmury punktów”. Można je wykorzystać do tworzenia trójwymiarowych modeli obiektów lub map topograficznych całości obszary.

Chociaż LiDAR może być nowością w urządzeniach mobilnych, sama technologia istnieje już od dłuższego czasu. W warunkach innych niż mobilne LiDAR jest używany do wszystkiego, od mapowania podwodnych środowisk po odkrywanie stanowisk archeologicznych.

Czym różnią się LiDAR i ToF?

Funkcjonalna różnica między LiDAR a innymi formami ToF polega na tym, że LiDAR wykorzystuje impulsowe lasery do budowy chmury punktów, która jest następnie używana do konstruowania mapy lub obrazu 3D. Aplikacje ToF tworzą „mapy głębi” w oparciu o wykrywanie światła, zwykle za pomocą standardowej kamery RGB.

Zaletą ToF nad LiDAR jest to, że ToF wymaga mniej specjalistycznego sprzętu, dzięki czemu można go używać z mniejszymi i tańszymi urządzeniami. Zaletą LiDAR jest łatwość, z jaką komputer może odczytać chmurę punktów w porównaniu z mapą głębi.

Plik Depth API że Google stworzył dla urządzeń z Androidem działa najlepiej na urządzeniach obsługujących ToF i działa poprzez tworzenie map głębi i rozpoznawanie funkcji punkty. ”Te punkty charakterystyczne, często bariery między różnymi natężeniami światła, są następnie używane do identyfikacji różnych płaszczyzn w środowisko. Zasadniczo tworzy to chmurę punktów o niższej rozdzielczości.

Jak ToF i LiDAR współpracują z Mobile AR

Mapy głębokości i chmury punktów są fajne i dla niektórych osób i aplikacji wystarczą. Jednak w przypadku większości aplikacji AR dane te muszą być kontekstualizowane. Zarówno ToF, jak i LiDAR robią to, współpracując z innymi czujnikami na urządzeniu mobilnym. W szczególności platformy te muszą rozumieć orientację i ruch telefonu.

Zrozumienie lokalizacji urządzenia w zmapowanym środowisku nazywa się jednoczesną lokalizacją i mapowaniem lub „SLaM”. SLaM jest używany do innych zastosowań, takich jak pojazdy autonomiczne, ale najbardziej konieczne jest, aby aplikacje AR oparte na urządzeniach mobilnych umieszczały obiekty cyfrowe w środowisku fizycznym.

Jest to szczególnie prawdziwe w przypadku doświadczeń, które pozostają na miejscu, gdy użytkownik nie wchodzi z nimi w interakcję, oraz w przypadku umieszczania obiektów cyfrowych, które wydają się znajdować za fizycznymi ludźmi i przedmiotami.

Kolejny ważny czynnik w umieszczaniu obiektów cyfrowych w aplikacjach opartych na LiDAR i ToF obejmuje „kotwice”. Kotwice to cyfrowe punkty w świecie fizycznym, w których znajdują się obiekty cyfrowe "przywiązany."

W aplikacjach na skalę światową, takich jak Pokemon Go, odbywa się to poprzez oddzielny proces zwany „geotagowaniem”. Jednak w mobilnych aplikacji AR, obiekt cyfrowy jest zakotwiczony w punktach w chmurze punktów LiDAR lub w jednym z punktów charakterystycznych na mapa głębokości.

Czy LiDAR jest lepszy niż ToF?

Ściśle mówiąc, LiDAR jest szybszy i dokładniejszy niż Time of Flight. Jednak staje się to bardziej znaczące w przypadku bardziej zaawansowanych technologicznie aplikacji.

Na przykład ToF i Google Depth API mają trudności ze zrozumieniem dużych płaszczyzn o niskiej teksturze, takich jak białe ściany. Może to utrudniać aplikacjom korzystającym z tej metody dokładne umieszczanie obiektów cyfrowych na niektórych powierzchniach świata fizycznego. Aplikacje korzystające z LiDAR rzadziej mają ten problem.

Jednak jest mało prawdopodobne, aby aplikacje obejmujące większe lub bardziej zróżnicowane teksturowo środowiska miały ten problem. Ponadto większość aplikacji AR opartych na urządzeniach mobilnych obejmuje korzystanie z rozszerzenia Filtr AR na twarzy lub ciele użytkownika—Aplikacja, w przypadku której jest mało prawdopodobne, aby napotkała problemy ze względu na duże, nie teksturowane powierzchnie.

Dlaczego Apple i Google używają różnych czujników głębokości?

Wydając swoje urządzenia kompatybilne z LiDAR, jabłko powiedział, że włączyli czujniki, a także inny sprzęt, aby „otworzyć bardziej profesjonalne przepływy pracy i wspierać profesjonalne aplikacje do robienia zdjęć i filmów”. Wydanie nazywało się również kompatybilnym z LiDAR iPad Pro „najlepsze na świecie urządzenie do rzeczywistości rozszerzonej” i reklamowane aplikacje pomiarowe firmy Apple.

Google nie udzielił tak wyraźnych wyjaśnień, dlaczego ich Depth API i nowa linia urządzeń obsługujących nie używają LiDAR. Oprócz pracy z LiDAR, dzięki czemu urządzenia z Androidem są lżejsze i tańsze, istnieje również duża zaleta w zakresie dostępności.

Ponieważ Android działa na urządzeniach mobilnych wyprodukowanych przez wiele firm, używanie LiDAR sprzyjałoby modelom kompatybilnym z LiDAR kosztem wszystkich innych. Ponadto, ponieważ wymaga tylko standardowej kamery, Depth API jest wstecznie kompatybilny z większą liczbą urządzeń.

W rzeczywistości Depth API Google jest niezależny od urządzenia, co oznacza, że ​​programiści używają Platforma Google do tworzenia doświadczeń AR może tworzyć środowiska, które działają również na urządzeniach Apple.

Czy zbadałeś już głębię?

Ten artykuł koncentruje się głównie na LiDAR i ToF w mobilnych doświadczeniach AR. Dzieje się tak głównie dlatego, że te bardziej złożone doświadczenia wymagają największego wyjaśnienia. Dzieje się tak również dlatego, że te doświadczenia są najbardziej zabawne i najbardziej obiecujące.

Jednak podejścia oparte na wyczuwaniu głębi, takie jak te, są podstawą wielu prostszych i bardziej praktycznych doświadczeń i narzędzi, których możesz używać każdego dnia bez poświęcania im wiele uwagi. Miejmy nadzieję, że przeczytanie o ToF i LiDAR da ci więcej uznania dla tych aplikacji.

E-mail
10 najlepszych narzędzi dla Twojego iPhone'a: ​​Linijka, poziom i pomiar odległości

Potrzebujesz linijki do iPhone'a do pomiaru przedmiotów codziennego użytku? Te aplikacje narzędziowe dla iPhone'a pozwalają mierzyć odległość, długość i nie tylko.

Powiązane tematy
  • Technologia wyjaśniona
  • Android
  • iPhone
  • Rozszerzona Rzeczywistość
  • Wirtualna rzeczywistość
  • Aparat w smartfonie
O autorze
Johnathan Jaehnig (32 opublikowane artykuły)

Jon Jaehnig jest niezależnym pisarzem / redaktorem zainteresowanym technologiami wykładniczymi. Jon ma tytuł licencjata w dziedzinie komunikacji naukowej i technicznej z nieletnim z dziennikarstwa na Michigan Technological University.

Więcej od Johnathan Jaehnig

Zapisz się do naszego newslettera

Dołącz do naszego biuletynu, aby otrzymywać wskazówki techniczne, recenzje, bezpłatne e-booki i ekskluzywne oferty!

Jeszcze jeden krok…!

Potwierdź swój adres e-mail w wiadomości e-mail, którą właśnie wysłaliśmy.

.