提升 AR 效能 蘋果後置 3D 感測系統改採 ToF 技術

提升 AR 效能 蘋果後置 3D 感測系統改採 ToF 技術
▲加入後置 3D 感測系統可讓 AR 功能更為強大,例如使 AR 虛擬形象與真實環境中的物體,進行更多地交互。(圖/翻攝自雷鋒網,下同)

【原文:雷鋒網原創文章《蘋果後置 3D 傳感系統將採用 ToF,這跟TrueDepth 有什麼不同?》,作者:田苗,智慧機器人網編輯整理】

文、圖/雷鋒網

iPhone X 的前置 TrueDepth 感測系統讓手機可實現臉部解鎖,還實現對面部表情的即時跟蹤和識別,生成 Animojis。但顯然,這只是蘋果的第一步。如果把蘋果手機後置鏡頭也加入 3D 感測系統,又會產生什麼樣的效果呢?

升級 iOS 11 系統後,蘋果手機可下載 AR 應用,這主要通過蘋果後置單目鏡頭實現。如果加入後置 3D 感測系統可讓 AR 功能更為強大,例如使 AR 虛擬形象與真實環境中的物體,進行更多地交互。3D 感測系統可檢測深度資訊,構建三維地圖,而現在,蘋果 AR 應用只能檢測到一個平面。同樣的,後置 3D 感測系統還能為 AR 眼鏡奠定技術基礎。

不過,有意思的是,根據彭博社報導,蘋果正在研發後置 3D 感測系統採用的技術路徑,跟前置的 TrueDepth 系統並不一樣。

雷鋒網此前曾報導,TrueDepth 採用結構光技術,將 30000 個鐳射點圖案投射到使用者的臉上,並測量失真以生成用於認證的精確 3D 圖像。這種技術原本由以色列公司 PrimeSense 研發,後在 2013 年被蘋果收購。PrimeSense 曾基於結構光技術為微軟研發 Kinect 感測系統。

但據雷鋒網瞭解,蘋果正在研發的 3D 後置感測系統將使用飛行時間法 3D 成像(Time of Flight,ToF),這種方法更難以實現。其主要是通過鐳射掃面物體表面,感測系統會測量鐳射到達物體和返回的時間。

在上述圖中,我們能看到,ToF 關鍵是感測器要測量物體的距離。ToF 多被應用到 LIDAR (雷達)中,其主要的不足在於,它每次只能測量鐳射到達一個特定點的距離。所以,大部分雷達系統採用機械掃描裝置。雷達系統目前多被用於自動駕駛領域。但體型通常較大,會被放置在汽車的頂部。

顯而易見,這對手機並不適用。目前還有一種新型的雷達稱之為 Flash LIDAR。它使用特殊的攝影機,可測量對每個圖元實現飛行時間測量。但 Flash LIDAR 還在研發中,同時也遇到了一些挑戰。因為每個圖元需得到自己的飛行時間測量,其中包括觸發電路、脈衝檢測電路。這便與 TrueDepth 產生一定的衝突。

儘管 Flash LIDAR 的問題在逐步解決,但如感測器的解析度可能相當低,接近於 VGA 解析度。

另外的問題是,提供適當的脈衝鐳射照明。光以每納秒約一英尺的速度傳播,而多數 LIDAR 和 Flash LIDAR 系統光脈衝時間非常短,只有 1~2 納秒。所以,在一定的時間內,生成足夠密度的光脈衝,被 Flash LIDAR 檢測到,也具有一定的挑戰。

蘋果已經確定在研發 ToF,但是否最終會用到手機上,還不一定。結構光非常適合用於房間大小的空間內,這也是為什麼 Kinect 和 HoloLens 也會使用結構光的方案。

對比兩種方案的話,ToF 的精準度和穩定性較好,但結構光可以做的更小、功耗也小,解析度相對高。雷鋒網覺得,蘋果也許在嘗試不同的解決方案,融入到手機中必定有很大的挑戰,我們期待後置 3D 感測器能讓 AR 功能更強大。

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

【原文:雷鋒網原創文章《蘋果後置 3D 傳感系統將採用 ToF,這跟TrueDepth 有什麼不同?》,作者:田苗,智慧機器人網編輯整理】

熱門標籤

留言

延伸閱讀