前一篇文章提到自駕車等級的簡易直覺的區分,這篇來談談自駕車的感應器,也就是自駕車的眼睛,通常不會只有單一種感應器以達截長補短的互補效果,這種組合稱之為感應器融合 (sensor fusion)。以特斯拉為例,它有:
8個2D RGB相機:3個位在車內中央照後鏡背面負責前方短(60M,廣角)、中(150M)、長(250M)距離的感測,2個位於左右葉子板負責左前側方與右前側方,另外2個各位於左右B柱朝向後方負責左後側與右後側,另外一個位於後車牌上方負責正後方例如倒車或行駛中後車跟車狀態。除了這8個之外,Model 3另外有一個目前沒有使用的位於中央照後鏡朝向車內空間的攝影機,相信是未來軟體更新後進行駕駛行為偵測的功能。如另一篇文章所述,未來如果駕駛想開啟Auto Pilot一路高速行駛並睡覺的話,可能就會被偵測到而無法作用。
1個RADAR:位於前保險桿中央範圍達160M。
12個超音波:平均裝置於前後保險桿各6個,感測距離8M並能完整涵蓋車子周圍360度範圍,目的是用來在慢速行車中偵測行人或物體,例如路邊停車。
看了上述的感應器融合裝置,有沒有發現所用的都是傳統的感應器,這是Elon Musk這一派的選擇,他認為用傳統並低成本的雷達配上在高速運算單元 (早期的Nvidia GPU與後期自家開發的運算器)運行的人工智慧軟體就足以達到高精度的自駕功能,並經常在訪問中對LiDAR (光達,就是路上常見的自駕測試車車頂旋轉的裝置) 的可行性提出不屑的質疑,正如其一貫有話直說的作風。另一派自駕車陣營例如Volvo、Waymo、Uber等就選擇高成本的LiDAR,其中後兩者還為了光達專利打起官司。光達就想像成雷達只是雷達用無線電波反射而光達用光波反射測距,或說兩者都屬電磁波。
除了上面兩派陣營外,近幾年自從微軟的Kinect 3D攝影機配合其Xbox遊戲機問世以來,各類3D攝影感測技術如雨後春筍,大致有四種:結構光 (Structured Light) 、飛行時間 (ToF, Time of Flight)、立體視覺 (Stereo Vision)、與微機電系統 (MEMS),不同技術應用的距離範圍也不同,但最佳範圍多在10M以內。在Apple收購Kinect的以色列供應商PrimeSense並將其結構光技術首次用在其iPhone X的3D人臉解鎖達到消費級應用的極致規模 (2020新一代iPhone改採ToF)。我個人在3D感測公司擔任營運長一職時接觸到一些案例,有車廠希望將3D攝影感測應用在自駕車上,個人經驗只要是利用光線感測技術(LiDAR或攝影機) 對環境光線都有相當程度的敏感度,即使2D RGB攝影算是相當成熟都造成烈日下特斯拉在美國的一次著名的車禍。更別說3D攝影感測的機制複雜,縱使使用紅外線 (無論是850nm或940nm的近紅外線),往往在實驗室校正出來的紅外線設備,雖然在黑夜下有優勢但當在烈日下在穩定度上仍有相當大的挑戰。除了成本考量外,個人在自駕車感測器融合的選擇上頗能同意Elon Musk的觀點也就是成熟穩定的雷達加上2D RGB攝影。聰明的您可能馬上會問,那晚上不用類似3D攝影的紅外線下靠可見光的RGB攝影不就沒轍了?答案是夜間行車總要開大燈吧,人眼能看的RGB攝影機不但能也看得比人眼更細微。
有一則關於 LiDAR、RADAR、2D相機、3D相機,哪些會是未來自駕車的標配? 的留言
迴響已關閉。