盤點無人機避障技術 誰是黑科技?

2016-03-03 10:03:00 來源:網(wǎng)易科技作者:佚名 人氣: 次閱讀 188 條評論

今日北京時間凌晨,DJI大疆創(chuàng)新在美國紐約舉行新品發(fā)布會,發(fā)布了精靈系列新品――大疆精靈Phantom4。雖然因為提前曝光對于精靈4并無太多懸念,不過其中的三點創(chuàng)新功能依然表現(xiàn)了大疆的誠意,尤其是其中的視覺避障,。...

今日北京時間凌晨,DJI大疆創(chuàng)新在美國紐約舉行新品發(fā)布會,發(fā)布了精靈系列新品――大疆精靈Phantom 4。雖然因為提前曝光對于精靈4并無太多懸念,不過其中的三點創(chuàng)新功能依然表現(xiàn)了大疆的誠意,尤其是其中的視覺避障,可稱得上是黑科技。

目前,市面上主流的電動多旋翼無人機避障系統(tǒng)主要有三種,分別是超聲波、TOF(激光雷達測距的一種)以及正有望成為主流的視覺測距。正好最受關注的國內(nèi)三家無人機廠商最近相繼都推出了自己的新品,并且分別使用到了這三種系統(tǒng)其中一種或兩種。那么,就來分析下,誰在避障上是真正的黑科技。

零度Xplorer 2:激光雷達TOF測距

TOF是Time of flight的簡寫,直譯為飛行時間。所謂飛行時間法3D成像,是通過給目標連續(xù)發(fā)送光脈沖,然后用傳感器接收從物體返回的光,通過探測光脈沖的飛行(往返)時間來得到目標物距離。

使用這種方式光波容易受到干擾,系統(tǒng)發(fā)出的光,必須避開太陽光的主要能量波段,從而避免太陽光的直射、反射等對避障系統(tǒng)造成干擾。該原理需要非常精準的時間測量,需要專用處理芯片,而芯片價格則較為高昂。

零度在CES2016上發(fā)布的Xplorer 2,采用的便是TOF測距方案。無人機上的“蘑菇頭”就是自動避障模塊,該避障模塊可以實現(xiàn)在6m有效避障距離內(nèi),以每秒50次的速率實現(xiàn)360°全方位掃描。


Xplorer 2自動避障模塊

昊翔Typhoon H:Realsense(單目+結(jié)構(gòu)光)

Realsense的技術原理是,它采用了“主動立體成像原理”,模仿了人眼的“視差原理”,通過打出一束紅外光,以左紅外傳感器和右紅外傳感器追蹤這束光的位置,然后用三角定位原理來計算出 3D 圖像中的“深度”信息。通過配有深度傳感器和全1080p彩色鏡頭,能夠精確識別手勢動作、面部特征、前景和背景,進而讓設備理解人的動作和情感。據(jù)Intel方面對外透露的數(shù)據(jù),Realsense的有效測距可達10米。

Realsense屬于“單目+結(jié)構(gòu)光”,即單個攝像頭加結(jié)構(gòu)光發(fā)射器構(gòu)成深度攝像頭。不過結(jié)構(gòu)光卻是個“見光死”,“結(jié)構(gòu)光只適合暗環(huán)境、室內(nèi)。為啥intel弄個仿熱帶雨林的暗環(huán)境?因為會受到干擾??!”雷動云合創(chuàng)始人廖鴻宇說,由于將3D深度攝像頭改為2D深度攝像頭,其“單目+結(jié)構(gòu)光”的智能導航模塊只需200元。


Typhoon H整合了Intel的Realsense模塊

大疆精靈Phantom 4:雙目視覺+超聲波

雙目的測距原理,就像我們?nèi)祟惖膬蓚€眼睛,看到的圖像不一樣,假如同一個點,兩個眼睛看到兩張圖像是存在差異的,而通過三角測距是可以測出這個點的距離。


雙目視覺系統(tǒng)原理圖

Phantom 4增加了雙目避障,其實是沿用了guidance的核心算法,能夠識別最近0.7米,最遠15米的障礙物;水平視角 60°,垂直視角為30°。雙目視覺的優(yōu)勢體現(xiàn)在,在遠距離,雙目視覺能保證三維精準信息,比如遠處的兩座山能看出一個近一個遠。當然,遠處的小目標是不可以的。


Phantom 4 下視視覺定位模塊

誰的技術才是黑科技?

雷動云合創(chuàng)始人廖鴻宇:

“其實,所有的光學測距除了TOF以外都是三角測距。雙目測距是基礎,但雙目測距的困難在于,比如兩個攝像頭各拍一張圖像,我怎么知道這兩張圖像中的某一點是同一點,這個我們稱為測中點,也叫錨點。這個是計算量很大的工作,后來有人想了一個辦法,我打一個結(jié)構(gòu)光出去,我把一個攝像頭去掉了,結(jié)構(gòu)光那個圖像是已知的,也就是說其中一個圖像我是明確知道的,那么另外一個攝像頭拍到的圖像呢,就很容易把這個點找出來,然后再計算其中的差異,這樣就可以測距了,這是結(jié)構(gòu)光測距原理。它的運算量會小很多,因為雙目的運算復雜度太大了。不過結(jié)構(gòu)光的前提是需要補光,為什么叫主動視覺,是因為我們打出了一束光,那為了安全這束光不能太強,如果環(huán)境很亮的話,這個光點就很難找,所以結(jié)構(gòu)光一般不適合室外的環(huán)境,它適合室內(nèi)的環(huán)境,尤其是越暗的情況下,越容易找到這些點。而雙目視覺呢,是被動視覺,所以外界的光越強圖像就越清晰,所以說雙目視覺比較適合室外的環(huán)境。

我覺得大疆比較創(chuàng)新的一點是,在室內(nèi)它的雙目視覺會弱一些的時候,恰好可以使用超聲波,然后在室外雙目視覺運算量太大了,總會有漏掉的部分,這個時候超聲波也可以作為補充。超聲波的特點是用來測距離很準確,但是不能形成各個點之間的深度信息,它只能測一個大概的距離。舉例來說,車上的雷達都是超聲的,它告訴你某個方向有障礙物,但是它不能告訴你哪個點有障礙物,但是用雙目視覺或結(jié)構(gòu)光我可以測出哪個點的深度信息。所以,超聲我們一般用來避障,它不適合室內(nèi)機器人的導航。而無人機在室外主要就是避障,比如只要知道前方有樹就行了。然后在室內(nèi),有人用來定高,因為無人機要懸停,而GPS在室內(nèi)的信號比較弱。”

圖漾科技的創(chuàng)始人費浙平同樣認同結(jié)構(gòu)光在室外無法使用,而且雙目在觀測對象紋理不明顯的情況下很難有用武之地,不過他的方式不是減少一個攝像頭,而是在兩個攝像頭的基礎上再加上結(jié)構(gòu)光:

“guidance是雙目RGB,看他們網(wǎng)上其中有個說明:‘環(huán)境要求照明情況良好;觀測對象紋理明顯’。這是典型的保證雙目RGB方法能夠有效工作的前提,雙目的要求是兩個攝像頭能夠同時定位同一個特征點,對象特征紋理不豐富的話,比如一堵白墻,雙目是完全不能用的。所以雙目不能作為通用的深度傳感器使用,只能用作預設的特定任務,比如看手型(如leapmotion),避障(如DJI),ADAS(只看有限的前車物體)。雙RGB好處是室外晴天可用(當然在保證攝像頭成像的前提下,不能對著光線過曝),普通結(jié)構(gòu)光在室外完全不行(如kinect和realsense)、室內(nèi)靠近窗口就已經(jīng)不行了。結(jié)構(gòu)光就像是投影儀,主動發(fā)射設計好的紋理出去打在物體表面。為了不干擾人,用的紅外激光,人眼看不到,攝像頭可能看到這些紋理。工業(yè)深度相機為了效果好就直接用投影儀投射紋理的,反正不用考慮干擾人眼的問題。”

所以,總結(jié)起來就是,在無人機應用上,零度的Xplorer 2因為只有6m有效避障距離失掉先機,大疆的精靈4比昊翔的Typhoon H的室外避障更勝一籌,當然,如果加上結(jié)構(gòu)光是最好的了。