國(guó)內(nèi)外研究現(xiàn)狀和發(fā)展動(dòng)態(tài)
近幾年,無(wú)人駕駛與AI并列為大熱話(huà)題,關(guān)于無(wú)人駕駛應(yīng)用于實(shí)際的道路行駛的相關(guān)問(wèn)題一直以來(lái)都頗有爭(zhēng)論。上個(gè)月,美國(guó)亞利桑那州州長(zhǎng)Doug Ducey簽署了一份關(guān)于無(wú)人駕駛的行政命令:無(wú)駕駛員的純無(wú)人駕駛汽車(chē)允許在公共道路上通行;無(wú)獨(dú)有偶,美國(guó)加利福尼亞州行政法規(guī)辦公室批準(zhǔn)了一項(xiàng)新規(guī)定:美國(guó)加州同樣允許無(wú)駕駛員操控的“完全自動(dòng)駕駛汽車(chē)”在公共道路上進(jìn)行測(cè)試。而在國(guó)內(nèi),上海發(fā)放了全國(guó)首批智能網(wǎng)聯(lián)汽車(chē)開(kāi)放道路測(cè)試號(hào)牌,這意味著無(wú)人駕駛汽車(chē)走出封閉園區(qū)正式進(jìn)入路測(cè)階段。
而無(wú)人駕駛車(chē)輛必不可少的就是計(jì)算機(jī)視覺(jué)技術(shù),計(jì)算機(jī)視覺(jué)是應(yīng)運(yùn)時(shí)代而生的產(chǎn)物,用于計(jì)算機(jī)對(duì)外界圖形的信息處理,它由運(yùn)用廣泛的CNN的方法,運(yùn)算速度快,其運(yùn)用的車(chē)道檢測(cè)是大多數(shù)人面臨的主要問(wèn)題,運(yùn)用的Laplacian邊緣檢測(cè)技術(shù)所需內(nèi)核小,但易被噪聲干擾,而謹(jǐn)慎的檢測(cè)器盡管運(yùn)用一些方法為更多的研究提供了額外的方法,但也限制了其本身的性能[1]。
自2003年起,就有各種無(wú)人駕駛車(chē)輛的研究,比如清華大學(xué)研制成功THMR-V(Tsinghua Mobile Robot-V)型無(wú)人駕駛車(chē)輛,能在清晰車(chē)道線(xiàn)的結(jié)構(gòu)化道路上完成巡線(xiàn)行駛,最高車(chē)速超過(guò)100km/h。
追溯無(wú)人駕駛技術(shù)的發(fā)展歷史,由國(guó)防科技大學(xué)自主研制的紅旗HQ3無(wú)人車(chē),2011年7月14日首次完成了從長(zhǎng)沙到武漢286公里的高速全程無(wú)人駕駛實(shí)驗(yàn),創(chuàng)造了中國(guó)自主研制的無(wú)人車(chē)在復(fù)雜交通狀況下自主駕駛的新紀(jì)錄,標(biāo)志著中國(guó)無(wú)人車(chē)在復(fù)雜環(huán)境識(shí)別、智能行為決策和控制等方面實(shí)現(xiàn)了新的技術(shù)突破,達(dá)到世界先進(jìn)水平,而其采用的就是人工智能的神經(jīng)網(wǎng)絡(luò)技術(shù)。
說(shuō)到神經(jīng)網(wǎng)絡(luò)對(duì)自動(dòng)駕駛汽車(chē)的作用,重點(diǎn)之一是其運(yùn)用了反褶積圖,以顯示影響網(wǎng)絡(luò)輸出的圖像區(qū)域。其二是運(yùn)用建立數(shù)學(xué)模型和使用數(shù)學(xué)公式的方法檢驗(yàn)因果關(guān)系。但總而言之實(shí)現(xiàn)的關(guān)鍵方法包含三個(gè)步驟:(1)編碼器:卷積特征提取;(2)通過(guò)視覺(jué)注意機(jī)制的粗粒度譯碼器;(3)細(xì)粒度的解碼器[2]:因果視覺(jué)顯著性檢測(cè)和注意力地圖的細(xì)化。
2013年,百度開(kāi)始研發(fā)自動(dòng)駕駛汽車(chē)。百度方面證實(shí),百度已經(jīng)將視覺(jué)、聽(tīng)覺(jué)等識(shí)別技術(shù)應(yīng)用在無(wú)人汽車(chē)系統(tǒng)研發(fā)中,負(fù)責(zé)該項(xiàng)目的是百度深度學(xué)習(xí)研究院。2015年年末,百度無(wú)人駕駛車(chē)在北京進(jìn)行全程自動(dòng)駕駛測(cè)跑,可根據(jù)不同場(chǎng)景切換狀態(tài),最高時(shí)速達(dá)100km/h。2016年,北京理工大學(xué)設(shè)計(jì)了一款無(wú)人駕駛賽車(chē),百公里加速僅3秒,使用雙目攝像頭用于行人偵測(cè)、避障及路線(xiàn)規(guī)劃。70年代開(kāi)始,美國(guó)、英國(guó)、德國(guó)等發(fā)達(dá)國(guó)家開(kāi)始進(jìn)行無(wú)人駕駛汽車(chē)的研究,在可行性和實(shí)用化方面都取得了突破性的進(jìn)展。美國(guó)最為發(fā)展前景好的是谷歌和特斯拉。
2014年12月21日,谷歌宣布,其首款成型的無(wú)人駕駛原型車(chē)制造完畢,將會(huì)在2015年正式進(jìn)行路測(cè)。谷歌擁有先進(jìn)的軟件和算法基礎(chǔ),其自動(dòng)駕駛汽車(chē)擁有攝像頭、GPS、雷達(dá)與激光傳感器,可以極為靈敏地獲取周?chē)h(huán)境的信息。自2009年起,谷歌自動(dòng)駕駛汽車(chē)已在自主模式之下行駛了超出120萬(wàn)英里。在這樣的磨練中,系統(tǒng)對(duì)于應(yīng)對(duì)各類(lèi)狀況已經(jīng)積攢了豐富的經(jīng)驗(yàn)。谷歌的自動(dòng)駕駛車(chē)可以識(shí)別各類(lèi)物體甚至是交警的手勢(shì),谷歌強(qiáng)大的軟件算法能力由此得以體現(xiàn)。
那么究竟無(wú)人駕駛的事故率和傳統(tǒng)駕駛的事故率孰高孰低,從警方給出的事故率和Google報(bào)告中的事故率來(lái)看,結(jié)果是無(wú)人駕駛高于傳統(tǒng)駕駛一倍,但是有一些導(dǎo)致結(jié)果不穩(wěn)定的因素,如路面刮蹭的小事故警方根本不會(huì)報(bào)道,但是我們可以用統(tǒng)計(jì)學(xué)的方式來(lái)計(jì)算論證,最終得到結(jié)果:無(wú)人駕駛的事故率確實(shí)小于傳統(tǒng)駕駛的事故率。到目前為止,Google汽車(chē)在自主模式下發(fā)生的最常見(jiàn)的碰撞事件類(lèi)型是Google汽車(chē)在停止或幾乎不動(dòng)時(shí)被另一輛車(chē)追尾,而在所有碰撞事故中,Google汽車(chē)并沒(méi)有參與任何單一車(chē)輛的事故,且在所有碰撞事故中只有一次撞車(chē)涉及可能的傷害且傷害程度低于預(yù)期值。但由于事故數(shù)量較少,所以只能大致得出Google汽車(chē)自主模式下的碰撞率低于人類(lèi)駕駛車(chē)輛[3],且在無(wú)法避免的碰撞事故中能夠減輕碰撞程度的結(jié)論。
特斯拉的優(yōu)勢(shì)則在于其速度之快,在其他企業(yè)對(duì)自動(dòng)駕駛技術(shù)尚處研究階段之時(shí),特斯拉已經(jīng)投入量產(chǎn)并創(chuàng)造出一定的規(guī)模了。特斯拉本身在自動(dòng)駕駛方面就具備技術(shù)層面的優(yōu)勢(shì),并且對(duì)自動(dòng)駕駛技術(shù)又存在一種特別的執(zhí)著。其車(chē)型擁有用以識(shí)別周?chē)h(huán)境的超聲波傳感器、辨別前方物體的前置攝像頭與雷達(dá),以及無(wú)數(shù)次路測(cè)累積的高精度衛(wèi)星地圖。
但這個(gè)領(lǐng)域還有一些問(wèn)題,比如:如何提高無(wú)人駕駛領(lǐng)域中改進(jìn)消失點(diǎn)的方法。相較于傳統(tǒng)的RANSAC算法,Moon等提出的harmory算法可以提高消失點(diǎn)檢測(cè)的準(zhǔn)確率,從RANSAC算法的本質(zhì)闡釋出RANSAC算法具有隨機(jī)性[4],最后通過(guò)數(shù)據(jù)對(duì)比的方式,說(shuō)明了HS算法在準(zhǔn)確率這一方面優(yōu)于RANSAC算法。
無(wú)人駕駛技術(shù)的不斷發(fā)展和更新,是建立在對(duì)我們手動(dòng)駕駛的過(guò)程中發(fā)生過(guò)的各類(lèi)問(wèn)題和情況的大量研究的基礎(chǔ)上的,是大量數(shù)據(jù)統(tǒng)計(jì)分析進(jìn)而得出結(jié)論的結(jié)晶。而日益增長(zhǎng)的數(shù)據(jù)庫(kù)與信息庫(kù)給我們提取幫助自動(dòng)駕駛了解和預(yù)測(cè)復(fù)雜交通場(chǎng)景的任務(wù)提出了愈來(lái)愈大的挑戰(zhàn),現(xiàn)有的文獻(xiàn)還沒(méi)有提供從大規(guī)模數(shù)據(jù)中自動(dòng)學(xué)習(xí)交通原語(yǔ)的方法,而最近引入的一種非參數(shù)貝葉斯學(xué)習(xí)方法[5],實(shí)驗(yàn)結(jié)果表明,非參數(shù)貝葉斯學(xué)習(xí)方法能夠從二元和連續(xù)事件共存的流量場(chǎng)景中提取交通原語(yǔ)。
無(wú)人駕駛技術(shù)繼續(xù)迅猛發(fā)展,英國(guó)第一輛無(wú)人駕駛汽車(chē)于2015年2月亮相,它是旨在幫助乘客,購(gòu)物者和老年人短距離出行。新的無(wú)人駕駛汽車(chē)將于本周在英國(guó)格林威治亮相,被稱(chēng)為L(zhǎng)utz Pathfinder。
而幾乎同時(shí)在德國(guó)漢堡的Ibeo公司應(yīng)用先進(jìn)的激光傳感技術(shù)把無(wú)人駕駛汽車(chē)變成了現(xiàn)實(shí):這輛無(wú)人駕駛智能汽車(chē)在車(chē)身安裝了6臺(tái)名為“路克斯”(LUX)的激光傳感器,由普通轎車(chē)改裝而成,可以在錯(cuò)綜復(fù)雜的城市公路系統(tǒng)中無(wú)人駕駛。這歸功于車(chē)內(nèi)安裝的無(wú)人駕駛設(shè)備,包括激光攝像機(jī)、全球定位儀和智能計(jì)算機(jī)。
無(wú)人駕駛技術(shù)還有廣闊的應(yīng)用平臺(tái),可以想到的是,目前無(wú)人駕駛地面作戰(zhàn)平臺(tái)越來(lái)越適應(yīng)現(xiàn)代化戰(zhàn)爭(zhēng)的需要,較高的雷達(dá)測(cè)量精度能幫助準(zhǔn)確識(shí)別出作戰(zhàn)惡劣環(huán)境的周?chē)繕?biāo),其中一個(gè)重要問(wèn)題就是考慮確保無(wú)編隊(duì)碰撞事故,而這取決于無(wú)人作戰(zhàn)地面平臺(tái)控制算法的設(shè)計(jì),這個(gè)設(shè)計(jì)的難點(diǎn)在于,惡劣的作戰(zhàn)環(huán)境下,道路上并沒(méi)有車(chē)道標(biāo)志,因此,車(chē)的前行路線(xiàn)不能太過(guò)于依賴(lài)于車(chē)道線(xiàn),算法應(yīng)該可靠地識(shí)別包括靜態(tài)物體和動(dòng)態(tài)車(chē)輛在內(nèi)的目標(biāo)[6],從而確保各自安全行駛。
最近人們還通過(guò)研究汽車(chē)共享業(yè)務(wù)模型的共享無(wú)人駕駛出租車(chē)體系后得出結(jié)論,共享自主車(chē)輛(SAV)車(chē)隊(duì)可有效地減少停車(chē)位,節(jié)約城市空間,減少溫室氣體和有害物質(zhì)地排放,一個(gè)無(wú)人駕駛車(chē)隊(duì)可以基本替代一個(gè)城市中的所有私家車(chē),并滿(mǎn)足所有人的出行需求,因?yàn)闊o(wú)人駕駛車(chē)輛擁有更好的安全性能,更方便和優(yōu)化的旅行,而且能減少擁堵,降低總體成本,降低停車(chē)空間要求等。具體來(lái)說(shuō)可以采取類(lèi)似于出租車(chē)服務(wù)或點(diǎn)對(duì)點(diǎn)實(shí)時(shí)乘車(chē)分享的形式[7]。與基于應(yīng)用程序的汽車(chē)共享一樣,這些形式的乘坐共享已被證明非常受歡迎。
在2016年的CVPR會(huì)議上重點(diǎn)講述了運(yùn)用視覺(jué)注意力的神經(jīng)網(wǎng)絡(luò)模型來(lái)處理無(wú)人駕駛汽車(chē)的問(wèn)題。它比起一般的難以尋蹤的神經(jīng)網(wǎng)路模型,有著易查看的特點(diǎn)。用于無(wú)人駕駛汽車(chē),它能將熱力圖傳達(dá)給CNN判斷,使車(chē)輛安全駕駛。該模型的實(shí)現(xiàn)方法共三大步驟:三個(gè)步驟:(1)編碼器:卷積特征提取,(2)通過(guò)視覺(jué)注意機(jī)制的粗粒度譯碼器,以及(3)細(xì)粒度的解碼器:因果視覺(jué)顯著性檢測(cè)和注意力地圖的細(xì)化。三大步驟后也存有檢驗(yàn)步驟以確保正確。模型建立完成后,需要在天氣晴朗時(shí)拍攝大量視頻作為練習(xí)數(shù)據(jù),花不到24小時(shí)在NVIDIA Titan X Pascal GPC上訓(xùn)練,嘗試了三個(gè)不同的懲罰系數(shù)來(lái)理解模型決策的原理,使模型能夠注意道路的要素如車(chē)道標(biāo)記、護(hù)欄和前方車(chē)輛。最后得出結(jié)論,他們與相同的基礎(chǔ)CNN相比,(i)在沒(méi)有注意的情況下,對(duì)注意力的控制不能降低控制的準(zhǔn)確性。(ii)原始的注意突出了圖像中的可解釋特征,而(iii)因果過(guò)濾通過(guò)去除對(duì)輸出沒(méi)有顯著影響的特征[8],達(dá)到了解釋復(fù)雜性的有效降低的效果。
2017年的ICCV等權(quán)威會(huì)議都強(qiáng)調(diào)了自動(dòng)無(wú)人駕駛的研究重心。我們基于Winograd的最小濾波算法引入了一類(lèi)新的卷積神經(jīng)網(wǎng)絡(luò)快速算法。由于這些算法計(jì)算量最小,因此這些算法在小型濾波器和小型設(shè)備方面表現(xiàn)優(yōu)異。與直接卷積相比,這些算法可以將convnet層的算術(shù)復(fù)雜度降低4倍。幾乎所有的算術(shù)運(yùn)算都是通過(guò)足夠大的密集矩陣乘法來(lái)進(jìn)行計(jì)算的,即使批量很小時(shí)也可以進(jìn)行有效計(jì)算,對(duì)于自行駕駛汽車(chē)的行人檢測(cè)數(shù)據(jù)計(jì)算分析非常有幫助。與傳統(tǒng)的FFT卷積算法相比,存儲(chǔ)器要求也很輕。這些因素使實(shí)際實(shí)施成為可能。我們對(duì)NVIDIA Maxwell GPU的實(shí)施實(shí)現(xiàn)了所有批量測(cè)量的最先進(jìn)的吞吐量,從1到64,同時(shí)使用大約16MB的工作空間內(nèi)存。深度卷積神經(jīng)網(wǎng)絡(luò)(convnets)在圖像識(shí)別問(wèn)題上達(dá)到了最先進(jìn)的結(jié)果。網(wǎng)絡(luò)需要幾天的GPU時(shí)間來(lái)訓(xùn)練,并且在分類(lèi)過(guò)程中也需要大量的計(jì)算資源。數(shù)據(jù)集較大的和模型導(dǎo)致更高的準(zhǔn)確性,但同時(shí)也增加了計(jì)算時(shí)間。因此,在神經(jīng)網(wǎng)絡(luò)中進(jìn)行神經(jīng)網(wǎng)絡(luò)分析時(shí),如何快速地計(jì)算網(wǎng)絡(luò)成了關(guān)鍵。
而且在無(wú)人駕駛的過(guò)程中,假設(shè)人們看不到任何工作原理,人們也是不愿意乘坐的。但是如果全方位的展示各種參數(shù),各種傳感器數(shù)據(jù)。任誰(shuí)都會(huì)感到頭大。若想使無(wú)人駕駛車(chē)輛快速地融入社會(huì),使人們接受并歡迎,首要的工作任務(wù)應(yīng)該是如何讓乘客感到安全和放心,而假如乘客可以在車(chē)內(nèi)實(shí)時(shí)地關(guān)注車(chē)外的各種路況信息,但是又不能單純地將各種數(shù)據(jù)信息硬塞給乘客,在這種情況下,無(wú)人駕駛的可視化便成了現(xiàn)在的研究重心之一,即通過(guò)神經(jīng)卷積網(wǎng)絡(luò)將處理過(guò)的數(shù)據(jù)信息以簡(jiǎn)單直觀的圖像呈現(xiàn)給乘客。通過(guò)可視化關(guān)注無(wú)人駕駛,成為無(wú)人駕駛領(lǐng)域中的一個(gè)方向。目前,已取得顯著技術(shù)突破。美國(guó)加利福尼亞大學(xué)伯克利分部將圖像區(qū)域傳輸?shù)阶R(shí)別網(wǎng)絡(luò)(CNN)做出判斷,調(diào)整注意力權(quán)重,最后講圖像呈現(xiàn)給用戶(hù)[2]。該方法已經(jīng)被證明在真實(shí)模型中具有有效性。
新硬件Jetson TX2是嵌入式人工智能超級(jí)計(jì)算平臺(tái),可以在終端上部署人工智能計(jì)算能力,同時(shí)提供了JetPack SDK全套軟件的支持。
參考文獻(xiàn)
[1] Brilian Tafjira Nugraha,Shun-Feng Su,Fahmizal. Towards self-driving car using convolutional neural network and road lane detector[C].2017, 2nd International Conference on Automation, Cognitive Science, Optics, Micro Electro--Mechanical System, and Information Technology (ICACOMIT),65-69.
[2] Jinkyu Kim,John Canny. Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention[C]. IEEE International Conference on Computer Vision(ICCV), Venice, Italy, 2017: 2961-2969.
[3] Eric R. Teoh, David G. Kidd. Rage against the machine? Google's self-driving cars versus human drivers[J]. Journal of Safety Research, 2017,63(1):57-60.
[4] Yoon Young Moon,Zoog Woo Geem,Gi-Tae Han. Vanishing point detection for self-driving car using harmony search algorithm[J]. Swarm and Evolutionary,Computation, 2018, In press:1-9.
[5] Wenshuo Wang, Ding Zhao. Extracting Traffic Primitives Directly From Naturalistically Logged Data for Self-Driving Applications[J]. IEEE Robotics and Automation Letters,2018,3(2):1223-1229.
[6] Jiarui Li, Lei Han,Zhipeng Dong, et.al. A target recognition algorithm applied to the unmanned ground combat platform in curve driving[C]. IEEE International Conference on Unmanned Systems (ICUS), 2017, 192-196.
[7] Luis M. Martinez, José Manuel Viegas. Assessing the impacts of deploying a shared self-driving urban mobility system: An agent-based model applied to the city of Lisbon, Portugal[J]. International Journal of Transportation Science and Technology, 2017, 6(1):13-27.
[8] Andrew Lavin, Scott Gray. Fast Algorithms for Convolutional Neural Networks[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Las Vegas, NV, USA, 2016:4013-4021.
|