國內(nèi)外研究現(xiàn)狀和發(fā)展動態(tài)
近幾年,無人駕駛與AI并列為大熱話題,關(guān)于無人駕駛應(yīng)用于實(shí)際的道路行駛的相關(guān)問題一直以來都頗有爭論。上個月,美國亞利桑那州州長Doug Ducey簽署了一份關(guān)于無人駕駛的行政命令:無駕駛員的純無人駕駛汽車允許在公共道路上通行;無獨(dú)有偶,美國加利福尼亞州行政法規(guī)辦公室批準(zhǔn)了一項(xiàng)新規(guī)定:美國加州同樣允許無駕駛員操控的“完全自動駕駛汽車”在公共道路上進(jìn)行測試。而在國內(nèi),上海發(fā)放了全國首批智能網(wǎng)聯(lián)汽車開放道路測試號牌,這意味著無人駕駛汽車走出封閉園區(qū)正式進(jìn)入路測階段。
而無人駕駛車輛必不可少的就是計(jì)算機(jī)視覺技術(shù),計(jì)算機(jī)視覺是應(yīng)運(yùn)時代而生的產(chǎn)物,用于計(jì)算機(jī)對外界圖形的信息處理,它由運(yùn)用廣泛的CNN的方法,運(yùn)算速度快,其運(yùn)用的車道檢測是大多數(shù)人面臨的主要問題,運(yùn)用的Laplacian邊緣檢測技術(shù)所需內(nèi)核小,但易被噪聲干擾,而謹(jǐn)慎的檢測器盡管運(yùn)用一些方法為更多的研究提供了額外的方法,但也限制了其本身的性能[1]。
自2003年起,就有各種無人駕駛車輛的研究,比如清華大學(xué)研制成功THMR-V(Tsinghua Mobile Robot-V)型無人駕駛車輛,能在清晰車道線的結(jié)構(gòu)化道路上完成巡線行駛,最高車速超過100km/h。
追溯無人駕駛技術(shù)的發(fā)展歷史,由國防科技大學(xué)自主研制的紅旗HQ3無人車,2011年7月14日首次完成了從長沙到武漢286公里的高速全程無人駕駛實(shí)驗(yàn),創(chuàng)造了中國自主研制的無人車在復(fù)雜交通狀況下自主駕駛的新紀(jì)錄,標(biāo)志著中國無人車在復(fù)雜環(huán)境識別、智能行為決策和控制等方面實(shí)現(xiàn)了新的技術(shù)突破,達(dá)到世界先進(jìn)水平,而其采用的就是人工智能的神經(jīng)網(wǎng)絡(luò)技術(shù)。
說到神經(jīng)網(wǎng)絡(luò)對自動駕駛汽車的作用,重點(diǎn)之一是其運(yùn)用了反褶積圖,以顯示影響網(wǎng)絡(luò)輸出的圖像區(qū)域。其二是運(yùn)用建立數(shù)學(xué)模型和使用數(shù)學(xué)公式的方法檢驗(yàn)因果關(guān)系。但總而言之實(shí)現(xiàn)的關(guān)鍵方法包含三個步驟:(1)編碼器:卷積特征提取;(2)通過視覺注意機(jī)制的粗粒度譯碼器;(3)細(xì)粒度的解碼器[2]:因果視覺顯著性檢測和注意力地圖的細(xì)化。
2013年,百度開始研發(fā)自動駕駛汽車。百度方面證實(shí),百度已經(jīng)將視覺、聽覺等識別技術(shù)應(yīng)用在無人汽車系統(tǒng)研發(fā)中,負(fù)責(zé)該項(xiàng)目的是百度深度學(xué)習(xí)研究院。2015年年末,百度無人駕駛車在北京進(jìn)行全程自動駕駛測跑,可根據(jù)不同場景切換狀態(tài),最高時速達(dá)100km/h。2016年,北京理工大學(xué)設(shè)計(jì)了一款無人駕駛賽車,百公里加速僅3秒,使用雙目攝像頭用于行人偵測、避障及路線規(guī)劃。70年代開始,美國、英國、德國等發(fā)達(dá)國家開始進(jìn)行無人駕駛汽車的研究,在可行性和實(shí)用化方面都取得了突破性的進(jìn)展。美國最為發(fā)展前景好的是谷歌和特斯拉。
2014年12月21日,谷歌宣布,其首款成型的無人駕駛原型車制造完畢,將會在2015年正式進(jìn)行路測。谷歌擁有先進(jìn)的軟件和算法基礎(chǔ),其自動駕駛汽車擁有攝像頭、GPS、雷達(dá)與激光傳感器,可以極為靈敏地獲取周圍環(huán)境的信息。自2009年起,谷歌自動駕駛汽車已在自主模式之下行駛了超出120萬英里。在這樣的磨練中,系統(tǒng)對于應(yīng)對各類狀況已經(jīng)積攢了豐富的經(jīng)驗(yàn)。谷歌的自動駕駛車可以識別各類物體甚至是交警的手勢,谷歌強(qiáng)大的軟件算法能力由此得以體現(xiàn)。
那么究竟無人駕駛的事故率和傳統(tǒng)駕駛的事故率孰高孰低,從警方給出的事故率和Google報(bào)告中的事故率來看,結(jié)果是無人駕駛高于傳統(tǒng)駕駛一倍,但是有一些導(dǎo)致結(jié)果不穩(wěn)定的因素,如路面刮蹭的小事故警方根本不會報(bào)道,但是我們可以用統(tǒng)計(jì)學(xué)的方式來計(jì)算論證,最終得到結(jié)果:無人駕駛的事故率確實(shí)小于傳統(tǒng)駕駛的事故率。到目前為止,Google汽車在自主模式下發(fā)生的最常見的碰撞事件類型是Google汽車在停止或幾乎不動時被另一輛車追尾,而在所有碰撞事故中,Google汽車并沒有參與任何單一車輛的事故,且在所有碰撞事故中只有一次撞車涉及可能的傷害且傷害程度低于預(yù)期值。但由于事故數(shù)量較少,所以只能大致得出Google汽車自主模式下的碰撞率低于人類駕駛車輛[3],且在無法避免的碰撞事故中能夠減輕碰撞程度的結(jié)論。
特斯拉的優(yōu)勢則在于其速度之快,在其他企業(yè)對自動駕駛技術(shù)尚處研究階段之時,特斯拉已經(jīng)投入量產(chǎn)并創(chuàng)造出一定的規(guī)模了。特斯拉本身在自動駕駛方面就具備技術(shù)層面的優(yōu)勢,并且對自動駕駛技術(shù)又存在一種特別的執(zhí)著。其車型擁有用以識別周圍環(huán)境的超聲波傳感器、辨別前方物體的前置攝像頭與雷達(dá),以及無數(shù)次路測累積的高精度衛(wèi)星地圖。
但這個領(lǐng)域還有一些問題,比如:如何提高無人駕駛領(lǐng)域中改進(jìn)消失點(diǎn)的方法。相較于傳統(tǒng)的RANSAC算法,Moon等提出的harmory算法可以提高消失點(diǎn)檢測的準(zhǔn)確率,從RANSAC算法的本質(zhì)闡釋出RANSAC算法具有隨機(jī)性[4],最后通過數(shù)據(jù)對比的方式,說明了HS算法在準(zhǔn)確率這一方面優(yōu)于RANSAC算法。
無人駕駛技術(shù)的不斷發(fā)展和更新,是建立在對我們手動駕駛的過程中發(fā)生過的各類問題和情況的大量研究的基礎(chǔ)上的,是大量數(shù)據(jù)統(tǒng)計(jì)分析進(jìn)而得出結(jié)論的結(jié)晶。而日益增長的數(shù)據(jù)庫與信息庫給我們提取幫助自動駕駛了解和預(yù)測復(fù)雜交通場景的任務(wù)提出了愈來愈大的挑戰(zhàn),現(xiàn)有的文獻(xiàn)還沒有提供從大規(guī)模數(shù)據(jù)中自動學(xué)習(xí)交通原語的方法,而最近引入的一種非參數(shù)貝葉斯學(xué)習(xí)方法[5],實(shí)驗(yàn)結(jié)果表明,非參數(shù)貝葉斯學(xué)習(xí)方法能夠從二元和連續(xù)事件共存的流量場景中提取交通原語。
無人駕駛技術(shù)繼續(xù)迅猛發(fā)展,英國第一輛無人駕駛汽車于2015年2月亮相,它是旨在幫助乘客,購物者和老年人短距離出行。新的無人駕駛汽車將于本周在英國格林威治亮相,被稱為Lutz Pathfinder。
而幾乎同時在德國漢堡的Ibeo公司應(yīng)用先進(jìn)的激光傳感技術(shù)把無人駕駛汽車變成了現(xiàn)實(shí):這輛無人駕駛智能汽車在車身安裝了6臺名為“路克斯”(LUX)的激光傳感器,由普通轎車改裝而成,可以在錯綜復(fù)雜的城市公路系統(tǒng)中無人駕駛。這歸功于車內(nèi)安裝的無人駕駛設(shè)備,包括激光攝像機(jī)、全球定位儀和智能計(jì)算機(jī)。
無人駕駛技術(shù)還有廣闊的應(yīng)用平臺,可以想到的是,目前無人駕駛地面作戰(zhàn)平臺越來越適應(yīng)現(xiàn)代化戰(zhàn)爭的需要,較高的雷達(dá)測量精度能幫助準(zhǔn)確識別出作戰(zhàn)惡劣環(huán)境的周圍目標(biāo),其中一個重要問題就是考慮確保無編隊(duì)碰撞事故,而這取決于無人作戰(zhàn)地面平臺控制算法的設(shè)計(jì),這個設(shè)計(jì)的難點(diǎn)在于,惡劣的作戰(zhàn)環(huán)境下,道路上并沒有車道標(biāo)志,因此,車的前行路線不能太過于依賴于車道線,算法應(yīng)該可靠地識別包括靜態(tài)物體和動態(tài)車輛在內(nèi)的目標(biāo)[6],從而確保各自安全行駛。
最近人們還通過研究汽車共享業(yè)務(wù)模型的共享無人駕駛出租車體系后得出結(jié)論,共享自主車輛(SAV)車隊(duì)可有效地減少停車位,節(jié)約城市空間,減少溫室氣體和有害物質(zhì)地排放,一個無人駕駛車隊(duì)可以基本替代一個城市中的所有私家車,并滿足所有人的出行需求,因?yàn)闊o人駕駛車輛擁有更好的安全性能,更方便和優(yōu)化的旅行,而且能減少擁堵,降低總體成本,降低停車空間要求等。具體來說可以采取類似于出租車服務(wù)或點(diǎn)對點(diǎn)實(shí)時乘車分享的形式[7]。與基于應(yīng)用程序的汽車共享一樣,這些形式的乘坐共享已被證明非常受歡迎。
在2016年的CVPR會議上重點(diǎn)講述了運(yùn)用視覺注意力的神經(jīng)網(wǎng)絡(luò)模型來處理無人駕駛汽車的問題。它比起一般的難以尋蹤的神經(jīng)網(wǎng)路模型,有著易查看的特點(diǎn)。用于無人駕駛汽車,它能將熱力圖傳達(dá)給CNN判斷,使車輛安全駕駛。該模型的實(shí)現(xiàn)方法共三大步驟:三個步驟:(1)編碼器:卷積特征提取,(2)通過視覺注意機(jī)制的粗粒度譯碼器,以及(3)細(xì)粒度的解碼器:因果視覺顯著性檢測和注意力地圖的細(xì)化。三大步驟后也存有檢驗(yàn)步驟以確保正確。模型建立完成后,需要在天氣晴朗時拍攝大量視頻作為練習(xí)數(shù)據(jù),花不到24小時在NVIDIA Titan X Pascal GPC上訓(xùn)練,嘗試了三個不同的懲罰系數(shù)來理解模型決策的原理,使模型能夠注意道路的要素如車道標(biāo)記、護(hù)欄和前方車輛。最后得出結(jié)論,他們與相同的基礎(chǔ)CNN相比,(i)在沒有注意的情況下,對注意力的控制不能降低控制的準(zhǔn)確性。(ii)原始的注意突出了圖像中的可解釋特征,而(iii)因果過濾通過去除對輸出沒有顯著影響的特征[8],達(dá)到了解釋復(fù)雜性的有效降低的效果。
2017年的ICCV等權(quán)威會議都強(qiáng)調(diào)了自動無人駕駛的研究重心。我們基于Winograd的最小濾波算法引入了一類新的卷積神經(jīng)網(wǎng)絡(luò)快速算法。由于這些算法計(jì)算量最小,因此這些算法在小型濾波器和小型設(shè)備方面表現(xiàn)優(yōu)異。與直接卷積相比,這些算法可以將convnet層的算術(shù)復(fù)雜度降低4倍。幾乎所有的算術(shù)運(yùn)算都是通過足夠大的密集矩陣乘法來進(jìn)行計(jì)算的,即使批量很小時也可以進(jìn)行有效計(jì)算,對于自行駕駛汽車的行人檢測數(shù)據(jù)計(jì)算分析非常有幫助。與傳統(tǒng)的FFT卷積算法相比,存儲器要求也很輕。這些因素使實(shí)際實(shí)施成為可能。我們對NVIDIA Maxwell GPU的實(shí)施實(shí)現(xiàn)了所有批量測量的最先進(jìn)的吞吐量,從1到64,同時使用大約16MB的工作空間內(nèi)存。深度卷積神經(jīng)網(wǎng)絡(luò)(convnets)在圖像識別問題上達(dá)到了最先進(jìn)的結(jié)果。網(wǎng)絡(luò)需要幾天的GPU時間來訓(xùn)練,并且在分類過程中也需要大量的計(jì)算資源。數(shù)據(jù)集較大的和模型導(dǎo)致更高的準(zhǔn)確性,但同時也增加了計(jì)算時間。因此,在神經(jīng)網(wǎng)絡(luò)中進(jìn)行神經(jīng)網(wǎng)絡(luò)分析時,如何快速地計(jì)算網(wǎng)絡(luò)成了關(guān)鍵。
而且在無人駕駛的過程中,假設(shè)人們看不到任何工作原理,人們也是不愿意乘坐的。但是如果全方位的展示各種參數(shù),各種傳感器數(shù)據(jù)。任誰都會感到頭大。若想使無人駕駛車輛快速地融入社會,使人們接受并歡迎,首要的工作任務(wù)應(yīng)該是如何讓乘客感到安全和放心,而假如乘客可以在車內(nèi)實(shí)時地關(guān)注車外的各種路況信息,但是又不能單純地將各種數(shù)據(jù)信息硬塞給乘客,在這種情況下,無人駕駛的可視化便成了現(xiàn)在的研究重心之一,即通過神經(jīng)卷積網(wǎng)絡(luò)將處理過的數(shù)據(jù)信息以簡單直觀的圖像呈現(xiàn)給乘客。通過可視化關(guān)注無人駕駛,成為無人駕駛領(lǐng)域中的一個方向。目前,已取得顯著技術(shù)突破。美國加利福尼亞大學(xué)伯克利分部將圖像區(qū)域傳輸?shù)阶R別網(wǎng)絡(luò)(CNN)做出判斷,調(diào)整注意力權(quán)重,最后講圖像呈現(xiàn)給用戶[2]。該方法已經(jīng)被證明在真實(shí)模型中具有有效性。
新硬件Jetson TX2是嵌入式人工智能超級計(jì)算平臺,可以在終端上部署人工智能計(jì)算能力,同時提供了JetPack SDK全套軟件的支持。
參考文獻(xiàn)
[1] Brilian Tafjira Nugraha,Shun-Feng Su,Fahmizal. Towards self-driving car using convolutional neural network and road lane detector[C].2017, 2nd International Conference on Automation, Cognitive Science, Optics, Micro Electro--Mechanical System, and Information Technology (ICACOMIT),65-69.
[2] Jinkyu Kim,John Canny. Interpretable Learning for Self-Driving Cars by Visualizing Causal Attention[C]. IEEE International Conference on Computer Vision(ICCV), Venice, Italy, 2017: 2961-2969.
[3] Eric R. Teoh, David G. Kidd. Rage against the machine? Google's self-driving cars versus human drivers[J]. Journal of Safety Research, 2017,63(1):57-60.
[4] Yoon Young Moon,Zoog Woo Geem,Gi-Tae Han. Vanishing point detection for self-driving car using harmony search algorithm[J]. Swarm and Evolutionary,Computation, 2018, In press:1-9.
[5] Wenshuo Wang, Ding Zhao. Extracting Traffic Primitives Directly From Naturalistically Logged Data for Self-Driving Applications[J]. IEEE Robotics and Automation Letters,2018,3(2):1223-1229.
[6] Jiarui Li, Lei Han,Zhipeng Dong, et.al. A target recognition algorithm applied to the unmanned ground combat platform in curve driving[C]. IEEE International Conference on Unmanned Systems (ICUS), 2017, 192-196.
[7] Luis M. Martinez, José Manuel Viegas. Assessing the impacts of deploying a shared self-driving urban mobility system: An agent-based model applied to the city of Lisbon, Portugal[J]. International Journal of Transportation Science and Technology, 2017, 6(1):13-27.
[8] Andrew Lavin, Scott Gray. Fast Algorithms for Convolutional Neural Networks[C]. IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Las Vegas, NV, USA, 2016:4013-4021.
|