真正的自動駕駛汽車何時才能來?

時間:2019-12-16

來源:快資訊

導(dǎo)語:像人類一樣駕駛的全自動駕駛汽車,必須具有人類的認(rèn)知能力:首先能“看”到,然后能“想”到,最后才能“做”到。

   像人類一樣駕駛的全自動駕駛汽車,必須具有人類的認(rèn)知能力:首先能“看”到,然后能“想”到,最后才能“做”到。

  用什么來“看”,正是目前汽車行業(yè)中的大家意見分裂的地方。傳統(tǒng)觀點(diǎn)認(rèn)為,常規(guī)的攝像頭、雷達(dá)和超聲波傳感器以外,激光雷達(dá)也是必不可少的。但近兩年來逐漸出現(xiàn)了新的反對聲音,他們認(rèn)為自動駕駛并不依賴后者,而是主要靠“大腦”。

  “只見過豬跑”的激光雷達(dá)

  “只有傻瓜才會用激光雷達(dá)。”——特斯拉CEO埃隆·馬斯克

  大家先記住這句話,然后再聽我細(xì)說。

  實(shí)際上,激光雷達(dá)可以說是車載雷達(dá)系統(tǒng)中的最優(yōu)解。目前幾乎所有自動駕駛技術(shù)公司和汽車廠商都在研究基于該設(shè)備的自動駕駛科技,甚至還能在國內(nèi)道路看到它們:比如在車頂上長著巨大“腫塊”、車內(nèi)盤踞著各種電線和電腦屏幕的林肯轎車。

  根據(jù)網(wǎng)上的收集到的資料,激光雷達(dá)跟普通雷達(dá)的工作模式相似:發(fā)射器發(fā)射出激光,光束遇到物體后會反射至激光接收器,雷達(dá)模塊根據(jù)發(fā)送和接收信號的時間間隔,計(jì)算出兩者之間的距離。

  使用激光雷達(dá)可免去流程復(fù)雜且不可靠的攝像頭圖像分析程序,也可彌補(bǔ)一般毫米波雷達(dá)的致命缺陷——對金屬物體過于敏感,是目前來說三者中最為可靠且具有發(fā)展?jié)摿Φ募夹g(shù)路線。

  此外,單線激光雷達(dá)只能檢測二維空間上的距離(單一平面測距)。因此多線雷達(dá),比如目前放置在車頂?shù)捻敿?4線雷達(dá),可以實(shí)現(xiàn)平面數(shù)據(jù)的空間立體堆疊,最大化檢測車輛周圍障礙物的距離,甚至連馬路牙子都不放過。

  然而激光雷達(dá)傳感器的成本非常高,除了市場需求少以外,它本身的光學(xué)元件造價不菲,研發(fā)和調(diào)試能力也只被少數(shù)公司掌握。據(jù)悉,兩年前一個64線激光雷達(dá)售價高達(dá)6萬英鎊,目前單線至四線的低端激光雷達(dá)產(chǎn)品最低也需要4000英鎊左右。

  相比之下,目前消費(fèi)者在大部分品牌車型上,選裝一整套使用“微波雷達(dá)+攝像頭”的成品自動駕駛輔助系統(tǒng),所花的錢也僅僅是激光雷達(dá)成本的四分之一,甚至更少。

  因此馬一龍的言論雖然顯得狂妄,不過它也代表著目前自動駕駛技術(shù)第一梯隊(duì)的汽車品牌,對于激光雷達(dá)更多的現(xiàn)實(shí)思考——它太昂貴了,也并非是必需品。

  成本重壓下,神經(jīng)元網(wǎng)絡(luò)成新熱點(diǎn)

  跟馬一龍得出相似結(jié)論的,不僅是汽車廠商,還有美國康奈爾大學(xué)的研究人員。

  他們發(fā)現(xiàn),目前市面上使用“微波雷達(dá)+攝像頭”自動駕駛輔助技術(shù),如果僅將圖像處理成“正前方視角”并通過人工智能(AI)計(jì)算機(jī)判斷車距與障礙物,其誤差相當(dāng)大。但是若將軟件中的視角處理成俯視圖,科學(xué)家們就能用雙目立體攝像機(jī),達(dá)到與激光雷達(dá)相似的定位精度,

  更重要的是,現(xiàn)在雙目攝像頭的成本僅為幾英磅。它們通常布置在前擋風(fēng)玻璃的頂端兩側(cè),用略俯視的角度拍攝前方路況。而使用低成本硬件的背后博弈,正是一場對人工智能算法發(fā)展速度的賭博。

  特斯拉認(rèn)為,人類和其他動物進(jìn)化出了眼睛來看東西,卻沒有進(jìn)化出激光雷達(dá),它的重點(diǎn)在于我們的大腦具有學(xué)習(xí)和自主判斷能力。

  其中,人類神經(jīng)系統(tǒng)的基礎(chǔ)“零件”是神經(jīng)元,我們的身體中有數(shù)百萬個這樣的細(xì)胞,在中樞神經(jīng)系統(tǒng)中形成神經(jīng)網(wǎng)絡(luò)。而計(jì)算機(jī)工程師們正是模仿人類的大腦運(yùn)算,構(gòu)建“人工神經(jīng)網(wǎng)絡(luò)”(ANN),提升電腦的運(yùn)算能力。

  對于汽車來說,無論是雷達(dá)還是攝像頭圖像,它們繪制的都是一幅幅由像素和數(shù)字矩陣構(gòu)成的點(diǎn)陣圖。如何把這樣的數(shù)字矩陣信息,變成有效的距離與方位圖,才是自動駕駛系統(tǒng)應(yīng)該大力發(fā)展的方向。

  未來的突破口在哪里?

  既然解決方法重新回歸到了計(jì)算上,那么問題的答案就已經(jīng)很明顯了:如何計(jì)算,與如何實(shí)現(xiàn)快速計(jì)算?

  先說如何計(jì)算:目前人工神經(jīng)網(wǎng)絡(luò)ANN需要數(shù)千個圖像來學(xué)習(xí)識別目標(biāo)身份,而且系統(tǒng)需要在所有情況下識別出圖像中的目標(biāo)物。這就相當(dāng)于一場特殊的“培訓(xùn)”,讓電腦牢記每個角度的汽車、行人、自行車、道路標(biāo)識和信號燈都長什么樣。

  再說算力要求:特斯拉研究人員表示,自動駕駛汽車需要一臺至少每秒執(zhí)行50萬億次操作(50 TOPS)的神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)。相比之下,人類大腦的運(yùn)算能力約為10 TOPS。

  至于為什么人腦算力沒那么高卻依然能駕駛汽車呢?因?yàn)槿祟愒诔砷L過程中積累的預(yù)判斷和邏輯能力遠(yuǎn)超電腦,且人類并不會時刻關(guān)注所有的路面信息。

  特斯拉表示,目前世界上尚未有專門針對神經(jīng)網(wǎng)絡(luò)和自動駕駛而開發(fā)的電腦芯片,因此過去三年一直在設(shè)計(jì)自己的芯片,方便應(yīng)用在車載計(jì)算機(jī)上。此外,他們也一直在市售車輛上不斷收集路面信息,目前已經(jīng)收集了數(shù)十萬個圖像,未來將服務(wù)于自己的神經(jīng)元網(wǎng)絡(luò)。

  無獨(dú)有偶,隨著自動駕駛在汽車領(lǐng)域的關(guān)注度逐漸升高,博世和NVIDIA也聯(lián)手加入戰(zhàn)局。他們目前正在為自動駕駛汽車開發(fā)類似的“大腦”,并預(yù)計(jì)于2020年正式發(fā)布。

  此外,馬一龍預(yù)計(jì)在今年內(nèi),為特斯拉汽車推送并升級成一套完整的自動駕駛軟件,并于2020年在美國的特斯拉自動駕駛出租車上首次應(yīng)用該功能。

  總結(jié)

  我們常說的“自動駕駛”實(shí)際上指的是一個牽涉到法律法規(guī)、道路規(guī)劃、網(wǎng)絡(luò)通信、人身安全與自由等多重方面的綜合出行解決方案,與“公共交通”、“自駕車”等出行選擇并列。單就車輛的自動駕駛技術(shù)本身,則是綜合了智能化與自動化的一項(xiàng)先進(jìn)功能。

  目前無論是基礎(chǔ)的工業(yè)自動化,還是自動駕駛技術(shù),AI人工智能的發(fā)展依然是一大瓶頸。它將引領(lǐng)機(jī)器人或車輛,擁有命令執(zhí)行的自主性,并與周圍不斷變化的環(huán)境交互,而不是簡單地重復(fù)執(zhí)行相同的進(jìn)程。

  所以我們看上去只是簡單地讓電腦去“駕駛汽車”,實(shí)際上這項(xiàng)工作及其復(fù)雜。或許到了最后,電腦會找到屬于它們的“駕駛樂趣”,又或者我們總有一天會把方向盤搶回來。

低速無人駕駛產(chǎn)業(yè)綜合服務(wù)平臺版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:低速無人駕駛產(chǎn)業(yè)綜合服務(wù)平臺]的所有文字、圖片、音視和視頻文件,版權(quán)均為低速無人駕駛產(chǎn)業(yè)綜合服務(wù)平臺獨(dú)家所有。如需轉(zhuǎn)載請與0755-85260609聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“低速無人駕駛產(chǎn)業(yè)綜合服務(wù)平臺”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注低速無人駕駛產(chǎn)業(yè)聯(lián)盟公眾號獲取更多資訊

最新新聞