大模型入局,自動駕駛行業(yè)將迎來何種“顛覆性”蛻變?

時間:2025-04-22

來源:低速無人駕駛編輯部

導語:?“通用智能” 與 “產業(yè)協同”或成產業(yè)終極方向。

近日,大模型獨角獸智譜AI在北京證監(jiān)局辦理上市輔導備案,正式開啟上市進程。智譜是第一家啟動IPO上市流程的“大模型六小虎”,有望成為“AI大模型賽道第一股”。這標志著資本市場對AI大模型技術價值的認可,也折射出該技術正在加速從實驗室走向產業(yè)應用。隨著大模型技術突破帶來的范式變革,其商業(yè)化潛力正通過自動駕駛、智慧城市等垂直領域逐步釋放。

大模型(Large Model)是指基于深度學習架構、參數量級突破千億級的人工智能系統,具備強大的數據學習能力、多模態(tài)信息處理能力和泛化能力。它通過海量數據訓練,能夠自主提取特征、優(yōu)化邏輯,并完成復雜任務。在自動駕駛領域,大模型被用于整合感知、決策、規(guī)劃等核心環(huán)節(jié),推動技術從“規(guī)則驅動”向“數據驅動”轉變。

根據應用場景差異,大模型可分為三大類:

自然語言處理大模型:以GPT系列、LLaMA為代表,專注于文本數據的語義理解與生成。在自動駕駛中,這類模型支撐車機交互系統的自然語言對話能力。

計算機視覺大模型:如BEVFormer、Swin Transformer,通過多視角圖像融合技術構建三維環(huán)境感知能力,在自動駕駛中用于障礙物識別與軌跡預測。

多模態(tài)大模型:整合激光雷達、攝像頭、毫米波雷達等多源數據,實現從感知到決策的端到端優(yōu)化。

大模型的技術突破在于其“規(guī)模效應”——當參數規(guī)模超過1000億時,模型性能會出現非線性躍升,例如特斯拉Dojo 2芯片通過23.5EFLOPS算力支撐FSD大模型訓練,使系統誤判率降低60%。這種能力躍遷直接推動自動駕駛從“規(guī)則驅動”向“數據驅動”轉型,例如毫末智行DriveGPT大模型通過1.2億公里真實路測數據訓練,在無保護左轉場景的通行效率提升40%,系統誤判率降低60%,接近國內新基建項目的可靠性標準。

具體來看,大模型對自動駕駛的賦能體現在三大核心維度:

感知環(huán)節(jié)

傳統模塊化方案依賴人工設計特征提取規(guī)則(如HOG特征、SIFT算法),難以應對動態(tài)場景變化(如施工路段、突發(fā)加塞)。大模型通過BEV與Transformer架構,將多傳感器數據編碼為統一特征空間,實現360度無死角環(huán)境建模。例如,百度Apollo ADFM通過10重安全冗余方案,在武漢復雜路況下的障礙物識別準確率達到99.7%,接近中國國產大飛機C919的安全水平。

決策層面

端到端大模型打破“感知-決策-規(guī)劃”的鏈式架構,直接從原始傳感器數據輸出控制指令。這種技術路徑是模擬人類駕駛員的直覺判斷,例如在無信號燈路口場景中,模型能通過歷史軌跡數據學習到“等待3秒觀察對向車流”的博弈策略。特斯拉FSD V12突破性采用端到端大模型方案后,高速場景接管率下降80%,城區(qū)道路通行效率提升35%。

數據閉環(huán)

大模型推動自動駕駛進入“車云協同”的正循環(huán):路測傳感器采集的動態(tài)數據通過5G傳輸至云端訓練平臺,優(yōu)化后的模型再反哺車載系統。這種數據閉環(huán)能力使模型能快速迭代,特別是在我國大力支持智能網聯“車路云一體化”發(fā)展的背景下,大模型對自動駕駛系統在真實場景下的進化起到了關鍵推動作用。

大模型研用:從產業(yè)鏈到終端

當前,自動駕駛大模型呈現“高端研發(fā)突破、量產逐步滲透”的格局。

在高端研發(fā)領域,從國內到國外,從產業(yè)鏈到汽車主機廠,自動駕駛相關企業(yè)均大力投入研發(fā),取得顯著成果。例如:地平線的UniAD模型、百度Apollo ADFM、小鵬汽車的BEV感知方案、Waymo的端到端多模態(tài)模型EMMA、特斯拉的FSD/Autopilot系統等,這些高端研發(fā)突破為自動駕駛技術的進一步發(fā)展奠定了基礎。

在量產方面,大模型的應用正逐步滲透到商業(yè)化產品中。小鵬汽車的BEV感知方案支持無高精地圖的城市NOA功能,顯著提升了城市道路的通行效率;百度Apollo ADFM作為全球首個支持L4級自動駕駛的大模型,在武漢蘿卜快跑中實現全天候無人化運營,服務近半數市民。毫末智行的多模態(tài)大模型DriveGPT也在通過人駕自監(jiān)督學習,在末端物流場景中不斷優(yōu)化其自動駕駛系統。

在低速無人駕駛領域,已有多家企業(yè)率先在產品上應用大模型,實現商業(yè)化落地,覆蓋了物流配送、清潔環(huán)衛(wèi)、安防巡檢等多類場景。

在無人配送場景,基于自主研發(fā)的自動駕駛生成式大模型DriveGPT,末端物流自動配送車毫末小魔駝3.0通過實現商超履約、安防巡檢等多場景切換,其無人配送車HD05 最高車速可達40km/h,能適應全天候24小時配送需求。

九識智能在技術創(chuàng)新上,實現了將新能源車中普遍使用的車規(guī)量產固態(tài)雷達應用到L4自動駕駛車輛上,并通過雙目視覺及車規(guī)雷達的融合大模型感知技術,實現了城市路況的高安全性高質量產品能力。 

新石器在最新推出的新石器無人車X12上搭載4D One Model 感知大模型,在順豐、京東的城配網絡中實現70km/h 高速行駛,夜間配送占比提升至65%。而美團自動配送車通過與清華大學合作開發(fā)安全強化學習算法,在離線狀態(tài)下避障通過率提高5%,百萬公里事故率趨近于零。

在清潔環(huán)衛(wèi)場景,盈峰環(huán)境將DeepSeek大模型本地化部署并與自身200000+臺裝備運行數據庫及億級公里作業(yè)里程數據融合,構建起環(huán)衛(wèi)裝備行業(yè)最全最精的數字孿生矩陣,還在其第3代清潔機器人“小蜜蜂” 搭載AI智能技術,可實現無人駕駛清掃作業(yè),并利用大模型實現環(huán)境動態(tài)分析與決策優(yōu)化,推動環(huán)衛(wèi)行業(yè)從傳統機械化向智能無人化重構。

仙途智能無人駕駛環(huán)衛(wèi)車Autowise V1也全方位引入大模型技術,在車云協同方面,通過集成最新的大模型技術實現車輛與云端平臺間的高效數據交互與智能決策協同,依托云端的強大算力進行場景理解與策略優(yōu)化,顯著提高了無人駕駛系統在長尾場景中的決策能力。同時,仙途智能新一代1vN無人駕駛遠程運營體系全面引入多模態(tài)大模型技術作為AI安全員。依靠先進的多模態(tài)大模型技術,AI安全員能夠對車輛運行過程中的相機圖像進行實時處理與分析,識別出車輛行駛時遇到的危險場景和異常情況,為無人駕駛提供安全保障。

酷哇科技在去年9月發(fā)布的麒麟無人駕駛清掃機器人上采用了以視覺為主的傳感器的360°全域感知方案,基于ViT大模型和千萬級精準的全要素數據,并結合占用柵格感知,實現了2D轉為3D的效果,確保了環(huán)境感知的準確性。此外,酷哇科技將大語言模型的泛化理解能力同底盤控制與上裝相結合,做到了從掃刷、吸嘴到風機、垃圾箱的全面線控化,而且確保核心零部件定向針對場景打造。

賽特智能“智賽潔”系列無人清掃車搭載在今年上海CCE展上演示了其所搭載的L4級自動駕駛、具身智能系統以及環(huán)衛(wèi)大模型協同運作的全過程。

在園區(qū)物流場景,西井科技無人駕駛商用車Q-Truck,搭載了高精度傳感器、先進人工智能算法、定位和5G通信技術,使其能夠在復雜的物流場景中自主導航、精確避障,確保行駛的安全與穩(wěn)定。同時,Q-Truck加載端到端大模型技術,獲得了更優(yōu)秀的自學習與自適應能力。

在礦山場景,中國煤炭科工集團煤炭科學研究總院于2024年4月發(fā)布“太陽石礦山大模型”,推動了礦山智能化轉型,在礦山無人駕駛等領域發(fā)揮了重要作用。

易控智駕聯合中科院自動化所團隊進行基于大模型(包括但不限于語言大模型LLM、視覺語言模型VLM等)的礦山場景自動駕駛行為決策算法相關課題研究,旨在增強礦山無人駕駛應對復雜場景的能力。

向通用智能與產業(yè)協同演進

當前自動駕駛大模型的技術路線呈現顯著分化,一是以特斯拉、百度為代表,堅持 “端到端大模型 + 自有硬件生態(tài)” 的垂直整合路徑,目標實現完全自動駕駛。二是以 Waymo、Mobileye 為代表,采用 “大模型局部替代 + 規(guī)則引擎主導” 的混合架構,更注重安全性與研發(fā)效率。

未來隨著算力基礎設施的迭代升級,無論是“車端算力爆發(fā)式增長”還是“云端訓練效率躍遷”的進化,都將成為大模型落地的核心支撐。

在芯片上,隨著英偉達Thor(200TOPS)與地平線征程6(508TOPS)等新一代車規(guī)級芯片采用異構計算架構,集成 GPU/TPU/NPU 多計算單元,較上一代芯片能效比大幅提升。這類芯片使端到端模型的實時推理成為可能,令自動駕駛在更快速度內完成環(huán)境建模與決策等的生成。

在云邊協同上,正在致力于構建分鐘級數據閉環(huán)。在自動駕駛中,邊緣端(如車輛本身或路側設備)能夠實時采集和預處理感知數據,然后將關鍵數據快速傳輸至云端。云端利用大模型進行深度分析、學習和模型更新,并將更新后的模型或關鍵參數迅速推送到邊緣端,實現感知模型的持續(xù)優(yōu)化和快速部署。如星睿智算中心2.0通過 23.5EFLOPS算力,實現“數據采集-訓練-部署”分鐘級閉環(huán),類似架構已被特斯拉 Dojo 2.0(10 EFLOPS)與百度Apollo云(5 EFLOPS)采用,形成 “車端實時感知 - 云端批量訓練 - 邊緣節(jié)點快速部署” 的立體算力網絡。

目前來看,通過自動駕駛大模型實現“通用智能”與“產業(yè)協同”,是未來終極方向。

在通用智能突破上,特斯拉、DeepMind等企業(yè)正探索 “具身智能大模型”,賦予車輛類似人類的常識推理能力。例如,通過多任務訓練使模型理解 “消防車鳴笛需立即避讓”“施工路段需減速繞行” 等抽象規(guī)則,而非依賴特定場景的數據標注。這類模型若突破,將使自動駕駛系統適應99%以上的長尾場景,較當前水平提升2個數量級。

在產業(yè)協同重構上,隨著車路協同標準的完善,大模型將從單車智能向“車-路-云”協同進化。百度Apollo的“ACE 3.0”系統已實現路側大模型(部署于交通信號燈)與車載模型的實時交互,在保定試點區(qū)域使路口通行效率提升40%,停車次數減少65%,這種跨設備的模型協同將開啟“全局最優(yōu)決策”的新范式。

結語

大模型正在重塑自動駕駛的技術邊界,其價值不僅在于提升系統性能,更在于推動整個產業(yè)從“功能堆砌”向“認知進化”躍遷。未來五年,隨著算力成本下降與數據閉環(huán)成熟,大模型將成為自動駕駛從實驗室走向規(guī)模化落地的核心引擎。同時,“車 - 路 - 云 - 網 - 圖” 五位一體的新基建體系,將為大模型提供更豐富的場景數據,加速 L4 級自動駕駛從城市示范區(qū)向全國路網擴展。

由低速無人駕駛產業(yè)聯盟、新戰(zhàn)略低速無人駕駛產業(yè)研究所主編的《2024-2025年中國低速無人駕駛產業(yè)發(fā)展研究報告》已正式發(fā)布,涵蓋細分場景市場規(guī)模、區(qū)域份額、技術水平、競爭格局、發(fā)展趨勢等分析,歡迎后臺留言了解報告詳情!

 

低速無人駕駛產業(yè)綜合服務平臺版權與免責聲明:

凡本網注明[來源:低速無人駕駛產業(yè)綜合服務平臺]的所有文字、圖片、音視和視頻文件,版權均為低速無人駕駛產業(yè)綜合服務平臺獨家所有。如需轉載請與0755-85260609聯系。任何媒體、網站或個人轉載使用時須注明來源“低速無人駕駛產業(yè)綜合服務平臺”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網聯系,否則視為放棄相關權利。

關注低速無人駕駛產業(yè)聯盟公眾號獲取更多資訊

最新新聞