4月25日,北京車(chē)展上,小鵬汽車(chē)董事長(zhǎng) 首席執(zhí)行官何小鵬就說(shuō),“下一個(gè)十年是智能化的十年,智能汽車(chē)的核心在運(yùn)營(yíng),汽車(chē)軟件發(fā)布會(huì)將發(fā)展成行業(yè)常態(tài)?!?/span>
今年,跟著XNGP的大版本兩天迭代一次的節(jié)奏,小鵬汽車(chē)的軟件發(fā)布會(huì)非常密集,新車(chē)型的上市反而要跟著軟件更新來(lái)進(jìn)行。P7+首發(fā)搭載AI天璣5.4.0版本,小鵬的端到端大模型、不依賴(lài)高精地圖和激光雷達(dá)的純視覺(jué)智能駕駛方案也將上車(chē)。
10月24日,小鵬汽車(chē)宣布AI天璣5.4.0正式開(kāi)啟公測(cè),新版本為用戶(hù)帶來(lái)共計(jì)248項(xiàng)功能的更新,涉及智能駕駛、智能座艙、智能底盤(pán)和生態(tài)互聯(lián),用小鵬汽車(chē)智駕產(chǎn)品高級(jí)總監(jiān)袁婷婷的話來(lái)講,“汽車(chē)的端味會(huì)更重一些?!?/span>
傳統(tǒng)的自動(dòng)駕駛技術(shù)是模塊化部署,每個(gè)小模塊本質(zhì)上就是一個(gè)小模型,在前端是攝像頭、激光雷達(dá)和超聲波雷達(dá)等傳感器,后端主要分為感知模塊、預(yù)測(cè)模塊、規(guī)劃模塊和控制模塊,這些模塊通常采用串聯(lián)的方式部署。這種“模型”的優(yōu)勢(shì)是“自動(dòng)駕駛”被分解為更小的任務(wù),逐步攻破。
但弊端也很明顯,因?yàn)槊總€(gè)模塊的輸入都是依賴(lài)于前一個(gè)模塊的輸出,信息傳遞過(guò)程很難避免損耗、計(jì)算延遲和累積誤差。所以,這種“模型”最為顯著的特征之一就是需要規(guī)則的強(qiáng)力介入以減少誤差。
隨著Transformer等技術(shù)架構(gòu)的成熟和發(fā)展,模型間的界限模糊,獨(dú)立的小模型被更大規(guī)模的神經(jīng)網(wǎng)絡(luò)模型取代。尤其是在感知上,BEV+Transformer的方案被廣泛應(yīng)用,意味著數(shù)據(jù)驅(qū)動(dòng)的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)已經(jīng)越來(lái)越成熟。
嚴(yán)格來(lái)說(shuō),目前幾乎所有車(chē)企的端到端大模型仍然是兩段式設(shè)計(jì)。比如,理想汽車(chē)在今年7月初的智能駕駛發(fā)布會(huì)上宣布推送分段式端到端無(wú)圖NOA,以及一體式端到端采用的也是端到端+視覺(jué)語(yǔ)言模型的雙系統(tǒng)方案。
業(yè)界的共識(shí)是自動(dòng)駕駛的終極形態(tài)是一個(gè)模型,即最終所有的模型都會(huì)融合成一個(gè)端到端神經(jīng)網(wǎng)絡(luò)模型。目前,行業(yè)主流的端到端發(fā)展路線有三種:
一種是通過(guò)大量規(guī)則小模型堆疊的 “大模型”,其需要大量的優(yōu)秀規(guī)則工程師;
第二種是“車(chē)端大模型”,即直接將端到端模型部署于車(chē)輛上,雖然見(jiàn)效快,但受限于車(chē)端算力,且隨著后期訓(xùn)練數(shù)據(jù)量的增加,容易陷入瓶頸;
最后一種便是云端大模型,它的參數(shù)量是車(chē)端模型的幾十倍甚至數(shù)百倍,這是單純的車(chē)端大模型所不可企及的。
第三種也是主流車(chē)企目前比較青睞的路線。云端大模型的優(yōu)勢(shì)是能夠全面吸納智駕數(shù)據(jù),不遺漏重點(diǎn)信息細(xì)節(jié)。通過(guò)大參數(shù)量的訓(xùn)練,能夠盡可能地窮盡智能駕駛中的長(zhǎng)尾問(wèn)題,以覆蓋更多駕駛場(chǎng)景。不過(guò),這也意味著云端訓(xùn)練需要足夠多的算力。
小鵬汽車(chē)的端到端大模型也是采用第三種路線。李力耘透露,小鵬云端大模型的參數(shù)量將多達(dá)車(chē)端參數(shù)量80倍,小鵬云端大模型目前的訓(xùn)練效率已提升了2.6倍,經(jīng)過(guò)云端大模型的訓(xùn)練,XNGP可以實(shí)現(xiàn)L3級(jí)別的智能駕駛體驗(yàn)。2025年小鵬云端的算力將會(huì)達(dá)到10E Flops以上。
高算力是端到端大模型的基礎(chǔ),在車(chē)端去掉激光雷達(dá)和減少對(duì)高精地圖的依賴(lài)后,純視覺(jué)——也就是攝像頭帶來(lái)的高信息量會(huì)在云端進(jìn)行訓(xùn)練,并把能力下放到車(chē)端,提升車(chē)輛的能力上限。這個(gè)數(shù)據(jù)量非常龐大,小鵬P7+的AI鷹眼視覺(jué)系統(tǒng)輸入的信息量可以達(dá)到激光雷達(dá)的80倍,攝像頭能夠感知到的語(yǔ)義、顏色信息是激光雷達(dá)的100倍。
“更大的云端模型會(huì)容納更多的數(shù)據(jù),我們一定需要更多的算力,所以小鵬汽車(chē)明年在算力的投入也會(huì)非常篤定?!崩盍υ耪f(shuō),小鵬每年會(huì)招募數(shù)以千計(jì)AI相關(guān)人員。覆蓋智能座艙、機(jī)器人、自動(dòng)駕駛和數(shù)據(jù)智能,每年和AI相關(guān)的投入在35億以上,其中在訓(xùn)練費(fèi)則是7億以上。
小鵬P7+首發(fā)搭載AI天璣5.4.0,可以不分場(chǎng)景全量使用端到端大模型。相較于上一版本,AI天璣5.4.0的智駕能力大幅度提升,尤其是駕駛的“擬人性”和處理復(fù)雜駕駛場(chǎng)景的能力上。和上一個(gè)AI 天璣OS的版本相比,小鵬P7+“擬人性”提升了4倍、變道成功率提升53%、繞行成功率提升155%。
AI鷹眼視覺(jué)方案是單像素LOFIC架構(gòu)方案,它的優(yōu)勢(shì)是在逆光、大光差、暗光等環(huán)境下的信息采集能力更強(qiáng)。該架構(gòu)方案的視覺(jué)感知范圍達(dá)到了1.8個(gè)標(biāo)準(zhǔn)足球場(chǎng),能夠清晰分辨顏色,文字等語(yǔ)義信息。
端到端大模型提升了車(chē)輛智能駕駛系統(tǒng)的上限,為了解決“下限”的問(wèn)題,小鵬在做AI鷹眼視覺(jué)方案的過(guò)程中著重實(shí)車(chē)測(cè)試——小鵬的實(shí)車(chē)測(cè)試?yán)锍虒⒔?00萬(wàn)公里,覆蓋了全國(guó)2500多個(gè)城市,包括縣級(jí)市和地級(jí)市。另外,在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,小鵬汽車(chē)還會(huì)進(jìn)行預(yù)訓(xùn)練、分訓(xùn)練和聯(lián)合訓(xùn)練,分階段對(duì)訓(xùn)練結(jié)果進(jìn)行干預(yù),這也是規(guī)則時(shí)代的積累。未來(lái)才會(huì)逐步過(guò)渡到仿真訓(xùn)練和建立世界模型。
“我們處于端到端四部曲的第二步,能用L2級(jí)的硬件成本為用戶(hù)提供接近自動(dòng)駕駛的體驗(yàn)。”李力耘說(shuō),這個(gè)階段小鵬云端大模型的參數(shù)量增加了兩倍,2025年下半年進(jìn)入第三階段,實(shí)線類(lèi)L3的智能輔助駕駛,百公里接管數(shù)量少于一次,云端大模型參數(shù)了增長(zhǎng)至5倍,2026年進(jìn)入第四階段,在部分低速場(chǎng)景下的行駛允許駕駛?cè)瞬辉隈{駛位,并解決99%的極端問(wèn)題。
端到端大模型上車(chē)后,小鵬P7及后續(xù)車(chē)型將不再區(qū)分Max和Pro版本,全系標(biāo)配AI智駕,實(shí)現(xiàn)“一套軟件標(biāo)配全車(chē)系”。不過(guò),未來(lái)小鵬仍然將保持兩種路線車(chē)型的一致更新。
“我自己開(kāi)P7i Max和G9 Max,也非常多次親自測(cè)P7+,包含了雨天、夜晚、進(jìn)出隧道、逆光道路等等場(chǎng)景。我可以保證,今天的P7+所搭載的天璣5.4.0和原來(lái)的Max版本絕大部分情況下是完全一致的感受。”小鵬汽車(chē)智駕產(chǎn)品高級(jí)總監(jiān)袁婷婷說(shuō),體驗(yàn)的一致性主要是源于小鵬的平臺(tái)化能力。
基于云端訓(xùn)練,小鵬的端到端大模型不僅可以用于汽車(chē)的自動(dòng)駕駛,也可以應(yīng)用到泛機(jī)器人領(lǐng)域,比如機(jī)器狗、人形機(jī)器人和飛行汽車(chē)。
這些舉措將有利于小鵬汽車(chē)降低成本。在小鵬P7+上,不區(qū)分Max和Pro版本意味著所有車(chē)型都標(biāo)配AI智駕能力,但小鵬P7+的預(yù)售價(jià)只有20.98萬(wàn)元,遠(yuǎn)低于小鵬P7系列的售價(jià)——前者的車(chē)身長(zhǎng)度超過(guò)5米,軸距3米,車(chē)身規(guī)格遠(yuǎn)超過(guò)此前的P7系列。