新浪科技訊 12月28日下午消息,近日,人工智能領(lǐng)域國(guó)際會(huì)議AAAI 2026公布了論文錄用結(jié)果,由小鵬汽車和北京大學(xué)計(jì)算機(jī)學(xué)院多媒體信息處理全國(guó)重點(diǎn)實(shí)驗(yàn)室聯(lián)合完成的論文《FastDriveVLA: Efficient End-to-End Driving via Plug-and-Play Reconstruction-based Token Pruning》成功入選。這篇論文最大的貢獻(xiàn)在于,提出了一種專門為端到端自動(dòng)駕駛VLA模型定制的、高效的視覺(jué)Token剪枝框架——FastDriveVLA。
據(jù)介紹,F(xiàn)astDriveVLA包含一個(gè)即插即用的視覺(jué)Token剪枝器ReconPruner。在車端模型的推理階段, ReconPruner可直接嵌入自動(dòng)駕駛VLA模型用于視覺(jué)Token的剪枝,即插即用,無(wú)需重新訓(xùn)練整個(gè)模型。為了輔助該剪枝器的訓(xùn)練,還專門構(gòu)建了包含來(lái)自6個(gè)攝像頭視角的24.1萬(wàn)個(gè)圖像-掩碼對(duì)的nuScenes-FG數(shù)據(jù)集。這一大規(guī)模的自動(dòng)駕駛前景分割標(biāo)注數(shù)據(jù)集,可廣泛用于未來(lái)自動(dòng)駕駛的研究。
最終,nuScenes自動(dòng)駕駛數(shù)據(jù)集上的測(cè)試顯示,采用這一剪枝框架,在不同剪枝率下均取得當(dāng)前最優(yōu)即SOTA效果:剪枝比例達(dá)25%視覺(jué)Token時(shí),駕駛性能幾乎不下降,其L2軌跡誤差與碰撞率指標(biāo)甚至超越未剪枝的基準(zhǔn)模型;剪枝比例達(dá)50%Token時(shí),在所有指標(biāo)上表現(xiàn)更平衡;與此同時(shí),VLA模型的推理效率得到了顯著提升。
小鵬汽車聯(lián)合北大提出的FastDriveVLA,建立了自動(dòng)駕駛VLA模型的高效視覺(jué)Token剪枝的新范式,同時(shí)樹(shù)立了車端大模型高效部署上車的新標(biāo)桿。小鵬汽車董事長(zhǎng)何小鵬在微博上對(duì)此表示,“很高興我們?cè)谔剿鱈4的路上又取得新的突破。我們會(huì)在物理AI領(lǐng)域繼續(xù)發(fā)力,期待第二代VLA給鵬友們帶來(lái)更棒的智駕體驗(yàn)?!?/p>