每日經濟新聞 2025-01-11 10:51:28
2024年12月31日,小鵬P7+車位到車位功能開啟先鋒智駕團推送,預計2025年1月底全量上線。新年伊始,車企智駕比拼轉向追求全場景智能駕駛體驗,能否盡快全量推送成為新評價標準,目前多企業已進入該競爭場。“車位到車位”功能從任意車位出發,經復雜場景到達另一車位,至少包括全場景覆蓋、應對復雜路況和連接泊車等核心能力,行業分化為幾種路線,且端到端技術路徑也開始轉變。
每經記者 劉曦 每經編輯 孫磊
近日,小鵬汽車官方表示,小鵬P7+的車位到車位功能已于2024年12月31日開啟先鋒智駕團推送,后續會進一步擴大推送范圍,全量上線時間預計2025年1月底于XOS 5.5.0正式版推送。
實際上隨著新年的步入,車企在智駕方面的比拼,也從之前的“全國都能開”轉向“車位到車位、門到門”等追求實現全場景的智能駕駛體驗,而能否盡快全量推送則已成為當前智駕最新的評價標準。目前,包括華為、理想、小米、極氪等多個企業,都已進入“車位到車位”的競爭場。
在極氪智能科技CMO關海濤看來,2024年智能駕駛技術的核心競爭點在于城市無圖NOA,2025年,E2E(端到端)、D2D(車位到車位)及L3級別自動駕駛將成為競爭焦點。
不只車企如此,對于自動駕駛公司而言,“車位到車位”功能也是他們下一個需要重點展示的關鍵能力。近日,元戎啟行方面對《每日經濟新聞》記者表示,公司計劃在2025年一季度向部分種子用戶推送“車位到車位”的功能。
“車位到車位”成智駕新賽點
2024年,端到端技術路線在智能駕駛行業中逐漸成為主流趨勢。從技術層面來看,端到端大模型的引入讓智駕系統具備了更強的適應能力,能夠更加精準地應對各種多變和復雜的駕駛場景。而從市場角度來看,車企的競爭焦點也發生了轉變,不再單純地比拼城區NOA功能的開城數量,而是更加注重為用戶提供優質的駕駛體驗。借助“車位到車位”功能,車企能夠向用戶展示智駕系統在全場景下的連貫性與完整性,以及其實際應用的價值。
據記者觀察,2024年4月,華為車BU發布采用端到端架構的ADS 3.0,并提出“車位到車位”概念,該功能于同年8月隨問界S9正式推出。此后,國內車企紛紛跟進。例如,小米汽車在2024年11月的廣州車展上展示了其“車位到車位”的智駕能力,并于11月16日開啟定向內測邀請,12月底開始先鋒版推送;極氪發布了其D2D車位到車位領航輔助功能,預計2025年1月左右分批推送;特斯拉FSD也于近期更新了“車位到車位”功能。
從字面理解,“車位到車位”功能是從任意一個車位出發,經過各種復雜場景,最終到達另一個車位的全程自動駕駛能力。這一功能的出現,標志著智能駕駛技術從“全國都能開”的廣泛覆蓋,向“從A點開到B點”的精準使用價值轉變。
不過,盡管各家車企都在積極推出“車位到車位”功能,但對這一功能的理解和實現方式存在差異。比如,理想汽車強調其端到端大模型應用下,系統可以自主通行ETC,且不限范圍、無需學習,全國超1萬個收費站均可識別通行;小鵬汽車則更注重智駕應對復雜路況的連貫性與完整性,其車輛能夠在整個“車位到車位”過程中,應對復雜路口、匯流變道、識別并避讓特種車輛,實現U型掉頭等特殊操作,做到全程無接管。
結合目前已經發布的車企功能,“車位到車位”至少包括全場景覆蓋、應對復雜路況和連接泊車功能等核心能力。全場景覆蓋指的是打通停車場到公開道路、公開道路到園區、園區地面到地下車庫等多種場景,其中過閘機能力成為關鍵詞,如自主通行ETC;應對復雜路況則強調智駕在復雜路況下的連貫性與完整性,能夠應對復雜路口、匯流變道等場景,實現全程無接管;連接泊車功能意味著駕駛員坐進車內即可啟動智駕,系統在自動駕駛與泊車無縫協作下,到達下一個停車位。
至于如何實現上述功能,目前行業分化為幾種路線:一種是以理想汽車為代表,遵循“VPA(記憶泊車/代客泊車)+NOA(智駕領航)+VPA(記憶泊車/代客泊車)”的技術路徑,即在停車場路段,驅動系統行駛的是記憶泊車/代客泊車模式,而駛入公開道路后,則立刻轉變為智駕領航模式;另一種則是以特斯拉、小鵬為代表,用一套模式打通全場景,即無論是在園區封閉路段、地下停車場區域還是在公開路段,顯示界面一直保持智駕NOA畫面,不會隨場景變化切換軟件系統。
端到端進入2.0階段
業界普遍認為,2024年標志著端到端技術的1.0階段,這一階段主要是將傳統的基于手寫規則的感知和規控系統轉變為基于神經網絡的智能化系統。進入2025年,端到端技術將正式邁入2.0階段,專注于實現多模態融合感知,從而使系統能夠更精準地識別和理解復雜路況。
在端到端2.0階段,“車位到車位”功能逐漸成為衡量端到端性能的關鍵指標之一。某種程度上,車位到車位功能已經成為評估車企智能駕駛能力的重要試金石。與此同時,眾多投身于端到端技術浪潮的頭部企業,正面臨著從技術路徑的收斂走向路徑分化的關鍵節點。
值得注意的是,就端到端智駕而言,目前行業主要分為一段式和兩段式兩個流派。其中,華為、百度Apollo、小鵬汽車等企業采用的是兩段式方法,即將感知模塊視為一段,而將預測到決策模塊視為另一段;商湯科技、Momenta等則是“一段式端到端”的支持者,主張將感知與規控端到端模塊全部打通,實現更緊密的集成和協同工作。
另一邊從技術路線思考,端到端技術路徑也開始進行轉變。此前備受追捧的“端到端+VLM(視覺語言模型)”開始向“VAL(Vision-Language-Action,視覺-語言-動作)模型”迭代。其中,端到端+VLM的方案由理想汽車在2024年中提出,兩個模型分工協作,端到端模型負責處理常規的駕駛行為,VLM模型則負責應對高難度的極端場景。
VAL模型最早由Google DeepMind提出,是一個融合了視覺、語言和動作的多模態模型,旨在提高模型的泛化能力和判斷推理能力,可以簡單看作是端到端+VLM系統的一個全面融合體。在國內,元戎啟行等主要自動駕駛公司已經開始采用這一模型。
元戎啟行CEO周光在接受記者采訪時表示:“VAL模型是端到端技術的2.0版本。”他進一步解釋稱,在面對復雜的交通規則、潮汐車道、長時序推理等特殊場景時,VAL模型能夠比以往的系統更好地理解和應對。例如,在推理時長方面,傳統的基于規則(rule-based)方案只能推理1秒鐘的路況信息并做出決策控制;端到端1.0階段的系統能夠推理未來7秒的路況,而VAL模型則能夠對幾十秒的路況進行推理,顯著提升了自動駕駛系統的決策能力和適應性。
事實上,無論是采用一段式端到端還是VLA模型,背后都意味著對資源的進一步消耗。模型參數越大,對硬件算力和數據閉環的迭代能力要求就越高。有觀點認為,部署VLA模型對芯片算力的要求提升到英偉達DRIVE Thor級別,算力達750 TOPS。相比之下,當前高階智駕的算力硬件通常配備的是2顆英偉達OrinX芯片,總算力為508 TOPS。
“當前自動駕駛技術正處于邁向L3級的轉折點,大規模商業化應用仍聚焦于L2及L2+級別,同時在傳感器、芯片與決策算法等核心技術上獲得了一定突破,因此市場將逐步將這部分技術突破推向C端市場。”艾睿鉑大中華區汽車咨詢業務合伙人章一超在接受記者采訪時表示,而車企對于不同技術的表達,主要還是因為智駕已成為衡量當前車企能力的重要指標。智駕技術的發展不僅關系到車輛的安全性和駕駛體驗,還直接影響到車企在市場中的競爭力。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP