近期,理想汽車隆重揭曉了其下一代自動駕駛技術的核心架構——MindVLA。MindVLA不僅是一個能夠與用戶進行互動交流、深刻洞悉用戶需求的智能實體,更可以形象地比喻為一位精通“傾聽”并響應駕駛者指令的專業級機器人駕駛伴侶。作為視覺-語言-行為綜合大模型的杰出代表,MindVLA開創了機器人大模型的新紀元,它巧妙地將空間感知智能、語言理解智能以及行為決策智能三大能力融合于單一模型之中,展現了前所未有的集成創新。
據官方消息透露,MindVLA將于今年7月攜手理想汽車旗艦車型i8震撼上市,同時,當前已配備英偉達雙Orin X芯片的現有車型也將全面兼容并升級支持這一前沿技術,為用戶帶來前所未有的智能出行體驗。
MindVLA將為用戶帶來全新的產品形態和產品體驗,有MindVLA賦能的汽車是聽得懂、看得見、找得到的專職司機。“聽得懂”是用戶可以通過語音指令改變車輛的路線和行為,例如用戶在陌生園區尋找超市,只需要通過理想同學對車輛說:“帶我去找超市”,車輛將在沒有導航信息的情況下,自主漫游找到目的地;車輛行駛過程中,用戶還可以跟理想同學說:“開太快了”“應該走左邊這條路”等,MindVLA能夠理解并執行這些指令。
“看得見”是指MindVLA具備強大的通識能力,不僅能夠認識星巴克、肯德基等不同的商店招牌,當用戶在陌生地點找不到車輛時,可以拍一張附近環境的照片發送給車輛,擁有MindVLA賦能的車輛能夠搜尋照片中的位置,并自動找到用戶。
“找得到”意味著車輛可以自主地在地庫、園區和公共道路上漫游,其中典型應用場景是用戶在商場地庫找不到車位時,可以跟車輛說:“去找個車位停好”,車輛就會自主尋找車位,即便遇到死胡同,車輛也會自如地倒車,重新尋找合適的車位停下,整個過程不依賴地圖或導航信息,完全依賴MindVLA的空間理解和邏輯推理能力。
MindVLA利用Diffusion將Action Token解碼成優化的軌跡,并通過自車行為生成和他車軌跡預測的聯合建模,提升了在復雜交通環境中的通行能力。面對部分長尾場景,理想建立起人類偏好數據集,并且創新性地應用RLHF(基于人類反饋的強化學習)微調模型的采樣過程,最終使MindVLA能夠學習和對齊人類駕駛行為,顯著提升自動駕駛系統的安全下限。
雪緣塑業專注于汽車塑料緊固件開發加工! 本文資料及相關圖片來源于網絡,如有侵權,請聯系EMAIL:刪除! |