新浪科技訊 1月28日上午消息,繼近日開源高精度空間感知模型 LingBot-Depth 后,螞蟻集團旗下靈波科技宣布全面開源具身大模型 LingBot-VLA。作為一款面向真實機器人操作場景的“智能基座”,LingBot-VLA 實現(xiàn)了跨本體、跨任務(wù)泛化能力,并大幅降低后訓練成本,推動“一腦多機”走向工程化落地。
據(jù)悉,長期以來,由于本體差異、任務(wù)差異、環(huán)境差異等,具身智能模型落地面臨嚴重的泛化性挑戰(zhàn)。開發(fā)者往往需要針對不同硬件和不同任務(wù)重復采集大量數(shù)據(jù)進行后訓練,直接抬高了落地成本,也使行業(yè)難以形成可規(guī)?;瘡椭频慕桓堵窂?。針對上述問題,LingBot-VLA 基于 20000+ 小時大規(guī)模真機數(shù)據(jù)進行預訓練,覆蓋了 9 種主流雙臂機器人構(gòu)型(包括AgileX,Galaxea R1Pro、R1Lite 、AgiBot G1等),從而讓同一個“大腦”可以無縫遷移至不同構(gòu)型的機器人,并在任務(wù)變化、環(huán)境變化時保持可用的成功率與魯棒性。與高精度空間感知模型 LingBot-Depth 配合,LingBot-VLA 能獲得更高質(zhì)量的深度信息表征,通過“視力”的升級,真正做到“看得更清楚、做的更明白”。
據(jù)悉,在數(shù)據(jù)采集階段,LingBot-VLA 使用了星海圖、松靈的硬件平臺,樂聚、庫帕思、國家地方共建人形機器人創(chuàng)新中心、北京人形機器人創(chuàng)新中心有限公司、博登智能、睿爾曼也在模型預訓練階段提供了高質(zhì)量數(shù)據(jù)支持。目前,LingBot-VLA 已與星海圖、松靈、樂聚等廠商完成適配,驗證了模型在不同構(gòu)型機器人上的跨本體遷移能力。