今日上午,國家地方共建人形機器人創新中心聯合復旦大學未來信息創新學院,正式發布了全球首款生成式人形機器人運動大模型—— “龍躍”(MindLoongGPT)。
龍躍大模型以“自然語言驅動”為核心,構建了從多模態輸入到高保真動作生成的完整閉環,顛覆傳統運動控制范式。
也就是說,用戶無需學習專業術語或操作復雜軟件,僅需像與人類對話一樣發出指令,例如“以優雅的姿勢遞上一杯咖啡”、“揮手致意”或上傳一段參考視頻,龍躍大模型即可自動解析語義并生成對應的連貫動作,并支持通過追加指令實時調整細節。
這一能力,在教育、服務機器人領域具有顛覆性意義。據介紹,龍躍大模型具有四大核心技術優勢:
一是多模態交互、低門檻驅動。用戶只需用自然語言驅動,模型即可“一切行動聽指揮”。
二是擬真度與時序一致性雙突破。通過將人體動作視為“時序語言”,生成的跑步、舞蹈等動作不僅流暢自然,更保留真實人體的慣性節奏。
三是結構生成與細節優化并重。模型采用分階段生成策略,從全局姿態到局部關節角度均實現毫米級精度控制。
四是輕量化設計,賦能廣泛場景。在保證性能的前提下,MindLoongGPT模型體積被壓縮至同類型產品的1/3,可在教育機器人、智能穿戴設備等嵌入式平臺實時運行,為產業落地鋪平道路。