Warning: mkdir(): No space left on device in /www/wwwroot/New.4.com/func.php on line 127

Warning: file_put_contents(./cachefile_yuan/tsxingyuan.com/cache/0f/e9013/2b220.html): failed to open stream: No such file or directory in /www/wwwroot/New.4.com/func.php on line 115
阿裏雲、國科投資領投,具身智能企業獲近10億元A+輪融資

點擊右上角微信好友

朋友圈

請使用瀏覽器分享功能進行分享

正在閱讀:阿裏雲、國科投資領投,具身智能企業獲近10億元A+輪融資
首頁>時政頻道>要聞>正文

阿裏雲、國科投資領投,具身智能企業獲近10億元A+輪融資

來源:{getone name="zzc/xinwenwang"/}2025-09-15 19:57:04

中國日報9月10日電 (記者 樊菲菲) 自變量機器人宣布,於近日完成近10億元A+輪融資。本輪由阿裏雲與國科投資共同領投,國開金融、紅杉中國、渶策資本跟投。老股東美團戰投超額跟投,聯想之星、君聯資本持續追投。

據悉,這是阿裏雲首次出手領投具身智能領域公司,本次融資資金將用於自變量全自研通用具身智能基礎模型的持續訓練和硬件產品的研發迭代。

從2023年底成立起,自變量就確立了以端到端統一大模型實現通用具身智能的技術路徑,並於近期發布了適配多模態大模型控製的全自研輪式雙臂仿人形機器人——量子2號(Quanta X2)。

自變量機器人創始人兼CEO王潛表示,阿裏雲對自變量技術高度認可,將為自變量提供多維度支持,未來會加大和阿裏雲在人工智能領域的合作力度。公司將繼續推進軟硬一體同步發展的技術路線。

作為國內最早實現端到端具身智能大模型的公司,自變量自主研發「WALL-A」係列VLA(Vision-Language-Action )操作大模型,構建統一的認知與行動框架。在統一表示空間中,模型同時處理感知、推理和行動,直接進行跨模態的因果推理和行動決策,讓機器人最終能夠像人類一樣思考和工作。

同時,公司率先實現端到端具身思維鏈推理框架,基於多模態輸入進行深度推理並生成多模態輸出,形成模型自主決策、執行、探索和反思的完整閉環。模型能夠將語言理解、視覺感知與動作執行緊密結合,形成更接近人類思維的推理過程,成功突破多步驟長序列任務瓶頸,任務完成度大幅提升,極大擴展了機器人處理複雜現實場景的能力邊界。

王潛認為,具身智能的發展短期有賴於模型算法優勢,中期依靠數據優勢,長期核心在於產品優勢。自變量始終圍繞這三大方向加深積累,並率先在國內開放性服務場景落地實踐,探索不同場景下的服務閉環。

今年年中,公司首個實現具身智能大模型控製高自由度靈巧手進行複雜操作。此前,自變量發布了自研大模型控製高自由度靈巧手精巧拿取並分發撲克牌這類彈性易形變物體的視頻。

當前,為推動具身智能大模型的研究與應用,自變量開源其麵向開發者的具身基礎模型:「Wall-OSS」,並公開相關訓練代碼,便於全球開發者們在自有本體上快速微調和實際應用。Wall-OSS 具備強大的泛化性和推理能力,在長程操作任務方麵表現優於其他基礎模型,同時作為多模態基座,模型也具備良好的因果推理、空間理解和反思能力等。

硬件方麵,今年8月,自變量發布了全自研輪式雙臂仿人形機器人“量子2號(Quanta X2)。在過去不到半年時間內,公司實現了機器人本體整機、高自由度靈巧手、外骨骼遙操數采設備等全棧自研。

隨著軟硬一體綜合能力的提升,目前自變量的機器人,已與頭部服務業、工業客戶達成合作,在多場景中投入使用。未來自變量也將與客戶圍繞模型和硬件共建開放生態,推動具身智能的進一步發展。

[責編:{getone name="zzc/mingzi"/}]
閱讀剩餘全文(
網站地圖