谷歌 DeepMind 今日發布博客文章,宣布推出一種全新的 Gemini Robotics On-Device 本地化機器人 AI 模型。
該模型基于視覺-語言-動作(VLA)架構,無需云端支持即可實現實體機器人控制。核心特性包括:
技術能力:
獨立運行于機器人設備,支持低延遲響應(IT之家注:適用于網絡不穩定場景,如醫療環境)
完成高精度操作任務(如打開包袋拉鏈、疊衣服、系鞋帶)
雙機械臂設計,適配 ALOHA、Franka FR3 及 Apollo 人形機器人
開發適配:
提供 Gemini Robotics SDK 工具包
開發者通過 50-100 次任務演示即可定制新功能
支持 MuJoCo 物理模擬器測試
安全保障:
通過 Live API 實施語義安全檢測
底層安全控制器管理動作力度與速度
開放語義安全基準測試框架
項目負責人 Carolina Parada 表示:“該系統借鑒 Gemini 多模態世界理解能力,如同 Gemini 生成文本 / 代碼 / 圖像那樣生成機器人動作”。
谷歌表示,該模型現在只面向可信測試計劃開發者開放,基于 Gemini 2.0 架構開發(落后于 Gemini 2.5 最新版本)。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。