亚毫米级精准对位:小米开源VLA大模型后训练全流程

2026年04月27日 14:36
本文共计610个字,预计阅读时长3分钟。
来源/aibase 责编/爱力方

小米近期宣布正式开源其视觉-语言-动作(VLA)大模型 Xiaomi-Robotics-0的真机后训练全流程。这一举措标志着小米在具身智能领域迈出重要一步,旨在让机器人能够更快速地通过少量数据掌握复杂的操作技能。

二十小时练就“穿针引线”

基于预训练基座,研发团队仅利用约20小时的任务数据进行真机后训练,便让机器人掌握了将耳机精准收纳进盒的高难度动作。该过程不仅要求极高的空间感知精度,还需克服极低表面粗糙度带来的位移干扰。

模型必须在亚毫米级的公差范围内完成对位,并能实时修正动作偏差。这种“连续丝滑”的执行能力,证明了 Xiaomi-Robotics-0在处理高精度装配任务时的卓越潜力。

image.png

开源生态推动生产力进化

为了让该模型真正成为“开箱即用”的工具,小米此次不仅开放了模型权重,还公布了技术报告与源代码。这种全链条的开源模式,极大降低了开发者进入具身智能领域的门槛。

此前,该模型在国际权威平台上已表现出色,位列全球下载榜前列。随着后训练流程的公开,全球开发者将能共同优化机器人的感知与执行逻辑,加速 AI 机器人走进现实生产生活的进程。

  • 项目网站:https://robotics.xiaomi.com/xiaomi-robotics-0.html

  • 开源代码:https://github.com/XiaomiRobotics/Xiaomi-Robotics-0

来源:亚毫米级精准对位:小米开源 VLA 大模型后训练全流程 | AIbase

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯

推荐专栏

爱力方

爱力方

机器人前沿资讯及信息解读
机器人大讲堂

机器人大讲堂

中国顶尖的机器人专业媒体服务平台
关注爱力方,掌握前沿具身智能动态

© 2025 A³·爱力方

https://www.agentren.cn/