国内具身智能领域迎来重要突破,北京人形机器人创新中心近日宣布开源一系列核心成果,包括国内首个通过具身智能国家标准测试的VLA大模型XR-1,以及配套的数据基础设施RoboMIND 2.0和ArtVIP最新版本。这一举措旨在推动具身智能技术向"全自主、实用化"方向迈进,使机器人能够在真实场景中高效完成多样化任务。
作为开源项目的核心,VLA模型XR-1聚焦具身小脑能力开发,具备三大技术优势:其跨数据源学习能力可利用海量人类操作视频进行训练,显著降低数据获取成本;跨模态对齐技术通过构建视觉与动作的映射关系,实现"所见即所动"的类人反应;跨本体控制能力则支持模型快速适配不同品牌、类型的机器人硬件。这些特性使XR-1成为国内首个实现多场景、多本体、多任务协同的具身智能模型。
支撑XR-1性能突破的关键在于创新研发的UVMC(多模态视动统一表征)技术。该技术通过建立视觉信息与动作指令的实时转换机制,使机器人能够像人类一样产生条件反射式的自然反应。在实际测试中,搭载该技术的具身天工2.0机器人展现了卓越的运动控制能力,可完成大幅弯腰下蹲、精准抓取随机摆放物料箱等复杂动作,甚至能处理倒料等需要多关节协同的操作任务。
配套数据平台RoboMIND 2.0在原有基础上实现全面升级。新版本数据集包含超过30万条机器人操作轨迹,覆盖工业零件分拣、流水线作业、物理化学实验、家庭厨房操作、家电交互等11个典型场景,形成工业、商用、家庭三大领域的完整数据体系。值得关注的是,平台新增1.2万条带触觉反馈的操作数据,为训练具备物理感知能力的VTLA、MLA模型提供支持,同时开源的ArtVIP仿真数据集可服务于机器人大小脑模型的联合训练。
在硬件适配性方面,XR-1展现出强大的泛化能力。通过跨本体控制技术,该模型可快速兼容不同构型的机器人本体,实现运动控制参数的自动匹配。这种特性不仅降低了模型部署门槛,更为具身智能技术在仓储物流、智能制造、家庭服务等多个领域的规模化应用奠定了基础。随着开源生态的完善,国内具身智能产业有望进入快速发展期。
