在具身智能领域,一场从技术理念到落地实践的变革正在悄然发生。大晓机器人董事长王晓刚在近期发布会上,展示了具身超级大脑模组A1与“开悟”世界模型3.0的协同创新,为机器人赋予了“空间智能”与“自主决策”能力,标志着具身智能从“模仿学习”向“理解推理”的跨越。
发布会上,十台搭载A1模组的机器狗展示了多场景任务执行能力:它们不仅能在城市路面精准识别违停车辆并拍照回传,还能在禁飞区域定位违规无人机信号,并向操作者发出语音警告。王晓刚指出,这些机器狗背后是“开悟”世界模型3.0的支撑——该模型通过构建物理世界的运行规律,使机器人无需依赖海量真机数据,即可快速适应新环境、完成新任务。例如,学会“开门”的机器人能自主处理不同颜色、形状的门,甚至在首次进入的餐厅中完成开门动作。
世界模型的突破直指具身智能的核心痛点。传统VLA模型依赖“画面-指令-动作”的配对数据,如同“超级模仿者”,在环境或对象变化时成功率显著下降。为突破数据瓶颈,自动驾驶领域虽能积累数百万小时数据,但具身智能仍困在10万小时量级。世界模型则通过“掌握通用公式”替代“死记硬背”,大幅降低对特定场景的依赖。王晓刚以“过环岛”场景为例:商汤与上汽智己合作中,世界模型生成大量高风险场景数据与策略,再通过实车验证校准,使模型能力在真实反馈中持续优化。
技术落地的关键在于“闭环验证”。王晓刚强调,世界模型必须与下游任务结合,在真实场景中迭代。大晓选择机器狗作为商业化起点,因其硬件成熟、商业化路径短,能在街面巡查等任务中验证模型能力。例如,搭载A1模组的机器狗已与徐汇公安探讨城市治理方案,未来还将拓展至无人物流仓、家庭场景等增量市场。这一路线图背后,是商汤11年积累的视觉平台与海外资源支撑——方舟视觉平台已落地大量安防、巡检应用,为机器人快速切入场景提供可能。
世界模型的技术架构分为三层:底层是物理规律文本描述,如“苹果为何落地”;中层是人类行为数据,通过头戴摄像机、数采手套等设备记录人与世界的交互动作;顶层是真机数据,采集不同构型本体的运动信息。王晓刚解释,以“人”为中心采集数据,能避免机器人数据跨本体复用的难题,再通过少量真机数据校准,即可将训练成本从万小时级压缩至现有规模。例如,模型学会“抓取积木”后,能自主规划最优移动序列,而非机械重复固定动作。
在商业化策略上,大晓选择“软硬一体+生态合作”模式。A1模组集成传感器、通信与计算能力,可搭载于宇树、智元等不同品牌本体,但关键技术坚持自研。王晓刚坦言,与本体厂商的关系更多是合作而非竞争——当前场景尚未完全打开,大晓优先探索增量市场,如智慧城市、园区管理等,避免与电力巡检等存量场景冲突。这种策略也降低了本体厂商的投入风险,形成“场景驱动产能”的良性循环。
面向未来,大晓的商业化路径清晰:先以四足机器人切入B端场景,2-3年后通过轮式双臂机器人拓展无人物流仓,最终向双足人形与家庭场景延伸。王晓刚认为,C端市场虽潜力巨大,但对可靠性、安全性的要求极高,需产业链成熟后才能大规模落地。因此,大晓将优先通过B端场景驱动技术迭代,同时借助商汤的海外资源,在东南亚、中东等地区推进出海计划。