智元机器人在上海宣布推出面向真实世界机器人操控的统一世界模型平台——GenieEnvisioner(GE)。这一创新平台突破了传统机器人学习系统分阶段开发的模式,将未来帧预测、策略学习与仿真评估整合进以视频生成为核心的闭环架构,实现了机器人从“看”到“想”再到“动”的端到端推理与执行。基于约3000小时的真实机器人操控视频数据,GE在跨平台泛化和长时序任务执行上展现出显著优势,为具身智能发展开辟了从视觉理解到动作执行的全新技术路径。
GE的核心突破在于构建了基于世界模型的视觉中心建模范式。与主流的视觉-语言-行动(VLA)方法不同,GE直接在视觉空间中建模机器人与环境的交互动态,完整保留了操控过程中的空间结构和时序演化信息。这种建模范式不仅赋予了GE高效的跨本体泛化能力,使其能够在极少量数据下实现跨平台迁移,还在长时序任务的精确执行能力上展现出巨大优势。例如,在折叠纸盒等超长步骤任务中,GE-Act的成功率远超现有
GE平台由三个紧密集成的组件构成:GE-Base、GE-Act和GE-Sim。GE-Base是整个平台的核心基础,采用自回归视频生成框架,具备多视角生成能力和稀疏记忆机制,能够处理来自多路视角输入的操控场景,并通过随机采样历史帧增强长时序推理能力。GE-Act作为即插即用的动作模块,通过轻量级架构将视觉潜在表征转换为可执行的机器人控制指令,并采用异步推理模式实现高效实时控制。GE-Sim则将GE-Base的生成能力扩展为动作条件的神经仿真器,通过层次化动作条件机制实现精确的视觉预测,支持闭环策略评估,并可作为数据引擎生成多样化的训练数据。
此外,智元机器人团队还开发了EWMBench评测套件,用于评估面向具身任务的世界模型质量。在与多个先进模型的对比中,GE-Base在多项关键指标上均取得
🔹Projectpage
https://genie-envisioner.github.io/
🔹Arxiv
https://arxiv.org/abs/2508.05635
🔹Github
https://github.com/AgibotTech/Genie-Envisioner