RoboMIND 2.0是由北京人形机器人创新中心与北京大学联合构建的大规模多模态双臂移动操作数据集,包含31万条来自6种异构机器人平台的真实世界轨迹,覆盖759项任务和129种基础技能,总时长超1000小时。数据集包含12K触觉增强序列和20K移动操作轨迹,采用统一遥操作流程采集并配备细粒度自然语言标注,同时提供20K仿真轨迹和高保真数字孪生资产。其创新性体现在首次整合双臂协同、移动操作、灵巧手控制与触觉感知等多维度特性,支持跨形态策略迁移和具身智能泛化研究,为长时序复杂任务的语言-视觉-动作模型训练提供标准化基准。