10%训练数据超越100%表现,机器人学习领域迎来重要突破


10%训练数据超越100%表现,机器人学习领域迎来重要突破

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

第一作者陈昌和是美国密歇根大学的研究生,师从NimaFazeli教授,研究方向包括基础模型、机器人学习与具身人工智能,专注于机器人操控、物理交互与控制优化。
第二作者徐晓豪是美国密歇根大学机器人学院博士生,研究涵盖3D感知、视觉语言模型驱动的多模态异常检测及鲁棒三维重建。
共同第一作者QuantaoYang是瑞典皇家理工学院博士后,师从OlovAndersson教授,研究聚焦于利用视觉语言模型与大型语言模型提升自主系统在动态环境中的感知与导航能力。
密歇根大学和瑞典皇家理工学院的研究团队提出了ViSA-Flow框架,这是一种革命性的机器人技能学习方法,能够从大规模人类视频中提取语义动作流,显著提升机器人在数据稀缺情况下的学习效率。该方法在CALVIN基准测试中表现卓越,仅使用10%的训练数据就超越了使用100%数据的现有最佳方法。
作者:ChangheChen,QuantaoYang,XiaohaoXu,NimaFazeli,OlovAndersson
机构:密歇根大学、瑞典皇家理工学院
网页:https ://visaflow-web. github.io/ViSAFLOW
论文链接:https ://arxiv. org/abs/2505. 01288
代码开源:即将发布
研究背景与挑战
机器人模仿学习在使机器人获得复杂操作技能方面取得了显著成功,但传统方法面临一个根本性限制:需要大量精心策划的机器人数据集,收集成本极其昂贵。这已成为开发能够执行多样化现实世界任务的机器人的关键瓶颈。
相比之下,人类展现出通过观察他人学习新技能的非凡能力。无论是面对面学习、观看教学视频还是体育转播,人类本能地专注于语义相关的组件。例如,学习网球时,我们自然地关注球员的身体动作、球拍处理技巧和球的轨迹,同时有效过滤无关的背景信息。
核心创新:语义动作流表示
人类和机器人操作共享相似原子动作
ViSA-Flow框架的核心创新在于引入了语义动作流(SemanticActionFlow)作为中间表示,捕捉操作器-物体交互的本质时空特征,且不受表面视觉差异影响。该框架包含以下关键组件:
1. 语义实体定位
利用预训练的视觉语言模型(VLM)对操作器(如\“手\“、\“夹具\“)和任务相关物体(如\“红色方块\“)进行文本描述定位,然后使用分割模型(如SAM)生成初始分割掩码。
2. 手-物体交互跟踪
由于语义分割在连续帧间的不稳定性,研究团队提出跟踪正确分割的手-物体交互掩码。通过在初始掩码内密集采样点,使用点跟踪器(如CoTracker)估计这些点在序列中的2D图像轨迹。
3. 流条件特征编码
为产生最终的ViSA-Flow表示,研究团队将流信息编码为丰富的特征向量,同时保留视觉上下文。使用跟踪点轨迹生成空间局部化放大掩码,通过放大因子调制感兴趣区域内的像素强度。
ViSA-Flow架构和策略学习框架图
两阶段学习框架
第一阶段:预训练-学习ViSA-Flow动态先验
使用大规模人类视频数据集,预训练生成模型以建模ViSA-Flow空间内的动态。模型学习基于过去上下文和语言指令预测未来表示,目标函数为:
L_pretrain(ψ)=E[||g_ψ(z≤t,l)[OBS]-z_{t+1:t+n}||²]
第二阶段:微调-策略适应
使用少量机器人演示数据集微调模型,学习目标策略。采用多任务目标函数,结合动作预测和持续动态建模:
L_finetune(ψ)=E[L_act+λ_fwdL_obs+λ_progL_prog]
实验评估
CALVIN仿真实验
研究团队在CALVIN基准测试上进行了全面评估,使用ABC→D分割,在环境A、B、C上训练,在未见环境D上进行零样本评估。
预训练,微调以及评估所使用数据集
CALVINABC→D基准测试的对比评估结果
关键发现
1. 数据效率优势:ViSA-Flow仅使用10%的注释机器人轨迹(1,768个),就超越了所有基线方法,包括使用100%数据的方法。
2. 连续任务性能:在5个连续任务完成方面,ViSA-Flow达到31. 4%的成功率,几乎是使用10%数据的次佳方法GR-MG(16. 2%)的两倍,甚至超过了使用100%数据训练的SuSIE(26. 0%)。
3. 平均序列长度:2. 96的平均序列长度进一步证明了ViSA-Flow在处理长时程操作任务方面的有效性。
消融研究
评估ViSA-Flow关键组件贡献的消融研究结果
消融研究结果表明:
移除语义实体定位显著降低性能,5任务序列成功率从31. 4%降至9. 6%
省略时间跟踪阶段使平均成功长度从2. 96降至2.78
排除操作器定位导致适度性能下降
真机实验
研究团队在真实世界环境中评估了ViSA-Flow的性能,包括两个单阶段操作任务和一个长时程操作任务。
实验设置:
使用7自由度FrankaEmikaPanda机械臂
通过Oculus应用程序进行遥操作数据收集
双摄像头设置(眼内、眼外)提供RGB观察
真机实验设置
结果分析:
真实世界实验结果图表
单阶段任务:ViSA-Flow在MoveContainer和PickEggplant任务上显著优于GR-MG
长时程任务:ViSA-Flow达到56. 3%的整体成功率,而GR-MG和DP分别仅达到8. 3%和13. 8%
定性分析
真实世界长时程任务的定性结果可视化
定性结果显示,ViSA-Flow的单步预测在整个长时程执行过程中与真实流保持紧密对齐:
模型持续聚焦于机器人夹具和任务相关物体
空间支持随场景转换平滑连贯地演化
在两个连续子任务中保持相同的准确性水平
奖励差异水平的性能分析
为评估LLM在不同难度水平下选择更优设计的能力,研究团队采用了难度加权准确率(DWA)指标进行分析。结果显示,ViSA-Flow在处理细微性能差异的任务时表现更稳定,证明了语义动作表示的有效性。
提示设计分析
研究还探索了不同组件对框架性能的影响:
1. 语义分割的重要性:准确的语义实体识别是框架成功的关键
2. 时间跟踪的必要性:一致的点对应关系对保持时间动态至关重要
3. 跨域泛化能力:语义表示有效缓解了视觉外观差异的影响
技术优势与局限性
技术优势
1. 数据效率:仅需少量机器人演示数据即可达到优异性能
2. 跨域泛化:有效利用人类视频知识转移到机器人执行
3. 长时程稳定性:在复杂序列任务中保持稳定表现
4. 语义一致性:关注任务关键交互而非视觉外观
当前局限性
1. 3D几何建模缺失:缺乏显式的3D几何和接触动力学建模
2. 预训练组件依赖:依赖预训练VLM组件可能限制新领域适应性
3. 物理交互精度:在需要精细物理交互的任务中可能存在限制
未来发展方向
1. 物理建模增强:将接触物理学整合到ViSA-Flow表示中
2. 端到端训练:减少对预训练组件的依赖,实现联合训练
3. 强化学习集成:将ViSA-Flow先验与强化学习算法结合
4. 大规模预训练:扩展到网络规模的视频语料库进行预训练
研究意义与展望
ViSA-Flow为机器人学习领域带来了重要突破,证明了从大规模人类视频中提取语义表示进行机器人技能学习的可行性。该方法不仅在理论上具有创新性,在实际应用中也展现出强大的性能优势。
通过引入语义动作流这一中间表示,ViSA-Flow成功桥接了人类演示视频观察与机器人执行之间的差距,为构建更加智能、高效的机器人学习系统开辟了新的研究方向。
随着技术的进一步发展和完善,ViSA-Flow有望在工业自动化、家庭服务机器人、医疗辅助等多个领域发挥重要作用,推动机器人技术向更加智能化和普适化的方向发展。
参考文献
本研究基于机器人操作、模仿学习和视频学习等多个前沿领域的最新进展,为推动机器人智能化发展提供了重要的理论基础和技术支撑。
©THEEND
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin. com


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录