文章预览
点击下方 卡片 ,关注“ 具身智能 之心 ”公众号 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 本文为论文作者投稿,这里提出了 MoManipVLA ,一种全新的通用移动操作视觉-语言-动作模型(Vision-Language-Action Model, VLA )。该模型能够在真实场景中仅用 50 个训练轨迹 即实现 40% 的成功率 ,显著提升了移动操作任务的效率与泛化能力。 论文地址: https://arxiv.org/abs/2503.13446 项目主页: https://gary3410.github.io/momanipVLA/ 1. 简介 移动操作使机器人能够在广阔空间内执行复杂的操作任务,这需要对移动底座和机械臂进行全身协调控制。随着居家服务、智能制造、物流仓储等领域对机器人自主移动操作需求的日益增长,任务复杂性和物体多样性对移动
………………………………