今天看啥  ›  专栏  ›  泡泡机器人SLAM

【泡泡一分钟】DeepMEL:将视觉多经验定位编译成深度神经网络

泡泡机器人SLAM  · 公众号  · 机器人  · 2021-09-21 23:31
每天一分钟,带你读遍机器人顶级会议文章标题:DeepMEL: Compiling Visual Multi-Experience Localizationinto a Deep Neural Network作者:Mona Gridseth and Timothy D. Barfoot 来源:2020 IEEE International Conference on Robotics and Automation (ICRA)编译:蔡旭东审核:柴毅,王靖淇这是泡泡一分钟推送的第 793 篇文章,欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权摘要 基于视觉的路径跟踪允许机器人自动重复人工训练的路径。立体视觉示教和重复依靠色彩恒定成像和多经验定位实现了在杂乱的室外环境下跨越了不同灯光,天气,季节的准确和健壮的长距离路径跟踪。我们利用多经验VT&R以及两个跨越一天中不同时间,天气和季节的在户外独立道路上驾驶的数据集来训练一个深度神经网络



文章无法展示全部,请购买VIP后 使用网页访问内容 或者 使用第三方RSS订阅工具访问内容





今天看啥 - 让阅读更高品质
本文地址:http://www.jintiankansha.me/t/iFGo2Onq81