首页 >> 无人驾驶 >

机器人感知通过自我监督学习实现复杂的导航行为

2022-05-31 23:04:01 来源: 用户: 

人类非常有能力协调他们的身体动作和视觉感知。在机器人中,这项任务并不是那么容易,尤其是当目标是创建一个能够长时间自主运行的系统时。当计算机视觉系统和运动感知系统分开实施时,它们通常专门从事相对狭窄的任务,并且彼此之间缺乏集成。

昆士兰科技大学的研究人员在一篇新文章中提出了一种架构,该架构可使用强化学习原理为活动目标驱动的导航任务构建统一的机器人视觉运动控制系统。

在他们的工作中,作者使用自我监督的机器学习从视觉里程表数据创建运动估计,并从视觉位置识别数据创建“定位表示”。然后将这两种类型的视觉运动信号进行时间组合,以便机器学习系统可以自动“学习”控制策略并做出复杂的导航决策。所提出的技术可以有效地概括极端的环境变化,其成功率高达80%,而仅基于视觉的导航系统的成功率为30%:

我们的方法在时间上整合了紧凑的运动和视觉感知数据,这些数据是使用自我监督直接从单个图像序列获得的,从而可以实现复杂的面向目标的导航技能。我们使用新的交互式CityLearn框架在两个实际驾驶数据集KITTI和Oxford RobotCar上演示了我们的方法。结果表明,我们的方法可以准确地概括到极端的环境变化,例如昼夜循环,成功率高达80%,而仅视觉导航系统为30%。

我们已经证明,将自我监督学习用于视觉运动感知和RL决策相结合,可以大大提高部署机器人系统的能力,该机器人系统仅能从原始图像序列解决复杂的导航任务。我们提出了一种方法,其中包括一种新的神经网络体系结构,该方法可以通过RL使用真实数据在时间上集成两种基本传感器模式,例如运动和视觉,用于大规模目标驱动的导航任务。事实证明,我们的方法对于剧烈的视觉变化条件(在典型的仅视觉导航管道失败的情况下)具有鲁棒性。这表明基于里程表的数据可用于提高传统的基于视觉的系统的整体性能和鲁棒性,以学习复杂的导航任务。在以后的工作中,

  免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!

 
分享:
最新文章