机器人多感知.docx
- 文档编号:26577529
- 上传时间:2023-06-20
- 格式:DOCX
- 页数:10
- 大小:23.76KB
机器人多感知.docx
《机器人多感知.docx》由会员分享,可在线阅读,更多相关《机器人多感知.docx(10页珍藏版)》请在冰豆网上搜索。
机器人多感知
基于多传感器信息融合的移动机器人
摘要:
随着科学技术的不断发展,各式各样的移动机器人逐渐进入到人们的日常生活中,在军事、工业、探险等领域发挥了重大作用。
在移动机器人运动过程中,常常会遇到自主避障、定位、路径规划等问题,为了解决这些问题,通常会给移动机器人安装多个传感器,通过对周围环境信息进行采集,并采用多传感信息融合的办法使机器人实现自主运动。
本文介绍了研究移动机器人的几种重要技术,并介绍了移动机器人应用到的视觉、触觉、听觉等技术,并分析了视觉,接触觉融合系统,基于导航信息融合系统。
最后又介绍了基于行为融合的视觉,接近觉融合自主避障算法,激光信息和视觉信息融合算法,以及加权算法等算法。
关键词:
多传感器;信息融合;移动机器人
Abstract:
Withthedevelopmentofscienceandtechnology,allkindsofmobilerobotsgraduallycomeintopeople'sdailylife,andplayamajorroleinthefieldssuchasmilitary,industrial,exploration.Duringthemomentofmobilerobot,theyoftenhavetheproblems,suchasautonomousobstacleavoidance,localization,pathplanning,inordertosolvetheseproblems,Multiplesensorsareusuallyinstalledinmobilerobot,bythestudyoftheacquisitionofenvironmentalinformation,andusethemultiplesensorinformationfusiontomaketherobottorealizetheautonomousmotion.Thispaperintroducesseveralkindsofimportantresearchesonmobilerobottechnology,andintroducedtheapplicationofmobilerobottechnologysuchasvision,touch,auditory,andanalyzesthecontactfusionsystem,whichisbasedonthenavigationinformationfusionsystem.Thenintroduceakindofobstacleavoidancealgorithmbasedonbehaviorfusionvisual,proximitysenseFusionalgorithm,laserinformationandvisualinformationfusionalgorithm,andweightedalgorithmandotheralgorithms.
Keywords:
multi-sensor;Informationfusion;Mobilerobot
一、引言:
场景分析一直以来受到国内外学者的密切关注。
移动机器人对周围环境的理解程度决定了其完成路径规划等任务的可能性,尤其在具有复杂的室外环境。
通过对机器人在环境中的位姿的确定,提高机器人对环境的感知能力,从而更好地实现运动。
然而单一的传感器常常感知能力有限,这就不同传感器之间配合共同完成工作,通过选择合适算法,加强对传感信息的融合,从而加强机器人对周围环境的理解,确保机器人在室外场景中稳定高效的工作。
随着传感器技术的发展,移动机器人的运动路径规划变得越来越简单,通过多传感器的信息融合,大大提高了移动机器人对环境信息的分析能力。
多传感器信息融合技术的使用也互补了每个传感器在信息获取及分析方面的不足。
二、移动机器人发展现状
继20世纪60年代坦福研究院的研究院士共同开发的一种叫做Shakey机器人后移动机器人开始如雨后春笋般涌现,美国在1989年出台了关于联合机器人研究计划,并持续地针对机器人制定相关的规划和任务;日本已经把机器人研究作为国家的基本战略目标来实现;欧洲对于机器人的研究主要体现为制定了欧洲第七框架计划,这一计划的成功可以为机器人模块功能以及危险作业这一比较空白的领域进行了填补[1-3]。
移动机器人取得了巨大成就,在研究移动机器人中主要要考虑以下几种技术:
2.1定位导航技术
移动机器人要想实现自主行驶、自主规划路径的功能,导航定位技术是关键技术之一。
目前,常见的导航方式有电磁导航、激光导航、超声波导航等。
电磁导航
在地下埋下导线,通过导线中不同频率电流产生的磁场从而“引导”机器人的行动。
该方式的优点是结构简单,便于操作,并且受外界环境的影响小
超声波导航
超声波导航,其实质为通过超声波传感器实现距离测量。
超声传感器作为一种典型的测距传感器已被广泛应用于移动机器人的导航、避障与地图创建,移动机器人通过数字滤波器和超声信息融合得到测量准确,超声方向明显的数据
激光导航
移动机器人利用激光的不发散性,激光测距仪的原理是将激光束平行地反射出去,通过测量发射到接收的时间差,计算目标距离,得到关于环境的水平剖
面图,从而确定当前的位姿,并指导机器人行走。
2.2路径规划技术
常见的运动控制有路径跟随、轨迹跟踪。
路径跟随是指根据某种控制规律,跟随运动空间中给定的一条与时间无关的几何路径,一般可分为全局和局部路径规划。
轨迹跟踪是根据某种控制律,跟随运动空间中给定的一条与时间相关的几何路径,路径跟踪方法主要包括自适应法、智能控制法、最优控制法和模型预测控制等。
2.3自主避障
当移动机器人面临环境未知或遇到障碍时能否快速、准确对周围环境信息做出反应,并且不间断地朝着目标点前进,是移动机器人的一个非常重要的课题[4]。
为解决这移动机器人自主避障的问题,常用的方法有模糊逻辑法、神经网络法以及基于行为的方法等。
其中,基于行为的方法用于解决移动机器人避障问题是一种新的发展趋势,它采用行为仲裁机制和行为融合机制来实现避障。
1985年,Brooks提出的包容式体系结构是行为仲裁机制的典型代表,该机制在同一时间只允许一个行为实施控制,当多个行为同时对机器人进行控制时,行为之间可能会产生冲突,而行为融合机制则允许多个行为同时对机器人的最终控制产生作用,因此,确定各个行为的权重成为提高移动机器人自主避障技术的关键问题之一。
三、机器人的多种感觉传感器
移动机器人视觉
移动机器人的视觉是移动机器人研究中关键的技术之一,通过视觉传感器获得三维环境图像中获得所需的信息,具有信息量大,信息完整的优点,所以视觉传感器被越来越多的应用到移动机器人中[5-6]。
视觉传感器是将景物的光信号转换成电信号的器件。
大多数机器人视觉都不必通过胶卷等媒介物,而是直接把景物摄入。
过去经常使用光导摄像等电视摄像机作为机器人的视觉传感器,近年来开发了CCD(电荷耦合器件)和MOS(金属氧化物半导体)器件等组成的固体视觉传感器。
固体传感器又可以分为一维线性传感器和二维线性传感器,目前二维线性传感器已经能做到四千个像素以上。
由于固体视觉传感器具有体积小、重量轻等优点,因此应用日趋广泛。
视觉的定位大体包括三种:
基于单目视觉的定位,基于全景视觉定位和基于立体视觉定位。
单目视觉的定位合陀螺仪、里程计、加速度计等内部传感器完成环境地图的初步构建,具有结构简单,适用面广的有点,同时它的视觉畸变小非常适合小型移动机器人的位姿测量。
全景视觉定位,全景视觉传感器利用折反射全景成像机理可以观察到接近一个球面的全景视场信息,不需要对摄像机进行控制,但图像畸变比较大,并且距离越远畸变越大[7]。
基于立体视觉定位,基于人眼视差的原理,即人们用两个参数相同的摄像机,从不同的角度拍摄同一景物,得到同一景物的两幅图像,基于立体视觉定位,定位准确且能获得环境中的深度信息,但摄像机对参数变化非常敏感随着参数改变需要重新标定[8]。
传统的视觉位姿估计方法,包括立体视觉,结构光主动视觉等。
其中,结构光主动视觉较适合于工业领域,而在自然环境下的移动式自主机器人方面尚不多见;立体视觉应用比较广泛,既可应用于工业机器人,也可应用于自然环境下的移动式自主机器人[9]。
传统的立体视觉基于三维重建进行位姿估计,特征点的定位误差会被带入位姿计算,位姿的精度和偏差偏差一般比较明显为降低位姿估计对控制误差的影响,Malls等提出了2.5D的视觉控制方法Maiis等的方法能够降低视觉控制对位姿估计部分分量的精度要求,但对视觉位姿估计的精度,可靠性,实时性等方面并没有改善[10]。
移动机器人触觉
模仿人的触觉功能,通过触觉传感器与被体相接触或相互作用来完成对物体表面特征和物理性能的感识物知。
在遥操作机器人上装备力反馈传感器,可以使操作者感受到触觉信息[11]。
根据移动机器人运动过程中检测到的力,在遥操作者触觉操纵杆上也应地产生一定比例的力。
这样,当移动机器人碰撞到物体的时候,遥操作者可感觉到作用在操纵杆上相关的摩擦力[]。
移动机器人听觉
机器人通过传感器在三维空间中对声源目标的实时定位。
在实际设计的机器人听觉系统中可将多个传声器组成的阵列作为机器人的“双耳”对声音信息进行处理。
它具有很强的空间定位能力,同时还可以在一定范围内实现声源的自适应检测定位及跟踪。
多传感器组成的阵列的包括阵元间距、个数和麦克风类型采集到信号后再对初始声音信息进行包括放大、滤波、模/数转换、去噪等几个方面的信号处理来实现定位[12-13]。
移动机器人嗅觉
移动机器人采取了自制解码器来感知运动速度的变化通过自身的气体传感器对运动轨迹上的多个点气体浓度进行检测,依据搜寻算法以及气体浓度决定下一步的运动方向直至找到气源。
在一款设计出的具有嗅觉功能的移动机器人的设计思路中,使用Z字型定位算法与硬件实现,并在室内稳定风场条件下完成了气源的主动嗅觉定位[14]。
四、机器人多感知系统
在目前的移动机器人定位系统中,如GPS,手机信号等不适合在室内应用,而红外线,超声波等却有自身的局限,为了弥补它们的不足,基于多信息融合的机器人应运而生:
基于WRV的室内移动机器人定位系统、基于导航信息双向融合的行人/移动机器人协同导航系统、摄像机与激光雷达组合的感知系统等等。
基于WRV的室内移动机器人定位系统[15]。
作为近年来新兴的定位技术,无线网络定位、RFID定位、视觉定位,有着各自的优缺点,无线网络定位使用简单但定位精度较低,RFID有较高的定位精度但定位范围较小,视觉定位准确但复杂度较高。
针对W(WLAN,wirelesslocalareanetwork)、R(RFID,radiofrequencyidentification)、V(VIDEO)各自的特点,一种基于WRV信息融合的机器人定位方法产生。
在融合定位方法中采用增加移动误差补偿的极大似然,概率法并进行基于Kalman滤波的WLAN机器人定位[16]。
基于导航信息双向融合的行人/移动机器人协同导航系统[17]。
在移动机器人使用卫星导航系统定位的运动过程中有会出现系统失效现象。
如何实现行人导航系统与移动机器人导航系统特别是在有电磁干扰的情况下的定位性能显得尤为重要[18-19]。
采用信息双向融合滤波器同步修正两者的导航信息误差,即利用移动机器人捷联惯导系统较高的传感器精度完成对行人导航系统磁航向误差的实时修正,利用行人导航系统较高的位移精度修正机器人惯导系统误差,实现同步提高两套导航系统的定位与航向精度[20]。
在行人导航系统中采用基于微惯性/地磁测量组件的个人导航定位方案,然后进行导航系统初始对准[21],系统进入导航状态,通过人体步态位检测装置对导航系统进行间断性的零速修正,估计出导航误差以及陀螺仪与加速度计的部分漂移误差。
移动机器人导航系统工作于捷联惯性模式,采用行人导航系统零速修正后的位置信息来实时修正移动机器人捷联惯导的系统级误差与惯性传感器误差,从而构成行人导航系统与移动机器人的协同导航。
摄像机与激光雷达组合的感知系统[22]。
将二维激光测距仪与两自由度云台组合安装。
通过云台的俯仰与水平转动,实现3D激光雷达的工作效果[23]。
在该系统中,摄像机能够快速获取机器人行驶空间中物体的颜色与纹理,3D激光雷达则更容易获得机器人行驶空间中目标的距离与轮廓,对二者进行融合,构建3D组合感知系统可以使机器人更好地感知环境并在感知的环境中移动。
五、移动机器人多感觉信息融合算法
基于行为融合的自主避障算法。
基于行为融合的自主避障算法将视觉,接近觉进行融合。
移动机器人自动躲避障碍物的常用传感器有超声波传感器,CCD摄像机,红外传感器,激光传感器等。
采用多只超声波传感器来探测机器人周围障碍物的距离和方向算法中采用两级BP神经网络实现权重的在线调整,根据不同的行为,选择不同的参数控制移动机器人的动作。
模糊控制器的输入量为3组超声波传感器测得的左方、前方、右方障碍物的距离、目标点距离以及目标点方向角。
先对障碍物距离,目标点距离,目标点方向角,转向角变化量的论域进行设定,根据论域设定模糊语言。
然后确定模糊控制器的输出量为各个行为的转向角变化量和线速度,并对输出量的论域以及模糊语言进行描述。
对机器人的行为控制包括趋向目标点行为,避障行为,追踪行为,解除死锁行为[7]。
其中目标点行为为适用于目标点方向无障碍物的情况模糊控制器的输入量为目标点距离和目标点方向角,输出量为转向角变化量和线速度。
避障行为适用于前方、左方和前方、右方和前方有障碍物的情况[24]。
模糊控制器的输入量为前方障碍物的距离和左方或右方障碍物的距离之一,输出量为转向角变化量。
追踪行为该行为适用于左侧、右侧或两侧均有墙壁式障碍物的情况。
模糊控制器的输入量为左方障碍物的距离和右方障碍物的距离,输出量为转向角变化量和线速度。
解除死锁行为该行为适用于左方、前方和右方均有障碍物的情况。
模糊控制器的输入量为左方、前方、右方障碍物的距离,输出量为转向角变化量和线速度。
视听融合定位
将听觉、视觉传感器信息按照一定准则进行融合,再依据融合后的信息进行决策。
这种方法定位更为准确。
目前主要采用的有D-S证据理论、卡尔曼滤波、人工神经网络、模糊推理等。
采用空间似然函数(SpatialLikelihoodFunction,SLF)将视觉与听觉信息进行融合[25]。
激光信息和视觉信息融合方法,分别对激光点和视觉信息进行前期处理,在激光点基础上构建环境高程图,同时对图像信息中的典型特征进行辨识,之后在高程图中融合图像的辨识结果[26-28]。
加权法是一种最简单的实时处理信息的融合方法,将来自于不同传感器的冗余信息进行加权,得到的加权平均值即为融合的结果,其中权值可以根据经验、测量次数和数据的精度来确定。
该方法的优点是简单直观,计算量少,适合实时处理
六、结语
利用多传感器信息融合对移动机器人的研究,避免了单一传感器对环境的不能准确建模、以移动机器人的定位精度不敏感以及对环境信息的依赖性强等缺点。
本文介绍了移动机器人常用的感觉传感器、几种多感觉融合系统以及多感觉信息融合算法。
通过多信息的融合,可以使机器人定位更加准确,路径规划更加合理,
节约避障过程时间,使机器人具有良好的时效性以及适应性。
七、参考文献
[1]蒋浩然,陈军,王虎,等.移动机器人自动导航技术研究进展[J].西北农林科技大学学报,2011,39
(1):
207-213.
[2]梁栋,尹晓红,王梦晴.移动机器人研究现状及发展趋势[J].科教前沿,
2014(9):
33-34.
[3]童峰,许天增.一种移动机器人超声波导航系统[J].机器人,2002,
24
(1):
55-59.
[4]陈绍茹,陈奕梅.基于多传感器信息融合的移动机器人避障[J].期传感器与微系统,2014,33(5):
35-38.
[5]杨俊友,马乐,白殿春,等.机器人的混合特征视觉环境感知方法[J].中国图像图形学报,2012,17
(1):
114-122.[27]段丙涛,杨平,翟志敏.基于声纳环传感器的机器人避障研究[J].传感器与微系统,2012,31
(2):
64-66.
[6]李铁铮,居鹤华.基于栅格空间的移动机器人快速路径规划方法[J].计算机测量与控制,2012,20
(1):
164-166.
[7]闫飞,庄严,王伟.移动机器人基于多传感器信息融合的室外场景理解[J].控制理论与应用,2011,28(8):
1093-1098.
[8]卜弘毅,甘业兵,侯庭波.移动机器人视觉控制系统[J].计算技术与自动化,2004,23
(2):
8-11.
[9]凌云峰.移动机器人全景视觉应用研究[D].哈尔滨,哈尔滨工程大学,2007:
15-20.
[10]郭子健.基于视觉传感器的移动机器人位姿估计[D].北京,北方工业大学,2010:
30-35.
[11]QIANWei-xing,ZHUXin-hua,SUYan.Personalnavigationmethodbasedonfoot-mountedMEMSinertial/magneticmeasurementunit[J].JournalofChineseInertialTechnology,2012,20(5):
567-572.
[12]钱伟行,朱欣华,苏岩.基于足部微惯性/地磁测量组件的个人导航方法[J].中国惯性技术学报,2012,20(5):
567-572.
[13]谷岳,祖丽楠,杨鹏,等.移动机器人三维空间听觉定位系统设计[J].计算机仿真,2011,28(9):
195-198.
[14]贺宁,杨建华,陈立伟,等.主动嗅觉轮式移动机器人的系统设计及定位方法研究[J].机械科学与技术,2013,32
(2):
285-288.
[15]王殿君.基于WRV的室内移动机器人定位系统[J].清华大学学报,2011,
51(12):
1849-1894.
[16]SkogI,HandelP,NilssonJO,etal.Zero-velocitydetection—analgorithmevaluation[J].IEEETrans.OnBiomedicalEngineering,2010,57(11):
2657-2666.
[17]钱伟行,彭晨,田恩刚,等.基于导航信息双向融合的行人/移动机器人协同导航方法[J].中国惯性技术学报,2014,22
(1):
74-78.
[18]罗元,邵帅,张毅.基于信息融合的移动机器人定位与路径规划[J].计算机应用,2010,30(11):
3091-3094.
[19]顾新艳.数字滤波器在移动机器人超声信息融合中的应用[J].南京师范大学学报,2011,11(3):
18-22.
[20]SkogI,HandelP,NilssonJO,etal.Zero-velocitydetection—analgorithmevaluation[J].IEEETrans.OnBiomedicalEngineering,2010,57(11):
2657-2666.
[21]付梦印,杨毅,朱昊,等.移动机器人组合感知系统及其配准方法改进[J].兵工学报,2011,32(6):
712-719.
[222]王东署,王佳.未知环境中移动机器人环境感知技术研究综述[J].机床与液压,2013,41(15):
187-191.
[23]LUYong-jin,ZHANGXue-ning,WANGLiang.Methodofhuman-machinecouplingonoperationsignals[J].JournalofSystemSimulation,2008,20(16):
4360-4367.
[24]杜钊君,吴怀宇.基于激光测距与双目视觉信息融合的移动机器人SLAM研究[J].计算机测量与控制.2013,21
(1):
180-183.
[25]OlsenBD,HooverA.CalibratingacameranetworkusingaDomino
grid[J].PatternRecognition,2001,34(5):
1105−1117.
[26]HYUN-JOEONGL,MOONSIKK,MINCHEOLL.TechniquetoCorrecttheLocalizationErroroftheMobileRobotPositioningSystemUsinganRFID[C],SICE,AnnualConference,2007:
1506-1511.
[27]鲍庆勇,李舜酩,沈峘,等.基于行为融合的移动机器人自主避障算法[J].传感器与微系统,2010,29(5):
70-74.
[28]张学习,杨宜民.基于多传感器信息融合的移动机器人快速精确自定位[J].控制理论与应用,2011,28(3):
443-448.
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器人 感知