近年来,随着智能机器人视觉跟踪领域的飞速发展,使得传统静态的目标跟踪方式,已无法满足需要,因而如何实现机器人运动目标跟踪一时间备受青睐[1]。一方面,当前较流行的机器人运动目标跟踪方法,虽在机器人领域取得了一定成果,但移动机器人运动在障碍物下的运动目标跟踪过程中存在一些问题。通常的目标跟踪算法都是基于像素的全局搜索,然而该方法计算量大,耗时满足不了移动机器人控制的实时性要求,并且其易受到背景中相似特征物体的干扰。
王立玲等[2]提出了基于改进Camshift算法的运动目标跟踪方法,但是该方法在有障碍物干扰时,NAO机器人运动目标跟踪精度下降。李欣等[3]提出了基于ECO-HC改进的运动目标跟踪方法,该方法虽然成功实现了机器人对运动目标的跟踪,但是存在误差偏移量较大、不稳定等问题。上述2种方法在跟踪目标时,易受背景中干扰因素的影响,导致运动目标跟踪精度下降[4-5]。
为了改变这种现状,本文提出基于点云分割的移动机器人运动目标跟踪方法,该方法以移动机器人为研究对象,对运动目标的坐标等点云数据进行采集和出力,降低了运动目标跟踪过程中的误差偏移量,提高了机器人在运动目标跟踪中的稳定性,更适应实际需求。
2.1.1 点云数据采集
考虑移动机器人采集图像中的目标存在随机性,因此,在采集点云数据过程中,为避免测量误差,采用非接触设备采集点云数据。具体采集过程为:
将非接触扫描设备与电源、计算机相连接,开启数据识别与处理功能;设立图像中被采集目标的参照目标,启动扫描设备的识别功能,构建三维坐标系;在固定范围内,对采集目标并描绘为三维图形;经过多次变换后,重新获取当前坐标,同时合并数据空间;平移、旋转、缩放获取的点云信息。
2.1.2 点云数据合并
移动机器人在实际采集过程中,由于环境的复杂性,会受到目标表面特征、设备转角等因素影响,需通过不断的变换获取更加全面的目标信息。而每次变换均会生成一个单独的数据,为保证数据的完整性,本文通过建立靶标世界坐标系,实现点云数据合并。基于场景三维点云、世界坐标系具有相同空间尺度,建立靶标世界坐标系,可在世界坐标系确定跟踪目标的空间区域,达到对映到世界坐标系里的点云进行分割的目的[6-7]。
相机坐标系里的点云用pc(xc,yc,zc)代表,世界坐标系里的点云用pw(xw,yw,zw)代表,根据像素p(u,v)投射到世界坐标系的点在像素坐标系中的齐次坐标与在世界坐标系里的关系,可得到式(1):
(1)
应用补偿方法校正靶标坐标系对比世界坐标所产生的偏移状况,若用Δz、Δx与Δy分别代表靶标厚度、世界坐标原点在待测区域X轴、与Y轴的偏移量,用代表补偿偏移量,式(1)可表示为
(2)
式中: pwl(Xwl,Ywl,Zwl)表示偏移补偿后的点云坐标;E3×3表示单位矩阵;在靶标坐标系中,Vroi表示目标区域,Vroi可通过手动测量获得,也可以通过目标物模型求解。
2.1.3 点云数据处理
想要获得场景分割目标点云可将鸟瞰视角作为观测的角度观测点云,突出目标、从目标点云获得更多信息[8-9];通过中值滤波方法确定目标阈值范围后对图像进行还原[10-11]。
结合相关性理论与滤波技术,将所有点的p(u,v)坐标作为图像灰度值,针对点云数据做选择性滤波处理:
变换到场景点云俯视角时,通过式(1)得到的世界坐标系点云pwl(Xwl,Ywl,Zwl)变为转换视角后的点云p(xu,yu,zu)满足:
(3)
(4)
(5)
其中:分别表示转换视角的滤波中值、噪声点、信号点矩阵。结合该阈值对点云的高度值与中值之间的差进行判断,若得到的结果大于此阈值,将该点定义为噪声点,使用中值替代此点;反之,将该点定义成信号点,可直接进行滤波处理。若阈值设置太小会出现误判现象,导致信号点损失较多;而阈值过大,则会出现漏判,影响处理效果。经过有效的信噪分离,最大程度过滤噪声,保存更多点云数据细节特征。
以2.1小节获取的点云数据处理为基础,采用距离函数加权方法,依据移动机器人与目标间的距离,通过视觉伺服和声呐伺服混合导航方式实现运动目标跟踪。
2.2.1 视觉目标差控制
当运动目标在分割到的空间区域内,由位置Cr={xc,yc,zc}向位置Dr={xD,yD,zD}运动时,在图像平面的投影相应地从位置C={uc,υc}向位置D={uD,υD}运动。(uD-uc,υD-υc)是图像平面上的目标位置差,是移动机器人运动状态,若想实现目标投影从位置D={uD,υD}向位置C={uc,υc}运动,可通过(uD-uc,υD-υc)对调整。
在图像平面,用比例控制方法实现对当前点与目标点的控制,用代表当前点、目标点之间的图形偏差,代表偏差动力学,通过接近目标,当比例增益k>0时,比例控制器的设计可用式(10)表示:
(6)
式中: 机器人坐标系、图像坐标系间的转换矩阵用M代表且满足:
(7)
延伸到像素平面控制策略可表示为
(8)
2.2.2 目标跟踪
通过距离函数加权可融合决策层的传感器的信息,移动机器人与目标间的距离大、小、脱离视觉传感器时相对应措施是:采用视觉导航、强化声纳信息权系数、只依靠声纳导航[15]。而单独使用视觉导航跟踪移动机器人目标时,存在对使用环境要求较高,受运行场地信息和面积的影响,导致目标跟踪时间精度都有所下降,声纳导航多用于水下目标跟踪,其在跟踪移动机器人时同样存在受外界干扰因素较强的影响,导致目标跟踪精度有所下降[16-17]。为此本文通过视觉伺服和声呐伺服混合导航方式实现运动目标跟踪。
距离函数Ri可表示为
(9)
式(9)中:Δi表示移动机器人、目标的水平距离; Δr、Δs表示按任务需求量应用不同跟踪方法的范围边界。移动机器人与目标间的距离大时,Δi>Δs时,Ri=1。移动机器人按高速υs通过视觉伺服跟踪方法跟踪运动目标,目标当前位置、跟踪位置间的水平像素差决定用ω代表的角速度,曲率表示为
ρ=[-λ(ud-uc)-jυυs]/jωυs
(10)
式中: (ud-uc)表示目标在图像平面的投影水平坐标差,jυ与jω表示移动机器人行为控制输入的特征描述子横坐标的雅可比矩阵量。jω=M12,jυ=M11,用M代表移动机器人坐标系得到图像坐标系的转换矩阵,满足:
(11)
移动机器人与目标间的距离较小时,Δi<Δs,Ri=0。移动机器人按低速υr通过声纳跟踪方法跟踪运动目标,局部网格中的目标位置夹角、移动机器人前进方向决定用角速度ω,此时的曲率ρ满足ρ=ρi:
(12)
Δr<Δi<Δs时,0<Ri<1。移动机器人按距离系数Ri加权对视觉、声纳2种方法进行平滑过渡,通过视觉、声纳混合跟踪运动目标:
(13)
移动机器人不断接近运动目标,如果要使速度(υ,ω)从(υs,ωs)到(υr,ωr)平滑过渡,则Ri要求从0到1平滑过渡。得到最终局部规划控制策略:
(14)
υs在移动机器人直行时值较大,转向时值较小。故υs可表示为
υs(ω)=υmin+(υmax-υmin)(1+tanh(π-kω|ω|))
(15)
综合考虑移动机器人运动性能、柔顺性可通过式(19)实现。移动机器人移动时最大最小速度分别用υmax、υmin代表,kω满足kω=12。
在面积为80 m2的实验室内,以移动机器人Pioneer-3DX为实验对象对运动目标进行跟踪。设置机器人的最高速度为200 m/s,最高角速度为10 (°)/s,将摄像头安装在机器人上方每隔3 s对图像进行一次采集。
表1为应用本文方法与文献[2]基于改进Camshift算法的运动目标跟踪方法、文献[3]基于ECO-HC改进的运动目标跟踪方法在第1帧、200帧、400帧、600帧条件下对点云数为30 700的图像进行分割后的点云数目记录表。
表1 3种方法分割后点云数目记录表
Table 1 Table of point cloud number records after three methods
帧数本文方法文献[2]方法文献[3]方法1194 136165 660153 840200122 856111 004153 803400136 238124 189154 083600193 572173 141154 872
利用表1所示的3种方法分割后的样本数据,统计3种方法在不同分割比率下的点云分割均方根误差,结果见图1。
图1 点云分割均方根误差曲线
Fig.1 Point cloud segmentation RMS error change map
从图1可以看出,在相同分割比率下,应用本文方法进行点云分割的均方根误差变化曲线始终低于文献[2]方法、文献[3]方法,且曲线比较平缓。说明在相同分割比率下,应用本文方法的点云分割误差更小,更适应实际需求。
图2表示了应用本文方法得到的4种角速度下的运动目标距离精确度,该指标通过4种角速度下距离系数Ri的变化情况反映,距离系数Ri越大,跟踪精度越低。
从图2分析可得,在角速度值为6 (°)/s、8 (°)/s时,应用本文方法的距离系数Ri最小,得到的运动目标跟踪的距离精确度要高于角速度为4 (°)/s、10 (°)/s时的运动目标跟踪距离精确度,且在中心距离偏差为9像素时就达到了最高值。说明移动机器人在进行运动目标跟踪时,采用角速度6 (°)/s、8 (°)/s时具有较好的运动目标跟踪效果。
图2 运动目标距离精确度曲线
Fig.2 Moving target distance accuracy
图3是应用本文方法得到的4种角速度下的中心距离误差。从图3可以看出,在角速度值为6 (°)/s、8 (°)/s时,应用本文方法得到的运动目标跟踪的中心距离误差要低于角速度为4 (°)/s、10 (°)/s时的运动目标跟踪中心距离误差,且在中心距离误差曲线无较大波动,目标跟踪稳定。
图3 中心距离误差
Fig.3 Center distance error
图4表示了机器人在无障碍物与有障碍物时的目标跟踪区域。
图4 目标跟踪区域示意图
Fig.4 Target tracking area
图5表示了应用本文方法与文献[2-3]方法对图4中的目标跟踪区域进行240次实验,得到的目标跟踪区域的误差偏移量。
图5 目标跟踪误差偏移量曲线
Fig.5 Target tracking error offset
从图5可以看出,在相同实验次数下,无论在有障碍或者无障碍情况下,应用本文方法得到的目标跟踪偏移曲线始终低于文献[2-3]方法,且应用本文方法得到的目标跟踪偏移曲线变化较平缓,无大幅度波动,而文献[2]方法、文献[3]方法的目标跟踪偏移曲线波动较大。说明应用本文方法对目标进行跟踪的稳定性更强,误差更小。
本文基于点云分割确定运动目标区域,运用混合伺服跟踪方法在确定区域过程中实现了移动机器人对运动目标的跟踪。并得出了以下结论:
验证了该方法完成跟踪任务的可行性与有效性,其运动目标跟踪的距离精确度要高于其他运动目标跟踪方法,在中心距离偏差为9像素时达到了运动目标跟踪距离精确度最高值;并且采用合适的角速度可以降低运动目标跟踪时的中心距离误差。
无论在有障碍或者无障碍情况下,本文方法得到的目标跟踪偏移曲线误差值更低,且曲线变化较平缓,无大幅度波动;但是,移动机器人跟踪目标单一,无法验证多目标跟踪时运用本文方法是否同样优于其他运动目标跟踪方法,下一步将从移动机器人多目标跟踪方向进行研究。
[1] 陈国军,陈巍,郁汉琪.基于深度学习的单目视觉水下机器人目标跟踪方法研究[J].机床与液压,2019,497(23):88-91.
Chen G J,Chen W,Yu H Q.Research on monocular vision target tracking method for underwater robot based on deep learning[J].Machine Tool & Hydraulics,2019,497(23):88-91.
[2] 王立玲,单忠宇,马东,等.基于改进Camshift算法的NAO机器人目标跟踪[J].半导体光电,2020,212(06):143-148,153.
Wang L L,Shan Z Y,Ma D,et al.NAO robot target tracking based on improved Camshift algorithm[J].Semiconductor Optoelectronics,2020,212(06):143-148,153.
[3] 李欣,周婧琳,厚佳琪,等.基于ECO-HC改进的运动目标跟踪方法研究[J].南京大学学报(自然科学),2020,251(02):63-73.
Li X,Zhou J L,Hou J Q,et al.Research on improved moving object tracking method based on ECO-HC[J].Journal of Nanjing University(Natural Science),2020,251(02):63-73.
[4] 陈丹,姚伯羽,吴欣.基于ROS的移动机器人核相关目标跟踪方法的优化设计[J].计算机辅助设计与图形学学报,2020,32(12):100-108.
Chen D,Yao B Y,Wu X.Optimal design of kernal correlation filtering target tracking method for mobile robot based on ROS[J].Journal of Computer-Aided Design & Computer Graphics,2020,32(12):100-108.
[5] 陈甦欣,魏前龙,王正阳,等.基于视觉的运动目标跟踪抓取和装配研究[J].机床与液压,2018,46(03):12-15.
Chen S X,Wei Q L,Wang Z Y,et al.Research on tracking moving object for grasping and assembly based on vision[J].Machine Tool & Hydraulics,2018,46(03):12-15.
[6] 黄晶,李勇,胡林.基于数据关联和改进统计模型的激光雷达目标跟踪研究[J].汽车工程,2018,40(03):356-362.
Huang J,Li Y,Hu L.A Research on target tracking by LIDAR based on data association and improved statistical model[J].Automotive Engineering,2018,40(03):356-362.
[7] 邢凯,李彬华,陶勇,等.基于FPGA的运动目标实时检测跟踪算法及其实现技术[J].光学技术,2020,262(02):32-40.
Xing K,Li B H,Tao Y,et al.Real-time detection and tracking algorithm of moving target based on FPGA and its implementation technology[J].Optical Technique,2020,262(02):32-40.
[8] 余铎,王耀南,毛建旭,等.基于视觉的移动机器人目标跟踪方法[J].仪器仪表学报,2019,40(01):227-235.
Yu D,Wang Y N,Mao J X,et al.Vision-based object tracking method of mobile robot[J].Chinese Journal of Scientific Instrument,2019,40(01):227-235.
[9] 赵斌,王江卓,李建勋.基于TLD的三维单目标跟踪算法[J].电光与控制,2020,27(02):22-28.
Zhao B,Wang J Z,Li J X.A 3D Single-target tracking algorithm based on TLD[J].Electronics Optics & Control,2020,27(02):22-28.
[10] 钱其姝,胡以华,赵楠翔,等.基于激光点云全局特征匹配处理的目标跟踪算法[J].激光与光电子学进展,2020,665(06):157-164.
Qian Q S,Hu Y H,Zhao N X,et al.Object tracking algorithm based on global feature matching processing of laser point cloud[J].Laser & Optoelectronics Progress,2020,665(06):157-164.
[11] 晏晖,胡丙华.基于空间拓扑关系的目标自动跟踪与位姿测量技术[J].中国测试,2019,45(04):9-15.
Yan H,Hu B H.Target automatic tracking and pose measurement technology based on spatial topological relations[J].China measurement & testing technology,2019,45(04):9-15.
[12] 谢柳,尚振宏,刘辉.基于相关滤波融合多特征的运动目标跟踪方法[J].数据采集与处理,2019,34(01):122-134.
Xie L,Shang Z H,Liu H.Object tracking combining multiple features based on correlation filter[J].Journal of Data Acquisition & Processing,2019,34(01):122-134.
[13] 益争祝玛,尚振宏,刘辉,等.基于多特征融合的运动目标跟踪方法[J].仪表技术与传感器,2019,442(11):99-103,108.
Yi Z Z M,Shang Z H,Liu H,et al.Moving target tracking method based on multi-feature fusion[J].Instrument Technique and Sensor,2019,442(11):99-103,108.
[14] 易诗,唐文.基于运动检测与KCF算法的目标跟踪方法[J].电视技术,2018,42(09):70-72,86.
Yi S,Tang W.Target tracking method based on motion detection and KCF algorithm[J].Video Engineering,2018,42(09):70-72,86.
[15] 陆艳,孙锐,王旭.空中视角下基于局部线性判别嵌入的目标跟踪方法[J].电子测量与仪器学报,2018,32(11):95-101.
Lu Y,Sun R,Wang X.Target tracking method based on local linear discriminant embedding in the air view[J].Journal of Electronic Measurement and Instrumentation,2018,32(11):95-101.
[16] 徐海涛,张毅.基于Wigner-Ville分布的移动机器人语音定位中时延估计方法[J].重庆邮电大学学报(自然科学版),2020,32(02):210-216.
Xu H T,Zhang Y.Time delay estimation algorithm based on Wigner-Ville distribution in voice localization of mobile robot[J].Journal of Chongqing University of Posts and Telecommunications(Natural Science Edition),2020,32(02):210-216.
[17] Lu B F,Han J B,Zhang Y W.Simulation analysis and experiment of industrial robot motion control system based on dSPACE[J].Journal of Chongqing Technology and Business University(Natural Science Edition),2021,38(06):50-57.
Citation format:XIE Guokun, ZHANG Peipei, WANG Ningning.Mobile robot moving target tracking method based on point cloud segmentation[J].Journal of Ordnance Equipment Engineering,2022,43(11):225-230.