您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 信息化管理 > 基于图像的直接视觉伺服控制器设计与仿真
第19卷第22期系统仿真学报©Vol.19No.222007年11月JournalofSystemSimulationNov.,2007•5214•基于图像的直接视觉伺服控制器设计与仿真武波,李惠光(燕山大学电气工程学院,河北秦皇岛066004)摘要:对于手眼机器人视觉伺服,考虑机器人的运动学及动力学特性,在物体的深度未知及机器人的基坐标系与物体的坐标系之间的相似变换矩阵未定标的情况下,设计了直接视觉伺服控制器,利用自适应算法对深度及上述相似变换矩阵的参数进行在线估计,实现了基于图像误差的定位控制,在系统的工作空间范围内,闭环系统是渐近可稳定的。该方法不需要物体的几何模型及深度的精确值,仿真结果验证了其有效性。关键词:视觉伺服;稳定性;相似变换矩阵估计;自适应深度估计中图分类号:TP242文献标识码:A文章编号:1004-731X(2007)22-5214-05Image-BasedDirectVisualServoControllerDesignandSimulationWUBo,LIHui-guang(InstituteofElectricalEngineering,YanshanUniversity,Qinhuangdao066004,China)Abstract:Consideringrobotkinematicsanddynamicsforvisualservoingwitheye-in-handconfiguration,adirectvisualservocontrollerwasproposedtoregulateasetoffeaturepointsintheimageplanetodesiredpositionsinthecaseofunknownobjectdepthandthehomogeneoustransformationmatrixbetweentherobotframeandtheobjectframe.Oneadaptivealgorithmwasdesignedtoestimatethedepthofselectedfeaturesoftheobjectandanothertoestimatetheunknownhomogeneoustransformationmatrixon-line.ByinvokingLyapunovdirectmethod,itisprovedthattheoverallclosed-loopsystemislocallystable.Themethoddoesnotneedknowledgeofgeometricalthree-dimensionalmodeloftheobject.Asimulationiscarriedouttoshowitsvalidity.Keywords:visualservoing;stability;homogeneousmatrixestimation;adaptivedepthestimation引言手眼机器人伺服视觉系统的研究近几年来受到控制与机器人界的广泛的关注。粗略地讲,手眼机器人伺服视觉系统的主要任务就是利用物体的某一视觉特征的当前位置的视觉信息及期望位置的视觉信息控制摄像机(安装在机器人的末端执行器上)如何由初始位置运动到期望位置[1]。依据误差信号的不同,视觉伺服控制分为基于位置的[2]、基于图像的[3-4,6]及基于位置和图像的混合控制[5],基于图像的控制方式对系统的标定误差不敏感,具有更高的定位精度,因此,为多数的视觉系统所采用。文[5]充分考虑基于位置的及基于图像的各自的优点,把两者结合起来,给出了系统全局渐近可稳定性的条件,文[7]通过构造旋转和平移轨迹的方法,实现平移与旋转的分离控制,系统是大范围内全局渐近可稳定的。但,上述论文在控制器设计中均没有考虑非线性机器人的动力学特性,在高速任务、直接驱动机器人执行机构等的情况下,这些控制显然是不满足要求的。考虑机器人的动态特性及其中的不确定参数,基于视觉反馈,文[8]设计了定位自适应控制器,但是,该文考虑物体的深度是假设已知的情收稿日期:2006-09-07修回日期:2006-12-25基金项目:国家自然科学基金资助项目(50575193)作者简介:武波(1968-),男,河北省怀来县人,博士生,讲师,研究方向为视觉伺服;李惠光(1947-),男,黑龙江省齐齐哈尔市,硕士,博导,研究方向为采样理论、视觉伺服。况。文[9]讨论了六自由度机器人轨迹跟踪问题,但该文没有证明系统的稳定性,也没有考律机器人的动力学。基于视觉反馈,考虑机器人的动态特性,在物体的深度未知及机器人的基坐标系与物体的坐标系之间的相似变换矩阵未定标的情况下,本文设计了定位控制器(设定点调节),给出了深度自适应控制规律,及上述相似变换矩阵的参数估计律,这样,大大地简化了机器手-视觉工作空间的执行过程,同时由于考虑了机器人的动态特性,我们能够确定机器人的工作空间(关节角度的范围),从而能够保证物体始终处于摄像机的视域之内,在物体深度未知及前述相似变换矩阵预先定标未知的情况下,本控制器很有意义。1机器人系统坐标系的建立如图1所示,为机器人的工作空间,其中包括机器人的基座坐标系B、末端执行器的坐标系E、摄像机坐标系C、物体的坐标系O,以44OB×∈ℜT代表基座坐标系B相对于物体坐标系O的相似转换矩阵,01OB⎡⎤=⎢⎥⎣⎦RPT其中,33×∈ℜR表示基座坐标系B相对于物体坐标系O的旋转矩阵,∈ℜ3P为它们的原点相对位置。多数情况下,OBT必须在任务执行前标定,这样的标定精度会影响控制性能,为了得到比较高的精度的OBT,我们为此必须要做较多的努第19卷第22期Vol.19No.222007年11月武波,等:基于图像的直接视觉伺服控制器设计与仿真Nov.,2007•5215•力,而且当物体是运动的时,这种标定通常是不可能的,为此,本文设计了控制器能够在线估计OBT。TheobjectframeoxoyozcxczcyexezeyxyzoBTBOCEBExocxBCxTherobotbaseframeThecameraframeTheend-effectorframe图1机器人视觉伺服系统组成示意图2机器人运动学、动力学及视觉伺服系统方程的建立以BEx、BCx、OCx表示末端执行器相对于基座、摄像机相对于基座、摄像机相对于物体的位置和姿态,以33e×∈ℜR及3e∈ℜt表示末端执行器相对于摄像机的的旋转和平移,则有BBCeE=xWx(1)其中,330[]eeeee××⎡⎤=⎢⎥⎣⎦RWtRR,[]3231210()()()0()()()0eeeeeeetttttt×−⎡⎤⎢⎥=−⎢⎥−⎢⎥⎣⎦t为斜对称矩阵。以q代表机器人的关节角度向量,()fq为机器人的前向运动学方程,我们有()BE=xfq(2)则对上式微分得()BE=xJqq(3)其中,BEx为末端执行器相对于机器人基坐标系的速度,()Jq为几何雅可比矩阵,q为关节速度。而OCx可以由下式计算123456(,,,)bcbcOCbcbbbcccxxxxxx⎡⎤⎡⎤⎢⎥⎢⎥+⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦⎢⎥⎢⎥⎣⎦pRxRϕ(4)其中456(,,,)bbbcccxxxRϕ是非线性向量函数,对上式微分得00OBTBCCC⎡⎤==⎢⎥⎣⎦RxxAxR(5)OCx表示摄像机与物体之间的相对的速度,它包括平移和旋转速度,即[]OTTTC=xvΩ,把(1)和(3)代入上式,得()OTCe=xAWJqq(6)我们假设()Jq是方阵且非奇异,则它的逆矩阵存在,所以有11()eC−−=OqJqWAx(7)注意到矩阵A由旋转矩阵R确定,而在定标不能实现的情况下,R是我们需要估计的。定义1重新安排旋转矩阵R的元素为一个9×1的向量Θ,对任何6×1的向量x,乘积Ax可以表示为如下线性形式()=AxYxΘ(8)其中,()Yx是一个69×的矩阵,它的元素不依赖于旋转矩阵。利用(8)式可以在线估计旋转矩阵R。在关节空间中具有旋转关节的机器人的动态特性为(,)1()(()(,))()2+++=CqqHqqHqSqqqGq τ(9)其中q是n×1的关节位置向量,τ是n×1的机器人的关节输入力矩向量,()Hq是n×n的对称且正定的惯性矩阵,(,)Cqq是n×1的非线性离心和科里奥力矩向量,(,)Sqq可以选择一个合适的斜对称矩阵,()Gq是n×1的重力矩向量。我们选取物体上的一些特征点的图像作为视觉特征,这些点的视觉特征是经过计算机图像处理后并被抽取出来的。假定物体是静止的,摄像机的内参数已知,且物体的各特征点的深度大于零。根据文献[6],物体的图像平面点[]Tiiixy=m的光流与摄像机的速度OCx之间有如下关系(,)OiiiiCZ=mJmx(10)其中,(,)[()()]iiiiiiiiZθ=JmAmBm为图像雅可比矩阵,iZ为深度,1/iiZθ=,f为摄像机的焦距,()iiAm、()iiBm分别为0()0iiiifxfy−⎡⎤=⎢⎥−⎣⎦Am2222()()iiiiiiiiiixyxfyffyfxyxff−+⎡⎤⎢⎥⎢⎥=+−⎢⎥−⎢⎥⎣⎦Bm因此,由物体上的N个特征点构成的视觉伺服系统状态方程如下(,)[()()]OOCC==mJmZxAmBmxθ(11)其中12[]TTTTN=mmmm1122{,,,,}NNdiagθθθθθθ=θ11223312(,)[(,)(,)(,)]TTTTNZZZ=JmZJmJmJm1212()[()()()]TTTTNN=AmAmAmAm1212()[()()()]TTTTNN=BmBmBmBm假设物体特征点在摄像机成像平面坐标系中的期望位置图像为*m,则视觉伺服就是控制机器人末端执行器(摄像机)实时移动(平移和旋转)昀终使*0ii−=mm3控制器设计首先对视觉伺服控制器COx的设计根据(11)式,由于变结构控制系统快速性好、无超调、计算量小、实时性强,并且控制器设计时对系统内部的耦合不必做专门的解耦,很适合于机器人的控制,所以本文也采用变结构控制理论来设计COx。我们选取切换流形*()()0=−=SmCmm(12)其中1112212212{,,,,}NNdiagcccccc=C,12(,)iiidiagcc=c,第19卷第22期Vol.19No.222007年11月系统仿真学报Nov.,2007•5216•10ic,20ic,1iN=。当系统进入滑动模运动后,由于系统的状态轨线保持在其上面,即满足()0=Sm,从而满足0=S。于是系统在切换流形上应满足下列方程0==SCm(13)我们引进到达律sgn()=−−SWSKS(14)其中,1112212212{,,,,}NNdiagkkkkkk=K,12(,)iiidiagkk=k,10ik,20ik,1112212212{,,,,}NNdiag=W,12(,)iiidiagww=w,10iw,20iw,1iN=,通过适当地选取到达律的参数,可以保证系统在期望的时间内到达切换流形,实现滑动模运动,从而使摄像机由初始位置向期望位置运动的时间可控,由(10)、(14)、我们有[()()]sgn()C=−−OCAmBmxWSKSθ(15)上式又可写为()()sgn()+=−−CmvCBmWSKSθΑΩ(16)由于深度iZ不易精确得到,我们用其估计形式iZ∧来代替,则ˆˆ1/iiZθ=,用ˆθ代替θ,我们得到分别含有平移速度和旋转速度的两个表达式如下ˆ()(sgn())ζ=−−CAmvWSKSθ(17)()(1)(sgn())ζ=−−−CBmWSKSΩ(18)其中,10ζ为常数,那么我们有视觉伺服的变结构控制规律,也即摄像机与物体之间的相对速度为1([()()])(sgn())Cpinv∧−=−+OxAmBmCWSKSθ(19)其次设计机器人直接驱动控制器。在深度估计已知,COx已知的情况下,假设
本文标题:基于图像的直接视觉伺服控制器设计与仿真
链接地址:https://www.777doc.com/doc-4031600 .html