光学 精密工程  2018, Vol.26 Issue (10): 2504-2515   PDF    
视觉与力觉结合的卫星部件机器人装配
胡瑞钦1,2, 隆昌宇1,2, 张立建1,2     
1. 北京卫星环境工程研究所, 北京 100094;
2. 北京市航天产品智能装配技术与装备工程技术研究中心, 北京 100094
摘要: 针对卫星特殊部件的装配需求,为了使机器人具有适用不同工况的柔性并在卫星多变的装配工况中获得较高的应用效率,本文研究视觉引导与力反馈控制下的机器人装配技术,给出一种视觉与力觉结合的机器人装配方案:在装配孔位安装辅助销钉,通过视觉引导将部件引导至销钉的锥面导向范围内,而后在销钉导向下对机器人采用力反馈控制,实现工件的准确装配到位。采用红外相机结合合作靶标的方式实现稳定地视觉识别与目标定位,设计了探针式测量工具,并给出测量方法,实现了目标点位的柔性便捷测量。给出了一种已知空间对应点对条件下,求位姿变换矩阵及机器人目标位姿的计算方法。采用力/位混合控制方法实现柔顺销钉导向控制。实验结果表明:装配对应孔位的测量匹配误差在2.9 mm以内,机器人在视觉引导下,可以将工件运送至销钉的导向范围内,并在销钉导向及力反馈控制下将工件准确装配到位,力控制阈值为30 N。证明了本文所采用的技术可以满足卫星部件装配的工程实施要求。
关键词: 视觉伺服      力反馈控制      位姿变换      卫星部件装配      机器人     
Robotic assembly technology for satellite components based on visual and force information
HU Rui-qin1,2 , LONG Chang-yu1,2 , ZHANG Li-jian1,2     
1. Beijing Institute of Spacecraft Environment Engineering, Beijing 100094, China;
2. Beijing Engineering Research Center of Intelligent Assembly Technology and Equipment for Aerospace Product, Beijing 100094, China
*Corresponding author: HU Rui-qin, E-mail:hrqcast@163.com
Abstract: For the assembly requirements of special satellite components, robot assembly technology based on visual guidance and force feedback control was studied. This technology gives the robot flexibility under different working conditions and offers high application efficiency under variable satellite assembly conditions. A robot assembly scheme that combines visual and force information was presented. Auxiliary pins were installed in mounting holes, a component was guided to the taper area of the pin by the robot using a visual guide, and a force feedback control was applied to the robot. The component was then accurately positioned based on the pin guidance. Infrared cameras and cooperative targets were used to achieve stable visual recognition and target positioning. A probe-type measurement tool was designed and measurement methods were developed to achieve flexible and convenient measurements of target points. A method for calculating the pose transformation matrix and target position of a robot was proposed based on known spatial correspondence point pairs and was used to achieve compliant pin guidance control. Experimental results show that the measurement matching error of the corresponding hole was within 2.9 mm. The robot can convey the component to the pin's guiding range through visual guidance, and the component can be accurately assembled in place through pin guidance and force feedback control. The force control threshold was determined to be 30 N. This technology can meet the engineering implementation requirements for satellite component assembly.
Key words: visual guide     force feedback control     pose transformation     satellite component assembly     robot    
1 引言

卫星装配作业通常以人工操作为主,随着卫星集成度不断提高,卫星部件模块化程度也越来越高且卫星总装阶段的大重量部件也越来越多。对于卫星舱外的大重量部件,可以借助天车等工具辅助操作人员完成安装,而对于舱内及特殊位置的大重量部件,由于供人观察、操作的空间有限,且难以使用吊装工具,完成操作可行性低,发生磕碰的风险较高。

工业机器人已在工业装配过程中成熟应用,其承载能力大,工作稳定性好,能够实现大重量部件的平稳、可靠装配。但其通常应用于批量产品的流水线,采用示教再现的工作模式。而卫星装配往往不具有重复性,示教重复的模式不适用。本文针对卫星部件的装配需求,研究视觉引导与力反馈控制下的机器人装配技术,使得机器人具有适用不同工况的柔性,提高其在卫星部件装配中的应用效率。

在机器人视觉伺服方面,按照不同应用需求,可采用不同的相机配置及视觉技术。在相机数量方面,可采用单目[1-2]、双目[3]、多目[4]等相机布置形式;在相机与机器人相对位置方面,可采用Eye-in-Hand[3, 5]和Eye-to-Hand[6-7]的形式;在视觉反馈信息的类型方面,有基于位置的视觉伺服[8]、基于图像的视觉伺服[9-10]和混合视觉伺服等方式[11];在目标特征的获取方面,可采用目标自身特征[12-13]、或采用预定的合作目标[14-15],也可采用CAD模型建立离线3D模板库,采用匹配算法实现目标空间位姿测量[16-17]

对于卫星的视觉引导装配,由于装配对象的尺寸、形式不同,难以定义统一的视觉特征,需借助合作目标使视觉定位可靠高效进行,在此基础上,可采用基于位置的视觉伺服方式完成装配。由于卫星舱内空间有限,采用Eye-in-Hand形式在装配过程中相机与星体易出现干涉,需采用Eye-to-Hand形式,将相机固定于地面。由于单目、双目的相机布置形式视野范围有限,为增强系统使用的灵活性,采用多相机建立大空间范围的测量场。

由于视觉引导误差,引导完成后难以保证部件准确装配到位,存在间隙或应力。因此,在装配界面发生接触后,需采用力反馈控制确保部件准确到位的同时,保证装配界面受力在安全范围内。

在机器人力反馈控制方面,已有较成熟的研究成果,已有方法包括阻抗控制[18-20]、力/位混合控制[21-23]等。阻抗控制是建立机器人末端作用力与其位置偏差之间的动态关系—阻抗模型,通过调节机器人位移或速度而达到控制机器人末端作用力的目的[24]。阻抗控制通常需要已知机器人作业的边界条件,若边界条件不精确或未知会带来较大的力误差[25]。力/位混合控制在适当的垂直作业坐标系中,将自由度分解成控制力的自由度和控制位置的自由度,独立组成跟踪各自目标的伺服系统[26]。对于未知环境,在机器人末端未与环境发生接触时采用位置控制,与环境发生接触时切换至力/位混合控制,适用于工况不重复的卫星装配应用。

本文针对卫星部件装配工况多变的特点,将视觉引导与力反馈控制结合,使用机器人实现部件的自动装配。在装配孔位安装辅助销钉,视觉引导只需将部件引导至销钉的锥面导向范围内,而后部件在靠近安装面的同时采用力反馈控制,实现安装面的贴合及安装孔位的对准,最后将辅助销钉拆除并安装紧固件。视觉方面,使用多个红外相机建立测量场,采用红外靶球组成“刚体”作为位姿测量的目标,并设计了一种探针式测量工具及方法,实现目标点位的便捷测量。力觉方面,采用六维力传感器作为反馈元件,通过重力补偿抵消部件重力的影响,并采用力/位控制方法实现柔顺装配控制。

所采用的方案具有以下优点:

(1) 采用红外相机结合合作目标的方式,视觉识别及定位稳定,不易受外部光照环境干扰,适用于卫星装配多变的工况;

(2) 采用视觉与力觉相结合的方式,视觉只需将部件引导至辅助销钉的导向范围内,降低了对视觉引导的精度要求,系统易于工程化;

(3) 设计探针式测量工具及方法,可实现目标点位的便捷测量,无需在产品上粘贴靶标,从而可避免粘贴靶标对卫星造成附加的损伤、污染及多余物。

2 系统组成及工作原理 2.1 系统组成

机器人装配系统如图 1所示,红外定位相机分布于工作区域周围,可实现单个靶标球的定位,以及多个靶标球组合体(以下简称“刚体”)的位置姿态测量。机器人末端靶标安装在机器人末端,借助该组靶标球进行手眼标定,可将机器人坐标系与视觉系统坐标系建立联系。此外,机器人末端靶标可用于装配过程中的视觉跟踪。手持测量工具用于确定待安装部件上安装孔以及安装面上对应孔的空间位置,进而可确定机器人的运动目标位姿。六维力传感器及销钉用于精对准阶段的力反馈控制引导。

图 1 机器人装配系统原理图 Fig.1 Block diagram of robot assembly system
2.2 工作原理

应用该系统进行部件装配的主要步骤如下:

(1) 架设相机,并标定建立视觉测量场;

(2) 机器人手眼标定,得到机器人坐标系与视觉测量坐标系间的转换关系;

(3) 使用探针式手持测量工具测定部件及安装面上对应孔位,确定机器人运动的目标位姿;

(4) 规划机器人从起始位姿运动至目标位姿的中间路径;

(5) 执行机器人的视觉引导及力反馈控制过程,完成装配。

对于步骤(1)、(4),已有较成熟的应用技术,在本文中不进行叙述。本文重点对步骤(2)、(3)、(5)所采用的技术进行叙述,即机器人手眼标定、探针式测量工具的标定及使用、机器人目标位姿的确定、销钉导向下的机器人力反馈控制等几方面内容。

3 系统关键算法 3.1 机器人手眼标定

机器人手眼标定示意图如图 2所示。定义机器人基坐标系为OB-XBYBZB,工具坐标系为OT-XTYTZT,将机器人末端靶球的组合体定义为一“刚体”,刚体坐标系为Oe-XeYeZe。坐标系Oe-XeYeZe相对于视觉坐标系Ow-XwYwZw的姿态变换矩阵ewR和平移矩阵ewT可以通过视觉测量系统直接得到。

图 2 机器人手眼标定示意图 Fig.2 Framework of hand-eye calibration

记机器人末端一点P在视觉坐标系Ow-XwYwZw中的坐标为(xwywzw),在刚体坐标系Oe-XeYeZe中的坐标为(xeyeze),在机器人基坐标系OB-XBYBZB中的坐标为(xByBzB),在机器人工具坐标系OT-XTYTZT下的坐标为(xTyTzT)。

Oe-XeYeZe相对于OT-XTYTZT的旋转矩阵为eTR,平移矩阵为eTT,有:

(1)

OT-XTYTZT相对于OB-XBYBZB的旋转矩阵为TBR,平移矩阵为TBT,有:

(2)

结合式(1)、(2),点P在机器人基坐标系下的坐标为:

(3)

OB-XBYBZB相对Ow-XwYwZw的旋转矩阵为BwR,平移矩阵为BwT,点P在视觉坐标系下的坐标为:

(4)

坐标系Oe-XeYeZe相对视觉坐标系Ow-XwYwZw的姿态变换矩阵ewR和平移矩阵ewT可通过视觉测量系统直接得到,则点P在视觉坐标系的坐标也可表示为:

(5)

结合式(4)、(5)得到:

(6)

即:

(7)

其中:A是机器人基坐标系向测量坐标系的位姿转换矩阵,为常量;B是机器人自身工具坐标系向基坐标系的位姿转换矩阵,可通过机器人自身控制系统得到,为已知量;C是刚体坐标系向机器人工具坐标系的位姿转换矩阵,为常量;D是刚体坐标系向测量坐标系的位姿转换矩阵,由视觉测量系统直接得到,为已知量。

假设机器人末端刚体在机器人带动下运动,在运动前后测量2次得到两组矩阵,B1B2D1D2,由式(7)有:

(8)

消去矩阵A可得到:

(9)

变换可得到:

(10)

令:

(11)

代入式(10)有:

(12)

式(12)为形如“AX=XB”的求解问题,已有较成熟的求解方法[27]。手眼标定中机器人至少进行2组旋转轴不平行的运动,按照式(12)得到方程组,可求得矩阵C,即得到Oe-XeYeZe相对OT-XTYTZT的旋转矩阵为eTR及平移向量为eTT,再由式(6)可以得到机器人基坐标系OB-XBYBZB相对于测量坐标系Ow-XwYwZw的旋转矩阵BwR和平移向量BwT

3.2 探针式测量工具的标定及使用

探针式测量工具使用示意图如图 3所示,将测量工具上多个靶球的组合体定义为一“刚体”,并建立刚体的自身坐标系Om-XmYmZm,“刚体”坐标系Om-XmYmZm在测量系统Ow-XwYwZw中位姿信息可直接通过测量系统得到,若已知测量点Pm在“刚体”坐标系Om-XmYmZm中的坐标,则可以换算得到PmOw-XwYwZw中的位置信息,将测量点置于待测位置处,即可得到该位置在Ow-XwYwZw中的坐标,即实现了对目标位置的“探针”式测量。

图 3 探针式测量工具使用示意图 Fig.3 Framework of measure probe

探针式测量中,需要已知Pm在“刚体”坐标系Om-XmYmZm中的坐标,这需要预先对测量工具进行标定。本文给出一种探针式测量工具的标定方法,如图 4所示,将测量点Pm置于一固定位置,并绕该点转动测量工具,同时间隔采集标定工具“刚体”的位姿信息。

图 4 探针式测量工具标定示意图 Fig.4 Framework of calibration for measure probe

Pm在刚体坐标系Om-XmYmZm中的坐标记为:

(13)

Pm在测量坐标系Ow-XwYwZw中的坐标记为:

(14)

已知Om-XmYmZm相对于Ow-XwYwZw的姿态变换矩阵为mwR,平移向量为mwT,则有:

(15)

图 4所示,测量工具处于2个不同姿态时,可以有:

(16)

由于标定工具绕测量点Pm旋转,Pm自身的位置没有改变,因此可得到:

(17)

即:

(18)

令:

(19)

则:

(20)

若将标定工具的角度改变N次,可以获得N组不同的DRDT,由式(20)可得:

(21)

即:

(22)
(23)

至此便求得Pm在“刚体”坐标系Om-XmYmZm中的坐标,完成了对标定工具的标定。在标定工具已经标定的情况下,可由式(15)获得被测点坐标。

3.3 机器人目标位姿的确定 3.3.1 空间对应点位的坐标系变换问题

研究中将待安装工件上的孔位及安装面上的对应孔位作为测量点,使用测量工具进行探针式测量,可得到待安装工件上一组安装孔位在机器人末端刚体坐标系的坐标[P1P2Pn],相应的可得到安装面上的对应孔位在机器人末端刚体坐标系的坐标为[P1P2′… Pn′],如图 5所示。

图 5 空间对应孔位位姿匹配示意图 Fig.5 Framework of coupling for corresponding holes

定义OP1为点组[P1 P2Pn]的重心位置,OP2为点组[P1P2′… Pn′]的重心位置,则:

(24)

OP1OP2为原点建立坐标系,坐标轴方向与机器人末端刚体坐标系相同,则两组点各自重心坐标系下的坐标为:

(25)

机器人运动至目标位姿后,工件与安装面上的对应点重合。为此,提出坐标系变换问题:坐标系OP1绕向量v旋转角度θ,再按向量T平移,得到坐标系OP3,要求点组[P1P2′… Pn′]在坐标系OP3下的坐标与点组[P1 P2Pn]在坐标系OP1下的坐标相同。在此条件下求旋转向量v、旋转角度θ及平移向量T

易知由坐标系OP3向坐标系OP1的平移变换向量为:

(26)

下面给出由PO1PO2求出旋转向量v及旋转角度θ的方法。

3.3.2 空间对应点位的旋转变换求解算法

现有问题:已知在同一坐标系O下的两组对应点坐标P=[p1, p2, …pn],Q=[q1, q2, …qn]。坐标系O绕向量v旋转角度θ后,得到坐标系O2,要求点组Q在坐标系O2下的坐标与点组P在坐标系O下的坐标一致,求旋转向量v及旋转角度θ

图 6 坐标系旋转示意图 Fig.6 Framework of coordinates rotation

对于点组PQ中的对应点piqi,令:

(27)

piqi与旋转向量v必然垂直,即:

(28)

对于PQ中所有的点对,上式均成立:

(29)

即:

(30)

上式中已知矩阵N,需要求出v使得‖Nv‖最小,对矩阵N使用SVD分解,得到最小奇异值对应的特征向量即为v,求得的v为单位向量。

对于点组PQ中的对应点piqi,二者连线piqi与旋转轴线的距离为:

(31)

则旋转角度θ为:

(32)

则代表点组PQ旋转变换的四元数为:

(33)

则由坐标系O2向坐标系O的旋转矩阵R为:

(34)
3.3.3 机器人目标位姿求解算法

按照上述算法,可求得坐标系OP3向坐标系OP1的平移向量T,及旋转矩阵R。机器人在当前起始位置时,机器人末端刚体坐标系Oe-XeYeZe相对于测量坐标系的旋转矩阵及平移向量分别用ewRewT表示;待安装工件运动至目标位置时,对应的旋转矩阵及平移向量分别用ewR′和ewT′表示,存在以下关系:

(35)

由上式可求得ewR′和ewT。待安装工件运动至目标位置时,机器人工具坐标系OT-XTYTZT相对于基坐标系OB-XBYBZB的旋转矩阵及平移向量用TBR′和TBT′表示,则:

(36)

由上式结合已知量可求得TBR′和TBT′。

机器人工具坐标系OT-XTYTZT可由基坐标系OB-XBYBZBZB轴旋转角度A,再绕YB轴旋转角度B,最后绕XB轴旋转角度C得到,则由OT-XTYTZTOB-XBYBZB的姿态转换矩阵为:

(37)

其中:

(38)
(39)
(40)

机器人达到目标位姿时有:

(41)

即:

(42)

可求得:

(43)

式(43)得到了机器人末端的欧拉角参数,末端位置参数为:

(44)

式(43)、(44)即得到了机器人到达目标位置时在笛卡尔坐标系下的位姿参数,可直接用该组参数驱动机器人运动至目标位姿。

4 力反馈控制

关于机器人的力反馈控制,已在前期研究成果中进行了叙述[28]。本文研究中应用了其中的销钉导向柔顺控制。

机器人在视觉引导下将工件运送至销钉导向范围,在部件与销钉间作用力超过预定数值时,系统切换为力反馈控制,在辅助销钉的导向下完成装配。

销钉柔顺对接示意图如图 7所示。工件在向安装面靠近的过程中,首先与销钉锥面发生接触,此时需要在保持接触力在安全范围的同时,根据得到的接触力与力矩信息,调整工件的位置与姿态,使工件能够沿销钉继续向舱板结构接续贴近,直至在保证安全接触力的前提下无法继续贴近,工件达到装配位置。

图 7 销钉导向柔性装配示意图 Fig.7 Compliant assembly under the guidance of pin

具体控制策略及算法已在文献[28]中叙述,本文不再叙述。

5 装配实验与结果 5.1 实验条件

实验系统实物如图 8所示。选用KUKA公司的KR210 R2700机器人,机器人末端安装有ATI公司的Omega190六维力传感器。相机采用4个OptiTrack公司的Prime 17W相机及专用靶球,安装于机器人末端的多个靶球组成刚体,用于跟踪机器人的运动。

图 8 试验系统实物 Fig.8 Picture of system for experiment

实验中使用的模拟工件重约30 kg,安装面尺寸为440×460 mm,有12个直径为7 mm的安装孔分布在其边缘。安装面上对应分布12个M6的螺纹孔,选取其中2个安装直径为7 mm的销钉,用于工件的柔顺导向。

探针式测量工具如图 8(c)所示,顶部树状结构末端的靶球组成测量刚体,底部安装可更换的金属测量球,用于抵在被测孔位处来测量孔位的中心位置。对于卫星舱内的安装孔位测量,可设计异形测量工具,将测量球置于孔位时,靶球在卫星舱外,这样在被测点位不可见的情况下也可以实现便捷地测量。为适用于不同规格的安装孔,设计了不同直径的系列化销钉及测量球,如图 8(d)(e)所示。

选取12个安装孔中位于工件左右两侧的8个孔(点组坐标记为Ps1,重心坐标记为Os1),及安装面上对应的8个孔(点组坐标记为Ps2,重心坐标记为Os2),使用测量工具进行测量,得到各点在测量坐标系下的坐标值见表 1。采用本文所述算法计算得到两组点重合所需的旋转变换矩阵R及平移向量T,并得到机器人目标位姿的笛卡尔坐标系参数(XYZABC),结果见表 2

表 1 孔位测量数据 Tab. 1 Position of holes

表 2 机器人目标位姿计算结果 Tab. 2 Target pose result for robot

按照下面的公式计算孔位匹配误差:

(45)

计算结果见表 3,得到8组对应孔位在测量坐标系XYZ轴的匹配误差。Z向的匹配误差较大,最大达到2.9 mm,而X/Y向的误差较小,最大仅为0.8 mm,这是由于实验中相机集中布置于一侧(如图 8所示),在离4个相机组成的平面较远处深度方向上的误差较大,而测量坐标系建立时Z轴方向与该方向接近,因此Z轴上的测量误差较大。

表 3 孔位匹配误差 Tab. 3 Macthing error of hole couples

本研究中视觉引导只需将工件引导至销钉的导向范围内,销孔直径为7 mm,允许的最大偏差为3.5 mm,因此2.9 mm的匹配误差仍能够保证安装顺利进行。又Z轴方向与安装面法向的方向接近,X/Y向的匹配误差是影响销钉对准的主要因素,保证了实验中销钉的准确对准。

表 3的匹配误差,可以通过改变相机布置的方式进行改善,本实验仅用于说明所研究方案的可行性。另一方面,由于采用视觉与力控相结合的方法,降低了对视觉引导精度的要求,即使较差的定位精度也能保证装配过程的顺利进行。

按照得到的机器人目标位姿参数,规划机器人运动路径,并驱动机器人执行装配动作,最终将工件运送至安装位置,使安装面贴合并对准安装孔位,如图 9所示。在与销钉接触前,机器人在视觉引导下运动,在与销钉接触后,系统实时反馈工件受力数值,当该数值超出设定的阈值后,机器人切换为力反馈控制,试验中设置的该阈值为30 N,力反馈控制中的力响应阈值为30 N,力矩响应阈值为3 N·m。销钉与工件接触前,工件上孔位与销钉的对准情况如图 10所示,销钉尖端处于孔位的边界范围内,且对中情况较好,使得视觉引导过程与力反馈控制过程得以顺利连接。

图 9 装配过程视频截图 Fig.9 Video snapshots of assembly process

图 10 视觉引导的销钉对准情况 Fig.10 Video snapshots of assembly process

销钉锥面导向过程的工件受力信息及机器人速度信息如图 11所示。图中数据均为机器人工具坐标系下的数据,机器人工具坐标系Z轴垂直于工件安装面向外。(Fx, Fy, Fz)为负载所受装配外力的三维分量,(Tx, Ty, Tz)为负载所受外力矩的三维分量,(Vx, Vy, Vz)为负载空间平移速度的分量,(Wx, Wy, Wz)为负载空间旋转速度的分量。

图 11 销钉锥面导向过程数据曲线 Fig.11 Data curve of pin guide process

图 11可见,在销钉导向阶段,工件在Z向可以稳定向前平移推进,在XY方向根据受力情况进行位置调整,同时,工件整体随外部力矩进行姿态调整。

6 结论

本文针对多样化卫星部件的高可靠装配需求,给出了一种视觉与力觉结合的机器人装配方法:在装配孔位安装辅助销钉,视觉引导将部件引导至销钉的锥面导向范围内,而后在销钉导向下对机器人采用力反馈控制,实现工件的准确装配到位。介绍了机器人装配系统的组成及工作原理,并给出了机器人手眼标定、探针式测量工具的标定及使用、机器人目标位姿的确定、销钉导向下的机器人力反馈控制等关键内容及算法。最后对实验情况进行了叙述,对实验关键误差数据进行了分析说明。实验结果表明:装配对应孔位的测量匹配误差在2.9 mm以内,机器人在视觉引导下,可以将工件运送至销钉的导向范围内,并在销钉导向及力反馈控制下可以将工件准确装配到位,力控制阈值为30 N。所采用的技术可以满足卫星部件装配的工程实施要求。

参考文献
[1]
FANG S, HUANG X, CHEN H, et al.. Dual-arm robot assembly system for 3C product based on vision guidance[C]. IEEE International Conference on Robotics and Biomimetics, IEEE, 2017: 807-812. http://ieeexplore.ieee.org/document/7866422/
[2]
GU J, WANG H, CHEN W, et al.. Monocular visual object-localization using natural corners for assembly tasks[C]. IEEE International Conference on Robotics and Biomimetics, IEEE, 2017: 1383-1388. http://ieeexplore.ieee.org/document/7866520/
[3]
CHANG W C. Robotic assembly of smartphone back shells with eye-in-hand visual servoing[J]. Robotics and Computer-Integrated Manufacturing, 2018, 50: 102-113. DOI:10.1016/j.rcim.2017.09.010
[4]
TURAN M, ALMALIOGLU Y, ARAUJO H, et al. A non-rigid map fusion-based direct SLAM method for endoscopic capsule robots[J]. Int J Intell Robot Appl, 2017, 1(4): 399-409. DOI:10.1007/s41315-017-0036-4
[5]
LIN C Y, SON L T, CHANG Y L, et al. Image-Sensor-Based Fast Industrial-Robot Positioning System for Assembly Implementation[J]. Sensors and Materials, 2017, 29(7): 935-945.
[6]
QIN Q, ZHU D, TU Z, et al.. Sorting System of Robot Based on Vision Detection[C]. International Workshop of Advanced Manufacturing and Automation. Springer, Singapore, 2017: 591-597. http://en.cnki.com.cn/Article_en/CJFDTOTAL-SHDR201704002.htm
[7]
DUNAJ J. Positioning of Industrial Robot Using External Smart Camera Vision[C]. International Conference on Systems, Control and Information Technologies 2016. Springer, Cham, 2016: 288-311. https://link.springer.com/chapter/10.1007/978-3-319-48923-0_35
[8]
DAGNINO G, GEORGILAS I, TARASSOLI P, et al. Vision-based real-time position control of a semi-automated system for robot-assisted joint fracture surgery[J]. International journal of computer assisted radiology and surgery, 2016, 11(3): 437-455. DOI:10.1007/s11548-015-1296-9
[9]
XU D, LU J, WANG P, et al. Partially decoupled image-based visual servoing using different sensitive features[J]. IEEE Transactions on Systems, Man, and Cybernetics:Systems, 2017, 47(8): 2233-2243. DOI:10.1109/TSMC.2016.2641951
[10]
SONG H C, KIM M C, SONG J B. USB assembly strategy based on visual servoing and impedance control[C]. International Conference on Ubiquitous Robots and Ambient Intelligence, IEEE, 2015: 114-117. http://ieeexplore.ieee.org/document/7358873/
[11]
LIPPIELLO V, CACACE J, SANTAMARIA-NAVARRO A, et al. Hybrid visual servoing with hierarchical task composition for aerial manipulation[J]. IEEE Robotics & Automation Letters, 2016, 1(1): 259-266.
[12]
FENG K, ZHANG X, LI H, et al.. A dual-camera assisted method of the SCARA robot for online assembly of cellphone batteries[C]. International Conference on Intelligent Robotics and Applications. Springer, Cham, 2017: 576-587. https://link.springer.com/chapter/10.1007/978-3-319-65292-4_50
[13]
GU J, WANG H, CHEN W, et al.. Monocular visual object-localization using natural corners for assembly tasks[C]. IEEE International Conference on Robotics and Biomimetics, IEEE, 2017: 1383-1388.
[14]
NERAKAE P, UANGPAIROJ P, CHAMNIPRASART K. Using machine vision for flexible automatic assembly system[J]. Procedia Computer Science, 2016, 96: 428-435. DOI:10.1016/j.procs.2016.08.090
[15]
MILLARD A G, HILDER J A, TIMMIS J, et al.. A low-cost real-time tracking infrastructure for ground-based robot swarms[C]. Swarm Intelligence: 9th International Conference, ANTS 2014, Proceedings. Springer, 2014, 8667: 278. http://eprints.uwe.ac.uk/26144/
[16]
WAN W, LU F, WU Z, et al. Teaching robots to do object assembly using multi-modal 3-d vision[J]. Neurocomputing, 2017, 259: 85-93. DOI:10.1016/j.neucom.2017.01.077
[17]
WU C H, JIANG S Y, SONG K T. CAD-based pose estimation for random bin-picking of multiple objects using a RGB-D camera[C]. Control, Automation and Systems (ICCAS), 201515th International Conference on, IEEE, 2015: 1645-1649. http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=7364621
[18]
HONGAN N. Impedance Control: An Approach To Manipulation[C]. American Control Conference, 2009, 107(4): 481-9. http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=4788393
[19]
KAZEROONI H, HOUPT P K, SHERIDAN T B. Robust Compliant Motion for Manipulators[J]. IEEE J Robotic Automat, 1986, 2(2): 83-105. DOI:10.1109/JRA.1986.1087045
[20]
FOCCHI M, MEDRANO-CERDA G A, BOAVENTURA T, et al. Robot impedance control and passivity analysis with inner torque and velocity feedback loops[J]. Control Theory and Technology, 2016, 14(2): 97-112. DOI:10.1007/s11768-016-5015-z
[21]
RAIBERT M H, CRAIG J J. Hybrid position/force control of manipulators[J]. Journal of Dynamic Systems Measurement and Control, 1981, 103(2): 126-133. DOI:10.1115/1.3139652
[22]
陈钢, 王玉琦, 贾庆轩, 等. 机器航天员轴孔装配过程中的力位混合控制方法[J]. 宇航学报, 2017, 38(4): 410-419.
CHEN G, WANG Y Q, JIA Q X, et al. Hybrid force and position control strategy of robonaut performing peg-in-hole assembly task[J]. Yuhang Xuebao/journal of Astronautics, 2017, 38(4): 410-419. (in Chinese)
[23]
CHAUDHARY H, PANWAR V, PRASAD R, et al. Adaptive neuro fuzzy based hybrid force/position control for an industrial robot manipulator[J]. Journal of Intelligent Manufacturing, 2014, 27(6): 1299-1308.
[24]
肖丽芳.基于光纤力传感器的机器人针穿刺阻抗控制研究[D].北京: 北京交通大学, 2017.
XIAO L F. Research on Impedance Control of Robotic Needle Insertion with a Fiber Optic Force Sensor[D]. Beijing: Beijing Jiaotong University, 2017. (in Chinese) http://cdmd.cnki.com.cn/Article/CDMD-10004-1017043463.htm
[25]
KIM S, KIM J P, RYU J. Adaptive energy-bounding approach for robustly stable interaction control of impedance-controlled industrial robot with uncertain environments[J]. IEEE/ASME Transactions on Mechatronics, 2014, 19(4): 1195-1205. DOI:10.1109/TMECH.3516
[26]
常健, 王亚珍, 李斌. 基于力/位混合算法的7自由度机器人精细操控方法[J]. 机器人, 2016, 38(5): 531-539.
CHANG J, WANG Y Z, LI B. Accurate Operation Control Method Based on Hybrid Force/Position Algorithm for 7-DOF Manipulator[J]. Robot, 2016, 38(5): 531-539. (in Chinese)
[27]
CONDURACHE D, BURLACU A. Orthogonal dual tensor method for solving the AX=XB sensor calibration problem[J]. Mechanism and Machine Theory, 2016, 104: 382-404. DOI:10.1016/j.mechmachtheory.2016.06.002
[28]
胡瑞钦, 张立建, 孟少华, 等. 基于柔顺控制的航天器大部件机器人装配技术[J]. 机械工程学报, 2016, 55(11): 85-93.
HU R Q, ZHANG L J, MENG S H, et al. Robotic Assembly Technology for Heavy Component of Spacecraft based on Compliance Control[J]. JOURNAL OF MECHANICAL ENGINEERING, 2016, 55(11): 85-93. (in Chinese)