人体步行捕捉下的双足机器人跟随步行与实验
2017-02-08吴伟国高力扬
吴伟国, 栗 华, 高力扬
(哈尔滨工业大学 机电工程学院, 哈尔滨 150001)
人体步行捕捉下的双足机器人跟随步行与实验
吴伟国, 栗 华, 高力扬
(哈尔滨工业大学 机电工程学院, 哈尔滨 150001)
为深入研究服务型仿人机器人实时跟随人步行的问题,提出了基于人体步行运动捕捉的双足机器人步行样本生成方法,并进行了机器人-人跟随步行实验.对PS三维运动捕捉系统在线获取的人体步行样本进行运动学匹配并考虑机器人关节极限约束条件后,得到机器人步行样本,构建机器人仿人步行的样本库;根据笛卡尔空间和关节空间内的运动参数定义机器人与人的步行相似度综合评价,提出基于相似度评价的在线样本检索方法,以“关节角距离”为评价选取拼接点,实现样本在线拼接的样本过渡方法,解决了机器人跟随人进行变速步行的问题;完成了双足机器人跟随不同人进行稳定步行的实验,跟随过程中的距离误差不超过±52 mm,跟随结束后的位置误差不超过±10 mm.
仿人双足步行机器人;跟随步行;步行相似性评价;步行样本切换;运动捕捉
在服务、救援、维修等需要人-机器人交互或配合的任务中,机器人能够跟随所服务或配合的对象是完成此类任务的前提条件.
在以机器人为对象的人体运动重构方面, Kim等[1]与Pollard等[2]利用几何比例调节的方法,实现了人体与机器人运动学匹配;Yamane等[3]和Boutin等[4]基于倒立摆模型在运动重构过程中添加了平衡约束,从而保证机器人的稳定性; Liu等[5]应用ZMP模糊控制器获得运动重构后样本的稳定性; Yi等[6]提出了基于生物力学驱动的扰动恢复控制器,实现了小型仿人机器人在线模仿人体全身运动; Vuga等[7]基于机器人动力学方程的零空间进行运动重构中的平衡调整,该方法能够在平衡条件允许下较好地保留运动相似度;Munirathinam等[8]采用基于连续时间缩放和关节修正的方法,在NAO机器人上复现踢腿动作; Miura等[9]以运动相似度最大化为原则修正步行参数,使HRP-4C机器人动作更加拟人化.
另一方面,Nakazawa等[10]和张利格等[11]将人体运动进行细分整理后拼接成新的运动施加给机器人,前者在HRP机器人上复现了人体舞蹈动作,后者实现了BHR-2机器人刀术表演.还在一些类似研究[12-15]采用此类划分运动基元的方法,该方法除可对人体动作进行模仿外,还可作为动作识别及新动作拼接生成的基础.
此外,智能算法也被引入到人体步行运动重构之中.Christopher等[16]通过训练与机器人各关节对应的神经网络实现了运动捕捉数据与机器人关节角的匹配; Hwang等[17]利用基于逆运动学神经网络算法减少了运动匹配计算时间; Rempis[18]提出了一种通过稳定步行样本对捕捉样本进行修正的新型神经网络.
为使机器人在满足步行稳定性的同时,尽可能提高运动“相仿性”以完善仿生运动,研究者定义了一些相似性评价:赵晓军等[19]以对应关节角的接近程度衡量运动相似性;张利格等[11]在其基础上加入机器人与人体运动节奏的相似性;柯文德[20]综合考虑运动时空特性与动作节奏提出了相似性定义.以上相似性分析都集中在关节空间中,未体现机器人与人体运动不同的根本原因,即人体与机器人在肢体长度等运动学参数上的差异.
本文采用几何变换的方法对由三维运动捕捉系统得到的人体步行运动数据进行重构,并考虑机器人关节极限约束得到机器人步行运动样本,构建仿人双足步行机器人样本库,在此基础上提出根据所跟随对象的步行参数在线检索、修正、拼接机器人步行样本以实现机器人实时跟随人步行的方法,并进行了对不同跟随对象的跟随步行实验.
1 仿人双足机器人及运动捕捉系统
1.1 仿人双足步行机器人
如图1(a)所示,所使用的双足机器人为自行研制的类人及类人猿型机器人“GOROBOT-II”的双足部分,有12个自由度,髋、膝、踝关节各有3、1、2个自由度,由Maxon伺服电动机+同步齿形带传动+谐波齿轮减速器驱动各个关节,其机构如图1(b)所示,a3、a4、a6分别为220、184、86 mm,两踝关节间距为125 mm,脚的长、宽为160 mm×100 mm;躯干搭载智能伺服驱动与控制器、电源以及通信模块,质量约22 kg.
(a)双足机器人照片 (b)双足机器人机构简图
Fig.1 GOROBOT-II humanoid biped robot and its mechanism
1.2 PhaseSpace三维运动捕捉系统
PhaseSpace(PS)三维运动捕捉系统是PhaseSpace公司生产的主动式光学捕捉系统.其硬件主要包括主机服务器、相机、LED标识点、演出服、校正杆、控制器、基站等.光学相机分辨率达3 600×3 600 PPI,为双眼结构设计,视角均为60°,扫描速度最高可达480 Hz.捕捉距离不超过10 m时捕捉精度可达1 mm.本文用8个相机左右各4个分两列布置,捕捉场景及LED在人身位置如图2所示.
图2 PS系统对人体步行捕捉场景及LED位置
Fig.2 Scene of human walking captured by PS system and LED distribution demonstration
2 人体步行样本的获取与预处理
2.1 人体下肢各关节中心位置的确定
贴于捕捉服上的LED标识点只能布置于关节外侧,因此需根据捕捉数据计算人体关节中心位置,进而确定:大腿、小腿长度、两腿间距、步幅等参数.由于人体髋、踝关节是侧偏和俯仰运动复合的球形关节,如图3所示复合运动在二维平面内的投影为近似圆形,半径取决于标识点与关节中心的相对位置.其中,坐标系O0-X0Y0Z0是标定PS系统时确定的世界坐标系,O-xyz为关节中心坐标系,则求关节中心问题转化为已知圆上部分离散点坐标求圆心O坐标(A0, B0, C0)的问题.
图3 世界坐标系内人体运动捕捉的关节运动投影
Fig.3 Joint motion projection of the captured human motion in base coordinate frame
所捕捉到的标识点坐标以(Xi, Yi, Zi)表示,i=1,2,…, n,设其在X0Y0平面内的投影点分布于圆心为(A0, B0)、半径为R的圆上:
(1)
若以di表示标志点到圆心的距离,则可定义误差函数σi=di2-R2,将其代入式(1)中,有
求解如下无约束最优化问题:
可得最优解为
A0=-(HD-EG)/(CG-D2)/2,
B0=-(HC-ED)/(D2-CG)/2.
其中:
对xz、yz、xz平面内标志点投影分别应用上述方法,可求出关节中心的三组圆心坐标,取平均值即为人体关节中心位置坐标.由关节中心轨迹通过逆运动学可解出各关节角.
2.2 人体步行样本的获取及预处理
人体步行捕捉的主要目标为髋、膝、踝三关节的运动,因此设置了如图4(a)所示的LED粘贴位置,其中字母A~E分别代表贴点处LED灯的发光类型,主动式光学相机布置位置如图4(b)所示.
(a)标志点粘贴位置及LED灯发光类型 (b) 光学相机分布示意图
图4 LED标识点粘贴位置及主动式光学相机布置示意图
Fig.4 LED location and active optical camera distribution
捕捉得到的数据为每个采样时刻各标识点在坐标系O0-X0Y0Z0中的三维坐标值.图5为一组捕捉得到的人体髋关节标识点的原始轨迹曲线.
捕捉误差及人体抖动使原始轨迹不平滑,且捕捉期间LED标识点被遮挡将使轨迹曲线不连续,因此本文采用拉格朗日线性插值方法对其进行预处理.利用原始数据可提取人、机器人步行参数(步长、步高、步速、步行周期等),及人体几何特征(肢体长度、踝高、两髋及两踝间的距离等).
图5 捕捉到的髋关节标识点LED位移原始轨迹
3 人体步行样本的运动学匹配
人体与机器人机构、几何参数存在差异,因此人体关节角并不能直接施加给机器人,需考虑关节角度、角速度极限等约束条件进行运动学匹配.
3.1 样本的几何缩放匹配
设kij为缩放比例,cRk为机器人步行参数,cHk为人体步行参数,则有
kij=cRk/cHk.
其中i=1,2依次代表髋、踝关节;j=1~3,依次代表前向、侧向和竖直方向;ki1为步长比;ki2为两髋、两踝间距比例;ki3为下肢长度、踝高比例.
设[x y z]T、[x′ y′ z′]T分别为几何缩放前后关节位置矢量,则有如下矩阵变换关系:
将得到的标志点坐标随踝关节标志点平移至坐标原点O0附近,图6所示为一组原始人体运动和经比例缩放后机器人运动的棍图轨迹,缩放后基本保持原有的步行周期性特征且步态一致.
图6 人体步行样本按机器人-人几何缩放前后步行轨迹
Fig.6 Walking trajectory of the captured human’s walking pattern before and after the geometric scaling
图7为经预处理和逆运动学解算出的人体运动关节角曲线和经几何缩放及逆运动解算出的机器人关节角曲线,二者关节角呈现出一定差异.
图7 人体步行样本按机器人-人几何缩放前后关节角曲线
Fig.7 Joint angle curves of the captured human’s walking pattern before and after the geometric scaling
3.2 样本的关节极限约束处理
θimin≤θi≤θimax,
人体在运动时,横滚方向摆动较小,一般不超关节角极限;而俯仰角变化较大,易出现超越机器人关节极限的情况.髋、膝、踝3个关节的俯仰角分别为θ3、θ4、θ5,机器人在脚底始终保持水平姿势的运动中,有如下关系:
θ4=θ3+θ5.
当某关节角超越关节极限时可考虑3种调整方案,这里以踝关节为例进行说明:1)在水平方向微调质心(图8(a));2)仅调整髋关节俯仰角(图8(b));3)仅调整膝关节俯仰角(图8(c)).
通过对比,方案1需要同时调整3个俯仰角,质心速度只有水平分量;方案2、3只需调整两个俯仰角,但质心速度存在竖直分量,削弱了机器人的步行抓地能力,且固定某一关节角不变的条件过于严格.同时考虑到“GOROBOT-II”型机器人踝关节俯仰运动范围可达[-20°~-+75°],因此选择方案1.调整时首先确定超越关节极限的区间[t1,t3]及达到最大值的时刻t2;而后将t2时刻的θ5调整到关节极限内,并在邻域[t1-ts, t3+ts]内以五次样条插值重新规划θ5以保证区间边界点角度、角速度的连续性.
(a)水平移动质心 (b)调整髋关节 (c)调整膝关节
图8 机器人关节角超过关节极限的3种处理方式
Fig.8 Three dealing methods of the situation when the joint angle limitation is violated
3.3 人体非平脚着地而机器人平脚着地的着地补偿
人体步行时非平脚着地,而GOROBOT-II型机器人为平板脚掌,行走时需平脚着地.如图9所示,需对关节角进行补偿,才能保证机器人平脚步行.
(a)平脚着地 (b)非平脚着地 (c)补偿角θΔ
图9 平脚着地、非平脚着地与补偿量θΔ
Fig.9 Flat foot landing, tilting foot landing and the compensation angle θΔ
补偿角θΔ(脚底与地面夹角)有如下关系:
θ4=θ3+θ5+θΔ.
本文把各关节角距离关节极限的裕度比例作为分配系数,将θΔ分配给其余关节的俯仰角.设各关节的调整量为Δθi(i=3,4,5),则有
Δθ3+Δθ4+Δθ5=θΔ,
θimin≤θi(t)+Δθi≤θimax,
其中:wi=θΔ/min{|θi(t)-θimin|, |θi(t)-θimax|}.
3.4 步行样本的拟合
变换后的原始关节角波动较大,不宜直接施加给机器人,因此对其进行平滑处理,常用的方法有滤波和拟合.滤波采用平均值滤波,如式(2)所示.拟合考虑如下3种形式:正弦函数拓展式、高斯函数以及傅里叶函数,如式(3)~(5)所示:
f(x)=(f(x-nΔx)+f(x-(n-1)Δx)+…+ f(x+nΔx))/(2n+1),
(2)
(3)
(4)
(5)
大量实验数据的拟合效果证明,从方差和、拟合系数以及均方根误差对这3种拟合形式进行对比来看,正弦函数拓展形式与傅里叶形式对关节角的拟合效果明显优于高斯函数形式;在同等项数下,正弦函数拓展形式的拟合效果优于傅里叶形式.因此,在拟合形式中,优先选择正弦函数拓展形式(即式(3)).考虑到人体运动噪声较大以及实验数据的拟合效果,拟合项数选择8项.
4 运动相似性
机器人与人运动的差异不仅体现在关节空间的参数上,也体现在笛卡尔空间内的各项参数上,由此选取:笛卡尔空间内的步长、步高、步行周期以及突出步行节奏性差异的“占空比”(单脚支撑期与双脚支撑期的比值)作为关键参数,分别定义S1~S4共4个相似度评价:
其中:l、h、T、tS、tD分别为步长、步高、步行周期、单脚支撑期、双脚支撑期;下标i=1,2,…,n; n为步行步数.
则笛卡尔空间内运动相似性为
其中:βi为[0,1]范围内的加权系数,且Σβi=1.
在关节空间内选取关节角度和关节角速度衡量相似性,关节空间内的相似性定义为
S=αSC+(1-α)SJ.
式中:α为笛卡尔空间内相似性的权值系数;S1、S2、S3、S4、SC、SJ取值为[0,1],其取值越接近于1,则表明机器人与人体运动相似性越高.
5 步行样本库构建与跟随步行样本在线生成
5.1 步行样本库的构建
步行样本库分为两层,即检索表和样本表.检索表结构如图10所示.存储每组样本的步行参数及人体特征信息,为相似样本检索提供评价依据.
图10 步行样本检索表结构
样本表为样本库主体,按检索表顺序存储经过仿真和实验验证能够稳定步行,并由不同被采样者的不同的捕捉数据变换得到的机器人步行样本.
对捕捉原始数据进行插值后提取人体步行参数:步长、步行周期及步速参数.本文选择粘贴于鞋上的脚部标识点作为关键标识点,将抬脚时刻、抬脚最高时刻以及落地时刻作为步行参数提取的关键姿势帧,并定义人体脚着地的判别条件:
(6)
式中:δ1为高度误差限;yf、y0f分别为脚部标识点当前高度和初始高度.若顺次的两个满足式(6)的时刻脚部标志点在前进方向的距离大于δ2,则确定该距离为步长;这两个时刻依次为该步的抬脚初始时刻和落地时刻;连续两次抬脚时刻差值为步行周期.设x(ti)、x(ti-1)分别为ti、ti-1时刻标识点前进方向坐标值,则步长判断条件为
提取人体步行参数的分析过程如图11所示.
图11 提取人体步行参数的流程图
5.2 跟随步行控制与相似步行样本的检索
本文以跟随过程中人与机器人之间的距离误差e评价跟随效果,故而定义如下PD控制律:
式中:α1、α2、α3分别为权值系数,α1+α2+α3=1.步行速度与步长、步行周期相关,且跟随步行强调速度的接近程度,故权值系数中α3取值大于α1、α2.
若有多个样本相似度相同,则比较检索表中人体特征信息与当前被跟踪者的人体特征信息,选择相近的样本, 为避免频繁切换步行样本,上述控制过程仅在每个步行周期中进行一次,且选定新样本后计算其与当前样本的相似度值Sf-1,若Sf-1≥β则保留原样本;反之则在下一个步行周期开始更换样本.
5.3 拼接点的查找及运动过渡
为完成机器人当前样本到所选样本的样本拼接,需选择合适的拼接点,即机器人姿态具有最大相似性的时刻.与常用的姿态相似性评价指标如:欧几里得距离、四元数距离[21]以及在动画领域中基于点云的判断方法[22]不同,本文定义“关节角距离”以衡量机器人两个姿态下的关节角的差异:
本文将拼接点的查找限定于稳定性较好的双脚支撑期内,选取具有最小关节角距离的时刻作为拼接点.由于拼接点处机器人的姿态并非完全一致,还需进行两个姿态间的运动过渡.此过程类似于机器人的轨迹规划,即已知两时刻关节空间内各关节角以及角速度等信息,通过插入新的关节角度,得到完整关节轨迹.跟随步行控制的流程如图12所示.
图12 基于样本库的在线步行样本生成流程图
Fig.12 Process of online walking pattern generation based on pattern set
6 仿人双足机器人跟随人步行的实验
6.1 步行样本库样本的步行仿真与实验
利用ADAMS软件建立GOROBOT-II机器人双足部分虚拟样机模型,机器人脚掌与地面之间接触参数设置如表1所示.以数据文件形式将机器人-人体运动学匹配生成的步行样本导入ADAMS,进行步行仿真,仿真视频截图见图13.
图13 运动学匹配后步行样本仿真视频截图
Fig.13 Simulation video capture of a transformed walking pattern example
本例中步行样本分为加速段、中间步行段和减速段,分别包含下蹲阶段和加速步样本、经运动学匹配后的人体步行循环样本、减速步和身体直立阶段样本,时间分别为11.45、13.80、10.95 s.由于人体步长不均衡,故经运动学匹配后,步长平均值为200 mm,步行速度为104 m/h.
经仿真验证稳定步行能力后的步行实验如图14所示,实现稳定步行,则为样本库中成功样本.
表1 机器人脚掌与地面接触参数设置
Tab.1 Contact parameter setting between robot’s feet and ground
刚度/(N·mm-1)力贡献指数阻尼/(Ns·mm-1)穿透深度/mm静摩擦系数动摩擦系数1×1051.51000.10.80.3
图14 离线样本步行实验(一例)视频截图(光滑瓷砖地面)
6.2 机器人跟随人步行实验
跟随步行运动控制按如下步骤进行:1)按采样周期捕捉人体步行样本;2)实时提取人体步行参数;3)在机器人步行样本库中检索相似样本;4)查找拼接点规划过渡轨迹;5)执行新样本,按步行样本的关节轨迹控制机器人跟随人步行.
限于篇幅,这里只给出机器人分别跟随两名身高不同并以不同步速前向步行的男性青年人的实验实例,其中机器人腿长490 mm,约为被跟随者腿长的一半.开始步行时,机器人滞后被跟随者1个周期,以使机器人完成下蹲准备动作,并便于系统提取人体下肢和步行参数,判断人体步行步态特征.两组实验被跟随者身高分别为1.75、1.78 m;步长均为200 mm;步行周期分别为7.20、8.18 s;步速分别约为100、88 m/h.机器人的样本轨迹追踪误差的最大值为0.24°,满足步行样本执行的要求.图15、16分别为两组实验中机器人跟随人前向步行时的跟随位置误差曲线,最大前向跟随位置误差分别为52、49 mm.图17、18分别为这两组跟随步行实验视频截图.
图15 第1组跟随步行实验跟随误差曲线
图16 第2组跟随步行实验跟随误差曲线
图17 机器人跟随人步行实验视频截图(第1组:跟随身高1.75 m男性青年)(光滑瓷砖地面)
图18 机器人跟随人步行实验视频截图(第2组:跟随身高1.78 m男性青年)(光滑瓷砖地面)
7 结 论
1)基于几何缩放和关节角安全裕度最大的原则,给出了考虑关节角度、角速度极限的由人体运动捕捉数据生成实际机器人可用步行样本的方法,提出了笛卡尔空间、关节空间内机器人-人的运动相似度综合评价指标,提出了基于跟随距离误差和相似样本检索的机器人跟随步行控制方法;
2)利用PhaseSpace三维运动捕捉系统捕捉了大量人体步行样本,变换为机器人步行样本后经仿真与离线步行实验,实验结果表明,机器人能够稳定步行,验证了基于人体运动捕捉的步行样本生成方法的可行性和有效性,并建立了机器人稳定步行样本库;
3)进行了在线控制机器人跟随不同步速、不同被跟随者的跟随步行实验,跟随过程中最大跟随距离误差为52 mm,跟随结束后跟随距离误差在±10 mm内,实验验证了机器人实时在线跟随步行控制方法的有效性.
目前,捕捉得到不同身高不同步速人的步行样本较丰富,但经离线样本步行实验验证有效的样本还有限,后续尚需经大量的机器人步行实验验证后扩充样本库,并且进一步研究快速跟随步行下,在线调整拼接相似性样本对步行稳定性的影响.
[1] KIM J Y, KIM Y S.Walking pattern mapping algorithm using fourier fitting and geometric approach for biped humanoid robots[C]//Proc 9th IEEE-RAS Conf on Humanoid Robots.Piscataway: IEEE Press, 2009: 243-249.DOI: 10.1109/ICHR.2009.5379571.
[2] POLLARD N S, HODGINS J K, RILEY M J, et al.Adapting human motion for the control of a humanoid robot[C]//Proc 2002 IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2002: 1390-1397.DOI: 10.1109/ROBOT.2002.1014737.
[3] YAMANE K, HODGINS J.Control-aware mapping of human motion data with stepping for humanoid robots[C]//Proc 2010 IEEE/RSJ Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2010: 726-733.DOI: 10.1109/IROS.2010.5652781.
[4] BOUTIN L, EON A, ZEGHLOUL S, et al.From human motion capture to humanoid locomotion imitation application to the robots HRP-2 and HOAP-3[J].Robotica, 2011, 29(2): 325-334.DOI: 10.1017/S0263574710000172.
[5] LIU H Y, WANG W J.Image recognition and force measurement application in the humanoid robot Imitation[C]//Proc IEEE Transactions on Instrumentation and Measurement.Piscataway: IEEE Press, 2012: 149-161.DOI: 10.1109/TIM.2011.2161025.
[6] YI S J, MCGILL S G, ZHANG B T, et al.Active stabilization of a humanoid robot for real-time imitation of a human operator[C]//Proc 12th IEEE-RAS Conf on Humanoid Robots.Piscataway: IEEE Press, 2012: 761-766.DOI: 10.1109/HUMANOIDS.2012.6651605.
[7] VUGA R, OGRINC M, GAMS A, et al.Motion capture and reinforcement learning of dynamically stable humanoid movement primitives[C]//Proc 2013 IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2013: 5284-5290.DOI: 10.1109/ICRA.2013.6631333.
[8] MUNIRATHINAM K, CHEVALLEREAU C, SAKKA S.Offline imitation of a human motion by a humanoid robot under balance constraint[J].Mechanisms and Machine Science, 2014, 20: 269-282.DOI: 10.1007/978-3-319-05431-5_18.
[9]MIURA K, MORISAWA M, NAKAOKA S et al.Robot motion remix based on motion capture data towards human-like locomotion of humanoid robots[C]//Proc IEEE/RAS Conf on Humanoid Robots.Piscataway: IEEE Press, 2009: 7-10.DOI: 10.1109/ICHR.2009.5379535.
[10]NAKAZAWA A, NAKAOKA S, IKEUCHI K, et al.Imitating human dance motions through motion structure analysis[C]//2002 IEEE/RSJ Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2002: 2539-2544.DOI: 10.1109/IRDS.2002.1041652.
[11] 张利格,黄强,杨洁,等.仿人机器人复杂动态动作设计及相似性研究[J].自动化学报,2007,33(5):522-528.
ZHANG Lige, HUANG Qiang, YANG Jie, et al.Design of humanoid complicated dynamic motion with similarity considered[J].Acta Automatica Sinica, 2007, 33(5): 522-528.
[12]MATARIC M J.Getting humanoids to move and imitate[J].Intelligent Systems, 2000, 15(4): 18-24.DOI: 10.1109/5254.867908.
[13]BENTIVEGNA D C, ATKESON C G.Learning similar tasks from observation and practice[C]// Proc IEEE/RSJ Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2006: 4994-5000.DOI: 10.1109/IROS.2006.281989.
[14]TAKANO W, YAMANE K, YAMAMOTO S K, et al.Primitive communication based on motion recognition and generation with hierarchical mimesis model[C]//Proc of the IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2006: 3602-3609.DOI: 10.1109/ROBOT.2006.1642252.
[15]LEE D, KUNORI H, NAKAMURA Y.Association of whole body motion from tool knowledge for humanoid robots[C]//Proc IEEE/RSJ International Conf on Intelligent Robots and Systems.Piscataway: IEEE Press, 2008: 2867-2874.DOI: 10.1109/IROS.2008.4650611.
[16]CHRISTOPHER S C, ANTON B, EDWARD R.Teleoperation of a humanoid robot using full-body motion capture, example movements, and machine learning[C]//Proc 2012 Australasian Conf on Robotics and Automation.Piscataway: IEEE Press, 2012: 1969-2016.
[17]HWANG C L, CHEN B L, SYU H T, et al.Humanoid robot’s visual imitation of 3-D motion of a human subject using neural-network-based inverse kinematics[J].IEEE Systems Journal, 2016, 10(2): 685-696.DOI: 10.1109/JSYST.2014.2343236.
[18]REMPIS C W.A neural network to capture demonstrated motions on a humanoid robot to rapidly create complex central pattern generators as reusable neural building blocks[C]//Proc of the 2013 IEEE Conf on Robotics and Automation.Piscataway: IEEE Press, 2013: 5291-5296.DOI: 0.1109/ICRA.2013.6631334.
[19] 赵晓军,黄强,彭朝琴,等.基于人体运动的仿人型机器人动作的运动学匹配[J].机器人,2005,27(4):358-361.
ZHAO Xiaojun, HUANG Qiang, PENG Zhaoqin, et al.Kinematics mapping of humanoid motion based on human motion[J].Robot, 2005, 27(4): 358-361.
[20] 柯文德.基于人体运动相似性的仿人机器人运动规划关键技术研究[D].哈尔滨:哈尔滨工业大学,2013.
KE Wende.Research on key technologies of motion planning humanoid robot based on similarity locomotion of human actor[D].Harbin: Harbin Institute of Technology, 2013.
[21] 彭伟.基于人体运动捕获数据的运动编辑技术研究与实现[D].长沙:湖南大学,2012.
PENG Wei.The research and implementation on motion edit technology based on human motion capture data[D].Changsha: Hunan University, 2012.
[22]KOVAR L, GLEICHER M, PIGHIN F.Motion graphs[C]// Proc 29 Annual Conf on Computer Graphics and Interactive Techniques.Piscataway: IEEE Press, 2002: 473-482.DOI: 10.1109/TVCG.2012.149.
(编辑 杨 波)
Follow-walking motions of a biped robot and its experimental research based on human walking capturing
WU Weiguo, LI Hua, GAO Liyang
(School of Mechatronics Engineering, Harbin Institute of Technology, Harbin 150001, China)
Respect to the issue of serving humanoid robots following human, walking pattern generation based on human walking capturing is studied, and experimental study of following walking between a biped robot and human is conducted.Considering the motion capability limitation of the robot, human walking patterns obtained online by PS three-dimensional capture system are matched to the robot in kinematics aspect to generate robots’ walking patterns and to build a library for them.Similarities between the robot and human are defined by parameters in both the Cartesian space and the joint space.The similarity based method of choosing walking patterns online and the “joint angle distance” based method of pattern transition are proposed to solve the problem of following walking with varying velocity.Finally, the experiments of biped robot following different people are conducted, in which stable walking is achieved.The following distance error is in the range of ±52 mm during the following process and the position error is no more than ±10 mm after the following process ended.
humanoid biped walking robot; following walking; walking similarity evaluation; walking pattern switching; motion capture
10.11918/j.issn.0367-6234.2017.01.003
2016-07-12
国家高技术研究发展计划(2012AA041601)
吴伟国(1966—),男,教授,博士生导师
吴伟国,wuwg@hit.edu.cn.
TP242.6
A
0367-6234(2017)01-0021-09