陈启明, 黄瑞. 下肢外骨骼机器人意图识别算法研究[J]. 电子科技大学学报, 2018, 47(3): 330-336. doi: 10.3969/j.issn.1001-0548.2018.03.002
引用本文:
陈启明, 黄瑞. 下肢外骨骼机器人意图识别算法研究[J]. 电子科技大学学报, 2018, 47(3): 330-336.
doi:
10.3969/j.issn.1001-0548.2018.03.002
CHEN Qi-ming, HUANG Rui. Intention Recognition for Lower-Limb Exoskeleton[J]. Journal of University of Electronic Science and Technology of China, 2018, 47(3): 330-336. doi: 10.3969/j.issn.1001-0548.2018.03.002
Citation:
CHEN Qi-ming, HUANG Rui. Intention Recognition for Lower-Limb Exoskeleton[J].
Journal of University of Electronic Science and Technology of China
, 2018, 47(3): 330-336.
doi:
10.3969/j.issn.1001-0548.2018.03.002
下肢外骨骼机器人能让截瘫患者一定程度上恢复站立、行走等一些运动能力。其作为一种人机耦合的系统,人机交互接口(HMI)扮演着重要的角色。准确地获取穿戴者(截瘫患者)的运动意图,是下肢外骨骼机器人研发的主要挑战。针对当前意图识别主要采用手动阈值判断的方式,该文提出了一种利用机器人零力矩点(ZMP)特征,并基于支撑矢量机(online SVM)检测穿戴者运动意图的在线学习算法。最后在实际系统上完成该算法的验证。
外骨骼 /
意图识别 /
机器学习 /
Abstract:
Lower limb exoskeletons enable paraplegics to regain some degree of locomotion ability, i.e., standing and walking. As a human machine system, the human machine interface (HMI) play an important role. The ideal lower limb exoskeleton for paralyzed people can move following the intention of pilot. To achieve it, many kinds of HMI systems are designed. However, for many exoskeletons, manual operation is still necessary for controlling the exoskeleton. In this paper, we designed and implemented an intention recognition method which is able to detect human motion intention. With the detected intention, exoskeleton can be controlled automatically as will of pilot. In this method, zero moment point (ZMP) is chosen as one of features of human intention and an online machine learning algorithm (online SVM) is used to learn intention online. Experiments in real systems show the effectiveness and advantages of our proposed method.
Key words:
exoskeleton /
dynamics model /
intention recognition /
machine learning /
zero moment point(ZMP)
FAN Cong-min, ZHANG Ying-jun, YUAN Xiao-jun, LI Si-xian.
Machine Learning for Heterogeneous Ultra-Dense Networks with Graphical Representations
. 电子科技大学学报,
2020, 49(6): 826-836.
doi:
10.12178/1001-0548.2020356
Keywords:
dynamics model
/
intention recognition
/
machine learning
/
zero moment point(ZMP)
Abstract:
Lower limb exoskeletons enable paraplegics to regain some degree of locomotion ability, i.e., standing and walking. As a human machine system, the human machine interface (HMI) play an important role. The ideal lower limb exoskeleton for paralyzed people can move following the intention of pilot. To achieve it, many kinds of HMI systems are designed. However, for many exoskeletons, manual operation is still necessary for controlling the exoskeleton. In this paper, we designed and implemented an intention recognition method which is able to detect human motion intention. With the detected intention, exoskeleton can be controlled automatically as will of pilot. In this method, zero moment point (ZMP) is chosen as one of features of human intention and an online machine learning algorithm (online SVM) is used to learn intention online. Experiments in real systems show the effectiveness and advantages of our proposed method.
陈启明, 黄瑞. 下肢外骨骼机器人意图识别算法研究[J]. 电子科技大学学报, 2018, 47(3): 330-336. doi: 10.3969/j.issn.1001-0548.2018.03.002
引用本文:
陈启明, 黄瑞. 下肢外骨骼机器人意图识别算法研究[J]. 电子科技大学学报, 2018, 47(3): 330-336.
doi:
10.3969/j.issn.1001-0548.2018.03.002
CHEN Qi-ming, HUANG Rui. Intention Recognition for Lower-Limb Exoskeleton[J]. Journal of University of Electronic Science and Technology of China, 2018, 47(3): 330-336. doi: 10.3969/j.issn.1001-0548.2018.03.002
Citation:
CHEN Qi-ming, HUANG Rui. Intention Recognition for Lower-Limb Exoskeleton[J].
Journal of University of Electronic Science and Technology of China
, 2018, 47(3): 330-336.
doi:
10.3969/j.issn.1001-0548.2018.03.002
随着技术的不断进步,出现了一些针对脊髓损伤患者的下肢外骨骼机器人
[
2
-
3
]
,其中MindWalker
[
4
-
5
]
、ATLAS
[
6
]
、ReWalk
[
7
]
、和Elegs
[
8
]
下肢外骨骼机器人在帮助脊髓损伤患者重新获得运动能力方面取得了不错的成果。上述下肢外骨骼机器人的控制方案基本是采用有限状态机(finite-state machine, FSM)结构结合关节电机伺服预定义曲线的方式工作。此类外骨骼机器人的穿戴者通过人机交互接口手动控制外骨骼机器人进入不同的任务状态,如站立、行走、起来和坐下等。对于这些外骨骼机器人而言,“何时”并且“如何”为穿戴者提供帮助是最为关键的问题。理想情况下,外骨骼机器人按照穿戴者的意图运动,成为穿戴者身体的一部分,这将会使穿戴者感觉不到外骨骼机器人的存在。然而当前的外骨骼机器中大部分需要直接获取穿戴者的指令,并按照指令执行预定义的动作。此外,对外骨骼机器人的误操作,可能会导致严重的人身安全事故。
综上所述,外骨骼机器人识别穿戴者真正运动意图的人机交互接口尤为重要,良好用户接口能为穿戴者提供更好的体验效果。HAL系统
[
9
]
利用肌电信号识别穿戴者的运动意图和计算人体关节的力矩大小,但是对于大多数截瘫患者而言,其腿部的肌电信号微弱,因此测量难度较大。还有一些外骨骼机器人利用其脚底压力和上身姿态信息通过经验公式区分出穿戴者的运动意图
[
4
-
8
]
。上面所描述的外骨骼机器人意图识别方法都存在一些不足,即对不同穿戴者适应性低和需要重新训练数据并修改经验公式的参数。针对这些问题,本文提出一种新的下肢外骨骼机器人意图识别方法。首先,搭建了一个拥有多种传感器和多个关节主动驱动的下肢外骨骼机器人AIDER。其次,根据压力鞋提供的信息计算出零力矩点ZMP
[
10
]
作为主要特征信息,在此基础上融合其他的传感器特征信息用作穿戴者意图识别的在线学习数据。最后结合有限状态机的框架采用在线支撑矢量机的机器学习算法
[
11
]
(online SVM)学习并预测运动意图。该方法在下肢外骨骼机器人系统AIDER上实现,验证了本文的方法能有效地检测出穿戴者运动意图,为穿戴者提供良好的人机交互体验。
AIDER下肢外骨骼机器人是一套辅助截瘫患者行走的可穿戴设备,可帮助穿戴者完成站立和行走运动。该系统总重30 kg,适用于身高范围为155~180 cm的用户,连续工作时间不小于3 h。该系统基于人体仿生,对机械结构整体组成和机械外形结构进行设计,使其能尽量贴合人体。如
图 1
所示,该系统共有4个由伺服直流电机驱动组成的主动驱动关节,分别负责两个髋关节的屈伸和两个膝关节的屈伸自由度。经过充分考虑,膝关节被设计为带有储能装置的关节结构,在支撑过程中进行储能,在摆动过程中释放支撑过程中所储存的能量。除此之外,在外骨骼机器人的腰部、大腿、小腿以及脚等与穿戴者有接触的地方均采用柔性材料进行连接和覆盖。该系统采用分布式控制网络,其嵌入式控制系统结构如
图 2
所示,其中4个关节节点控制器与主控制器通过CAN总线均互联于同一局域网中,主控制器用于实时的控制与监视。拥有实时Linux操作系统的ARM主控制器放置在背部的背包中,4个关节节点控制器分别置于4个主动驱动的关节附近,同时4个关节节点控制器负责采集各个关节传感器信息并执行来自主控制器的命令。电源管理模块对电池电源进行调理,为整个系统提供所需电源。
为了能涵盖所有的日常任务,本文对这些任务进行建模,设计出一个有层级结构的有限状态机。
图 4
所示的有限状态机是上层的状态机,包含了行走、上台阶、下台阶、起立坐下4种任务的状态机。如为了完成行走功能,状态机从站立(Standing)状态转移到开始行走(Start Walk),然后进入连续行走(Continue Walk),如果想要停止,则从行走状态转移到停止行走(End Walk),最终又回到初始的站立(Standing)状态。上台阶/下台阶功能的状态机与行走功能的状态机很类似,均从站立(Standing)开始,包含开始上台阶(Start Upstair)/下台阶(Start Downstair)、连续上台阶(Continue Upstair)/连续下台阶(Continue Downstair)以及停止上台阶(End Upstair)/停止下台阶(End Downstair)。起立坐下功能状态机从站立(Standing)开始,包含坐下(Sitting Down)、完全坐定(Seated)和站立(Standing Up)状态。该外骨骼机器人从初始状态为坐下的状态(Seated)启动,通过穿戴者的命令触发站立起来,进入双支撑站立状态后便可以转移到其他状态。
但是对于运行在外骨骼机器人的控制平台上(嵌入式平台上)的在线学习算法,其运算速度受数据维度的影响较大。所以要从原始数据中选择特定的数据进行融合,穿戴者在使用外骨骼时不能用自身的腿主动带动外骨骼进行移动,外骨骼机器人必须驱动自身连杆带动穿戴者的腿进行移动。因此下肢外骨骼机器人作为一个人机紧密耦合的系统,可以被近似建模成人形机器人。
图 7
为行走的外骨骼与穿戴者共同行走的过程就是从稳定(单腿支撑)到临界稳定(支撑腿切换过程)再到稳定的过程。作为人形机器人行走稳定性的重要指标,零力矩点(ZMP)对于判断人体的意图具有显著性。ZMP的概念由文献[
10
]提出,可以利用ZMP来判断人形机器人的稳定性,该概念通常用于很多双足人形机器人的稳定性判断。除了ZMP的数据之外,为获得准确的人体意图,本文还采用外骨骼的关节的数据、IMU采集的姿态、旋转速度等数据作为特征。
{p_x} = \frac{{\int_S {\delta \rho (\delta , \xi )} }}{{\int_S {\rho (\delta , \xi )} }}
{p_y} = \frac{{\int_S {\delta \rho (\delta , \xi )} }}{{\int_S {\rho (\delta , \xi )} }}
{\rm{ZM}}{{\rm{P}}_x} = \frac{{\sum\limits_{i = 1}^{14} {p_i^x{f_i}} }}{{\sum\limits_{i = 1}^{14} {{f_i}} }}
{\rm{ZM}}{{\rm{P}}_y} = \frac{{\sum\limits_{i = 1}^{14} {p_i^y{f_i}} }}{{\sum\limits_{i = 1}^{14} {{f_i}} }}
{\rm{max}}\frac{1}{{\left\| \mathit{\boldsymbol{w}} \right\|}}, \quad \begin{array}{*{20}{c}}
{{\rm{s}}{\rm{.t}}.}&{{y_i}({\mathit{\boldsymbol{w}}^{\rm{T}}}{\mathit{\boldsymbol{x}}_i} + b) \ge 1, \quad i = 1, 2, \cdots , n}
\end{array}
{\rm{max}}\frac{1}{{\left\| \mathit{\boldsymbol{w}} \right\|}}, \quad \begin{array}{*{20}{c}}
{{\rm{s}}{\rm{.t}}.}&{{y_i}({\mathit{\boldsymbol{w}}^{\rm{T}}}{\mathit{\boldsymbol{x}}_i} + b) \ge 1, \quad i = 1, 2, \cdots , n}
\end{array}
{\rm{min}}{\left\| \mathit{\boldsymbol{w}} \right\|^2}, \begin{array}{*{20}{c}}
{\quad {\rm{s}}{\rm{.t}}{\rm{.}}}&{{y_i}({\mathit{\boldsymbol{w}}^{\rm{T}}}{\mathit{\boldsymbol{x}}_i} + b) \ge 1, \quad i = 1, 2, \cdots , n}
\end{array}
L(\mathit{\boldsymbol{w}}, b, \alpha ) = \frac{1}{2}{\left\| \mathit{\boldsymbol{w}} \right\|^2} - \sum\limits_{i = 1}^n {{\alpha _i}({y_i}({\mathit{\boldsymbol{w}}^{\rm{T}}}{\mathit{\boldsymbol{x}}_i} + b) - 1)}
K({\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}) = \left\langle {\phi ({\mathit{\boldsymbol{x}}_i}), \phi ({\mathit{\boldsymbol{x}}_j})} \right\rangle
K({\mathit{\boldsymbol{x}}_1}, {\mathit{\boldsymbol{x}}_2}) = \left\langle {{\mathit{\boldsymbol{x}}_1}, {\mathit{\boldsymbol{x}}_2}} \right\rangle
K({\mathit{\boldsymbol{x}}_1}, {\mathit{\boldsymbol{x}}_2}) = {(\left\langle {{\mathit{\boldsymbol{x}}_1}, {\mathit{\boldsymbol{x}}_2}} \right\rangle + R)^d}
K({{\mathit{\boldsymbol{x}}}_{1}}, {{\mathit{\boldsymbol{x}}}_{2}})=\exp ({-1{{\left\| {{\mathit{\boldsymbol{x}}}_{1}}-{{\mathit{\boldsymbol{x}}}_{2}} \right\|}^{2}}}/{2}\;{{\sigma }^{2}})
地址: 成都市建设北路二段四号电子科技大学主楼中350室
电话: 028-83202308,83207559
Email: xuebao@uestc.edu.cn
北京仁和汇智信息技术有限公司