当前位置:首页 期刊杂志

基于深度学习和动态时间规整的人体运动检索

时间:2024-05-04

楚超勤,肖秦琨,高 嵩

(西安工业大学 电子信息工程学院,陕西 西安 710032)

0 引 言

近年来,随着创新科技的发展,计算机动画在各种应用中日益普及[1-8]。人体运动编辑对计算机动画制作尤为重要,在动画制作领域,很多企业公司对制作非常逼真的人类动画产生了极大的需求。现在市场上已经有很多方法来产生人体运动数据。运动捕获(MoCap)是一种众所周知的获取运动数据的方法,因此运动捕获设备的应用价值也越来越突出,推动了大规模人体和物体运动数据库的发展[8-9]。然而,随着各种运动数据的增长,检索能满足特定要求的动画运动是一件困难的事情。因此,运动检索技术成为近年来在运动捕捉动画领域的研究重点。

目前已经提出了一些运动检索方法,其中许多创新方法是在现有的音频检索方法上加以拓展应用,如所熟知的动态时间规整(dynamic time warping,DTW)[10]。然而,因为这种类型的数据的属性和参数数据量很大,所以单一使用DTW方法对运动捕获数据的检索效率低。为了支持索引和提高DTW的检索性能,提出一种基于均匀缩放(uniform scaling,US)的算法[11]。然而,基于均匀缩放的方法通常具有较高的计算成本。基于DTW方法和典型相关分析(canonical correlation analysis,CCA)扩展方法,被称为广义的典型时间规整(generalized canonical time warping,GCTW),这种方法被用于调整多模态序列[12]。除了基于DTW的方法,其他方法是寻求逻辑上类似的运动匹配。例如,用于呈现运动的模板技术,以及使用模板匹配的运动搜索[13]。此外,提出使用几何特征构建索引树,使用聚类和分割,然后根据峰值点进行动作匹配[14]。然而,这些方法都不能很好地区分紧密匹配的运动。

文中利用给定查询的运动序列,从运动数据库检索非常相似的运动。如上所述,基于DTW的检索方法的表现比统计匹配方法有更好的性能,但检索效率较低,因此提出将基于深度学习和动态时间规整的人体运动检索方法,以提高运动匹配的性能和效率。然后,基于优化的代表性识别特征通常比原始无序描述符具有更好的性能,使用模糊聚类将冗余姿态描述符转换成判别描述符[15]。最后通过实验对该算法进行验证。

1 检索算法

1.1 算法概述

提出算法的图解说明如图1所示,其中算法分为两个阶段:系统学习和运动检索。

图1 算法说明

在系统学习阶段,首先由相互间可分辨的运动集合构建运动数据库,其次通过聚类方法获取代表性帧图像,进而基于代表帧图像集合训练自动编码器模型,使用已经获取的编码器模型提取运动帧图像的特征;在运动检索阶段,基于上述步骤获取查询运动关键帧图像,进而应用自动编码器提取每一帧图像特征,应用曼哈顿动态规划算法计算待查询运动与运动数据库运动之间的相似度距离,排序输出检索结果。

1.2 系统学习

(1)基于聚类获取代表性的帧。系统学习的关键一步是获取基于聚类的代表性框架。给定运动序列{Fi}i=1:n,其中n是帧数,使用模糊c-均值(fuzzy c-means,FCM)聚类方法生成代表性帧。为了计算两帧之间的距离,使用四元数[15]来呈现身体姿态。设Fi为第i帧中的运动描述符,F1和F2之间的距离计算公式如下:

d(F1,F2)=(F1-F2)(F1-F2)T

(1)

如果使用聚类方法来生成c个聚类中心,则选择距离聚类中心最短距离的一些帧作为代表帧,然后代表帧可以表示为RF={rfk}k=1:c,其中rfk对应于第k个聚类中心。因此可以使用FCM聚类对代表性帧进行提取。

图2(a)显示了代表性帧的第一主成分,对于图2(b)中的运动序列,在卡纳基梅隆大学CMU数据库中对应于“01-01.bvh”,从所有运动视频帧中找到20个聚类中心,不同的聚类数据用不同的颜色表示。为了便于展示,原始特征(84维四元数矢量)使用主成分分析(principal component analysis,PCA)来缩小维数,只保留第一和第二主要分量。图2(b)显示了与聚类中心对应的代表帧。

1.3 使用自动编码器提取运动特征

自动编码器可以看作是神经网络。使用自动编码器可以减小输入数据的维数,并将重构的信号作为输出。在深层网络中,自动编码器始终作为自动学习对象特征的良好模式,其在无监督的学习机制环境下训练,这一训练过程是必不可少的。自动编码器由编码器和解码器组成。

(a)运动特征的第一主要部分

(b)20个代表性框架对应于20个中心

假设自动编码器的输入为x,首先,该编码器将原始信号x映射到特征信号z[16]:

z(e)=h(e)(W(e)x+b(e))

(2)

其中,“(e)”是指神经网络编码层;h(e)是传递函数;W(e)是加权矩阵;b(e)是偏置向量。

(3)

其中,“(d)”是指第d网络层;h(d)是解码器的传递函数;W(d)是权重矩阵;b(d)是偏置向量。

(4)

代价函数E由3部分组成,第1部分是均方误差,第2部分是L2正则化,第3部分是稀疏正则化,L2正则化系数为λ,稀疏正则化系数为β。

如果将L2正则化:

(5)

其中,L,n,k分别是训练数据中的隐层数、观测数和变量数。

通常添加一个正则化来激励稀疏项,如果将第i个神经元激活估量定义为[17]:

(6)

接下来,利用Kullback Leibler发散呈现稀疏正则化[17-18]:

(7)

1.4 运动检索

(8)

(9)

此外,RFX和RFY之间的最佳规整路径是在所有可能的规整路径中具有最小总成本的规整路径p*。然后定义RFX和RFY之间的MDDP距离是p*的总成本:

dMDDP(RFX,RFY)=Cp*(RFX,RFY)

(10)

为了确定最优路径p*,使用动态规划,根据文献[6],有以下定理:

定理1:累积成本矩阵D满足:

(11)

根据定理1,最终优化MDDP的距离是:

dMDDP(RFX,RFY)=Cp*(RFX,RFY)=D(n,m)

(12)

文中选择曼哈顿距离作为本地成本测量,与使用欧几里德距离作为本地成本测量的传统DTW算法相比,提出的检索方式[6]具有更好的性能,接下来的实验将会对此进行验证。基于两个关键步骤,代表帧提取和相似性距离匹配,可以根据相似距离顺序获得检索结果。

2 实 验

实验选择使用HDM5运动数据库[9],从数据库中获得3 000个不同的动作片段,将3 000个运动片段分类到100个运动集合中。得到30个随机选择的运动集合,其中每个集合包括10个运动。实验的测试环境是在具有奔腾6 GHz CPU和2 GB RAM的电脑上进行评估。

由于每个原始动作通常包含不止一个活动,为了获得准确的测试结果,这些片段被分割成由单个活动组成的基本运动序列。为了与提出的方法进行比较,也实施了DTW方法和US方法。测试目的是根据给定的查询运动序列从运动数据库中搜索最佳匹配的运动序列。

自动编码器深度学习神经网络模型[19]由四个模块构成,即输入端信号是1 600维的向量组,对输入的数据进行编码的编码器模块,对编码后的数据进行重构的解码器模块以及输出模块。每一单个运动姿势的图像是40*40像素的尺寸大小,构成1 600维的向量,这一运动序列存储在向量组中,经过深度学习网络预处理把原运动序列降至100维。

为计算30种运动集合的平均精度值,同时采用了Deep-DTW、Quat-DTW和Deep-US方法。运动序列不同检索精度的对比如图3所示,图3代表了数据库中的一个运动动作:clap5Resp。

图3 运动序列检索精度的对比

图4是运动序列检索精度仿真结果,对应于图3一样的运动,并将所有查询的运动序列的精度值进行平均,得到运动类别的平均值,检索精度使用PR(precision-recall)曲线图进行评估:

(13)

(14)

其中,#retrieved是检索到的运动序列的数量;#relevant是相关运动序列的数量。

图4 PR曲线检索精度仿真结果

从图4可以看到,使用Deep-DTW方法对序列进行检索[20-25],精度都高于其他两种方法。说明使用Deep-DTW方法对序列进行检索较其他检索方法性能好。

3 结束语

提出一种基于深度学习和动态时间规划相结合的运动检索算法。针对运动数据库中的运动序列,首先利用模糊聚类获取运动代表性帧及其对应的权重值,进而建立关键帧图像集合。基于深度学习,通过对图像集合学习来训练自动编码器,运用训练的自动编码器提取各个关键帧运动姿态特征,建立运动特征数据库。为了计算相似度距离,在运动检索方法中,针对待查询运动序列,使用训练获取的自动编码器对每一关键帧图片提取特征,进而使用基于曼哈顿距离的动态规划方法计算待查询运动与数据库中运动的相似度,并根据相似度量值对检索结果进行排序。实验结果证明,该方法具有很好的精确性和有效性。

参考文献:

[1] XIAO Jun,TANG Zhangpeng, FENG Yinfu,et al.Sketchbased human motion retrieval via selected 2D geometric posture descriptor[J].Signal Processing,2015,113:1-8.

[2] WANG Pengjie,LAU R W H,PAN Zhigeng,et al.An Eigen-based motion retrieval method for real-time animation[J].Computers & Graphics,2014,38:255-267.

[3] LI Meng,LEUNG H,LIU Zhiguang,et al.3D human motion retrieval using graph kernels based on adaptive graph construction[J].Computers & Graphics,2016,54:104-112.

[4] MÜLLER M,RODER T,CLAUSEN M.Efficient content-based retrieval of motion capture data[J].ACM Transactions on Graphics,2005,24(3):677-685.

[5] MÜLLER M,BAAK A,SEIDEL H P.Efficient and robust annotation of motion capture data[C]//ACM SIGGRAPH/Eurographics symposium on computer animation.New Orleans:ACM,2009:17-26.

[6] KRUGER B,TAUTGES J,WEBER A,et al.Fast local and global similarity searches in large motion capture databases[C]//Proceedings of the 2010 ACM SIGGRAPH/Eurographics symposium on computer animation.Madrid,Spain:ACM,2010:1-10.

[7] VOGELE A,KRUGER B,KLEIN R.Efficient unsupervised temporal segmentation of human motion[C]//Proceedings of the ACM SIGGRAPH/Eurographics symposium on computer animation.Copenhagen,Denmark:ACM,2015:167-176.

[8] MULLER M,RODER T,CLAUSEN M,et al.Documentation mocap database HDM05[R].[s.l.]:[s.n.],2007.

[9] Graphics Lab.Motion capture database[EB/OL].2012.http://mocap.cs.cmu.edu/.

[10] KEIGH E,RATANAMAHATANA C A.Exact indexing of dynamic time warping[J].Knowledge & Information Systems,2005,7(3):358-386.

[11] KAPADIA M,CHIANG I K,THOMAS T,et al.Efficient motion retrieval in large motion databases[C]//ACM SIGGRAPH symposium on interactive 3d graphics and games.Orlando,Florida:ACM,2013:19-28.

[12] ZHOU Feng.Generalized time warping for multimodal alignment of human motion[C]//IEEE conference on computer vision and pattern recognition.[s.l.]:IEEE,2012:1282-1289.

[13] BAAK A,MÜLLER M,SEIDEL H P.An efficient algorithm for keyframe-based motion retrieval in the presence of temporal deformations[C]//ACM international conference on multimedia information retrieval.Vancouver,British Columbia,Canada:ACM,2008:451-458.

[14] CHEN Cheng,ZHUANG Yueting,NIE Feiping,et al.Learning a 3D human pose distance metric from geometric pose descriptor[J].IEEE Transactions on Visualization & Computer Graphics,2011,17(11):1676-1689.

[15] ZHOU Feng,TORRE F D L,HODGINS J K.Hierarchical aligned cluster analysis for temporal clustering of human motion[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,35(3):582-596.

[16] ZHAN Xiwu,HOUSER P R,WALKER J P,et al.A method for retrieving high-resolution surface soil moisture from hydros L-band radiometer and radar observations[J].IEEE Transactions on Geoscience & Remote Sensing,2006,44(6):1534-1544.

[17] KOVAR L,GLEICHER M.Automated extraction and parameterization of motions in large data sets[J]. ACM Transactions on Graphics,2004,23(3):559-568.

[18] SALTON G,MCGILL M J.Introduction to modern information retrieval[M].New York:McGrawHill,1983.

[19] 尹 征,唐春晖,张轩雄.基于改进型稀疏自动编码器的图像识别[J].电子科技,2016,29(1):124-127.

[20] 肖秦琨,李俊芳,肖秦汉.基于四元数描述和EMD的人体运动捕获数据检索[J].计算机技术与发展,2014,24(3):90-93.

[21] 吕 刚,郝 平,盛建荣.一种改进的深度神经网络在小图像分类中的应用研究[J].计算机应用与软件,2014,31(4):182-184.

[22] 杨 涛.运动捕获数据关键帧提取及检索研究[D].杭州:浙江大学,2006.

[23] 李 婷.基于运动捕获数据的人体运动编辑技术研究[D].武汉:华中科技大学,2008.

[24] 郑启财.基于深度学习的图像检索技术的研究[D].福州:福建师范大学,2015.

[25] 连荷清.人体运动捕获数据的检索方法研究[D].南京:南京理工大学,2013.

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!