基于LHPN算法的手势姿态估计方法研究

基于LHPN算法的手势姿态估计方法研究周全甘屹何伟铭孙福佳杨丽红摘要:随着广大用户越来越追求人工智能产品的体验,手势姿态估计存在广阔的应用前景,但也是当今计算机视觉的难题。针对目前自顶向下的姿态估计模式容易受视觉传感器与目标检测精度的影响,本文提出基于轻量级手势姿态网络(LightweightHandPoseNet,LHPN)算法的手势姿态估计方法,该算法采用ConvolutionalPoseMachines(CPM)算法的多层次顺序结构,在每个阶段后隐式地将上下文信息融合,并设计了轻量级主干网络,以提升手势姿态估计的综合性能。基于STB数据集对比分析不同内部结构的LHPN算法性能,并与典型算法进行对比。实验结果表明,LHPN算法能够对手势姿态进行准确估计,与CPM算法相比,在AUC方面提升了0.5%,在每帧图像运算时长方面减少了0.1358s。关键词:手势姿态估计;LightweightHandPoseNet;ConvolutionalPoseMachines;轻量级:TP391.41:ADOI:10.3969/j.issn.1003-6970.2020.07.013本文著录格式:周全,甘屹,何伟铭,等.基于LHPN算法的手势姿态估计方法研究[J].软件,2020,41(07):66-71ResearchonHandPoseEstimationUsingLHPNAlgorithmZHOUQuan1,GANYi1,2,HEWei-ming1,2,SUNFu-jia1,YANGLi-hong1(1.CollegeofMechanicalEngineering,UniversityofShanghaiforScienceandTechnology,Shanghai200093,China;2.DepartmentofPrecisionMechanics,FacultyofScienceandEngineering,ChuoUniversity,Tokyo〒112-8551,Japan)【Abstract】:Asusersincreasinglypursuetheexperienceofartificialintelligenceproducts,gestureposeestimationhasbroadapplicationprospects,butitisalsoadifficultproblemincomputervision.Inviewofthefactthatthecurrenttop-downhandposeestimationmodeiseasilyaffectedbyvisualsensorsandobjectdetectionaccuracy,thispaperproposesahandposeestimationmethodbasedon(LightweightHandPoseNet,LHPN)algorithm.Thealgorithmusesthemulti-levelsequencestructureofConvolutionalPoseMachines(CPM)algorithm,implicitlycombinesthecontextinformationaftereachstage,anddesignsalightweightbackbonenetworktoimprovethecomprehensiveperformanceofhandposeestimation.BasedonSTBdataset,theperformanceofLHPNalgorithmwithdifferentinternalstructuresisanalyzedandcomparedwithtypicalalgorithms.TheexperimentalresultsshowthatLHPNalgorithmcanaccuratelyestimatehandpose.ComparedwithCPMalgorithm,itimprovesAUCby0.5%andreducescomputationtimeofeachframeofimageby0.1358s.【Keywords】:Handposeestimation;Lightweighthandposenet;Convolutionalposemachines;Lightweight0引言所谓姿态估计,就是将关节点联系起来判断人体部位的状态和行为[1]。姿态估计分为自顶向下[17]与自底向上[16]的方法,自顶向下的方法相對来说比较流行且容易实现。目前大多数研究者借助特殊的视觉传感器进行自顶向下手势姿态估计,文献[2]提出利用多摄像头系统来训练关键点检测器,分析视图的相关联性,生成图像上手势的关键点。文献[3]提出基于单个深度帧将姿态参数分解为一组单个像素的估计,使用均值漂移来聚集局部的像素实现2D的手势姿态估计。但自顶向下姿态估计方法在很大程度上取决于视觉传感器的可靠性,且很容易受目标检测精度的影响,一旦检测目标过多,运行时间会呈线性增长[16]。针对以上不足,本文提出一种自底向上的RGB图像手势姿态估计方法——基于轻量级手势姿态网络(LightweightHandPoseNet,LHPN)算法的手势姿态估计方法。LHPN算法采用ConvolutionalPoseMachines(CPM)算法[4]的多层次顺序结构,利用调节阶段数的方式来保证算法的精度;为了提升手势姿态估计的综合性能,本文还设计了轻量级的主干网络来保证算法的实时性。1CPM算法基本原理CPM算法由一系列的多阶段卷积神经网络组成,形成一个多层次的结构,如图1所示。经过每个阶段卷积神经网络生成置信度图之后,用来预测阶段中每个关节点P的图像位置其中Z为图像中所有坐标(u,v)位置预测值的二维...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

文秘专家
机构认证
内容提供者

1

确认删除?