基于混合遗传算法和点面距离测度的深度像配准

基于混合遗传算法和点面距离测度的深度像配准摘要:提出一种利用改进的遗传算法和点面距离作为误差测度的深度像精确配准算法。与现有ICP框架下的迭代算法不同,将深度像配准视为高维空间的一个优化问题,通过在遗传算法中加入退火选择、爬山法以及参数空间的动态退化来加速寻找最优的位置转换关系。同时,采用一种新的基于点面距离的适应函数来计算配准误差,使得算法具有更强的鲁棒性。实验结果表明,该算法不需要初始的运动参数估计,具有较高的配准精度,收敛速度快且抗噪声能力强。关键词:遗传算法;点面距离;误差测度;深度像配准:TP391.72文献标志码:A:1001-3695(2007)12-0354-030引言随着三维数字化技术的不断发展,真实世界物体的三维建模已经成为计算机视觉、计算机辅助几何设计和非接触测量等多学科交叉领域的一个研究热点。由于扫描设备的视野限制以及物体自身复杂的几何形状,实际物体的全部深度信息不可能在一个视点位置获得。为了得到被测物体完整的数据模型,就需要从不同视角对物体进行多次重复扫描。这样,多视场深度数据的精确配准就成为三维建模中的一个关键步骤[1]。对于深度像的两两配准来说,根据输入和配准精度的不同,现有算法可以分为粗配准和精确配准两类。粗配准通常是在没有任何先验知识的情况下,找到一组近似的运动参数,将两个视场的深度像统一到同一个坐标系下。此类方法基本上都是通过寻找深度像重叠区域的特征对应来完成的,所用到的特征[2]包括曲面的曲率、双切线、曲面的标志以及平面和特征线等。一般来说,粗配准的精度不高,而精确配准却可以提供很高的匹配精度。这类方法以两幅深度像和一个初始的空间位置变换作为输入,通过定义一个误差函数来反映深度像重叠区域的匹配程度。目前应用最广泛的精配准算法就是由Besl等人[3]以及Chen等人[4]提出的迭代最近点(iterativeclosestpoint,ICP)算法及其各种变形[5]。深度像精确配准的另一个解决方案就是采用一种有效的搜索算法直接在几何变换的参数空间中寻找最佳的刚体变换。该方法期望在允许的时间内,在包含六个变量的参数空间中找到一个足够精确的刚体变换。此类方法中,最有效的应用就是基于遗传算法[1,2]或者模拟退火的深度像配准[6]。2002年,Robertson等人[7]利用一种并行的硬件实现方式,将对应点对距离的均方误差作为适应函数,利用遗传算法解决了自由曲面的精确配准问题。Chow等人[1]提出了另一种基于遗传算法的深度像配准算法。在该算法中,Chow利用点对距离的中值作为误差度量,使得算法的鲁棒性大为提高。深度像配准的另外一个重要贡献是Silva等人[2]提出的曲面交叉测度。结合点对距离的均方误差,该方法可以获得较高的配准精度。然而,现有基于遗传算法的深度像配准,在误差测度的选择上,都是以对应点对之间的距离作为误差测度来指导深度像的配准。Silva等人[2]曾经指出:以对应点对的距离作为误差测度,即使是某些错误的转换关系也同样可以得到较小的配准误差。因此,本文采用一种新的误差度量,将点到对应切平面的距离作为适应函数,并结合一个混合遗传算法完成了深度像的精确配准。在混合遗传算法中,退火选择、爬山法以及参数空间的动态退化均有利于加快算法的收敛和提高最终的配准精度。实验结果表明,该算法具有较强的鲁棒性和较高的配准精度,收敛速度快、运行稳定。1基于点面距离的误差测度Gelfand等人[8]指出,基于点到对应切平面距离的误差测度要比基于点对对应的误差测度更加鲁棒。当两个深度像足够接近时,点到对应切平面的距离更能反映出两个曲面之间的真正距离。由于受偏离点的影响,基于点对对应的误差测度在配准时往往会陷入局部最优而无法得到正确的配准结果。本文采用点到对应切平面的距离作为误差测度来指导深度像的配准。4结束语本文提出了一种利用遗传算法和点到对应切平面的距离作为误差测度的深度像精确配准算法。与现有基于点对对应的配准算法相比,基于点到对应切平面距离的误差测度具有更强的鲁棒性,对噪声不敏感,更能反映出深度像重叠区域的匹配程度。另外,在遗传算法中加入的退火选择、爬山法以及参数空间的动态退化等技术,有效地提高了算法的...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

笔杆子文秘
机构认证
内容提供者

为您提供优质文档,供您参考!

确认删除?