红外与可见光图像配准研究现状与展望第39卷第7期激光与红外Vo.l39,No.72022年7月LASER&INFRAREDJuly,2022文章编号:101125078(2022)0730693207#综述与评论#红外与可见光图像配准研究现状与展望苑津莎,赵振兵,高强,孔英会(华北电力大学电气与电子工程学院,河北保定071013)摘要:红外与可见光图像配准是常见的多模态图像配准,它广泛应用于军事、遥感等领域,有必要对其研究现状进行综述。在描述了红外与可见光图像配准问题后,首先简述了图像配准的一般方法,分为基于图像区域的配准方法和基于图像特征的配准方法,重点述评了局部不变特征方法中的SIFT算法和SURF算法;然后按文献发表时间顺序对红外与可见光图像配准的国外和国内研究现状进行了详细述评;总结了红外与可见光图像配准研究中存在的问题;最后对其进行展望,并指出未来的研究重点是以SIFT算法和SURF算法为研究基础去构造对模态不敏感的不变特征和其相应的描述子。关键词:图像配准;红外;可见光;SIFT;SURF中图分类号:TN911.73文献标识码:AReviewandprospectoninfrared/visibleimageregistrationYUANJin2sha,ZHAOZhen2bing,GAOQiang,KONGYing2hui(SchoolofElectricalandElectronicEngineering,NorthChinaElectricPowerUniversity,Baoding071013,China)Abstract:Infrared/visibleimageregistrationisthecommonmulti2modalimageregistration,andithasbeenwidelyap2pliedtolotsoffieldssuchasmilitaryandremotesensing.So,itisnecessarytoreviewthecurrentresearchsituationofinfrared/visibleimageregistration.Afterdepictingtheproblemofinfrared/visibleimageregistration,generalmethodsofimageregistrationisdescribedbriefly.Theyaredividedintotwotypes:area2basedmethodsandfeature2basedmeth2ods.SIFTalgorithmandSURFalgorithminlocalinvariantfeaturesaremainlydiscussed.Accordingtotimeoflitera2turepublishing,theanalysisandreviewforinfrared/visibleimageregistrationmethodsathomeandabroadarecarriedoutindetai.lThenthedifficultiesofinfrared/visibleimageregistrationtechniquearesummarizedandevaluated.Atlast,prospectsofinfrared/visibleimageregistrationaremade,andthefutureresearchonthisfieldcouldpaymoreat2tentiontoconstructinvariantandmodality2insensitivefeaturesandtheirdescriptorsonthebasisofresearchofSIFTal2gorithmandSURFalgorithm.Keywords:imageregistration;infrared;visible;SIFT;SURF1引言图像配准是个极富挑战性的研究领域,所谓图像配准是指依据一些相似性度量决定图像间的变换参数,使从不同传感器、不同视角、不同时间获取的同一场景的两幅或多幅图像,变换到同一坐标系下,在像素层上得到最佳匹配的过程[1-6]。图像配准已在军事、遥感、医学、计算机视觉等领域得到了广泛的发展和应用[2]。国外从20世纪60年代就开始在图像配准领域进行研究,而国内从20世纪90年代初才开始涉足此领域,到20世纪末,单模态图像配准问题已基本解决[5],但多模态图像配准仍未得到很好的解决。多模态图像由于来源于不同成像设备,所以能提供比单模态图像更加丰富和全面的信息[2-4,7]。而红外与可见光图像配准是常见的多模作者简介:苑津莎(1957-),男,博士,教授,博士生导师,研究方向为图像处理,智能信息处理等。E2mai:lyuanjinsha@126.com收稿日期:2022202204;修订日期:2022205204本文来源:网络收集与整理,如有侵权,请联系作者删除,谢谢!