基于SqueezeNet和FractalNet混合模型的图像分类研究

基于SqueezeNet和FractalNet混合模型的图像分类研究王子牛王许高建瓴陈娅先吴建华摘要:针对传统卷积神经网络(如Lenet5)在图像的多分类任务中识别率不高、较新的卷积神经网络(如VGG16)在图像的多分类任务中待优化的参数达到千万级别的问题。采用将SqueezeNet神经网络与FractalNet神经网络相结合的方法。本文使用SqueezeNet神经网络中的FireModule来减少模型的参数、FractalNet神经网络的基本架构来保证神经网络模型的准确度。结果显示:在其它超参数基本相同的前提下,迭代40代时,DenseNet模型的测试集准确度为79.92%,而混合模型的测试集准确度为84.56%,其待优化的参数降至二百万个左右,故混合模型对数据的拟合能力更强,模型参数保持较低水平。关键词:SqueezeNet;FractalNet;DenseNet;图像分类;混合模型;卷积神经网络:TP183:ADOI:10.3969/j.issn.1003-6970.2019.10.011本文著录格式:王子牛,王许,高建瓴,等.基于SqueezeNet和FractalNet混合模型的图像分类研究[J].软件,2019,40(10):4649ImageClassificationBasedonSqueezeNetandFractalNetHybridModelWANGZi-niu1,WANGXu2,GAOJian-ling2,CHENGYa-xian2,WUJian-hua(1.GuizhouUniversity,Guizhou550000;2.GuizhouUniversity,SchoolofBigDataandInformationEngineering,Guizhou550000)【Abstract】:Forthetraditionalconvolutionalneuralnetwork(suchasLenet5),therecognitionrateisnothighinthemulti-classificationtaskoftheimage,andthenewerconvolutionalneuralnetwork(suchasVGG16)hastobeoptimizedinthemulti-classificationtaskoftheimage.AmethodofcombiningtheSqueezeNetneuralnetworkwiththeFractalNetneuralnetworkisemployed.ThispaperusestheFireModuleintheSqueezeNetneuralnetworktoreducetheparametersofthemodelandthebasicarchitectureoftheFractalNetneuralnetworktoensuretheaccuracyoftheneuralnetworkmodel.Theresultsshowthatunderthepremisethatothersuperparametersarebasicallythesame,theaccuracyofthetestsetoftheDenseNetmodelis79.92%whentheiterationis40generations,andtheaccuracyofthetestsetofthehybridmodelis84.56%,andtheparameterstobeoptimizedarereducedtotwohundred.About10,000orso,thehybridmodelhasastrongerabilitytofitthedata,andthemodelparametersremainatalowerlevel.【Keywords】:SqueezeNet;FractalNet;DenseNet;Imageclassification;Hybridmodel;Convolutionalneuralnetwork0引言隨着科学技术的发展,计算机视觉日益成熟,然而在过去,卷积神经网络对图像的分类任务中一直追求准确率而不在意神经网络模型的待优化参数数目,虽然每年出来的卷积神经网络模型对图像分类的准确率逐年提高,但随之而来的是待优化参数的数目也逐年升高。2016年,ForrestN.Iandola,SongHan等人提出了SqueezeNet论文,该论文提到:同样的精度,较小的CNN架构提供至少三优点[8-9]。(1)较小的CNN在分布式训练过程中需要跨服务器进行更少的通信[3-6]。(2)较小的CNN需要更少的带宽。(3)较小的CNN提供了在FPG内存有限的硬件上部署的可行性[1]。2017年,GustavLarsson,MichaelMaire等人提出了FractalNet论文,认为残差不是建立深度网络唯一的基础和方法。深度卷积网络中真正的关键所在训练过程中网络关于信息的传递能力。采用了一种类似student-teacher的学习机制,结合drop-path也能够使得深度卷积神经网络模型训练得非常好[2]。为了使卷积神经网络具有较高的识别率又使其待优化的参数减少,本文提出了将SqueezeNet神经网络中的FireModule与FractalNet神经网络的基本架构相结合起来对图像进行多分类处理。1SqueezeNet、FractalNet基本原理1.1SqueezeNet基本原理为了保证卷积神经网络模型参数少、准确性较好的研究目标。在设计卷积神经网络架构时一般采用三个主要策略:策略一,使用1×1卷积核替换3×3卷积核;策略二,将输入到3×3卷积核的通道数目减少;策略三,在网络后期进行降采样[1]。Fire模块如图一所示,Fire模块中包括:squeeze层(其仅具有1×1...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

文秘专家
机构认证
内容提供者

1

确认删除?