计算机专业BP神经网络算法的研究与应用

改进的BP神经网络算法的研究与应用摘要:在提高神经网络算法的快速性和稳定性问题中,针对BP算法收敛速度慢且易陷入局部极小值的缺陷,分析现有改进算法在神经网络结构优化过程中仍然存在的弊端,并利用遗传算法的特点,研究出一种改进的将压缩映射遗传与BP神经网络优化的方法。算法通过对压缩映射原理的引入,不但解决了BP算法收敛速度慢且易陷入局部极小值的问题,而且加快了BP网络的收敛速度,同时弥补BP神经网络在学习过程中与网络连接权值初值选择密切相关的不足。与传统BP算法相比,减少了训练步数,节省了训练时间,并通过数据实验验证改进的算法应用到实践中具有一定得可行性。关键词:神经网络;压缩映射;优化;权值:TP183文献标识码:Adoi:10.3778/j.issn.1002-8331ResearchandapplicationofimprovedC4.5algorithmAbstract:Inordertoimprovetherapidityandstabilityofneuralnetworkalgorithm,aimingatthedefectsofslowconvergencespeedandeasytofallintolocalminimum,theexistingBPalgorithmisanalyzed.Thealgorithmstillexistsintheprocessofneuralnetworkstructureoptimization,andusesthecharacteristicsofgeneticalgorithmtostudyanimprovedcompressionmappinggeneticandBPneuralnetwork.Themethodofnetworkoptimization.Byintroducingtheprincipleofcompressionmapping,thealgorithmnotonlysolvestheproblemthattheconvergencespeedofBPalgorithmisslowandeasytofallintolocalminimum,butalsoacceleratestheconvergencespeedoftheBPnetwork,andmakesupfortheshortageoftheBPneuralnetworkwhichiscloselyrelatedtotheinitialvalueselectionofthenetworkconnectionweightsduringthelearningprocessparedwiththetraditionalBPalgorithm,thetrainingstepisreducedandthetrainingtimeissaved,anditisfeasibletoapplytheimprovedalgorithmtopracticebydataexperiment.Keywords:neuralnetwork;compressionmapping;optimization;weight1引言BP神经网络是一种多层前馈型网络,主要通过模拟人脑的神经元应对外界的信号刺激做出的反馈行为。BP神经网络主要由三层网络构成,输入层、隐藏层和输出层,每层网络中包含多个并行的神经元信号[14]。BP神经网络主要通过信号的正向传播和误差的反向调节,找到连接不同层级之间各神经元的权值,以此来构建BP神经网络模型。在正向传播过程中,信号流经输入层、隐藏层,流向输出层。在误差反向传播中,将输出层与期望输出间的误差作为源信息,反向逐层传播,动态调整各神经元之间的连接权值和阀值。如此反复多次训练,直到模型的输出结果逼近期望输出。BP神经网络算法包括两大步骤:一个是向前传播,主要是通过给定的初始连接权值与阈值计算模型的输出值;一个是反向调节,依赖模型的输出值与实际值的误差,动态调整各神经元之间的连接权值和阀值。如此反复,直到模型的输出结果逼近期望输出。BP神经网络在实际应用中,仍有一些不足的地方。BP神经网络有众多的层数和神经单元节点,因为连接不同层级的神经元之间的权值与阈值也众多,则在实际运行中,BP神经网络受初始权值和阀值的约束,往往容易陷入局部最优,无法逼近期望输出。在研究中发现,曾有文献提出学习率自适应调整法和加速网络收敛速度的改进算法,通过分析原网络收敛速度慢等问题,对传统BP算法加以改进,是一种时变过程参数的神经元网络学习算法,但并没有很好地解决BP算法易陷入局部极小的问题。文献[2]和文献[3]提出通过设计求解最佳学习因子,更新所有权值和阈值,加快网络的收敛速度,减少训练误差,但同样没有很好地解决BP易陷入局部极小点的问题,而且改进的程度有限。文献[4]中提出一种增加结构型反馈网络称为极限学习机,有较高的泛化能力,学习速度比传统的梯度型算法快,另外,还扩展到双隐层神经网络,但是对于大多数的训练数据来说可能需要很多的隐层节点,这种方法使得计算速度减慢,因此需要更加紧密的网络结构。本文针对BP神经网络在学习过程中与网络连接权值初值选择密切相关、收敛速度慢以及易陷入极小值等缺陷,提出了一种新的基于压缩映射遗传的BP神经网络优化方法,通过对群体...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

笔杆子文秘
机构认证
内容提供者

为您提供优质文档,供您参考!

确认删除?