一种前馈神经网络算法

一种前馈神经网络算法王丽霞(江西理工大学机电工程学院,江西赣州341000)摘要:神经网络由于其非线性处理能力强,性能稳定等特点得到了广泛应用和研究。主要应用于模式识别、信号处理、知识工程、专家系统、优化组合、机器人控制等。神经网络中使用最为广泛的就是前馈神经网络。其网络权值学习算法中影响最大的就是误差反向传播算法(back-propagation简称BP算法)。BP算法存在局部极小点,收敛速度慢等缺点。基于优化理论的Levenberg-Marquardt算法忽略了二阶项。该文讨论当误差不为零或者不为线性函数即二阶项S(W)不能忽略时的Hesse矩阵的近似计算,进而训练网络。关键词:神经网络;误差反向传播算法;Hesse矩阵:TP312文献标识码:A:1811-8755(2004)08021引言人工神经网络系统从20世纪40年代末诞生至今仅半个多世纪,但由于所具有的非线性特性,大量的并行分布结构以及学习和归纳能力使其在在模式识别、信号处理、知识工程、专家系统、优化组合、机器人控制等领域得到越来越广泛得应用,尤其是前馈神经网络。国内外研究的重点主要集中在网络权值学习算法,误差函数和网络结构等。网络权值的学习算法中影响最大的就是误差反向传播算法(back-propagation简称BP算法)。该方法由正向传播和误差反向传播两个过程组成。由于BP算法存在局部极小点,收敛速度慢等缺点,所以各种改进的BP算法纷纷出现。如可变的学习速率,以提高算法的收敛速度,对于局部极小点问题,很多研究重点是神经网络与进化算法1][结合。进化计算其固有的全局搜索能力可以保证经过足够多进化代数总能找到全局最有解。基于优化理论可以给出许多权值学习算法,如共轭梯度法和Levenberg-Marquardt算法(简称LM算法)。很多研究和应用中都不加证明的认为LM算法具有全局二阶收敛性。事实上,只有当Hesse矩阵的二阶项S(W)趋于零时,才能应用LM算法,否则网络训练可能收敛很慢或不收敛。该文讨论当误差不为零或者误差不为线性函数即二阶项S(W)不能忽略时的Hesse矩阵的近似计算,进而训练网络。该方法有较好的收敛特性和稳定性。2前馈神经网络算法2.1前向计算典型前馈神经网络的结构包括输入层,隐层,输出层,各层之间实行全互连接,层内神经元之间无连接。设网络共L层,包括输入层,隐层和输出层。第l层共有ln个神经元节点,l层第i个神经元和l+1层第j个神经元的连接权为jiw(l),l层第j个神经元输出为jy(l),l层输出为ui(l)=11())1()1(lnjijijllwly(1)其中i(l)为第l层第i个神经元的閾值,()1yjl为l1层第j个神经元的输出,为第l1层第i个神经元和l层第j个神经元的连接权,ln1为第l1层神经元的个数。目标函数一般取期望输出与实际输出之差的平方和:LLniniiiiWeydWE1122)(21)(21)((2)1)(lwji神经网络的训练就是求当E(W)为最小时的权值W,一般情况下。前馈神经网络的激活函数取非线性对数-S形函数(logsig函数),即f(x)=ex11。2.2LM算法目标函数:E(W)=LniiWe12)(21=)()(21WeWeTE(W)的梯度:))(()()()(1WeWJWeWeWEWTniiiL其中(W)JT=11212111111222111211121112112111111)()()()()()()()()()()()(WeWWeWWeWWeWeWWeWWeWWeWeWWeWWeWWeLLlLLLLlLlnnnnnnnnnn称为Jacobi矩阵(W)eT=neLee......,21,2211111121111...,......,1nLnTWWWW.其中各元仿照BP算法计算。WkjE)2(=JT(W))())(())()()()((122SWWJWJWWeWeWeWWWeTkikiniijiL其中S(W)=)()(e2WeW此项很难计算,LM算法将其忽略。LM算法:))((]))(([())1(1kkTkkkTeWWJIJWWJWkkW(3)IHIJWWJGkkkkT))((其中kI项保证G可逆,否则JTJ可能不可逆,无法计算。2.3当e(W)不2.4是很小或者e(W)不2.5是线性函数时的Hesse矩阵的近似求法-2.6Davidon-Fletcher-Powell算法(即DFP算法)kkTkTkkkkkTKTKKkkgHggHgHeWWWHH)()(1())(1))((eWkeWkgk())1(WkWkWk该算法是一种叠代算法,算法初值kH选为单位矩阵。结合DFP算法的神...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

笔杆子文秘
机构认证
内容提供者

为您提供优质文档,供您参考!

确认删除?