多元多项式函数的三层前向神经网络逼近方法

多元多项式函数的三层前向神经网络逼近方法1王建军1),2)徐宗本)2)1(西南大学数学与统计学院重庆400715))2(西安交通大学信息与系统科学研究所西安710049)摘要本文首先用构造性方法证明:对任意r阶多元多项式,存在确定权值和确定隐元个数的三层前向神经网络,它能以任意精度逼近该多项式,其中权值由所给多元多项式的系数和激活函数确定,而隐元个数由r与输入变量维数确定。我们给出算法和算例,说明基于本文所构造的神经网络可非常高效地逼近多元多项式函数。具体化到一元多项式的情形,本文结果比文献[11]所提出的网络和算法更为简单、高效;所获结果对前向神经网络逼近多元多项式函数类的网络构造以及逼近等具有重要的理论与应用意义,为神经网络逼近任意函数的网络构造的理论与方法提供了一条途径。关键词前向神经网络,多元多项式,逼近,算法中图分类号TP18ApproximationMethodofMultivariatePolynomialsbyFeedforwardNeuralNetworksWANGJian-Jun1),2)XUZong-Ben)2)1(SchoolofMathematics&Statistics,SouthwestUniversity,Chongqing400715))2(InstituteforInformationandSystemScience,Xi'anJiaotongUniversity,Xi'an710049)AbstractFirstly,thispaperinvestigatesthatforagivenmultivariatepolynomialswithrorder,athree-layerfeedforwardneuralnetworkswithdeterminateweightsandthenumberofhidden-layernodescanbeestablishedbyaconstructivemethodtoapproximatethepolynomialstoanydegreeofaccuracy.Secondly,theweightsaredecidedbyboththecoefficientsofthepolynomialsandtheactivationfunction,andthenumberofhidden-layernodesoftheconstructednetworkdependsontheorderofapproximatingpolynomialandthedimensionofinputonthenetwork..Thenwegivethealgorithmandalgorithmicexamples,wheretheconstructednetworkscanveryefficientlyapproxi-matemultivariatepolynomials.Specifically,foraunivariatepolynomial,theconstructednetworkandrealizationofalgorithmobtainedaresimplerandmoreefficientthanthoseofthereference[11].Theobtainedresultsareoftheoreticalandpracticalimportanceinconstructingafeedforwardneuralnetworkwiththree-layertoapproximatetheclassofmultivariatepolynomials.Theyalsoprovidearouteinboththeoryandmethodofconstructingneuralnetworktoapproximateanymultivariatefunctions.KeywordsFeedforwardneuralnetwork;Multivariatepolynomials;Approximation;Algorithm1本课题得到国家“973”重点基础研究发展计划项目基金(2007CB311000),国家自然科学基金重点项目(70531030),国家自然科学基金(10726040,10701062,10826081),教育部科学技术重点项目(108176),中国博士后科学基金(20080431237),西南大学博士基金(SWUB2007006)和西南大学发展基金(SWUF2007014)资助.王建军,男,1976年生,博士,副教授,主要研究方向为神经网络,学习理论和逼近论。E-mail:wjj@swu.edu.cn.徐宗本,男,1955年生,博士,教授,博士生导师,主要研究领域为人工智能,非线性泛函分析等。一.引言近年来,许多学者对神经网络逼近问题进行了研究,取得了一系列重要成果。神经网络已经在工程、计算机、物理、生物等学科中得到了广泛的应用,大多数应用都被转化为利用神经网络逼近多元函数的问题([1]-[5]等)。神经网络之所以能得到广泛应用,其主要原因之一是它具有一定意义上的万有逼近性([6],[7]等)。所有这些研究的一个典型结论是:任何一个定义在Rd上的连续函数可以通过一个具有单一隐层的三层前向神经网络任意逼近。一个具有单一隐层,含d个输入,1个输出的三层前向神经网络数学上可表示为:,1,,)(11dxwxcxdijijdjimiRN(1)其中,1imiR是阈值,,(1iiwwdTidiww)R2,...,是输入层与隐层第i个神经元的连接权值,ci是隐层与输出层之间的连接权值,是隐层节点的激活函数(传递函数)。通常情况下,网络激活函数取为sigmoid型函数,即满足1()t(t),0()t(t)的函数。用向量形式表示,(1)可进一步表达为...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

文秘专家
机构认证
内容提供者

1

确认删除?