基于随机森林赋权和改进ELECTRE―Ⅲ方法的科技奖励评价研究

基于随机森林赋权和改进ELECTRE―Ⅲ方法的科技奖励评价研究摘要:针对科技奖励评价中各指标权重的不确定性问题,提出随机森林赋权法,利用可靠性分析计算专家评分数据的泛化误差,根据最小错误率得到各评价项目的各评价指标权重,减少主观赋权的影响;引入一致可信度、非一致可信度和净可信度信息,提出改进的ELECTREⅢ方法,将某一评价项目优于其他评价项目的程度具体量化,解决专家评分数据为次序变量的问题.实证表明:随机森林赋权法和改进后的ELECTREⅢ方法相结合,既提高了权重估计的精确度和可信度,又解决了难以给定门槛值和不能完全排序的问题,使评价结果更加科学、客观、合理.关键词:可靠性分析;随机森林赋权;改进的ELECTREⅢ;科技奖励评价:G311文献标识码:A科技奖励是科技创新的重要推动力.迄今为止,大量学者就科技奖励评价技术进行研究,提出了许多有效的评价方法,然而大多数方法受主观影响大,评价结果不够科学合理.为此,进一步创新科技奖励评价方法具有十分重要的理论意义和现实意义.自20世纪80年代中期以来,中国的科技奖励评价方法得到不断的发展和完善,许多专家学者做了大量研究.王瑛、田煜明\[1\]等引入改进的未知测度模型计算指标权重,并利用综合得分公式进行综合评价,有效地解决了评审过程中出现的信息失真问题.金聪、彭嘉雄\[2\]等运用模糊神经网络的方法构建了科技奖励的智能评审模型,既考虑了专家建议,又有效地减少了由专家决策所带来的主观人为因素的影响.王瑛、曹玮\[3\]等人引入“邻差矩阵”,并结合CRITIC法和因子分析方法,建立了考虑专家信度的立体式科技成果综合评价模型.张立军\[4-5\]等分别就科技奖励指标权重和专家权重问题进行了研究,提出了减少人为操纵因素影响的权重确定方法.王瑛\[6\]等采用改进的CRITIC法提高样本数据的代表性,并利用逆向云模型降低了专家评分的主观因素影响.科技奖励评价是一个多项目、多专家、多指标的多属性群决策问题.目前科技奖励评价指标权重多以主观赋权法为主,受专家主观因素影响较大;且专家评分数据通常为次序变量,使得被评项目难以得到客观的评价结果.本文根据科技奖励评价的特点引入随机森林赋权法,对评价指标进行客观赋权;并提出改进的ELECTREⅢ方法,处理次序变量的排序问题,使评价结果更加客观、科学.1模型的基本原理1.1随机森林赋权法的基本原理随机森林赋权法(RF)\[7\]是一种由多个分类树组成分类器的方法,主要采用Bagging算法,从原始的N个样本中有放回随机抽取约1/3的数据组成一个新的训练集,剩余的数据成为袋外数据(outofbag,简称OOB数据),这部分数据主要用于OOB估计计算泛化误差和各输入特征向量的权重.利用RF的Bagging算法中OOB数据进行特征向量的权重估计,即随机改变OOB数据中某个特征向量X的值(称之为特征向量X的噪声干扰),得到一个OOB数据的准确率;然后将原始OOB数据的准确率与加入噪声之后的OOB数据的准确率相减,得到的结果作为特征向量X在该组分类树上的重要性度量值.照此方法计算出所有分类树中特征向量X的重要性度量值,然后取平均数并归一化,即得到该特征向量X的权重.假设一个由一系列树h1(X),h2(X),…,hk(X)和两个随机向量X(输入向量)、Y(输出向量)组成的随机森林.I=(h(X)=Y)表示对特征向量X正确分类的Y的得票数,特征向量的权重估计步骤如下.步骤1特征向量权重估计的可靠性分析.1)随机森林分类树收敛性估计:定义mg(X,Y)为样本点(x,y)的边缘函数.mg(X,Y)=avkI(hk(X)=Y)-maxj≠YavkI(hk(X)=j).(1)式中:Y表示正确的分类向量;I(?)表示指示器函数;avk()表示对函数值取平均值.该边缘函数表示的是对于向量X正确分类的Y的平均票数超过其他同类型票数的程度.因此,边缘函数越大,正确分类的置信度就越高,算法中分类器的效果越出色.2)特征向量权重估计的错误率:设PE*为随机森林算法中分类器的泛化误差,它反映的是分类器的分类效果.则PE=PX,Y(mg(X,Y)<0).(2)其用来衡量OOB权重估计的错误率.对于随机森林模型hk(X)=h(X,Θ),若森林中树的数目足够多,上式会满足大数定律:limk→Symbo...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

笔杆子文秘
机构认证
内容提供者

为您提供优质文档,供您参考!

确认删除?