基于长短时记忆神经网络的给煤量预测研究

基于长短时记忆神经网络的给煤量预测研究摘要:随着社会经济的发展,能源和环境问题越来越收到国家和人民的重视,其中煤炭资源的的不合理使用导致了严重的资源紧张和环境污染问题。传统的给煤量预测技术预测效果一般,且不具备长时间预测能力,没有足够的调度时间余量。本文提出基于长短时记忆神经网络(LSTM)的给煤量预测方法,采集火电机组实测数据,进行研究分析,实验结果表明LSTM可以有效可靠的进行给煤量预测,具有良好的工程应用前景。关键词:给煤量预测;深度学习;长短时记忆引言随着社会经济的发展,能源和环境问题越来越收到国家和人民的重视,其中煤炭资源的的不合理使用导致了严重的资源紧张和环境污染问题。锅炉能将煤炭燃烧的热能转换为其他形式的能量,是我国经济发展中不可或缺的热能供应设备,如何根据外界负荷合理的供给锅炉给煤量是提高煤炭资源的最有效处理方式。锅炉燃烧是一个复杂多变的系统,其中锅炉燃烧控制子系统具有流程线十分漫长,滞后严重的问题,因而通过能量输出的反馈调整给煤量已经不能满足实际需求。为了实现节能减排的同时提高火电厂锅炉燃烧系统的燃烧效率,本文提出了一种根据火电机组参数对给煤量进行预测的算法,首先利用插值法对火电历史数据进行处理,然后利用长短时神经网络(LSTM)进行给煤量预测,实现实时给煤量控制。1给煤量数据预处理1.1牛顿插值法考虑到实际测量过程中,数据的采集、测量、传输和转换各个环节可能会发生故障导致干扰或者机组相关数据缺失,从而导致采集到的机组数据和给煤量中存在偏差。单个数据的偏差在LSTM神经网络训练过程中不会产生太大的影响,但长时间的数据缺失可能会导致神经网络错误拟合,降低该变量的特征权值。所以在进行给煤量预测前,首先对给煤量缺失数据进行补齐,本文选择的方法为牛顿插值法。引入差商概念:(1)(2)以此类推,可得n阶差商,从而得到牛顿插值公式:(3)假设LSTM训练时间序列长度为n,则网络输入层节点应当为n个,所以在对缺失数据进行补齐时使用n阶牛顿插值法。即在缺失空前利用现有前后数据采集n个节点,对这n个节点的值计算差商,计算结果用作LSTM输入器进行给煤量预测。下面是对某660MW火电机组的给煤量的插值效果图,采样时间为10分钟,假设LSTM时间序列长度为8,则采用8阶牛顿插值公式进行数据处理:Figure1Newtoninterpolationdatafittingresults图1牛顿插值数据拟合结果牛顿插值法的拟合结果如图1所示,从图1可以看出,使用牛顿插值法对随机缺失后的数据进行处理,所得到的拟合集过与真实结果基本吻合。2长短时记忆神经网络给煤量预测模型2.1长短时记忆神经网络长短时记忆神经网络(LongShort-TermMemory,LSTM)是循环神经网络(RecurrentNeuralNetwork,RNN)的一种特殊形式。同其他深度神经网络一样,LSTM由一个输入层(InputLayer),输出层(OutputLayer)和多个隐含层(HiddenLayer)组成。同时,LSTM集成了RNN的优点,如图2、3,不仅能从输入层中接收信息,还可以接收神经元上一个时刻所感知的信息。这种结构使得LSTM可以接收神经元从上一个时刻所感知的信息。Figure2Recurrentneuralnetwork图2RNN神经网络Figure3LSTMneuralnetwork图3LSTM神经网络不同于RNN的是,Bengio等人发现RNN中存在梯度消失的问题,很难提取长期数据之间的因果规律,而Schmidhuber提出的LSTM存在特殊的“记忆单元”(memoryblock)用于替换RNN中的细胞单元,从而实现了长期的时间序列数据记忆能力。2.2给煤量预测模型的建立以某660MW机组为例,经过数据预处理后,将给煤量作为预测模型输出,其余变量做主成分分析处理,处理后得到的3维特征作为预测模型输入。2.3评价指标的选取为了量化LSTM在给煤量预测中的精度,本文使用了三中量化指标,分别是平均绝对百分误差(MAPE),均方根误差(RMSE)和平均绝对误差(MAE),具体计算公式如下:(4)(5)(6)式中,i为第i个时刻;m为总时间步长数;表示模拟数据;y表示真实的给煤量数据。2.4仿真分析本文引用的是某660MW火电机组数据,该机组的数据采集周期为10min,为保证训练样本的多样性,从所采集的机组数据中随机选择8000组实验数...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供参考,付费前请自行鉴别。
3、如文档内容存在侵犯商业秘密、侵犯著作权等,请点击“举报”。

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

客服邮箱:

biganzikefu@outlook.com

所有的文档都被视为“模板”,用于写作参考,下载前须认真查看,确认无误后再购买;

文档大部份都是可以预览的,笔杆子文库无法对文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;

文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为依据;

如果您还有什么不清楚的或需要我们协助,可以联系客服邮箱:

biganzikefu@outlook.com

常见问题具体如下:

1、问:已经付过费的文档可以多次下载吗?

      答:可以。登陆您已经付过费的账号,付过费的文档可以免费进行多次下载。

2、问:已经付过费的文档不知下载到什么地方去了?

     答:电脑端-浏览器下载列表里可以找到;手机端-文件管理或下载里可以找到。

            如以上两种方式都没有找到,请提供您的交易单号或截图及接收文档的邮箱等有效信息,发送到客服邮箱,客服经核实后,会将您已经付过费的文档即时发到您邮箱。

注:微信交易号是以“420000”开头的28位数字;

       支付宝交易号是以“2024XXXX”交易日期开头的28位数字。

笔杆子文秘
机构认证
内容提供者

为您提供优质文档,供您参考!

确认删除?