elman小波神经网络在挠力河流域地下水开采量预测中的应用.docxVIP

elman小波神经网络在挠力河流域地下水开采量预测中的应用.docx

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
elman小波神经网络在挠力河流域地下水开采量预测中的应用 扎利河盆地位于黑龙江省东部,为乌苏里河支流,流域总面积23.21公里,占三江平原总面积的1.4%。这是中国的一个重要粮食基地。近年来由于经济的发展和农业种植结构的调整,导致大量开采地下水,使该流域地下水位急剧下降,大量抽水井出现了掉泵现象,有些局部地区由于开采井密度过大,超量开采地下水,导致形成大面积扩展性降落漏斗。科学合理地预测地下水开采量,可以为该地下水水资源规划提供理论依据。地下水开采量的预测方法通常采用地下水三维水流模型进行数值模拟及预测,同时给出地下水的开采量,该预测方法较复杂。所以,本文在对Elman神经网络和小波分析进行系统研究,建立了Elman小波神经网络地下水开采量预测模型,并对挠力河流域地下水进行预测,取得了良好的效果。 1 elman小波神经网络模型 1.1 elman小波神经网络的表达模型 Elman神经网络是一种典型的动态递归神经网络,其结构模型如图1所示,从图中可以看出它包括输入层、隐含层、关联层和输出层四层神经元网络。关联层神经元的输入是隐含层神经元的输出,关联层和输入层的输出同时是隐含层的输入。设该网络具有n个输入神经元、1个输出神经元、m个隐含层神经元和m个关联层神经元。xj(t)表示t时刻Elman小波神经网络的n维输入,y(t)表示t时刻Elman小波神经网络输出,Hi(t)表示隐含层输出,xc(t)为关联层输出。 设反馈增益为α,则关联层神经元输出为: xck=α(H)k(t-1) (1) Elman小波神经网络的模型可表达为: y(t)=m∑i=1W1i(t-1)Ηi(t)(2)Ηi(t)=ψ(hi(t)-bi(t)ai(t))(3)hi(t)=n∑j=0W2ij(t)xj(t-1)+αm∑k=1Vik(t-1)Ηk(t-1)(4) 式中:W1i(t)为隐含层神经元i与输出层神经元之间的连接权值;W2ij(t)为输入层神经元j与隐含层神经元i之间的连接权值;Vik(t)为关联层神经元k与隐层神经元i之间的连接权值;Hi(t)为隐层神经元的输出。ψ(X)为小波函数,本文采用Morlet小波函数。ai为小波伸缩系数;bi为小波平移系数,则令X=hi(t)-bi(t-1)ai(t-1),Morlet小波函数表达式为: ψ(X)=cos(1.75X)e-X2/2(5) 1.2 学习速率vik Elman小波神经网可以分成以下几个步骤: (1) 样本的归一化处理。由于Elman小波神经网络模型在网络训练之前首先将训练样本进行归一化处理,将样本值化为之间的数,本文采用式(6)进行归一化处理。 x′j=0.9-0.1xmax-xminxj+[0.9-0.9-0.1xmax-xminxmax](6) (2) 网络结构的确定。设输入层神经元个数为n,输出层神经元的个数r均由样本的模式特性决定,隐含层的神经元个数为m由min(n,r)m≤2n+1确定;关联层神经元个数为m,初始权值、小波函数的伸缩系数、平移系数由[-5√n,5√n]范围随机生成。 (3) 网络参数的修正过程。本文采用梯度下降法对Elman神经网络进行训练学习,其网络参数的修正过程如下: W1i(t)=W1i(t-1)+ΔW1i(t) (7) W2ij(t)=W2ij(t-1)+ΔW2ij(t) (8) Vik(t)=Vik(t-1)+ΔVik(t) (9) ai(t)=ai(t-1)+Δai(t) (10) bi(t)=bi(t-1)+Δbi(t) (11) ΔW1i(t)=mcΔW1i(t-1)-ηδW1i(t-1)(12) ΔW2ij(t)=mcΔW2ij(t-1)-ηδW2ij(t-1)(13) ΔVik(t)=mcΔVik(t-1)-ηδVik(t-1)(14) Δai(t)=Δai(t-1)-ηδai(t-1)(15) Δbi(t)=Δbi(t-1)-ηδbi(t-1)(16) 式中:i=1,2,…,m;j=1,2,…,n;k=1,2,…,m;η为学习速率。 在式(12)~式(16)中: δW1i(t-1)=e(t)Hi(t) (17) δW2ij(t-1)=e(t)W1i(t-1)?Ηi(t)?hi(t)?[xj(t-1)+αm∑k=1Vik(t-1)?Ηk(t)?W2ij(t-2)](18)δVik(t-1)=e(t)W1i(t-1)?Ηi(t)?hi(t)?[αΗk(t-1)+αm∑k=1Vik(t-1)?Ηk(t)?Vik(t-2)](19)δai(t-1)=e(t)W1i(t-1)ψ′(X)?[?X?ai(t-1)+αm∑k=1Vik(t-1)?Ηk(t)?ai(t-2)](20)δbi(

文档评论(0)

hzyacc + 关注
实名认证
文档贡献者

专业的文档设计与制作

1亿VIP精品文档

相关文档