自适应LMS算法及其应用.doc

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
自适应LMS算法及其应用

自适应 LMS算法及其应用 本实验通过一个二阶自回归过程来研究实时数据集平均对LMS算法的影响,AR模型的差分方程为:u(n)+a1x(n-1)+a2x(n-2)=v(n) 其中a1=1.558;a2=-0.81; v(n)是零均值方差为的白噪声; 图1为AR模型及其二阶自适应线性预测模型,根据LMS算法的基本步骤可以写出该算法的matlab程序如下: clear close all clc a1=1.588; a2=-0.81; u=0.001; N=1024; G=100; e=zeros(1,N); w1=zeros(1,N+1); w2=zeros(1,N+1); y=zeros(1,N); ee=zeros(1,N);%每个点的误差平方 ep=zeros(1,N);%每个点的误差平方累积 eq=zeros(1,N);%每个点的100次误差平方均值 w11=zeros(1,N+1);%w1权值的累积 w22=zeros(1,N+1);%w2权值的累积 for g=1:G v=randn(1,N); x(1)=v(1); x(2)=x(1)*a1+v(2); for n=3:N x(n)=a1*x(n-1)+a2*x(n-2)+v(n); end figure(1) plot(x) title(输入信号x) for n=3:N y(n)=w1(n)*x(n-1)+w2(n)*x(n-2); e(n)=x(n)-y(n); w1(n+1)=w1(n)+2*u*e(n)*x(n-1); w2(n+1)=w2(n)+2*u*e(n)*x(n-2); ee(n)=e(n)^2; end w11=w1+w11; w22=w2+w22; ep=ep+ee; end eq=ep/G; W1=w11/G; W2=w22/G; figure(2) subplot(2,1,1) plot(w1) hold on subplot(2,1,2) plot(W1) hold on subplot(2,1,1) plot(w2,r) title(w1与w2的收敛曲线,u=0.004) hold on subplot(2,1,2) plot(W2,r); title(100次平均后w1与w2的收敛曲线,u=0.004) figure(3) subplot(2,1,1) plot(e) title(误差曲线(学习曲线)u=0.004) subplot(2,1,2) plot(eq) title(100次平均误差曲线(学习曲线)u=0.004) 下面对结果进行分析: 图3为w1与w2的收敛曲线,比较平滑的为100次平均求得的收敛曲线,而另外一种起伏较大的为单次实现的收敛曲线,权初值为0。 图2 输入信号x(n) 图3 w1与w2的收敛曲线 (u=0.004) 图4为初始权值为0,u=0.004时的误差曲线,即所谓的学习曲线,收敛速度较快的为100次集平均学习曲线,而起伏较大的为单次实现的学习曲线. 图4 平方误差曲线(学习曲线)u=0.004 修改u值,则实验结果如下(u=0.001): 图5 w1与w2的收敛曲线 (u=0.001) 图6 平方误差曲线(学习曲线)u=0.001 由以上分析可知,当收敛步长u值变小时,收敛曲线的起伏变小,但收敛速度也减慢!

文档评论(0)

youshen + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档