lms算法毕业论文(3)

2019-04-22 09:42

致不能获得最优滤波性能[3]。下面我们来分析LMS算法的性能。 2.2.1自适应收敛性

自适应滤波器系数矢量的起始值w(0)是任意的常数,应用LMS算法调节滤波器系数具有随机性而使系数矢量w(n)带来非平稳过程。通常为了简化LMS算法的统计分析,往往假设算法连续迭代之间存在以下的充分条件:

(1) 每个输入信号样本矢量x(n)与过去全部样本矢量x(k),k=0,1,…,n-1是统计独立的,不相关的,即有

E[x(n)xH(k)]=0; k=0,1,…,n-1 (2-9)

(2) 每个输入信号样本矢量x(n)与全部过去的期望信号d(k), k=0,1,…,n-1也是统计独立的,即有

E[x(n)d(k)]=0; k=0,1,…,n-1 (2-10)

(3) 期望信号样本d(n)依赖于输入过程样本矢量x(n),但全部过去的期望信号样本是独立的。

(4)滤波器抽头输入信号矢量x(n)与期望信号d(n)包含着全部n的共同的高斯分布随即变量。

通常,将基于上述基本假设的LMS算法的统计分析称为独立理论(Gendependence Theory)[6].

由式(2-6)可知,自适应滤波器在n+1时刻的滤波系数矢量w(n?1) 依赖与三个输入: (1) 输入过程的过去样本矢量x(k), k=n,n-1,…,0; (2) 期望信号的以前样本值d(k), k=n,n-1,…,0; (3) 滤波器系数矢量的起始值w(0)。

从上述基本假设(1)和(2)的观点来看,我们可发现滤波器系数矢量w(n?1)是与x(n+1)和d(n+1)独立无关。这点是很有用的,而且在后续分析中将被重复使用。

当然,有许多实际问题对于输入过程与期望信号并不满足上述基本假设。尽管如此,LMS算法的实践经验证明,在有足够的关于自适应过程结构信息的条件下,基于这些假设所分析的结果仍可用作可靠的设计指导准则,技术某些问题带有依赖的数据样本。

为了分析问题,现在我们将系数误差矢量Δw(n)代入式(2-6)的右边,得到

w(n?1)?[I??x(n)xH(n)][?w(n)?w0]??x(n)d(n)

???? =[I??x(n)xH(n)]?w(n)?w0??[x(n)d(n)?x(n)xH(n)w0]

式中,Δw(n)是误差矢量。如将w0移至等式左边,则w(n?1)-w0w0是最佳滤波系数矢量,等于系数误差的跟新值,于是上式可写成

Δw(n+1)=[I??x(n)x(n)]?w(n)??[x(n)d(n)?x(n)xH(n)w0] (2-11)

11

H??

对于上式两边取数学期望,得到

E[?w(n?1)]?E{[I??x(n)x(n)?w(n)]}??E[x(n)d(n)?x(n)xH(n)w0]

?H?? =(I??E[x(n)x(n)])E[?w(n)]??E[x(n)d(n)}??E[x(n)xH(n)]w0

=(I??R)E[?w(n)]??(P?Rw0) (2-12)

显然,上式中R为输入信号矢量x(n)的相关矩阵,而P为输入信号矢量x(n)与期望信号d(n)的互相关矩阵。根据自适应滤波的正则方程的矩阵式,上式右边第二项应等于零。由此可简写成

E[?w(n?1)](I??R)E[?w(n)]

??H?(2-13)

我们可以看出,LMS算法与前述最陡下降算法有相同的精确数学表达式。因此,要使LMS算法收敛于均值,必须使步长参数μ满足下列条件:

0 ? ? ?

2?max(2-14)

这里?max是相关矩阵R的最大特征值。在此条件下,当迭代计算次数n接近于?时,自适应滤波系数w(n)近似等于最佳维纳解w0. 2.2.2平均MSE——学习曲线

如前节所述,最陡下降算法每次迭代都要精确计算梯度矢量,使自适应横向滤波器权矢量或滤波系数矢量w(n)能达到最佳维纳解w0 ,这时滤波器均方误差(MSE)为最小,即式

2中,?d是期望信号d(n)的方差。

2T? min ? ? d ? w P (2-15)

学习曲线定义为均方误差随迭代计算次数n的变化关系,如式(2-16)所描述的包含指数项之和:

2n2?(n)????(1???)vi(0)iii?

i?1M(2-16)

图2-3单条学习曲线

式中每个指数项对应于算法的固有模式,模式的数目等于滤波器加权数。显而易见,由于上式中1???i?1,故当n→∞,最陡下降算法均方误差ξ(∞)=λ

12

min

.但LMS算法用瞬时值

估计梯度存在误差的噪声估计,结果使滤波器权矢量估值w(n)只能近似于最佳维纳解,这意味着滤波均方误差?(n)随着迭代次数n的增加而出现小波动地减少,最后,ξ(∞)不是等于λ

min

?而是稍大于其值,如图2-3所示。如果步长参数μ选用得越少,则这种噪化指数衰减

曲线上的波动幅度将减小,即学习曲线的平滑度越好[6]。

但是,对于自适应横向滤波器总体来说,假设每个滤波器LMS算法用相同的步长μ和同等的起始系数矢量w(0),并从同一统计群体随机地选取各个平稳的各态历经的输入信号,由此计算自适应滤波器总体平均学习曲线。

滤波器的均方误差

H ? ( n ) ? ? ? ? w ( n )R? w(n)min(2-17)

式中?w(n)?w(n)?w0,称为滤波系数的误差矢量。为了求总体平均RMS,对式(2-17)两边取数学期望值,有

E[?(n)]??min?E[?wH(n)R?w(n)]

由矩阵理论中等式E[aTbbTa]?tr{E[(bbT)?(aaT)]},上式右边第二项可以可写成

E[?wH(n)R?w(n)]?tr[RK(n)] (2-18)

式中K(n)=E[?w(n)?wH(n)],称之为滤波权系数误差的相关矩阵,因此,平均RMS可以写出

E[?(n)]??min?tr[RK(n)] (2-19)

式中,K(n)可以递归地进行计算。

下面我们推导这个递归公式。首先把式(2-11)递归计算式写成

?w(n?1)?[I??x(n)xH(n)]?w(n)??[x(n)emin(n)]

这里,emin(n)?d(n)?xH(n)w0。将上式与其共轭转置矩阵右乘,得到

?w(n?1)?wH(n?1)?[I??x(n)xH(n)]?w(n)?wH(n)[I??x(n)xH(n)]

2??2emin(n)x(n)xH(n)??emin(n)[I?x(n)xH(n)]?w(n)xH(n)

??emin(n)x(n)?w(n)[I??x(n)xH(n)]

对上式两边取数学期望,由于emin(n)与x(n)不相关,且认为?w(n)与x(n)也不相关,又

E[emin(n)]?0,于是得到K(n)?E[?w(n)?wH(n)]的递归计算公式:

K(n?1)?K(n)??[RK(n)?K(n)R]??2Rtr[RK(n)]??2?minR (2-20)

利用酉矩阵相似性变换法,有

QHRQ?? (2-21a)

这里,?是对角线矩阵所含的相关矩阵R的特征值,矩阵Q是由这些特征值相关联的特征矢量所确定的酉矩阵。注意到矩阵?是实值,并且令

QHK(n)Q?X(n) (2-21b)

13

注意,这里X(n)是一个对角线矩阵。加上酉矩阵性质QHQ?I,由式(2-21)得到

[Q tr [RK ( n )] ? tr ? Q H X (n ) Q H ]

(2-22)

?tr[Q?X(n)QH]?tr[?X(n)]因为?是对角线矩阵,矩阵X(n)的对角元素是xi(n),i=1,2,…,M,上式又可写成

tr[RK(n)]???xii?1Mi(n) (2-23)

其次,我们利用式(2-21)所描述的变换关系,将式(2-20)递归计算公式重新写成

X(n?1)?X(n)??[?X(n)?X(n)?]??2?tr[?X(n)]??2?min? (2-24)

上式表明,只需要计算其对角线项元素,就可得到

xi(n?1)?xi(n)?2??ixi(n)???i??jxj(n)??2?min?i,

2Mj?1 i=1,2,…,M

M当n趋于∞时,则xi(n?1)与xi(n)的极限相等,于是由上式与式(2-23)得到

i?1tr[RK(?)]? M (2-25)

2????i我们定义超量均方误差?ex(?)等于总体平均的均方误差E[ξ(∞)]与最小均方误差?min之差i?1??min??i值,即

??min??i?1 (2-26) ?ex(?)?E[?(?)]??min = tr[RK(∞)] = iM2????ii?1M显然,如果能使总体平均E[ξ(n)]收敛于最终稳定值?min??ex(?),当且仅当步长参数μ必须满足下列条件:

0 ? ? ? 2 (2-27b)

2tr[R]

0???2M?i ? i?1

(2-27a)

这里?i,i=1,2,…,M是相关矩阵R的特征值,M是自适应滤波器横向抽头数或阶数。当此条件被满足时,LMS算法是绝对收敛的,这是从均方值域保证稳定

的条件。如果将其与均方值域所讨论的稳定条件式(2-14)相比较看,由于?max仅是 ? ? i

i?1M中的一个最大值,所以,由式(2-27)所表示的稳定条件既是必要的又是充分的。 2.2.3 失调

在自适应滤波器中,失调(Misnadjustment)M是衡量其滤波性能的一个技术指标,它被定义为总体平均超量均方误差值?ex(?)与最小均方误差值?min之比,即

14

E [?M= ex (? )] (2-28)

把式(2-26)代入上式中,得到

???iM?min M= M (2-29)

2????ii?1 i? 1 通常所用μ值很小,因此,失调又可近似表示为

M1 M= ? ? ?

i2i?1 (2-30)

显而易见,自适应滤波器LMS算法的稳态失调与步长μ成正比。把算法的总体平均学习

1M?k,则滤波器稳定曲线的时间常数(?mse)av写成2??av的逆数,而平均特征值?av应等于 ?Mk?1失调M又可由式(2-29)写成

M= M ? 1 ? M ? AV (2-31)

4(?mse)av2上面诸式表明: (1)失调为自适应LMS算法提供了一个很有用的测度,比如10﹪失调意味着自适应算法所产生的总体平均MSE高于最小均方误差的增量值为10﹪; (2)失调是随滤波系数数目线性增加的;

(3)失调可以做的任意小,只要选用大的时间常数(?mse)av,也就是小的步长值即可。但是,滤波器自适应收敛过程需要长的时间,影响了滤波器自学习、自训练的速度,所以,自适应滤波器LMS算法的失调与自适应收敛过程之间存在着矛盾,如何缩短收敛过程,而且有很小的失调,这是值得研究的问题。 2.2.4 缩短收敛过程的方法

根据自适应滤波器权系数调节的递归计算公式可以看出,LMS算法的迭代公式为

?1w(n?1)?w(n)??[??(n)]2?w(n)??e(n)x(n)为了缩短收敛过程,概括起来可以从如下三个方面进行设计:

第一,采用不同的梯度估值?(n),如LMS牛顿算法,它估计?时采用了输入矢量相关函数的估值,使得收敛速度大大快于上述经典的LMS算法,因为它在迭代过程中采用了更多的有关输入信号矢量的信息。

第二,对收敛因子步长μ选用不同方法。步长μ的大小决定着算法的收敛速度和达到稳态的失调量的大小。对于常数的μ值来说,收敛速度和失调量是一对矛盾,要想得到较快的

15

??


lms算法毕业论文(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:温州市区城镇中低收入住房困难家庭申请公共租赁住房保障

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: