致不能获得最优滤波性能[3]。下面我们来分析LMS算法的性能。 2.2.1自适应收敛性
自适应滤波器系数矢量的起始值w(0)是任意的常数,应用LMS算法调节滤波器系数具有随机性而使系数矢量w(n)带来非平稳过程。通常为了简化LMS算法的统计分析,往往假设算法连续迭代之间存在以下的充分条件:
(1) 每个输入信号样本矢量x(n)与过去全部样本矢量x(k),k=0,1,…,n-1是统计独立的,不相关的,即有
E[x(n)xH(k)]=0; k=0,1,…,n-1 (2-9)
(2) 每个输入信号样本矢量x(n)与全部过去的期望信号d(k), k=0,1,…,n-1也是统计独立的,即有
E[x(n)d(k)]=0; k=0,1,…,n-1 (2-10)
(3) 期望信号样本d(n)依赖于输入过程样本矢量x(n),但全部过去的期望信号样本是独立的。
(4)滤波器抽头输入信号矢量x(n)与期望信号d(n)包含着全部n的共同的高斯分布随即变量。
通常,将基于上述基本假设的LMS算法的统计分析称为独立理论(Gendependence Theory)[6].
由式(2-6)可知,自适应滤波器在n+1时刻的滤波系数矢量w(n?1) 依赖与三个输入: (1) 输入过程的过去样本矢量x(k), k=n,n-1,…,0; (2) 期望信号的以前样本值d(k), k=n,n-1,…,0; (3) 滤波器系数矢量的起始值w(0)。
从上述基本假设(1)和(2)的观点来看,我们可发现滤波器系数矢量w(n?1)是与x(n+1)和d(n+1)独立无关。这点是很有用的,而且在后续分析中将被重复使用。
当然,有许多实际问题对于输入过程与期望信号并不满足上述基本假设。尽管如此,LMS算法的实践经验证明,在有足够的关于自适应过程结构信息的条件下,基于这些假设所分析的结果仍可用作可靠的设计指导准则,技术某些问题带有依赖的数据样本。
为了分析问题,现在我们将系数误差矢量Δw(n)代入式(2-6)的右边,得到
w(n?1)?[I??x(n)xH(n)][?w(n)?w0]??x(n)d(n)
???? =[I??x(n)xH(n)]?w(n)?w0??[x(n)d(n)?x(n)xH(n)w0]
式中,Δw(n)是误差矢量。如将w0移至等式左边,则w(n?1)-w0w0是最佳滤波系数矢量,等于系数误差的跟新值,于是上式可写成
Δw(n+1)=[I??x(n)x(n)]?w(n)??[x(n)d(n)?x(n)xH(n)w0] (2-11)
11
H??
对于上式两边取数学期望,得到
E[?w(n?1)]?E{[I??x(n)x(n)?w(n)]}??E[x(n)d(n)?x(n)xH(n)w0]
?H?? =(I??E[x(n)x(n)])E[?w(n)]??E[x(n)d(n)}??E[x(n)xH(n)]w0
=(I??R)E[?w(n)]??(P?Rw0) (2-12)
显然,上式中R为输入信号矢量x(n)的相关矩阵,而P为输入信号矢量x(n)与期望信号d(n)的互相关矩阵。根据自适应滤波的正则方程的矩阵式,上式右边第二项应等于零。由此可简写成
E[?w(n?1)](I??R)E[?w(n)]
??H?(2-13)
我们可以看出,LMS算法与前述最陡下降算法有相同的精确数学表达式。因此,要使LMS算法收敛于均值,必须使步长参数μ满足下列条件:
0 ? ? ?
2?max(2-14)
这里?max是相关矩阵R的最大特征值。在此条件下,当迭代计算次数n接近于?时,自适应滤波系数w(n)近似等于最佳维纳解w0. 2.2.2平均MSE——学习曲线
如前节所述,最陡下降算法每次迭代都要精确计算梯度矢量,使自适应横向滤波器权矢量或滤波系数矢量w(n)能达到最佳维纳解w0 ,这时滤波器均方误差(MSE)为最小,即式
2中,?d是期望信号d(n)的方差。
2T? min ? ? d ? w P (2-15)
学习曲线定义为均方误差随迭代计算次数n的变化关系,如式(2-16)所描述的包含指数项之和:
2n2?(n)????(1???)vi(0)iii?
i?1M(2-16)
图2-3单条学习曲线
式中每个指数项对应于算法的固有模式,模式的数目等于滤波器加权数。显而易见,由于上式中1???i?1,故当n→∞,最陡下降算法均方误差ξ(∞)=λ
12
min
.但LMS算法用瞬时值
估计梯度存在误差的噪声估计,结果使滤波器权矢量估值w(n)只能近似于最佳维纳解,这意味着滤波均方误差?(n)随着迭代次数n的增加而出现小波动地减少,最后,ξ(∞)不是等于λ
min
?而是稍大于其值,如图2-3所示。如果步长参数μ选用得越少,则这种噪化指数衰减
曲线上的波动幅度将减小,即学习曲线的平滑度越好[6]。
但是,对于自适应横向滤波器总体来说,假设每个滤波器LMS算法用相同的步长μ和同等的起始系数矢量w(0),并从同一统计群体随机地选取各个平稳的各态历经的输入信号,由此计算自适应滤波器总体平均学习曲线。
滤波器的均方误差
H ? ( n ) ? ? ? ? w ( n )R? w(n)min(2-17)
式中?w(n)?w(n)?w0,称为滤波系数的误差矢量。为了求总体平均RMS,对式(2-17)两边取数学期望值,有
E[?(n)]??min?E[?wH(n)R?w(n)]
由矩阵理论中等式E[aTbbTa]?tr{E[(bbT)?(aaT)]},上式右边第二项可以可写成
E[?wH(n)R?w(n)]?tr[RK(n)] (2-18)
式中K(n)=E[?w(n)?wH(n)],称之为滤波权系数误差的相关矩阵,因此,平均RMS可以写出
E[?(n)]??min?tr[RK(n)] (2-19)
式中,K(n)可以递归地进行计算。
下面我们推导这个递归公式。首先把式(2-11)递归计算式写成
?w(n?1)?[I??x(n)xH(n)]?w(n)??[x(n)emin(n)]
这里,emin(n)?d(n)?xH(n)w0。将上式与其共轭转置矩阵右乘,得到
?w(n?1)?wH(n?1)?[I??x(n)xH(n)]?w(n)?wH(n)[I??x(n)xH(n)]
2??2emin(n)x(n)xH(n)??emin(n)[I?x(n)xH(n)]?w(n)xH(n)
??emin(n)x(n)?w(n)[I??x(n)xH(n)]
对上式两边取数学期望,由于emin(n)与x(n)不相关,且认为?w(n)与x(n)也不相关,又
E[emin(n)]?0,于是得到K(n)?E[?w(n)?wH(n)]的递归计算公式:
K(n?1)?K(n)??[RK(n)?K(n)R]??2Rtr[RK(n)]??2?minR (2-20)
利用酉矩阵相似性变换法,有
QHRQ?? (2-21a)
这里,?是对角线矩阵所含的相关矩阵R的特征值,矩阵Q是由这些特征值相关联的特征矢量所确定的酉矩阵。注意到矩阵?是实值,并且令
QHK(n)Q?X(n) (2-21b)
13
注意,这里X(n)是一个对角线矩阵。加上酉矩阵性质QHQ?I,由式(2-21)得到
[Q tr [RK ( n )] ? tr ? Q H X (n ) Q H ]
(2-22)
?tr[Q?X(n)QH]?tr[?X(n)]因为?是对角线矩阵,矩阵X(n)的对角元素是xi(n),i=1,2,…,M,上式又可写成
tr[RK(n)]???xii?1Mi(n) (2-23)
其次,我们利用式(2-21)所描述的变换关系,将式(2-20)递归计算公式重新写成
X(n?1)?X(n)??[?X(n)?X(n)?]??2?tr[?X(n)]??2?min? (2-24)
上式表明,只需要计算其对角线项元素,就可得到
xi(n?1)?xi(n)?2??ixi(n)???i??jxj(n)??2?min?i,
2Mj?1 i=1,2,…,M
M当n趋于∞时,则xi(n?1)与xi(n)的极限相等,于是由上式与式(2-23)得到
i?1tr[RK(?)]? M (2-25)
2????i我们定义超量均方误差?ex(?)等于总体平均的均方误差E[ξ(∞)]与最小均方误差?min之差i?1??min??i值,即
??min??i?1 (2-26) ?ex(?)?E[?(?)]??min = tr[RK(∞)] = iM2????ii?1M显然,如果能使总体平均E[ξ(n)]收敛于最终稳定值?min??ex(?),当且仅当步长参数μ必须满足下列条件:
或
0 ? ? ? 2 (2-27b)
2tr[R]
0???2M?i ? i?1
(2-27a)
这里?i,i=1,2,…,M是相关矩阵R的特征值,M是自适应滤波器横向抽头数或阶数。当此条件被满足时,LMS算法是绝对收敛的,这是从均方值域保证稳定
的条件。如果将其与均方值域所讨论的稳定条件式(2-14)相比较看,由于?max仅是 ? ? i
i?1M中的一个最大值,所以,由式(2-27)所表示的稳定条件既是必要的又是充分的。 2.2.3 失调
在自适应滤波器中,失调(Misnadjustment)M是衡量其滤波性能的一个技术指标,它被定义为总体平均超量均方误差值?ex(?)与最小均方误差值?min之比,即
14
E [?M= ex (? )] (2-28)
把式(2-26)代入上式中,得到
???iM?min M= M (2-29)
2????ii?1 i? 1 通常所用μ值很小,因此,失调又可近似表示为
M1 M= ? ? ?
i2i?1 (2-30)
显而易见,自适应滤波器LMS算法的稳态失调与步长μ成正比。把算法的总体平均学习
1M?k,则滤波器稳定曲线的时间常数(?mse)av写成2??av的逆数,而平均特征值?av应等于 ?Mk?1失调M又可由式(2-29)写成
M= M ? 1 ? M ? AV (2-31)
4(?mse)av2上面诸式表明: (1)失调为自适应LMS算法提供了一个很有用的测度,比如10﹪失调意味着自适应算法所产生的总体平均MSE高于最小均方误差的增量值为10﹪; (2)失调是随滤波系数数目线性增加的;
(3)失调可以做的任意小,只要选用大的时间常数(?mse)av,也就是小的步长值即可。但是,滤波器自适应收敛过程需要长的时间,影响了滤波器自学习、自训练的速度,所以,自适应滤波器LMS算法的失调与自适应收敛过程之间存在着矛盾,如何缩短收敛过程,而且有很小的失调,这是值得研究的问题。 2.2.4 缩短收敛过程的方法
根据自适应滤波器权系数调节的递归计算公式可以看出,LMS算法的迭代公式为
?1w(n?1)?w(n)??[??(n)]2?w(n)??e(n)x(n)为了缩短收敛过程,概括起来可以从如下三个方面进行设计:
第一,采用不同的梯度估值?(n),如LMS牛顿算法,它估计?时采用了输入矢量相关函数的估值,使得收敛速度大大快于上述经典的LMS算法,因为它在迭代过程中采用了更多的有关输入信号矢量的信息。
第二,对收敛因子步长μ选用不同方法。步长μ的大小决定着算法的收敛速度和达到稳态的失调量的大小。对于常数的μ值来说,收敛速度和失调量是一对矛盾,要想得到较快的
15
??