跳转到内容

遞迴最小平方濾波器

本页使用了标题或全文手工转换
维基百科,自由的百科全书

遞迴最小平方濾波器(RLS)屬於自适应滤波器,會針對和輸入信號有關的加權最小平方英语Weighted least squares损失函数,遞迴尋找可以使其最小化的係數。此方法和想要減少均方误差最小均方滤波器(LMS)不同。在推導遞迴最小平方濾波器時,會假設輸入信號是确定性的,而最小均方滤波及其他演算法會假設信號隨機。和其他的方法比較起來,遞迴最小平方濾波器的收斂速度特別快。但其代價是非常高的運算複雜度。

演進

[编辑]

遞迴最小平方濾波器是由卡爾·弗里德里希·高斯發現,但被遺忘無人使用,直到Plackett在1950年發現高斯1821年的著作之後,才再獲使用。一般來說,遞迴最小平方濾波器可以求得任何可以用自适应滤波器求解的問題。例如,假設信號從有回聲的有噪信道傳輸,接收到的是

其中代表加性高斯白噪声。RLS濾波器的目的是用有限冲激响应(FIR)濾波器,還原想要的訊號

其中是包括最近次取樣的列向量。接收到想要訊號的估測值為

其目的是估測濾波器的參數,在每個時間,會將目前的估測值用表示,自適應的最小方差估測值為也是如下的列向量,其转置則是行向量。矩陣乘法(也是點積)是為純量。若最小二乘法的概念下,其值是小的,其估測就算是好的。

隨著時間演進,會希望避免完全重做最小方差演算法來找新估測值,會希望可以將新估測值配合其他變數來表示。

遞迴最小平方濾波器的好處是不用進行反矩陣運算,因此可以節省計算時間。另一個好處是在其結果之後,提供了類似卡尔曼滤波的直覺資訊。

概念

[编辑]

遞迴最小平方濾波器背後的概念是在收到新資料時,適當選擇濾波器係數、更新濾波器,以及讓损失函数 最小化。誤差信號和期望信號之間的關係,可以用以下的负反馈方塊圖來說明:

誤差會透過估測值,受到濾波器係數影響:

加權最小方差函數—希望可以最小化的費用函數—是的函數,因此也會受到濾波器係數的影響:

其中,是「遺忘因子」(forgetting factor),以指數的方式讓較舊的資料有較小的加權。

費用函數最小化的方式,是將係數向量中的所有項次微分,並讓微分為零

接著,用以下的誤差信號來代替

將等式重組如下

可以表示為以下的矩陣

其中的加權樣本協方差英语Sample mean and sample covariance矩陣,而互协方差的等效估計。依照上式可以找到最小化費用函數的係數

如何選擇λ

[编辑]

越小,舊數據對協方差矩陣的影響越小,讓濾波器對最近的數據較敏感,這也會讓濾波器的co-efficients比較容易振盪。稱為growing window遞迴最小平方演算法。在實務上,會讓0.98介於1之間[1]。利用第二型的最大可能區間估測,可以用資料中估測到最佳的[2]

遞迴演算法

[编辑]

以上敘述的結論是可以決定費用函數的參數,使費用函數最小化的方程式。以下則說明如何找到此形式的遞迴解

其中是時間的修正因子。首先將互協方差來表示

其中維的資料向量

接下來以相似的方式,用表示

為了要找到其係數向量,接下來要關注的是決定性自協方差矩陣的反矩陣。這問題可以使用伍德伯里矩陣恆等式英语Woodbury matrix identity。若

矩陣
(列向量)
(行向量)
單位矩陣

依照伍德伯里矩陣恆等式,可得到下式

為了和標準的文獻一致,定義

其中的增益向量

在往下推導之前,需要將改為以下的形式

等式兩側減去左邊的第二項,得到

配合的遞迴式定義,希望的形式如下

此時就可以完成遞迴,如以上討論

第二步是從的遞迴式定義開始,接著使用的遞迴式定義,配合調整後的,可以得到

配合,可以得到以下的更新方程式

其中先驗誤差。將此和後驗誤差(在濾波器更新後計算的誤差)比較

這就找到了修正因子

這個結論指出了修正係數直接和誤差和增益向量成正比,增益向量會透過加權因子影響想要的靈敏度,這個結論很符合直覺。

RLS演算法摘要

[编辑]

p階RLS濾波器的演算法可以摘要如下

參數: 階數
遺忘因子
的初始值
開始: ,
,
其中階的單位矩陣
計算: 針對

.

的遞迴依照代數Riccati方程,也類似卡尔曼滤波的結果[3]

相關條目

[编辑]

書目

[编辑]
  1. ^ Emannual C. Ifeacor, Barrie W. Jervis. Digital signal processing: a practical approach, second edition. Indianapolis: Pearson Education Limited, 2002, p. 718
  2. ^ Steven Van Vaerenbergh, Ignacio Santamaría, Miguel Lázaro-Gredilla "Estimation of the forgetting factor in kernel recursive least squares", 2012 IEEE International Workshop on Machine Learning for Signal Processing, 2012, accessed June 23, 2016.
  3. ^ Welch, Greg and Bishop, Gary "An Introduction to the Kalman Filter", Department of Computer Science, University of North Carolina at Chapel Hill, September 17, 1997, accessed July 19, 2011.
  • Hayes, Monson H. 9.4: Recursive Least Squares. Statistical Digital Signal Processing and Modeling. Wiley. 1996: 541. ISBN 0-471-59431-8. 
  • Simon Haykin, Adaptive Filter Theory, Prentice Hall, 2002, ISBN 0-13-048434-2
  • M.H.A Davis, R.B. Vinter, Stochastic Modelling and Control, Springer, 1985, ISBN 0-412-16200-8
  • Weifeng Liu, Jose Principe and Simon Haykin, Kernel Adaptive Filtering: A Comprehensive Introduction, John Wiley, 2010, ISBN 0-470-44753-2
  • R.L.Plackett, Some Theorems in Least Squares, Biometrika, 1950, 37, 149–157, ISSN 0006-3444
  • C.F.Gauss, Theoria combinationis observationum erroribus minimis obnoxiae, 1821, Werke, 4. Gottinge