回覆列表
-
1 # 使用者1430558932451
-
2 # 風雲仙起
線性預測(linear prediction)根據隨機訊號過去的p個已知抽樣值序列為Sn-1,Sn-2,…Sn-p,預測現時樣值Sn的估計值的方法。預測公式是一個線性方程,所以這種預測稱為線性預測。預測公式中的p稱為預測階數;an-k稱為預測係數;真實值與預測值之差en=Sn- ,稱為預測誤差。預測的目的就是找出一組合適的係數a1a2…ap,使誤差en的均方值最小。
實際預測過程一般是先把抽樣序列按一定的數目組成幀,然後逐幀進行預測,每幀都找出該幀的p個最佳預測係數。
線性預測是根據已有采樣點按照線性函式計算未來某一離散訊號的數學方法。在數字訊號處理中,線性預測經常稱為線性預測編碼(LPC),因此也可以看作是數字濾波器的一部分。在系統分析中,線性預測可以看作是數學建模或者最最佳化的一部分最常見的表示是其中是預測的訊號值,是前面觀測到的值,是預測係數。這種預測產生的誤差是其中是真正的訊號值。這個等式對於所有型別的一維線性預測都是有效的,它們的不同之處是引數選擇方式的不同。對於多維訊號,誤差經常定義為其中是適當選擇的向量範數。在引數最佳化中最常見的選擇是均方根準則,也稱為自相關準則。在這種方法中減小了最小均方誤差E[e2(n)]的期望值,這樣就得到等式對於1≤j≤p,其中R是訊號xn的自相關,定義為其中E是期望值。在多維情況下,這相當於最小化L2範數。上面的方程稱為normal方程或者Yule-Walker方程,在矩陣形式下這個方程也可以寫作其中自相關矩陣R是元素為ri,j=R(i−j)的對稱輪換矩陣(en:circulantmatrix),向量r是自相關向量rj=R(j),向量a是引數向量。另外一個更為通用的實現是最小化其中通常使用約束引數以避免trivial解。這個約束產生與上面同樣的預測,但是normal方程是其中索引i的範圍是從0到p,並且R是(p+1)×(p+1)矩陣。引數最佳化是一個非常廣泛的話題,人們已經提出了大量的其它實現方法。但是,自相關方法仍然是最為常用的方法,例如在GSM標準中的語音編碼就在使用這種方法。矩陣方程Ra=r的求解計算上工作量很大,高斯消去法求矩陣的逆可能是最為古老的解法了,但是這種方法沒有有效地利用R和r的對稱性。一種更快的演算法是NormanLevinson在1947年提出的Levinson遞迴法(en:Levinsonrecursion),它遞迴地計算方程的解。後來Delsarteetal.提出了一種稱為splitLevinsonrecursion的改進方法,它僅需要一半的乘除計算量,它在隨後的遞迴層面上使用了引數向量的特殊對稱特性。