跳至內容

非線性最小二乘法

維基百科,自由的百科全書

非線性最小二乘法非線性形式的最小二乘法,用包含n個未知參數的非線性模型擬合m個觀測值(),可用於某些形式的非線性回歸。該方法的基礎是使用線性模型近似並通過連續迭代來優化參數。它與線性最小二乘法既有相同之處、也有一些顯著差異。

理論

考慮一組個數據點以及曲線(模型函數)。該曲線同時取決於xn個參數(滿足)。目標是找到在最小二乘意義上與數據點擬合最好的曲線所對應的參數,即最小化平方和

其中殘差ri的定義為

S最小值時的梯度為零。由於模型包含n個參數,因此可得到n個梯度方程:

在非線性系統中,偏導數同時是自變量x和參數的函數,因此這些梯度方程通常沒有封閉解。因而必須為參數選擇初始值用以迭代求解。迭代表達式為

其中,k是迭代次數,則是偏移向量。每次迭代時,使用關於的一階泰勒級數展開以線性化模型:

雅可比矩陣J是常數、自變量與參數的函數,因此每次迭代時的J並不固定。對線性化模型而言,

殘差的表達式則為

將上述表達式代入梯度方程,可以得到

以上方程可化簡為n個聯立的線性方程,稱為正規方程(normal equations):

正規方程可用矩陣表示法寫成

上述方程是使用高斯-牛頓算法英語Gauss–Newton algorithm求解非線性最小二乘問題的的基礎。

需要注意的是雅可比矩陣定義中導數的符號約定。某些文獻中的J可能與此處的定義相差一個負號。

權重擴展

不同數據點(觀測結果)的可靠性並不一定相同,此時可使用加權平方和

權重矩陣W是一個對角矩陣,理想情況下每個權重係數應等於觀測誤差方差的倒數。[1]此時,正規方程可擴展為

參見

注釋

  1. ^ 此處假定所有觀測點是相互獨立的。如果觀測點之間相關時,加權平方和可表示為 此時權重矩陣的理想值應為觀測誤差協方差矩陣的逆。

參考文獻