課程筆記
Interpolation (內插)
線性內插 (Linear Interpolation)
- 優缺點:
- 優點:可以求解出多項式的係數,可以重複使用。
- 缺點:需要解聯立方程式,計算較為複雜。
由於此較為簡單,直接參考以下例題求解即可。
拉格朗日多項式內插 (Lagrange Polynomials)
- 優缺點:
- 優點:
- 可直接計算出多項式的值,不需要先求出未知數。
- 結構簡單,不需解連立方成組,易於程式化計算。
- 缺點:
- 當需重複計算時,每次都需要重新計算。
- 優點:
- 相對高階多項式內插,拉格朗日多像式內插在數值計算上更為方便:
- 結構更為簡單,易於程式化計算。
- 可以直接計算出多項式的值,不需要先求出未知數。
- 方法:
- Lagrange Polynomials:
- 舉例當
: = + + +
- Lagrange Polynomials:
除差法 (Divided Difference)
- 優點:
- 計算簡單,不需要解聯立方程式。
- 可以直接計算出多項式的係數(可重複使用)。
- 可以快速找到多項式的誤差項。
- 方法:n 階除差多項式:
+ + + + - 因此:
- 0 階除差(1 個數據可以找出 1 個 0 階除差):
- 1 階除差(2 個數據可以找出 1 個 1 階除差):
- 依此類推
- 2 階除差(3 個數據可以找出 1 個 2 階除差):
- 依此類推
- n 階除差(n+1 個數據可以找出 1 個 n 階除差):
- 依此類推
- 0 階除差(1 個數據可以找出 1 個 0 階除差):
- 因此:
- 方法:除差表 (Divided Difference Table):
-
- 由於:
- 依此類推,故:
,也就是除差表中第一列的第 n 個數值。
-
舉例
假設已知:
x f(x) 3.2 22.0 2.7 17.8 1.0 14.2 4.8 38.3 5.6 51.7 Find f(3.0)
Solution-線性內插
- 得
Solution-高階多項式內插
- 假設三階多項式:
- 故得方程組 (四個未知數,需要四筆數據求未知數):
- 使用高斯消去法 || 高斯-賽得法求解未知數,得:
- 故
Solution-除差法
- 使用除差表計算:
-
3.2 22.0 8.400 2.856 -0.528 0.256 2.7 17.8 2.118 2.012 0.0865 1.0 14.2 6.342 2.263 4.8 38.3 16.750 5.6 51.7
-
- 由於
。故, ~ 即為上表中紅色部分。 - 故
= + + - - 因此,
- 甚至當要使用 n = 4 時:
+ + - + = +- 如果
更為精準(數列必須為強收斂),則 為 與 的誤差項。- 如果不是強收斂,則此筆數據不適合使用此種多項式內插。
- 有時候,在高階方程式不一定能夠得到更好的結果,因此需要觀察數據的特性。
- 如果不是強收斂,則此筆數據不適合使用此種多項式內插。
- 如果
等間距內插 (Evenly Spaced Interpolation)
- 使用情境:當數據點間距相等時(如網格數據的內插),可以使用等間距內插法。
- 原理:
- 等間距,表
- 以差分方式取代除差
- 依此類推:
- 等間距,表
N-G 前推差分多項式 (Newton-Gregory Forward Polynomial)
-
- 其中,
, 為數據點間距。- 當
時, ; 時, ; 時, ;…
- 當
-
舉例
假設已知:
x f(x) 0.4 0.423 0.6 0.684 0.8 1.030 1.0 1.557 求
- 因此可得差分表:
-
0.4 0.423 0.261 0,085 0.096 0.6 0.684 0.346 0.181 0.8 1.030 0.527 1.0 1.557
-
- 代入
- 故
= + + + =
- 因此可得差分表:
三次訪樣內插 (Cubic Spline Interpolation)
-
原理:每兩點之間以三次多項式內插,稱為三街訪樣。讓曲線在兩點之間更為平滑。
- 儘管看起來此方法不如七階多項式內插精確,但是在實際應用中,三次訪樣內插更受歡迎。
- 在已知點的任一個區間均為三次多項式的函數:
- 當已支點為
個時( ),則有 個區間( 個三次多項式)。與 個未知數。因此,須找透過以下五個條件找到 個未知數的 條件:- 相鄰二條多項式在連接點的函數值相等(
個方程式)。 - 第一個與最後一個函數必須通過端點(
個方程式)。 - 內部連接點的一階導數(斜率)相等(
個方程式)。 - 內部連接點的二階導數(曲率)相等(
個方程式)。 - 兩個端點的二階導數(曲率)為零(
個方程式)。
- 相鄰二條多項式在連接點的函數值相等(
- 當已支點為
-
訪樣:
- 線性訪樣:
- 二階訪樣:斜率相等,
- 三階訪樣:斜率與曲率相等,
- 線性訪樣:
-
步驟:
- 已知三階訪樣多項式:
= + + + ,每個 有四個未知數( )。 - 通常設,
與 兩個條件。 = = = =- 求解聯立方程式。
- 已知三階訪樣多項式:
-
舉例
At true function
假設只知道以下數據:x f(x) 0.0 2.0000 1.0 4.4366 1.5 6.7134 2.25 13.9130 求
、
Solution
- 設
與 - 計算一階除差:
-
0.0 2.0000 2.4366 1.0 4.4366 4.5536 1.5 6.7134 9.5995 2.25 13.9130
-
- 已知:
- 得:
- 當
時:
= = = - 當
時:
= = =
- 當
- 將
與 作為未知數求聯立方程式:- 得:
與
Carve Fitting (曲線擬合)
線性迴歸 (Linear Regression)
最小平方近似法
- 最小平方近似法:
- 原理:
- 直線的數學表示:
- 因此誤差:
。需要找到誤差最小化的方法: - 如果只對誤差總和求極小誤差,則
求最小值。但是誤差存在正負,因此可能會互相抵,使之可能產生無限多解,不符合目的。 - 如果改成使用誤差的絕對值,則
求最小值。可能出現兩個以上的解,因此不符合目的。 - 因此,透過誤差平方求最小誤差:
求最小值。此時儘可能存在一組解,使得誤差平方和最小。
- 直線的數學表示:
- 算法:
- 誤差量化:
- 標準估計誤差 (Standard Error of The Estimate) (
):
其中,殘餘數的平方和: 。 表在迴歸直線附近的分散程度。- 總標準差 (
):表平均值附近的分散程度:
。其中,總平方和: 。
- 決定係數 (Coefficient of Determination) (
):
越接近 1,表示迴歸直線越好。其中, 表原始資料由平均值改由迴歸線描述的改善程度。 - 相關係數 (Correlation Coefficient) (
):
- 標準估計誤差 (Standard Error of The Estimate) (
- 原理:
非線性迴歸 (Nonlinear Regression)
- 非線性類別:
- 指數函數:
→ - 乘冪函數:
→ - 飽和成長率方程式 (Saturating Growth Rate Equation):
→
- 指數函數:
- 方法:將其轉換為線性迴歸問題,並使用線性迴歸方法求解。最後,再將其轉換回原本的函數形式。
多項式迴歸 (Polynomial Regression)
- 原理:根據最小平方的原理,擴展為高階多項式 (
)。- 因此,殘餘樹的平方總合 (
): - 標準誤差 (
):
- 因此,殘餘樹的平方總合 (
- 步驟:
- 找出
、 、 、 、 、 、 、…、 、 、 、…、 。 - 根據:
- 求解
、 、 、…、 。
- 找出
多重線性迴歸 (Multiple Linear Regression)
- 原理:根據多個變數的線性組合,進行迴歸分析。
- 殘差平方和:
- 標準誤差:
- 方程組:
- 多重乘冪迴歸 (Multiple Power Regression)
- 原理:根據多個變數的乘冪組合,進行迴歸分析。
- 轉換為線性迴歸問題: