課程筆記

Interpolation (內插)

線性內插 (Linear Interpolation)

  • 優缺點:
    • 優點:可以求解出多項式的係數,可以重複使用。
    • 缺點:需要解聯立方程式,計算較為複雜。

由於此較為簡單,直接參考以下例題求解即可。

拉格朗日多項式內插 (Lagrange Polynomials)

  • 優缺點:
    • 優點:
      • 可直接計算出多項式的值,不需要先求出未知數。
      • 結構簡單,不需解連立方成組,易於程式化計算。
    • 缺點:
      • 當需重複計算時,每次都需要重新計算。
  • 相對高階多項式內插,拉格朗日多像式內插在數值計算上更為方便:
    • 結構更為簡單,易於程式化計算。
    • 可以直接計算出多項式的值,不需要先求出未知數。
  • 方法:
    1. Lagrange Polynomials:
    2. 舉例當 = + + +
除差法 (Divided Difference)
  • 優點:
    • 計算簡單,不需要解聯立方程式。
    • 可以直接計算出多項式的係數(可重複使用)。
    • 可以快速找到多項式的誤差項。
  • 方法:n 階除差多項式:++ ++
    • 因此:
      • 0 階除差(1 個數據可以找出 1 個 0 階除差):
      • 1 階除差(2 個數據可以找出 1 個 1 階除差):
        • 依此類推
      • 2 階除差(3 個數據可以找出 1 個 2 階除差):
        • 依此類推
      • n 階除差(n+1 個數據可以找出 1 個 n 階除差):
        • 依此類推
  • 方法:除差表 (Divided Difference Table):
    • 由於:
      • 依此類推,故:,也就是除差表中第一列的第 n 個數值。

舉例

假設已知:

xf(x)
3.222.0
2.717.8
1.014.2
4.838.3
5.651.7

Find f(3.0)

Solution-線性內插

  1.  

Solution-高階多項式內插

  1. 假設三階多項式:
  2. 故得方程組 (四個未知數,需要四筆數據求未知數):
  3. 使用高斯消去法 || 高斯-賽得法求解未知數,得:
  4.  

Solution-除差法

  1. 使用除差表計算:
    • 3.222.08.4002.856-0.5280.256
      2.717.82.1182.0120.0865
      1.014.26.3422.263
      4.838.316.750
      5.651.7
  2. 由於 。故, ~ 即為上表中紅色部分。
  3. =++-
  4. 因此, 
  5. 甚至當要使用 n = 4 時:
    ++-+=+
    • 如果 更為精準(數列必須為強收斂),則 的誤差項。
      • 如果不是強收斂,則此筆數據不適合使用此種多項式內插。
        • 有時候,在高階方程式不一定能夠得到更好的結果,因此需要觀察數據的特性。

等間距內插 (Evenly Spaced Interpolation)

  • 使用情境:當數據點間距相等時(如網格數據的內插),可以使用等間距內插法。
  • 原理:
    • 等間距,表
    • 以差分方式取代除差
      • 依此類推:

N-G 前推差分多項式 (Newton-Gregory Forward Polynomial)

    • 其中, 為數據點間距。
      • 時, 時, 時,;…
  • 舉例

    假設已知:

    xf(x)
    0.40.423
    0.60.684
    0.81.030
    1.01.557

    1. 因此可得差分表:
      • 0.40.4230.2610,0850.096
        0.60.6840.3460.181
        0.81.0300.527
        1.01.557
    2. 代入
    3. = + + + =

三次訪樣內插 (Cubic Spline Interpolation)

  • 原理:每兩點之間以三次多項式內插,稱為三街訪樣。讓曲線在兩點之間更為平滑。

    • 儘管看起來此方法不如七階多項式內插精確,但是在實際應用中,三次訪樣內插更受歡迎。
    • 在已知點的任一個區間均為三次多項式的函數:
      • 當已支點為 個時(),則有 個區間( 個三次多項式)。與 個未知數。因此,須找透過以下五個條件找到 個未知數的 條件:
        1. 相鄰二條多項式在連接點的函數值相等( 個方程式)。
        2. 第一個與最後一個函數必須通過端點( 個方程式)。
        3. 內部連接點的一階導數(斜率)相等( 個方程式)。
        4. 內部連接點的二階導數(曲率)相等( 個方程式)。
        5. 兩個端點的二階導數(曲率)為零( 個方程式)。
  • 訪樣:

    • 線性訪樣:
    • 二階訪樣:斜率相等,
    • 三階訪樣:斜率與曲率相等,
  • 步驟:

    1. 已知三階訪樣多項式: = + + + ,每個 有四個未知數()。
    2. 通常設, 兩個條件。
    3. =
    4. =
    5. =
    6. =
    7. 求解聯立方程式。
  • 舉例

    At true function
    假設只知道以下數據:

    xf(x)
    0.02.0000
    1.04.4366
    1.56.7134
    2.2513.9130

Solution
  1. 計算一階除差:
    • 0.02.00002.4366
      1.04.43664.5536
      1.56.71349.5995
      2.2513.9130
  2. 已知:
  3. 得:
    1. 時:
      ===
    2. 時:
      ===
  4. 作為未知數求聯立方程式:
    1. 得:

Carve Fitting (曲線擬合)

線性迴歸 (Linear Regression)

最小平方近似法

  • 最小平方近似法:
    • 原理:
      1. 直線的數學表示:
      2. 因此誤差:。需要找到誤差最小化的方法:
      3. 如果只對誤差總和求極小誤差,則 求最小值。但是誤差存在正負,因此可能會互相抵,使之可能產生無限多解,不符合目的。
      4. 如果改成使用誤差的絕對值,則 求最小值。可能出現兩個以上的解,因此不符合目的。
      5. 因此,透過誤差平方求最小誤差: 求最小值。此時儘可能存在一組解,使得誤差平方和最小。
    • 算法:
    • 誤差量化:
      • 標準估計誤差 (Standard Error of The Estimate) ():

        其中,殘餘數的平方和:
        • 表在迴歸直線附近的分散程度。
        • 總標準差 ():表平均值附近的分散程度:
          。其中,總平方和:
      • 決定係數 (Coefficient of Determination) ():

        越接近 1,表示迴歸直線越好。其中, 表原始資料由平均值改由迴歸線描述的改善程度。
      • 相關係數 (Correlation Coefficient) ():

非線性迴歸 (Nonlinear Regression)

  • 非線性類別:
    • 指數函數:
    • 乘冪函數:
    • 飽和成長率方程式 (Saturating Growth Rate Equation):
  • 方法:將其轉換為線性迴歸問題,並使用線性迴歸方法求解。最後,再將其轉換回原本的函數形式。

多項式迴歸 (Polynomial Regression)

  • 原理:根據最小平方的原理,擴展為高階多項式 ()。
    • 因此,殘餘樹的平方總合 ():
    • 標準誤差 ():
  • 步驟:
    1. 找出 、…、、…、
    2. 根據:
    3. 求解 、…、

多重線性迴歸 (Multiple Linear Regression)

  • 原理:根據多個變數的線性組合,進行迴歸分析。
    • 殘差平方和:
    • 標準誤差:
    • 方程組:
  • 多重乘冪迴歸 (Multiple Power Regression)
    • 原理:根據多個變數的乘冪組合,進行迴歸分析。
    • 轉換為線性迴歸問題: