2025年5月29日 星期四

2025 05 30 左永安 顧問/講師/委員/宮主/永續長/執行長/理事長 AI 應用規劃師能力鑑定 L12 生成式 AI 應用與規 劃 機器學習 - 不能忽視的過擬合與欠擬合 Overfitting vs. Underfitting Bias-Variance Tradeoff

 AI 應用規劃師能力鑑定 

  L12 生成式 AI 應用與規 劃

機器學習 - 不能忽視的過擬合與欠擬合

10程式中  2021-10-06 10:50:27

Overfitting vs. Underfitting

過度擬合的反義就是欠擬合,從字面上可以得知模型預測能力是不好的。當模型太簡單時會發生欠擬合,或是加入太多的 L1/L2 正則化限制模型預測能力,使模型在從數據集中學習時變得不靈活。一個過於簡單的模型在預測中往往具有較小的方差(variance)而導致偏差(bias)就會變大。相反的過於複雜的模型會有較的變異進而導致方差大,同時偏差會變小。偏差和方差都是機器學習中的預測誤差的方式。在一般情況下我們可以減少偏差所引起的誤差,但可能會導致增加方差引起的誤差,反之亦然。

https://ithelp.ithome.com.tw/upload/images/20211006/2010724718DYuY9UnI.png

這裡我們就要來思考機器學習模型中的 error 從何而來?模型中的 error 是判斷一個模型的好壞依據,但其實我們可以將 error 拆分成兩大部分。分別有 Bias 與 Variance 兩個部分。以實際例子來說,假設輸出 y 是輸入 x 真正的答案,而 ŷ 則是透過模型 f(x) 訓練出來的預測值,我們希望預測的結果要與真實答案越接近越好,當 ŷ≠y 時就會產生 error (誤差)。

Bias-Variance Tradeoff

方差與偏差之間存在著一些關係,我們必須從中找到一個適當的平衡點。因此我們希望透過權衡 bias error 跟 variance error 來使得總誤差達到最小。我們常會以打靶例子解釋方差與偏差之間的關聯性。假設我們發射十次,我們説一個人的打靶技術很精準。其中的就表示這十個把面上的點彼此間距離都相當近,也就是我的方差非常低(low variance)。另外所謂的就表示這十個點都離準心很近,也就是我們的偏差非常低(low bias)。

https://ithelp.ithome.com.tw/upload/images/20211006/20107247opxBwn5yBj.png

  • Underfitting: 過於簡單的模型使得預測結果彈性不高,訓練集與測試集表現都不好。low variance (high bias)。
  • Overfitting: 過於複雜的模型使得訓練集完整的被擬合,因此訓練集表現極好,但測試集表現不佳。high variance (low bias)。

Error from Bias

偏差(bias)就是模型的預測與真實值之間的差異。一般我們訓練模型是期望預測的值要與實際的答案要越接近越好。然而當一個簡單的線性模型可能無法完整地擬合到一個複雜非線性的資料集。因此如下圖所示,當一個模型訓練結果偏差過大我們可以得知該模型過於簡單。無論搜集再多的資料,線性的模型永遠無法擬合非線性的曲線。因為比較簡單的模型,他受到不同的資料的影響是比較小的。

https://ithelp.ithome.com.tw/upload/images/20211006/201072471RdwJEJezm.png

  • 簡單的模型有大的 bias,小的 variance。
  • Error 來自於 bias 很大,稱為欠擬合。

Error from Variance

方差(variance)是指你的模型對於資料集的敏感程度。一個過於複雜的模型會導致輸出的變異性非常大。模型死背所有訓練集中的數據點會導致一個問題發生。當你的訓練資料有需多的隨機誤差或是離群值時,我們又把這些異常值全部擬合進模型裡面,導致學出來的模型過於複雜同時降低泛化能力,對於未知的資料預測的能力就會很差,同時造就了很高的 variance error。因此這樣的結果我們稱為過度擬合。

https://ithelp.ithome.com.tw/upload/images/20211006/20107247vZ3lS4xPK3.png

  • 較複雜的模型有小的 bias,大的 variance。
  • Error 來自於 variance 很大,稱為過度擬合。