2025年7月26日 星期六

2025 07 27 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 永續管理師 AI企畫師 AI 管理顧問師 AI 應用規劃師 迴歸的演算法 線性迴歸 Linear Regression、 多項式迴歸 Polynomial Regression 分類的演算法 邏輯迴歸 Logistic Regression趨型的迴歸樹(以決策樹為雛形)、 SVR(Support Vector Regression,以 SVM 為雛形)乙狀函數 (Sigmoid Function)

 

迴歸的演算法

線性迴歸 Linear Regression、

多項式迴歸 Polynomial Regression

迴歸在統計中相當常見。

迴歸的演算法,

即藉由尋找每個 x 的權重 w 與 b 去寫出預測的方程式。

以直線去趨近資料,則稱為線性迴歸 (Linear Regression);

若是以曲線趨近資料,則為多項式迴歸 (Polynomial Regression)

另外,也有以分類器為

趨型的迴歸樹(以決策樹為雛形)

SVR(Support Vector Regression,以 SVM 為雛形)

能夠處理非線性的資料。

一般在操作慣例上會移除掉相關度非常高的變數以及離群值,以提高精確度。

線性迴歸已經發展許多年,連現在的excel都內建將資料分布畫出趨勢線的功能

是一個易於上手、能快速導入的演算法。

分類的演算法

邏輯迴歸 Logistic Regression

初次聽到邏輯迴歸的人會以為他是處理迴歸問題、計算連續變量使用,

但其實這個演算法的輸出適用於二分類。

它是基於線性迴歸所做的二分類,再加上一個乙狀函數 (Sigmoid Function) 

讓輸出壓縮至 0 到 1 的範圍內,以便判斷二分類的機率;

當輸出結果為正,趨近於 1,輸出結果為負,趨近於 0。


邏輯迴歸有幾個特點:

1.可用於

   在線學習(Online Learning,逐步輸入資料再最佳化資料)

   批次學習(Batch Learning,先輸入所有資料再最佳化)

2.學習速度快,預測性能普通

3.可輸出  機率值,而  非輸出   特定結果