迴歸的演算法
線性迴歸 Linear Regression、
多項式迴歸 Polynomial Regression
迴歸在統計中相當常見。
迴歸的演算法,
即藉由尋找每個 x 的權重 w 與 b 去寫出預測的方程式。
若以直線去趨近資料,則稱為線性迴歸 (Linear Regression);
若是以曲線趨近資料,則為多項式迴歸 (Polynomial Regression)。
另外,也有以分類器為
趨型的迴歸樹(以決策樹為雛形)、
SVR(Support Vector Regression,以 SVM 為雛形),
能夠處理非線性的資料。
一般在操作慣例上會移除掉相關度非常高的變數以及離群值,以提高精確度。
線性迴歸已經發展許多年,連現在的excel都內建將資料分布畫出趨勢線的功能,
是一個易於上手、能快速導入的演算法。
分類的演算法
邏輯迴歸 Logistic Regression
初次聽到邏輯迴歸的人會以為他是處理迴歸問題、計算連續變量使用,
但其實這個演算法的輸出適用於二分類。
它是基於線性迴歸所做的二分類,再加上一個乙狀函數 (Sigmoid Function)
讓輸出壓縮至 0 到 1 的範圍內,以便判斷二分類的機率;
當輸出結果為正,趨近於 1,輸出結果為負,趨近於 0。
邏輯迴歸有幾個特點:
1.可用於
在線學習(Online Learning,逐步輸入資料再最佳化資料)或
批次學習(Batch Learning,先輸入所有資料再最佳化)
2.學習速度快,預測性能普通
3.可輸出 機率值,而 非輸出 特定結果