2025年9月23日 星期二

2025 09 23 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 AI應用規劃師(初級) 人工智慧基礎概論 (L11) L111 人工智慧概念 線性迴歸linear regression 是一種 透過尋找 自變數 和 依變數 之間的線性關係, 以建立預測模型來預測未知值的統計分析方法。

 AI應用規劃師(初級) 

  人工智慧基礎概論 (L11)      

       L111 人工智慧概念   

 

線性迴歸linear regression

    是一種  透過尋找    自變數 和 依變數  之間的線性關係,

    以建立預測模型來預測未知值的統計分析方法。

   它假設兩個變數之間存在線性關係,

    通常可以用一條直線或一個平面近似表示。

    簡單線性回歸     只有一個自變數

  而多元線性回歸   則有多個自變數。 

 主要概念

    自變數(Independent Variable)

    用來預測依變數的值的已知變數,也稱為特徵(feature)或預測因子。 

    依變數(Dependent Variable)

    被預測的目標變數,其值會受到自變數的影響。 

     線性關係

    自變數和依變數之間存在一種直線或平面近似的關係。 

     最佳擬合線

    在數據點中找到一條最能代表整體趨勢的直線,用於預測。 

    截距(Intercept)和斜率(Slope)

    在簡單線性回歸中,截距是y軸上的點,斜率則表示自變數每改變一個單位,

    依變數會改變多少。 

     誤差項(Error Term)

    表示  實際觀測值  與  模型預測值  之間的差異。 


線性回歸的應用

     1.預測模型

       基於過去的數據,建立模型來  預測未來的  銷售額、房價、或特定數值。 

     2.找出變數關係

      量化  自   變   數  如何影響   依 變 數,理解它們之間的   依賴關係。 


簡單線性與多元線性回歸

   簡單線性

    只有 一個自變數 一個依變數,其關係可以表示為一條直線,

    如 y = a + bx + e。 

   多元線性

    包含兩個或兩個以上自變數,其迴歸方程可以是一個平面或超平面,

    如 y = a + b1x1 + b2x2 + ... + e。 


如何確定模型

    最小二乘法(Least Squares Method)

    一種常用方法,旨在最小化每個數據點到擬合線的平方距離總和,

    以此找到最佳的截距和斜率。 

注意事項

     對異常值敏感

     異常值(outliers)可能會對線性迴歸模型產生很大的影響。 

     線性關係假設

     線性的前提是自變數與依變數之間存在線性關係。

     若數據關係是非線性的,則需要考慮  其他模型

     如多項式歸。