C
197. 梯度遞減法(Gradient Descent)是機器學習中常使用的參數收斂方 式,
我們可以透過參數 alpha 來調整整體收斂的速度(Step Size),請 問如果 alpha 過大時,
會導致什麼狀況發生?
(A) 太快收斂
(B) 收斂速度過慢
(C) 無法收斂
(D) 以上皆有可能發生
A
198. 下列何者不適合用來「預測明天會不會下雨」?
(A) 支援向量迴歸(Support Vector Regression)
(B) 支援向量機(Support Vector Machine)
(C) 決策樹(Decision Tree)
(D) 類神經網路(Neural Network)
D
199. 關於迴歸模型績效評估,下列敘述何者正確?
(A) 評估模型績效的方式不只一種,通常只用一種模型績效評估的方 式來決定模型的優劣
(B) 許多績效評量的計算是基於殘差(residual),它是模型的預測值 減去觀測值
(C) 常用的績效評量 SSE 是殘差平方的平均值,而另一個常用的績 效評量 MSE
是殘差平方的總和
(D) R2 也是常用的績效評量,其值表示資料中的訊息被模型所解釋 的比例,
R2 的解釋與結果變數的變異有關
D
200. 關於線性迴歸,下列敘述何者不正確?
(A) 並非任何資料集均可建立多元線性迴歸模型(multiple linear regression),
有時會有建模失敗的狀況發生
(B) 線性迴歸屬於無母數(nonparametric)的統計建模方法
(C) 迴歸方程式係數估計最佳化問題是最小化誤差平方和(Sum of Squared Error, SSE)
(D) 相較於類神經網路與支援向量機等監督式學習模型,迴歸建模所
獲得的模型可解釋性較低