促進永續發展
1. 環境影響管理:
o 優化 AI 運算效率,降低能耗。
o 使用節能硬體與伺服器,減少資源消耗。
2. 數位包容:
o 透過 AI 技術降低數位落差,提供公平的數位金融服務。
o 設計面向弱勢群體的 AI 服務,降低數位焦慮。
3. 員工 AI 培訓:
o 幫助員工適應 AI 技術發展, 降低自動化 對 工作權益 的影響。
o 提供 AI 相關 教育訓練,提高 數位轉型 適應能力。
重視公平性及以人為本的價值觀
1. 公平性原則:
o AI 運用不應造成 歧視 或 偏見,應確保決策 合理性 與 準確性。
o AI 決策過程須定期審查,驗證其公平性,
避免對特定群體造成系 統性不利影響。
2. 人類監督:
o 人在指揮 (HIC):人類全面控制 AI 運用。
o 人在迴圈內 (HITL):AI 提供建議,但最終決策由人類執行。
o 人在迴圈上 (HOTL):AI 進行自動決策,僅在異常情況下由人類 干預。
3. 救濟機制:
o AI 決策 應提供適當的 申訴 或 糾正錯誤機制,以保障消費者權益。
下列哪種 AI 監督機制允許 AI 系統自動決策,但需在人類監督下運行?
A) 人在指揮 (HIC)
B) 人在迴圈內 (HITL)
C) 人在迴圈上 (HOTL)
D) 完全自動化 (Fully Autonomous)
答案:C
解題思維:「人在迴圈上 (HOTL)」表示 AI 負責決策,
僅當異常發生時人類 才介入,與 HITL(需人類決策)不同。