歐盟AI新法下的關鍵要求:AI素養,你跟上了嗎?
遠見雜誌 張凱鑫 、黃國寶(KP Huang)2025-05-28
人工智慧(AI)技術的發展一日千里,深刻地改變著我們的生活和工作方式。
為應對隨之而來的潛在風險並確保AI系統的安全、透明和符合基本人權,
歐盟制訂全球首部全面的AI法律框架《歐盟人工智慧法案》(EU AI Act)。
這部法案不僅對高風險AI系統設定嚴格的規範,更提出一個基礎性的要求:
提升所有相關人員的「人工智慧素養」(AI Literacy)。
這項要求看似基礎,實則對AI生態圈的健全發展至關重要。
因應關稅衝擊和分散市場的策略性考量,歐盟市場愈發成為不可或缺的角色。
對於出口產品搭載AI功能的臺灣廠商而言,身為供應商,
也必然需要展現合規、具備AI素養的能力。
參與AI開發及部署的人員,也需具備AI素養
AI系統的運作高度倚賴數據,其性能和可靠性與數據品質息息相關。
然而,AI的影響不僅限於技術層面,更可能對健康、安全、基本權利
乃至整個社會帶來潛在風險。
歐盟AI法案採用風險分級方法,
將AI應用分為
不可接受的風險(被禁止)、
高風險(嚴格要求)和
低風險(透明度要求)等類別。
法案強調,要實現可信賴的AI,除技術規範、數據治理、透明度要求等,
參與AI系統整個生命週期(從設計、開發、部署到使用)的「人員」,
都必須對人工智慧具備足夠的理解和能力。
這正是AI素養的核心所在。
歐盟AI法案的目標之一,是確保進入市場和使用的AI系統是安全的,
並尊重基本權利和歐盟價值觀。
為達成這個目標,提升AI價值鏈中所有相關參與者的AI素養,
對於確保法規的適當遵循及其有效執行至關重要。
廣泛實施AI素養措施,並採取適當的後續行動,有助於改善工作條件,
並最終鞏固和創新歐盟值得信賴AI的發展道路。
歐盟AI法案對AI素養的要求
歐盟AI法案第四條(Article 4)明確規定關於AI素養的要求。該條指出:
AI系統的提供者(providers)和部署者(deployers)
應盡最大努力採取措施,以確保代表他們處理AI系統的操作和使用的員工
及其他人員,具備「足夠水準的人工智慧素養」。
這項要求需要考慮相關人員的技術知識、經驗、教育和訓練水準,
以及AI系統預期使用的情境,並同時考慮到AI系統將影響的個人或群體。
簡而言之,法案要求AI系統的提供者和部署者不能僅僅提供或使用AI,
還必須確保實際操作和使用這些系統的人員「懂」AI。
這種「懂」不是要求每個人都成為AI專家,
而是要具備與其工作職責和所處理的AI系統風險程度相匹配的知識和理解。
何謂「足夠水準的AI素養」?
雖然法案本身並未直接定義「足夠水準」的具體門檻,
但從相關條文分析,可以描繪出AI素養所需涵蓋的核心內容。
這應是一個根據不同角色和AI系統類型進行調整的客製化概念。
參考歐盟AI法案相關內容彙整,可見得一個全面的AI素養訓練,應包含以下重要學習點:
● 歐盟AI法案基礎與重要概念:
理解法案的目的、範圍、風險分級(特別是高風險系統)以及提供者、部署者等關鍵角色的基本責任。
● AI系統的技術基礎與限制:
理解AI系統的基本工作原理、能力、特性和固有限制,包括訓練、驗證和測試等概念,這對於知情地部署和正確使用系統至關重要。
● 風險管理與風險評估:
了解AI系統可能帶來的健康、安全和基本權利風險。
理解風險識別、評估和減輕的方法。
對於提供公共服務的公、私部門部署者而言,
尤其需要了解其所使用的AI系統可能會對哪些群體的哪些基本權利
帶來什麼樣的風險,如何進行人為監控,以及風險實現時的應對措施,
即
「基本權利影響評估(Fundamental Rights Impact Assessment)」
的要求。
● 資料治理與資料品質:
理解訓練、驗證和測試數據集對AI系統性能和風險的影響。
認識高品質資料的要求(如相關性、代表性、準確性、完整性)
以及資料偏差對歧視性結果的影響。
了解資料保護原則的應用(例如GDPR)。
● 透明度與可解釋性:
理解AI系統透明度的必要性。
知道如何解讀系統輸出、理解技術文件和使用說明的內容
(如性能、限制、風險、人類監督措施等)。
了解日誌記錄(logging)的要求與用途。
認識針對特定AI系統的額外透明度要求。
● 通用AI模型(General-Purpose AI Models):
對於處理通用AI模型的人員,需要理解這類模型的定義、模型提供者的文件和資訊提供義務、以及具有系統性風險模型所需達成的額外要求。
● 合規性與負責任的使用實踐:
理解如何在日常工作中應用法案要求,包括品質管理系統、符合性評估、上市後監控和事件報告。了解如何與供應鏈伙伴、監管機構互動,以及行為準則的作用。
● 基本權利、倫理考量與社會影響:
理解法案保護基本權利的目的。
認識尊重人類自主(Respect for human autonomy)、
預防傷害(Prevention of harm)、
公平(Fairness)、
可解明性(Explicability)
等四大倫理原則的重要性。
了解負責任創新 和 值得信賴AI 的 倫理原則 所涉及的七大要求。
- ● 情境化應用與案例分析:
- 能夠將上述知識應用於特定的AI系統使用情境,分析實際案例,識別潛在風險,並討論如何應用法案要求來減輕風險。
這些學習點應通過模組化設計,
得根據不同人員的角色(提供者、部署者、操作人員等)
和所處理的AI系統類型來調整深度和時數。
東海大學法學院人工智慧法制研究中心經過一年來的準備與規劃,
已經開始對聚焦歐洲市場的產業提供
諸如AI法准入市場合規與風險評估、經營階層及AI管理者培訓模組等服務,
可依企業之需求量身定做培訓、診斷與合規輔導。
AI素養的重要性與推動
AI素養不僅僅是合規的要求,
更是確保AI系統能夠安全、可靠和負責任地部署和使用的基礎。
具備足夠AI素養的人員更能理解AI系統的限制和潛在風險,
知道如何進行有效的人類監督(human oversight),
並在出現問題時能識別異常並採取適當措施。
歐盟認識到推動AI素養的重要性,並將其納入整體治理框架。
歐盟AI辦公室(AI Office)和
歐洲人工智慧委員會(European Artificial Intelligence Board)
將支持推動AI素養工具、提高公眾對AI效益、風險、保障措施、
權利和義務的認識和理解。
該委員會和成員國也跟關利益相關者合作,
促進制訂促進AI素養的自願性行為準則。
想進歐盟市場,台灣企業培養AI素養的四大面向
對於台灣AI產業而言,歐盟AI法案的要求具有國際影響力。
特別是對於那些計畫將搭載AI產品或服務出口到歐盟市場的企業,
理解並滿足法案的各項要求至關重要,其中就包括確保員工具備足夠的AI素養。
● 深入了解:
仔細研究歐盟AI法案中關於AI素養的要求(Article 4)
以及與其相關的其他條文(如風險管理、透明度、基本權利)。
● 評估需求:
評估組織內部不同角色(開發者、部署者、經營階層、銷售、營運操作等角色)對AI素養的需求,考慮其現有知識水準和所處理的AI系統的風險等級。
● 規劃培訓:
根據評估結果,規劃和實施有針對性的AI素養培訓計畫,內容應涵蓋法案要求、技術原理、風險意識、倫理考量等核心要素。
● 建立機制:
建立持續提升和評估員工AI素養的機制,確保相關人員的知識和技能與AI技術和法規的發展同步。
結論
AI素養是負責任AI發展和應用的基石。
歐盟AI法案將AI素養作為一項法律要求,凸顯其在構建可信賴AI生態系統中的關鍵作用。台灣產業應積極響應這一趨勢,將提升員工的AI素養視為一項戰略性投資,這不僅有助於滿足國際法規要求,更能提升組織駕馭AI的能力,降低風險,並在全球AI競爭中保持優勢。