AI 治理與倫理政策
最後更新日期: 2026-05-06
適用對象: HRDA 之客戶、使用者、受測者、經銷商、員工、供應商及其他利害關係人。
文件性質: 本政策說明 HRDA 對 Responsible AI、AI Ethics、AI Governance、資料治理、透明度、公平性、人工監督及禁止用途之原則與實務承諾。本政策不取代客戶依其產業與所在地法律應履行之獨立合規義務。
1. 定義
1.1 「Responsible AI」 指以尊重人權、隱私、公平、透明、安全、問責及可持續改善為核心之 AI 設計、開發、部署與營運方法。
1.2 「AI Governance」 指用於管理 AI 系統風險、資料品質、模型生命週期、權限、監督、文件化、稽核、事件回應與持續改善之組織制度。
1.3 「Fairness」 指 AI 系統在設計、測試與使用中,應避免對受保護群體造成不合理、不可解釋或不成比例之不利影響。
1.4 「Explainability」 指在商業上合理且不侵害安全或營業秘密之前提下,提供 AI 系統輸出之可理解說明、限制、資料來源類型與使用方式。
1.5 「Human Oversight」 指由人類對 AI 系統之設計、部署、輸出與決策使用進行監督、審查、干預與責任承擔。
2. AI 倫理原則
2.1 HRDA 將人才分析 AI 視為輔助人類理解與管理資料之工具,而非取代人類判斷或將自然人簡化為單一分數之機制。
2.2 HRDA 以以下原則作為 AI 系統治理基礎:
- 合法性:AI 系統之使用應符合適用法律、契約及平台政策。
- 人本性:AI 應服務於合理、尊重個人尊嚴之人才管理目的。
- 公平性:避免不當歧視與不成比例之不利影響。
- 透明度:使用者與受測者應能理解 AI 參與分析之事實及主要限制。
- 問責性:企業客戶與 HRDA 應依各自角色承擔責任。
- 安全性:AI 系統應具備合理資安、資料保護與濫用防止措施。
- 持續改善:模型品質、偏差風險與使用者回饋應持續被檢視。
3. Fairness 公平性
3.1 HRDA 致力於降低 AI 分析對不同語言、文化、性別、年齡、身心障礙、口音、表達方式或其他背景群體之不合理偏差。
3.2 HRDA 將於合理範圍內進行資料品質檢查、模型測試、錯誤案例分析、功能限制標示及產品設計調整,以減少不公平結果。
3.3 企業客戶應避免將 AI 輸出直接映射至錄用或淘汰門檻,並應建立人工複核,以檢視是否存在歧視性影響。
3.4 公平性並不表示所有個案結果必然相同,而是要求差異具備與合法職務需求相關、可合理解釋且不違反反歧視規範之基礎。
4. Explainability 可解釋性
4.1 HRDA 將提供使用者可理解之結果說明,包括分析維度、資料來源類型、系統限制、建議解讀方式及不應使用之情境。
4.2 HRDA 不承諾揭露完整模型參數、訓練資料、第三方模型細節、營業秘密或可能造成資安風險之資訊。
4.3 當 AI 輸出用於可能影響自然人權益之場景時,企業客戶應能向受測者提供適當層級之說明,包括 AI 參與分析之事實、人工審查方式及權利行使管道。
5. Human Oversight 人類監督
5.1 HRDA 支持 Human-in-the-loop 原則。AI 輸出不得作為重大人事決策之唯一依據。
5.2 企業客戶應指定具權限與訓練之人員審查 AI 報告,並確保該人員有能力辨識錯誤、偏差、資料不足或不適用情境。
5.3 HRDA 產品設計將盡可能避免鼓勵自動化淘汰、單一分數決策或無人工覆核之高風險流程。
6. Transparency 透明度
6.1 HRDA 要求企業客戶於使用 AI 分析、錄音錄影、聲音分析、臉部或表情分析前,向受測者提供清楚告知。
6.2 HRDA 將透過政策文件、產品提示、說明文件、合約條款及客戶支援,協助企業客戶理解 AI 功能之用途、限制與風險。
6.3 透明度不代表無限制揭露機密技術,而是使受影響者能理解其資料如何被使用、AI 是否參與分析,以及其可行使何種權利。
7. Bias Mitigation 偏差降低
7.1 HRDA 將在可行範圍內透過資料審查、模型評估、輸出監控、錯誤回報、版本控管、使用者教育及政策限制降低偏差。
7.2 偏差降低是一項持續程序,並非一次性保證。AI 系統可能仍因環境、資料品質、文化脈絡或使用方式而產生偏差。
7.3 HRDA 鼓勵企業客戶回報疑似偏差案例,並於必要時停用特定功能、調整使用流程或引入額外人工審查。
8. Data Governance 與 Privacy by Design
8.1 HRDA 採取資料最小化、目的限制、存取控管、加密、稽核紀錄、保留期限管理與刪除機制等資料治理措施。
8.2 HRDA 在設計新功能時,將評估個資風險、AI 濫用風險、資料安全、權限設計、預設設定、使用者告知與受測者權利。
8.3 HRDA 不會出售企業客戶個人資料,亦不會在未取得授權或合法依據之情況下將客戶資料用於與提供服務無關之目的。
8.4 企業客戶仍應依其角色負責資料蒐集合法性、告知同意、保存期間、內部存取、下載後資料管理及受測者權利回應。
9. 禁止用途
9.1 HRDA 不支援且禁止以下用途:
- 社會信用評分或以不透明方式對自然人進行普遍性排名。
- 政治監控、工會監控、宗教監控、公共集會參與識別或政治傾向推估。
- 違法監控、秘密錄音錄影、未告知之情緒或臉部分析。
- 基於受保護特徵之歧視性篩選、評分或排除。
- 醫療診斷、心理診斷、測謊、犯罪傾向判斷或其他高度侵害人格權之用途。
- 任何違反法律、主管機關指引、人權原則、勞動法或 HRDA 政策之用途。
10. AI 治理架構
10.1 HRDA 將以跨職能方式治理 AI 風險,治理參與者可能包括產品、工程、資安、法務、隱私、客戶成功、營運與管理層。
10.2 AI 治理活動包括:功能風險分級、資料來源審查、模型變更紀錄、測試與評估、使用限制設計、客戶文件更新、事件回應、供應商管理及定期政策審查。
10.3 對於可能造成較高風險之功能,HRDA 得要求額外客戶承諾、限制使用場景、啟用人工審查提示或拒絕提供服務。
11. 持續改善 AI 品質
11.1 HRDA 將持續評估 AI 系統品質,包括可用性、穩定性、錯誤案例、偏差風險、使用者回饋、安全事件與法規變化。
11.2 模型或功能更新可能造成輸出格式、指標、分數或建議方式變動。HRDA 將於重大變更時以合理方式通知企業客戶。
11.3 企業客戶應避免將不同模型版本之結果作為絕對可比較指標,除非 HRDA 明確提供版本對照或校準說明。
12. 責任限制
12.1 本政策描述 HRDA 之治理方向與商業上合理措施,不構成 AI 無偏差、無錯誤、符合所有法域或適合所有用途之保證。
12.2 企業客戶應對其使用情境、告知同意、人事決策、法律依據、人工審查與受測者權利處理負責。
12.3 HRDA 之責任限制依主服務契約;未約定者,以事件發生前十二個月相關服務費為上限。
13. 不可抗力
13.1 因法令變更、主管機關要求、雲端或模型供應商中斷、重大資安攻擊、戰爭、天災、疫情或其他非合理控制事件,影響 AI 功能、政策執行或治理流程者,HRDA 於受影響範圍內不負違約責任,但將採取合理補救措施。
14. 可分割性
14.1 本政策任一條款無效或不可執行者,不影響其他條款效力。無效條款應以最接近原目的之有效條款取代。
15. 聯絡我們
AI ethics、Responsible AI、偏差回報或治理問題聯絡窗口:
HRDA AI Governance Office
Email: [email protected]