AI 分析使用與限制政策

最後更新日期: 2026-05-06
適用對象: HRDA 平台之企業客戶、管理者、經銷商、受測者、API 使用者及任何接觸 HRDA AI 分析結果之人員。
文件性質: 本政策說明 HRDA AI 分析功能之適當用途、限制、禁止用途與人工監督要求。企業客戶應將本政策納入其內部招募、人才管理、資料治理與 AI 治理流程。

1. 定義

1.1 「AI 分析」 指 HRDA 透過機器學習、統計模型、自然語言處理、聲音分析、影像分析、表情分析、多模態模型或其他自動化技術,對文字、語音、視訊、互動行為或測評資料產生之評分、分類、摘要、趨勢、推估、標籤或建議。
1.2 「AI 輸出」 指 AI 分析產生之任何報告、分數、敘述、圖表、風險提示、潛力指標、人格特質描述、領導能力推估、情緒推估或 API 回傳結果。
1.3 「高風險用途」 指可能對自然人之就業、教育、金融、醫療、司法、公共服務、移民、政治權利、基本權利或其他重大利益產生重大影響之用途。
1.4 「Human-in-the-loop」 指由具備適當權限、訓練與責任之人員,於決策前對 AI 輸出進行審查、理解、質疑、修正或拒絕採納之流程。

2. AI 為輔助工具

2.1 HRDA AI 分析之目的在於協助企業客戶整理資料、發現趨勢、提高評估一致性、降低人工初步整理成本,並提供可供人員進一步審查之分析參考。
2.2 AI 輸出不得被理解為最終事實、專業診斷、法律判斷、錄用保證、個人能力定論或對未來工作表現之絕對預測。
2.3 企業客戶應將 AI 輸出與面試官觀察、職務需求、履歷、工作樣本、測驗結果、背景查核、組織文化、候選人補充說明及其他合法資料來源共同評估。

3. 不得作為唯一決策依據

3.1 企業客戶不得以 HRDA AI 輸出作為錄用、拒絕錄用、升遷、調職、解僱、降薪、績效評等、紀律處分、培訓機會分配或其他重大影響自然人權益事項之唯一或實質唯一依據。
3.2 如 AI 輸出涉及可能對個人產生不利結果之建議,企業客戶應確保有人工複核、合理說明、紀錄保存與依法可行之申訴或更正管道。
3.3 企業客戶不得以「系統判定」、「AI 說不適合」、「模型評分過低」等方式取代其自身之管理判斷或法律責任。

4. 誤差、偏差與情境限制

4.1 AI 系統可能因資料品質、訓練資料代表性、模型限制、語言差異、口音、背景噪音、攝影機角度、光線、網路延遲、臉部遮蔽、文化表達差異、身心障礙、神經多樣性、面試情境壓力或其他外部因素而產生誤差或偏差。
4.2 聲音分析不得被解讀為精確心理狀態或誠信判斷;表情分析不得被解讀為確定情緒、意圖或人格特質;情緒推估不得被用於斷定求職者是否誠實、忠誠、服從或具政治傾向。
4.3 企業客戶應避免將 AI 分析結果從原始情境中抽離使用。例如,短時間視訊片段不應被用於長期人格評價,單一問題之聲音表現不應被用於整體能力判斷。

5. 非醫療與非心理診斷聲明

5.1 HRDA 不是醫療器材、心理衡鑑工具、臨床診斷系統、治療建議系統或精神健康評估服務。
5.2 HRDA 不提供憂鬱症、焦慮症、注意力不足、人格障礙、神經認知疾病、壓力疾患或其他身心狀態之診斷、篩檢或治療建議。
5.3 任何情緒、表情、聲音或人格相關描述均僅為一般人才分析參考,企業客戶不得對外宣稱 HRDA 可提供醫療效果、心理診斷、真實情緒判斷、測謊功能或臨床等級結論。

6. 禁止用途

6.1 企業客戶、經銷商及任何使用者不得將 HRDA 用於以下用途:

  • 未經合法告知與同意之錄音、錄影、臉部分析、聲音分析或生物特徵處理。
  • 政治監控、政治傾向推估、工會活動監控、宗教信仰推估或公共集會參與識別。
  • 社會信用評分、人格分級、忠誠度評分、服從度評分或以不透明方式對個人進行長期排名。
  • 基於種族、國籍、膚色、性別、性傾向、性別認同、年齡、身心障礙、宗教、政治立場、婚姻、懷孕、工會身分或其他受保護特徵之歧視性評估。
  • 用於執法、移民、司法、軍事、情報、群眾監控或其他未經 HRDA 書面同意且可能高度侵害基本權利之場景。
  • 任何違反適用法律、主管機關指引、勞動法令、個資法令、反歧視規範或平台政策之用途。

7. Human-in-the-loop 原則

7.1 企業客戶應指定具備適當訓練之人員審查 AI 輸出,並確保該人員有實質權限拒絕採納、修正或要求補充資料。
7.2 人工審查不應流於形式。企業客戶應保存與重大決策相關之審查紀錄,包括採用或不採用 AI 輸出之理由、涉及資料來源、是否存在例外情形及是否提供當事人救濟方式。
7.3 如受測者對 AI 分析結果提出異議,企業客戶應以人工方式重新檢視相關資料,不得僅以自動化結果回覆。

8. Explainability 與 Fairness

8.1 HRDA 將於商業上合理可行範圍內提供 AI 輸出之一般性說明,例如分析維度、資料來源類型、模型限制、信賴程度或結果解讀方式。
8.2 HRDA 不保證可揭露完整模型權重、原始訓練資料、營業秘密、第三方模型之不可公開技術或可能危及資安之資訊。
8.3 企業客戶應建立公平性檢查流程,避免 AI 輸出對特定群體造成不成比例之不利影響。必要時,企業客戶應停用特定功能、調整使用情境或加入人工補正。

9. 使用者自行判斷義務

9.1 任何接收 AI 輸出之人員均應自行判斷結果是否與職務需求、面試內容、候選人實際表現及其他合法資料相符。
9.2 對於明顯不合理、與上下文矛盾、可能涉及偏見或品質不足之 AI 輸出,使用者不得直接採納,並應依企業內部流程回報。
9.3 使用者不得刪改、斷章取義、擷取片段或以誤導方式對外呈現 AI 輸出。

10. 責任限制

10.1 HRDA 依現狀及可用狀態提供 AI 分析功能。在法律允許之最大範圍內,HRDA 不就 AI 輸出之正確性、完整性、適任性、商業可售性、特定目的適合性或無偏差作任何明示或默示保證。
10.2 因企業客戶採用、解讀、揭露、轉交或依賴 AI 輸出所生之人事決策、勞資爭議、歧視申訴、資料保護爭議或第三人請求,由企業客戶自行負責。
10.3 HRDA 之總責任限制依主服務契約或適用條款辦理;如無約定,以上一年度企業客戶就相關服務支付費用為上限。

11. 不可抗力

11.1 模型供應商異常、雲端服務中斷、資料中心事故、重大資安攻擊、政府限制、法令變更、戰爭、天災、疫情或其他非 HRDA 合理可控制事件,導致 AI 分析延遲、中斷或品質受影響者,HRDA 不負違約責任,但將採取商業上合理措施降低影響。

12. 可分割性

12.1 本政策任一部分被認定無效或不可執行,不影響其他部分之效力。無效部分應以最接近原目的且合法可執行之規定取代。

13. 聯絡我們

如需了解 AI 分析限制、禁止用途、人工審查流程或模型治理措施,請聯絡:
HRDA AI Governance & Compliance Team
Email: [email protected]