AIF-C01#4(responsible-ai)

AIF-C01#4(responsible-ai)
ある企業が、求人情報データと求職者のユーザープロファイルに基づいた「求人推奨システム」を構築しています。このシステムでは、他の条件が同等であるにもかかわらず、性別に基づいて求人の推奨に「バイアス(偏り)」が生じていることが判明しました。 AWSが提唱する「責任あるAI」のベストプラクティスに従い、この問題を解決するために企業が従うべき原則はどれですか?
ディスカッション 0

正解:D

正解の根拠

責任ある AI の中核原則のひとつである公平性 (Fairness) は、人種・性別・年齢などの保護属性によって不利益が生じることを避け、すべてのユーザに対して同等の品質の結果を提供することを目指します。本問のように同条件にもかかわらず性別でバイアスが生じている事例は、まさに公平性原則を適用してバイアス除去を行うべきケースです。

責任ある AI の主要原則

原則内容
Fairness (公平性)差別的影響の回避
Explainability予測理由の説明可能性
Governanceライフサイクル統制
Controllability挙動の制御可能性

不正解の理由

  • A: ガバナンスはモデル開発・運用の統制プロセス全般を扱う原則で、バイアス除去そのものを直接の目的としません。
  • B: 説明可能性は予測理由を SHAP 等で示す原則で、属性間の差別的影響を是正する直接の指針ではありません。
  • C: 制御可能性はモデル挙動を制御・抑制する原則で、属性バイアス除去の主原則とは焦点が異なります。

参考:AWS Responsible AI


コメント

コメント

コメントする

目次