【AIF-C01】WEB問題集:責任ある AI編

WEB問題集

AIF-C01#1(responsible-ai)
ある企業が、スマートフォンのカメラを使用して虫刺されを診断および治療するモバイルMLアプリを開発しています。同社は、異なる性別、民族、地理的地域から収集した多様な虫刺されの写真を使用して、画像分類モデルをトレーニングしたいと考えています。 このシナリオで同社が示している責任あるAIの原則はどれですか?
ディスカッション 0

正解:A

正解の根拠

責任ある AI の 4 原則のうち公平性 (Fairness) は、特定の人口統計グループが不利になる予測を回避し、全ユーザーに対して同等の品質の結果を提供することを目指します。本シナリオでは多様な性別・民族・地理的地域から虫刺され画像を収集することで、訓練データの代表性を高め、特定グループに対するバイアスを低減しようとしており、公平性原則の典型的な実践例です。

責任ある AI の 4 原則

原則内容
Fairness (公平性)差別的影響の回避
Explainability判断理由の説明可能性
Transparencyモデル情報の開示
Privacy/Governanceデータ保護と統制

不正解の理由

  • B: 説明可能性は予測理由を SHAP 等で示す原則であり、データ収集の多様化を直接の達成目的とするものではありません。
  • C: ガバナンスはモデルライフサイクルの統制やプロセス管理を扱う原則で、本シナリオの代表性確保とは焦点が異なります。
  • D: 透明性は Model Card や AI Service Card 等でモデル情報を開示する原則で、訓練データの多様化とは別概念です。

参考:AWS Responsible AI

AIF-C01#2(responsible-ai)
ある企業が、ローン承認を行うためのMLモデルを開発しています。同社は、モデル内のバイアスを検出し、モデルの予測を説明するためのソリューションを実装する必要があります。 この要件を満たすソリューションはどれですか?
ディスカッション 0

正解:A

正解の根拠

Amazon SageMaker Clarify は ML モデルのバイアス検出と説明可能性を提供する責任ある AI 向けサービスです。データ準備時の事前バイアス、訓練後のモデルバイアスを 21 種類以上のメトリクスで測定でき、SHAP に基づく特徴量寄与度で予測理由を説明します。ローン承認のような公平性が重要な金融ユースケースに最適です。

SageMaker 責任ある AI 機能

機能役割
Clarifyバイアス検出と説明可能性 (SHAP)
Model Cardsモデルのドキュメント化
Data Wranglerデータ前処理とフィーチャー作成
AI Service CardsAWS AI サービスの透明性情報

不正解の理由

  • B: Data Wrangler はデータ前処理ツールで、バイアス検出や予測説明を行う責任ある AI 機能は備えていません。
  • C: Model Cards はモデル情報のドキュメント化が主目的で、バイアス測定や予測理由生成の機能ではありません。
  • D: AWS AI Service Cards は AWS 提供 AI サービスの説明資料で、自作モデルのバイアス検出機能ではありません。

参考:SageMaker Clarify

AIF-C01#3(responsible-ai)
機械学習(ML)研究チームがカスタムMLモデルを開発しています。モデル成果物は他のチームと共有され、製品やサービスに統合されます。MLチームはモデルのトレーニングコードとデータを保持しています。MLチームは、モデルを監査するための仕組みを構築したいと考えています。 カスタムMLモデルを公開する際に使用すべきソリューションはどれですか?
ディスカッション 0

正解:C

正解の根拠

Amazon SageMaker Model Cards は、カスタムモデルの意図された用途、訓練データ詳細、評価メトリクス、推論性能、既知の制限事項などを構造化ドキュメントとして一元管理する機能です。モデル監査やステークホルダ共有に必要な情報を体系化でき、責任ある AI の透明性原則を満たすため、自作モデルの公開・共有時に最適なソリューションです。

透明性関連サービス比較

サービス対象
SageMaker Model Cards自作カスタムモデル
AWS AI Service CardsAWS マネージド AI サービス
SageMaker Clarifyバイアス/説明可能性

不正解の理由

  • A: 自由形式の Word 文書を S3 配置するだけでは構造化されず、監査可能なメタ情報の標準フォーマットになりません。
  • B: AWS AI Service Cards は AWS 提供サービス用で、自作カスタムモデルの透明性ドキュメント手段ではありません。
  • D: Git にコードのみコミットしても、訓練データ・評価・意図的用途などの監査メタ情報は構造化されません。

参考:SageMaker Model Cards

AIF-C01#4(responsible-ai)
ある企業が、求人情報データと求職者のユーザープロファイルに基づいた「求人推奨システム」を構築しています。このシステムでは、他の条件が同等であるにもかかわらず、性別に基づいて求人の推奨に「バイアス(偏り)」が生じていることが判明しました。 AWSが提唱する「責任あるAI」のベストプラクティスに従い、この問題を解決するために企業が従うべき原則はどれですか?
ディスカッション 0

正解:D

正解の根拠

責任ある AI の中核原則のひとつである公平性 (Fairness) は、人種・性別・年齢などの保護属性によって不利益が生じることを避け、すべてのユーザに対して同等の品質の結果を提供することを目指します。本問のように同条件にもかかわらず性別でバイアスが生じている事例は、まさに公平性原則を適用してバイアス除去を行うべきケースです。

責任ある AI の主要原則

原則内容
Fairness (公平性)差別的影響の回避
Explainability予測理由の説明可能性
Governanceライフサイクル統制
Controllability挙動の制御可能性

不正解の理由

  • A: ガバナンスはモデル開発・運用の統制プロセス全般を扱う原則で、バイアス除去そのものを直接の目的としません。
  • B: 説明可能性は予測理由を SHAP 等で示す原則で、属性間の差別的影響を是正する直接の指針ではありません。
  • C: 制御可能性はモデル挙動を制御・抑制する原則で、属性バイアス除去の主原則とは焦点が異なります。

参考:AWS Responsible AI

AIF-C01#5(responsible-ai)
ある企業が、自社のAIモデルに「透明性」と「説明可能性」を持たせたいと考えています。これらの要件を満たすAmazon SageMaker AIの機能の組み合わせはどれですか?

(2つ選択)

ディスカッション 0

正解:A, C

正解の根拠

透明性と説明可能性を満たすには、モデル情報を体系化する SageMaker Model Cards と、バイアス検出・SHAP 値による予測理由提示を行う SageMaker Clarify の組合せが最適です。Model Cards で意図された用途・訓練データ・性能を文書化し、Clarify で各予測の説明性を提供することで、責任ある AI の透明性/説明可能性原則を実装的に満たせます。

関連 SageMaker AI 機能

機能役割
Model Cardsモデル情報の構造化ドキュメント (透明性)
Clarifyバイアス検出・SHAP 説明 (説明可能性)
PipelinesML ワークフロー自動化
Model Monitor本番のドリフト監視
Debugger訓練中のテンソル監視

不正解の理由

  • B: Pipelines は ML ワークフローの自動化機能で、透明性・説明可能性を直接提供する機能ではありません。
  • D: Model Monitor は本番環境でのデータ/モデルドリフト監視機能で、説明可能性メトリクスを生成しません。
  • E: Debugger は訓練中のテンソル可視化やボトルネック検出のための機能で、本番説明可能性の主機能ではありません。

参考:SageMaker Model Cards & Clarify