WEB問題集
正解:A
正解の根拠
責任ある AI の 4 原則のうち公平性 (Fairness) は、特定の人口統計グループが不利になる予測を回避し、全ユーザーに対して同等の品質の結果を提供することを目指します。本シナリオでは多様な性別・民族・地理的地域から虫刺され画像を収集することで、訓練データの代表性を高め、特定グループに対するバイアスを低減しようとしており、公平性原則の典型的な実践例です。
責任ある AI の 4 原則
| 原則 | 内容 |
|---|---|
| Fairness (公平性) | 差別的影響の回避 |
| Explainability | 判断理由の説明可能性 |
| Transparency | モデル情報の開示 |
| Privacy/Governance | データ保護と統制 |
不正解の理由
- B: 説明可能性は予測理由を SHAP 等で示す原則であり、データ収集の多様化を直接の達成目的とするものではありません。
- C: ガバナンスはモデルライフサイクルの統制やプロセス管理を扱う原則で、本シナリオの代表性確保とは焦点が異なります。
- D: 透明性は Model Card や AI Service Card 等でモデル情報を開示する原則で、訓練データの多様化とは別概念です。
正解:A
正解の根拠
Amazon SageMaker Clarify は ML モデルのバイアス検出と説明可能性を提供する責任ある AI 向けサービスです。データ準備時の事前バイアス、訓練後のモデルバイアスを 21 種類以上のメトリクスで測定でき、SHAP に基づく特徴量寄与度で予測理由を説明します。ローン承認のような公平性が重要な金融ユースケースに最適です。
SageMaker 責任ある AI 機能
| 機能 | 役割 |
|---|---|
| Clarify | バイアス検出と説明可能性 (SHAP) |
| Model Cards | モデルのドキュメント化 |
| Data Wrangler | データ前処理とフィーチャー作成 |
| AI Service Cards | AWS AI サービスの透明性情報 |
不正解の理由
- B: Data Wrangler はデータ前処理ツールで、バイアス検出や予測説明を行う責任ある AI 機能は備えていません。
- C: Model Cards はモデル情報のドキュメント化が主目的で、バイアス測定や予測理由生成の機能ではありません。
- D: AWS AI Service Cards は AWS 提供 AI サービスの説明資料で、自作モデルのバイアス検出機能ではありません。
正解:C
正解の根拠
Amazon SageMaker Model Cards は、カスタムモデルの意図された用途、訓練データ詳細、評価メトリクス、推論性能、既知の制限事項などを構造化ドキュメントとして一元管理する機能です。モデル監査やステークホルダ共有に必要な情報を体系化でき、責任ある AI の透明性原則を満たすため、自作モデルの公開・共有時に最適なソリューションです。
透明性関連サービス比較
| サービス | 対象 |
|---|---|
| SageMaker Model Cards | 自作カスタムモデル |
| AWS AI Service Cards | AWS マネージド AI サービス |
| SageMaker Clarify | バイアス/説明可能性 |
不正解の理由
- A: 自由形式の Word 文書を S3 配置するだけでは構造化されず、監査可能なメタ情報の標準フォーマットになりません。
- B: AWS AI Service Cards は AWS 提供サービス用で、自作カスタムモデルの透明性ドキュメント手段ではありません。
- D: Git にコードのみコミットしても、訓練データ・評価・意図的用途などの監査メタ情報は構造化されません。
正解:D
正解の根拠
責任ある AI の中核原則のひとつである公平性 (Fairness) は、人種・性別・年齢などの保護属性によって不利益が生じることを避け、すべてのユーザに対して同等の品質の結果を提供することを目指します。本問のように同条件にもかかわらず性別でバイアスが生じている事例は、まさに公平性原則を適用してバイアス除去を行うべきケースです。
責任ある AI の主要原則
| 原則 | 内容 |
|---|---|
| Fairness (公平性) | 差別的影響の回避 |
| Explainability | 予測理由の説明可能性 |
| Governance | ライフサイクル統制 |
| Controllability | 挙動の制御可能性 |
不正解の理由
- A: ガバナンスはモデル開発・運用の統制プロセス全般を扱う原則で、バイアス除去そのものを直接の目的としません。
- B: 説明可能性は予測理由を SHAP 等で示す原則で、属性間の差別的影響を是正する直接の指針ではありません。
- C: 制御可能性はモデル挙動を制御・抑制する原則で、属性バイアス除去の主原則とは焦点が異なります。
(2つ選択)
正解:A, C
正解の根拠
透明性と説明可能性を満たすには、モデル情報を体系化する SageMaker Model Cards と、バイアス検出・SHAP 値による予測理由提示を行う SageMaker Clarify の組合せが最適です。Model Cards で意図された用途・訓練データ・性能を文書化し、Clarify で各予測の説明性を提供することで、責任ある AI の透明性/説明可能性原則を実装的に満たせます。
関連 SageMaker AI 機能
| 機能 | 役割 |
|---|---|
| Model Cards | モデル情報の構造化ドキュメント (透明性) |
| Clarify | バイアス検出・SHAP 説明 (説明可能性) |
| Pipelines | ML ワークフロー自動化 |
| Model Monitor | 本番のドリフト監視 |
| Debugger | 訓練中のテンソル監視 |
不正解の理由
- B: Pipelines は ML ワークフローの自動化機能で、透明性・説明可能性を直接提供する機能ではありません。
- D: Model Monitor は本番環境でのデータ/モデルドリフト監視機能で、説明可能性メトリクスを生成しません。
- E: Debugger は訓練中のテンソル可視化やボトルネック検出のための機能で、本番説明可能性の主機能ではありません。
