AIF-C01#3(foundation-models)
ある金融機関が、基盤モデル(FM)を使用してローン承認の意思決定を行うAIソリューションを構築しています。セキュリティおよび監査の観点から、AIソリューションの意思決定が説明可能である必要があります。
AIソリューションの意思決定の説明可能性に関連する要因はどれですか?
正解:A
正解の根拠
AI モデルの説明可能性 (Explainability) はモデルの複雑さと強くトレードオフの関係にあります。線形回帰や決定木のようなシンプルなモデルは判断ロジックを直接追跡できますが、ディープニューラルネットワークや大規模 FM のような複雑モデルは内部表現が膨大で説明が困難です。ローン承認のような監査要件のある場面では、SageMaker Clarify や SHAP 等の補助手法、もしくは比較的単純なモデル選定が有効です。
説明可能性に影響する要因
| 要因 | 影響 |
|---|---|
| モデルの複雑さ | 複雑ほど説明困難 |
| トレーニング時間 | 学習効率の指標、説明性とは別 |
| ハイパーパラメータ数 | 調整自由度、説明性に直結せず |
| デプロイ時間 | 運用指標 |
不正解の理由
- B: トレーニング時間は学習効率や計算コストの観点であり、出来上がったモデルの判断根拠の理解しやすさを決める要因ではありません。
- C: ハイパーパラメータ数はチューニング対象の多さを示すもので、推論結果の説明可能性に直接影響を与えるものではありません。
- D: デプロイ時間は運用指標で、モデルの内部判断ロジックを人間に提示できるかどうかとは無関係の要素です。

コメント