AIF-C01#2(fundamentals-generative-ai)

AIF-C01#2(fundamentals-generative-ai)
ある銀行が、ローン承認プロセスを迅速化するために大規模言語モデル(LLM)をファインチューニングしました。しかし、モデルの外部監査中に、特定のデモグラフィックグループに対して他のグループよりも速いペースでローンを承認していることが判明しました。この問題を最もコスト効率良く修正するにはどうすればよいですか?
ディスカッション 0

正解:A

正解の根拠

特定のデモグラフィックグループへのバイアスが見られる場合、根本原因の多くは訓練データの代表性不足です。より多様で偏りの少ないデータでファインチューニングをやり直すことで、コスト効率良くバイアスを是正できます。プリトレーニング全体のやり直しは膨大なコストがかかるため、ファインチューニングの再実施が現実的かつ最適な選択です。

バイアス対策の比較

手法コスト/効果
多様データでファインチューニング低コスト・高効果
プリトレーニングやり直し超高コスト
RAG 追加知識補完用、バイアスは未解決
Trusted AdvisorAWS リソース最適化用

不正解の理由

  • B: RAG は外部知識参照の仕組みで、モデル自体のバイアスを修正するものではありません。
  • C: Trusted Advisor は AWS リソースの最適化チェックで、ML モデルのバイアス修正機能はありません。
  • D: 新規プリトレーニングは数百万ドル規模のコストがかかり、最もコスト効率の悪い選択です。

参考:SageMaker Clarify Fairness


コメント

コメント

コメントする

目次