AIF-C01#2(fundamentals-ai-ml)

AIF-C01#2(fundamentals-ai-ml)
ある企業が、不動産の販売価格を予測するMLモデルを開発しました。このモデルをデプロイして予測を行いたいのですが、サーバーやインフラストラクチャの管理を行いたくありません。 この要件を満たすソリューションはどれですか?
ディスカッション 0

正解:D

正解の根拠

Amazon SageMaker のリアルタイムエンドポイントは、モデルをデプロイすると AWS 側がインスタンスや HTTPS フロントエンド、オートスケーリングまで管理するフルマネージドサービスです。利用者は SDK で推論呼出を行うだけでサーバー管理から解放され、不動産価格予測のような定常的な推論ワークロードを最小運用で運用できます。

デプロイ方式の比較

方式運用負荷
SageMaker Endpointフルマネージドで最小
EC2OS/パッチ管理が必要
EKSクラスター運用が必要
CloudFront+S3静的配信用で推論不可

不正解の理由

  • A: EC2 上のデプロイは OS パッチ、スケーリング、推論サーバー管理が利用者責任となり、サーバー管理回避の要件に反します。
  • B: EKS クラスター運用には Kubernetes の知識やノード管理が伴い、インフラ管理を避けたい要件に合致しません。
  • C: CloudFront と S3 は静的コンテンツ配信向けで、ML モデルの推論実行基盤としては利用できません。

参考:SageMaker Real-time Endpoints


コメント

コメント

コメントする

目次