AIF-C01#2(fundamentals-ai-ml)
ある企業が、不動産の販売価格を予測するMLモデルを開発しました。このモデルをデプロイして予測を行いたいのですが、サーバーやインフラストラクチャの管理を行いたくありません。
この要件を満たすソリューションはどれですか?
正解:D
正解の根拠
Amazon SageMaker のリアルタイムエンドポイントは、モデルをデプロイすると AWS 側がインスタンスや HTTPS フロントエンド、オートスケーリングまで管理するフルマネージドサービスです。利用者は SDK で推論呼出を行うだけでサーバー管理から解放され、不動産価格予測のような定常的な推論ワークロードを最小運用で運用できます。
デプロイ方式の比較
| 方式 | 運用負荷 |
|---|---|
| SageMaker Endpoint | フルマネージドで最小 |
| EC2 | OS/パッチ管理が必要 |
| EKS | クラスター運用が必要 |
| CloudFront+S3 | 静的配信用で推論不可 |
不正解の理由
- A: EC2 上のデプロイは OS パッチ、スケーリング、推論サーバー管理が利用者責任となり、サーバー管理回避の要件に反します。
- B: EKS クラスター運用には Kubernetes の知識やノード管理が伴い、インフラ管理を避けたい要件に合致しません。
- C: CloudFront と S3 は静的コンテンツ配信向けで、ML モデルの推論実行基盤としては利用できません。

コメント