PMLE#1(serving-scaling)
低レイテンシのリアルタイム推論を必要とするオンラインサービスに、TensorFlow モデルをデプロイします。最も適切な Vertex AI のサービスはどれですか。
正解:D
正解の根拠
Vertex AI Online Prediction は HTTPS エンドポイントを公開し、低レイテンシで同期的にリクエストを処理する用途に最適化されています。リアルタイム要件を満たす標準的な選択肢です。
| 用途 | サービス | レイテンシ |
|---|---|---|
| リアルタイム同期 | Online Prediction | ミリ秒〜秒 |
| 大量データ非同期 | Batch Prediction | 分〜時間 |
| SQL 内推論 | BigQuery ML | クエリ時間 |
不正解の理由
- B はバッチ向けでありリアルタイムには不適です。
- C はクエリベースで同期 API には向きません。
- D は推論サービングのマネージド機能が無く、性能保証も困難です。

コメント