PMLE#1(serving-scaling)

PMLE#1(serving-scaling)

低レイテンシのリアルタイム推論を必要とするオンラインサービスに、TensorFlow モデルをデプロイします。最も適切な Vertex AI のサービスはどれですか。

ディスカッション 0

正解:D

正解の根拠

Vertex AI Online Prediction は HTTPS エンドポイントを公開し、低レイテンシで同期的にリクエストを処理する用途に最適化されています。リアルタイム要件を満たす標準的な選択肢です。

用途サービスレイテンシ
リアルタイム同期Online Predictionミリ秒〜秒
大量データ非同期Batch Prediction分〜時間
SQL 内推論BigQuery MLクエリ時間

不正解の理由

  • B はバッチ向けでありリアルタイムには不適です。
  • C はクエリベースで同期 API には向きません。
  • D は推論サービングのマネージド機能が無く、性能保証も困難です。

参考:Vertex AI Online Predictions


コメント

コメント

コメントする

目次