PDE#3(maintaining)

PDE#3(maintaining)

ある E コマース企業のデータ分析チームは、BigQuery で発生したクエリエラーや高コストクエリを継続的に追跡したいと考えています。INFORMATION_SCHEMA.JOBS をローカルで都度確認するのは非効率なため、Cloud Logging を活用して構造化ログから自動的に分析可能にしたいです。最も適切なアプローチはどれですか?

ディスカッション 0

正解:D

正解の根拠

Cloud Logging のログ シンク機能を使うと、BigQuery のデータアクセス監査ログを別の BigQuery データセットに自動エクスポートできます。SQL ビューを定義することで、エラー率や高額クエリの傾向を継続的に分析でき、Looker Studio で可視化も容易です。スキーマは Google が定義する標準形式のため、再現性の高い運用が可能です。

サービス比較

項目Log Sink → BQLogs Explorer 手動
自動化継続的都度操作
SQL 分析可能限定的
履歴保持長期保持期間あり

不正解の理由

  • B: アプリ側実装はクライアント網羅性が低く、監査ログより信頼性が劣ります
  • C: 手動ダウンロードは運用負荷が高くスケーラビリティもありません
  • A: 都度実行は自動化されず、分析の継続性と再現性に欠けます

参考:Cloud Logging シンクの構成


コメント

コメント

コメントする

目次