PDE#3(maintaining)
ある E コマース企業のデータ分析チームは、BigQuery で発生したクエリエラーや高コストクエリを継続的に追跡したいと考えています。INFORMATION_SCHEMA.JOBS をローカルで都度確認するのは非効率なため、Cloud Logging を活用して構造化ログから自動的に分析可能にしたいです。最も適切なアプローチはどれですか?
正解:D
正解の根拠
Cloud Logging のログ シンク機能を使うと、BigQuery のデータアクセス監査ログを別の BigQuery データセットに自動エクスポートできます。SQL ビューを定義することで、エラー率や高額クエリの傾向を継続的に分析でき、Looker Studio で可視化も容易です。スキーマは Google が定義する標準形式のため、再現性の高い運用が可能です。
サービス比較
| 項目 | Log Sink → BQ | Logs Explorer 手動 |
|---|---|---|
| 自動化 | 継続的 | 都度操作 |
| SQL 分析 | 可能 | 限定的 |
| 履歴保持 | 長期 | 保持期間あり |
不正解の理由
- B: アプリ側実装はクライアント網羅性が低く、監査ログより信頼性が劣ります
- C: 手動ダウンロードは運用負荷が高くスケーラビリティもありません
- A: 都度実行は自動化されず、分析の継続性と再現性に欠けます

コメント