WEB問題集
Question#1(DP-100)
Azure Machine Learning サービスで GPU ベースのトレーニングを使用して画像認識用のディープラーニングモデルを作成しました。
リアルタイムの GPU ベース推論が可能なコンテキストにモデルをデプロイする必要があります。
モデル推論用のコンピューティングリソースを構成するには、どのコンピューティングタイプを使用すべきですか?
正解:B
GPU ベースのリアルタイム推論が必要な場合、Azure Kubernetes Service(AKS)が最適です。AKS は GPU ノードをサポートし、本番環境向けのスケーラブルなリアルタイム推論エンドポイントを提供します。Azure Container Instance(ACI)は GPU をサポートしていますが、本番規模のリアルタイム推論には AKS が推奨されます。Machine Learning Compute はバッチ処理向けです。FPGA は特定の専用ハードウェアで、通常の GPU 推論とは異なります。Question#2(DP-100)
Azure Machine Learning ワークスペースでモデルをトレーニングして登録しました。
クライアントアプリケーションがバッチ推論にモデルを使用できるパイプラインを公開する必要があります。
入力データから予測を取得するために Python 推論スクリプトを実行する単一の ParallelRunStep を含むパイプラインを使用する必要があります。
ParallelRunStep パイプラインステップの推論スクリプトに含める必要がある 2 つの関数はどれですか?
(2つ選択)
正解:A, D
ParallelRunStep の推論スクリプトには 2 つの必須関数があります。 ① init():モデルの初期化処理(モデルの読み込みなど)を行う関数。パイプライン開始時に一度だけ呼び出されます。 ② run(mini_batch):実際の推論処理を行う関数。ミニバッチ(ファイルリスト)を受け取り、予測結果のリストを返します。 main()、batch()、score() は ParallelRunStep では使用されない関数名です。Question#3(DP-100)
次のコードを使用して、Azure Machine Learning リアルタイム Web サービスとしてモデルをデプロイしました。
# ws, model, inference_config, and deployment_config defined previously
service = Model.deploy(ws, 'classification-service', [model], inference_config, deployment_config)
service.wait_for_deployment(True)
デプロイが失敗しました。
デプロイ中に実行されたアクションを確認し、失敗した特定のアクションを特定することで、デプロイの失敗をトラブルシューティングする必要があります。
どのコードセグメントを実行すべきですか?
正解:A
service.get_logs() はデプロイ中に実行されたすべてのアクションのログを取得します。デプロイが失敗した場合、このログを確認することで、どのステップで問題が発生したかを特定できます。 ・service.state はサービスの現在の状態(例:Failed、Healthy)を返しますが、詳細なエラー情報は含まれません。 ・service.serialize() はサービスの設定情報をシリアライズしますが、デバッグには不向きです。 ・service.update_deployment_state() は存在しないメソッドです。Question#4(DP-100)
マルチクラス画像分類ディープラーニングモデルを作成しました。
PyTorch バージョン 1.2 を使用してモデルをトレーニングしました。
モデルをデプロイするときに、推論環境に正しいバージョンの PyTorch を識別できるようにする必要があります。
何をすべきですか?
正解:D
Azure Machine Learning でモデルを登録する際に model_framework(例:PyTorch)と model_framework_version(例:1.2)を指定することで、デプロイ時に正しいフレームワークバージョンが自動的に識別・使用されます。 ・ローカルへの保存やデプロイはバージョン管理には不十分です。 ・デフォルト conda 環境は特定バージョンを保証しません。 ・.pt ファイル拡張子だけではバージョン情報は保持されません。Question#5(DP-100)
機械学習モデルをトレーニングしました。
テスト用のリアルタイム推論サービスとしてモデルをデプロイする必要があります。
サービスには低い CPU 使用率と 48 MB 未満の RAM が必要です。
デプロイされたサービスのコンピューティングターゲットはコストと管理オーバーヘッドを最小限に抑えながら自動的に初期化する必要があります。
どのコンピューティングターゲットを使用すべきですか?
正解:A
Azure Container Instance(ACI)は、テスト目的の軽量なリアルタイム推論に最適です。 ・自動的に初期化される(事前にクラスターを作成・管理する必要がない) ・低コスト・低管理オーバーヘッド ・小規模なワークロード(低 CPU、少ない RAM)に適している ・AKS は本番環境向けで、管理オーバーヘッドが高い ・Azure Databricks はバッチ処理向け ・ML コンピューティングクラスターはトレーニング向け