Skip To Content

ディープ ラーニング ラスター解析用の ArcGIS Image Server の構成

ArcGIS Image Server には、画像内のオブジェクトを分類および検出するためのエンドツーエンドのワークフローを備えた、さまざまなディープ ラーニング ツールが用意されています。これらのツールを使用して、トレーニング サンプル データセットを生成し、ディープ ラーニング フレームワークにエクスポートすることで、ディープ ラーニング モデルを開発できます。その後、画像分類やオブジェクト検出などのデータ推論ワークフローを実行できます。

メモ:

Windows を実行している複数コンピューターのラスター解析サーバー サイトで GPU 処理を利用するには、サイトのサーバー ノードごとに 1 つ以上の GPU を使用できる必要があります。ArcGIS Image Server のラスター解析の配置では、GPU カードがディープ ラーニング ツールを実行する必要はありません。ラスター解析サーバー コンピューターに GPU カードが搭載されていない場合、ツールは CPU で実行できます。CPU のみを含むラスター解析サーバー コンピューターの場合、ユーザーは、TensorFlow および Pytorch パッケージ専用のディープ ラーニング Python ライブラリの MKL (Math Kernel Library) ビルドをインストールする必要があります。

10.8 では、ディープ ラーニング推論ラスター解析は 1 台のコンピューターで複数の GPU を同時に使用することができます。

メモ:

ArcGIS Image Server 環境のラスター解析では、GPU で TensorFlow、PyTorch、および Keras Python モジュールを使用できます。ArcGIS で事前定義された一部のディープ ラーニング モデル構成で、サーバー ノードごとに複数の GPU を使用できます。この構成には、Tensorflow (ObjectDetectionAPI および DeepLab)、Keras (MaskRCNN)、および PyTorch などがあります。

Windows および Linux のラスター解析の配置へのディープ ラーニング サポートの追加

ArcGIS Image Serverラスター解析の配置を構成したら、サポートされているディープ ラーニングのフレームワーク パッケージをインストールして、ディープ ラーニング ツールを操作する必要があります。

ディープ ラーニング パッケージのインストール方法については、ArcGIS Image Server 10.8.1.の ディープ ラーニング インストール ガイド ディープ ラーニング インストール ガイドをご参照ください。

GPU の利用

10.8 では、各サーバー ノードで複数のサービス インスタンスが GPU を使用できます。RasterProcessingGPU サービスのコンピューターあたりの最大インスタンス数は、各コンピューターでディープ ラーニングの計算用にインストールされている GPU カードの数に基づいて設定する必要があります。デフォルトは 1 に設定されています。

注意:
コンピューターあたりの GPU カードが 1 枚しかない場合、このサービスのコンピューターあたりの最大インスタンス数を増やさないでください。

[ArcGIS Server Manager] で、インスタンスの最小数および最大数の値を確認します。[サービス] > [サービスの管理] > [RasterProcessingGPU] の順に移動し、[RasterProcessingGPU] をクリックして編集ページを開きます。[プール] タブで、インスタンスの最小数および最大数の値を確認します。コンピューターあたりのインスタンス数のデフォルトの最小値および最大値は 1 です。各コンピューターで複数の GPU を使用するには、コンピューターあたりの最大インスタンス数を、コンピューターごとにインストールされている GPU カードの数と等しくなるように変更する必要があります。たとえば、各サーバー コンピューターに 2 つの GPU がある場合、コンピューターあたりの最大インスタンス数を 2 に変更する必要があります。[保存] および [再起動] をクリックして、変更を有効にします。

ラスター処理 GPU のセットアップ

RasterProcessingGPU サービスのコンピューターあたりの最小インスタンス数は 1 (デフォルト値) に設定されています。各サーバー ノードで使用できる GPU カードが 1 枚しかない場合に、異なるディープ ラーニング フレームワークでモデル推論を順次実行する際は、RasterProcessingGPU サービスを再起動する必要があります。たとえば、TensorFlow モデル推論の最初のジョブを送信し、送信が終了したら、RasterProcessingGPU サービスを再起動してから、PyTorch モデル推論の 2 番目のジョブを送信します。

ディープ ラーニング ラスター解析ワークフローの各リクエストには、[processorType] 環境パラメーターが含まれています。リクエスト時に、このパラメーターで CPU と GPU のどちらを使用するかが正しく指定されていることを確認してください。[processorType] 環境パラメーターは、ArcGIS ProMap ViewerArcGIS REST API、または ArcGIS API for Python のツールまたはラスター関数インターフェイスに設定されています。