Skip To Content

ディープ ラーニングを使用したオブジェクトの分類

ディープ ラーニングを使用したオブジェクトの分類ディープ ラーニングを使用したオブジェクトの分類ツールは、入力ラスターとオプションのフィーチャクラスに対してトレーニング済みディープ ラーニング モデルを実行し、各入力オブジェクトにクラス ラベルまたはカテゴリ ラベルを割り当てたフィーチャクラスまたはテーブルを作成します。

注意:

このツールを実行するには、ラスター解析用にポータルを構成する必要があります。

さらに、ディープ ラーニング ツールではArcGIS Image Serverディープ ラーニング ラスター解析を行えるよう構成する必要があります。

このツールが Map Viewer に表示されない場合は、ポータル管理者に問い合わせてください。 お使いのポータルがラスター解析用に構成されていないか、ユーザーに、このツールを実行するのに必要な権限がないことが考えられます。

ワークフロー図

ディープ ラーニングを使用したオブジェクトの分類のワークフロー

  • 住宅の場所を特定する画像とフィーチャクラスをもとに、トレーニング済みディープ ラーニング モデルを使用して、各住宅が損害を受けているか受けていないかを分類します。
  • 各画像が 1 本の樹木を捉えている画像コレクションをもとに、トレーニング済みディープ ラーニング モデルを使用して、各樹木が健康であるか不健康であるかを分類します。

使用上の注意

このツールを実行すると、ラスター解析サーバーがサードパーティのディープ ラーニング Python API を呼び出し、指定された Python ラスター関数を使用して、各ラスター タイルを処理します。

このツールの入力ディープ ラーニング モデルは、ポータルに格納されたディープ ラーニング パッケージ (*.dlpk) アイテムである必要があります。 ArcGIS Pro または ArcGIS REST API ラスター解析ツール[ディープ ラーニング モデルのトレーニング (Train Deep Learning Model)] ジオプロセシング ツールを使用して *.dlpk アイテムを生成できます。

入力モデルを選択または指定すると、ラスター解析サーバーからモデル引数情報が取得されます。 モデルが無効であったり、ラスター解析サーバーがディープ ラーニングに対して適切に構成されていなかったりすると、ツールはこの情報を取得できません。

入力 *.dlpk アイテムには、Esri モデル定義ファイル (*.emd) を含める必要があります。 下記のサンプル *.emd ファイルをご参照ください。

{
    "Framework": "Keras",
    "ModelConfiguration":"KerasClassifier",
    "ModelFile":"C:\\DeepLearning\\Damage_Classification_Model_V7.h5",
    "ModelType":"ObjectClassification",
    "ImageHeight":256,
    "ImageWidth":256,
    "ExtractBands":[0,1,2],
    "CropSizeFixed": 1,
    "BlackenAroundFeature": 1,
    "ImageSpaceUsed": "MAP_SPACE", 
    "Classes": [
    {
       "Value": 0,
       "Name": "Damaged",
       "Color": [255, 0, 0]
    },
    {
       "Value": 1,
       "Name": "Undamaged",
       "Color": [76, 230, 0]
    }
    ]
}

[現在のマップ範囲を使用] がオンの場合、現在のマップ範囲に表示されるピクセルだけが解析されます。 オフの場合は、入力イメージ レイヤー全体が解析されます。

次の表に、このツールのパラメーターを示します。

パラメーター説明
オブジェクトの分類に使用する画像を選択

オブジェクトの分類に使用される入力画像。

オブジェクトのフィーチャ レイヤーの選択 (オプション)

分類されラベル付けされる各オブジェクトの位置を識別するポイント、ライン、またはポリゴン入力フィーチャ レイヤー。 入力フィーチャ レイヤーの各行は、単一のオブジェクトを表します。

入力フィーチャ レイヤーが指定されない場合、各入力画像に分類対象の単一オブジェクトが含まれていると判断します。 入力画像が空間参照を使用する場合、このツールからの出力はフィーチャ レイヤーとなり、各画像の範囲が各ラベル付きフィーチャの境界ジオメトリとして使用されます。 入力画像が空間参照されていない場合、このツールからの出力は、各画像の画像 ID 値とクラス ラベルを含むテーブルとなります。

オブジェクトの分類に使用するディープ ラーニング モデルを選択

入力ディープ ラーニング パッケージ (*.dlpk) アイテム。

ディープ ラーニング パッケージには、Esri モデル定義 JSON ファイル (*.emd)、ディープ ラーニング バイナリ モデル ファイル、および使用されるオプションの Python ラスター関数が含まれます。

ディープ ラーニング モデルの引数を指定

関数の引数は、入力モデルによって参照される Python ラスター関数で定義されます。 ここでは、調整のための追加のディープ ラーニング パラメーターおよび引数 (感度を調整するための信頼性の閾値など) をリストします。

引数の名前は、ツールが Python モジュールを読み取ることによって入力されます。

クラス ラベル フィールド名の定義 (オプション)

出力フィーチャ レイヤー内の分類ラベルを含むフィールドの名前。

フィールド名を指定しないと、出力フィーチャ レイヤーに ClassLabel という新しいフィールドが生成されます。

処理モード

イメージ サービス内のすべてのラスター アイテムを処理する方法を指定します。

  • モザイク画像として処理 - イメージ サービス内のすべてのラスター アイテムをモザイク化して処理します。 これがデフォルトです。
  • すべてのラスター アイテムを別々に処理 - イメージ サービス内のすべてのラスター アイテムを別々のイメージとして処理します。

結果レイヤー名

[マイ コンテンツ] に作成され、マップに追加されるレイヤーの名前。 デフォルトの名前は、ツール名と入力レイヤー名に基づいて設定されます。 レイヤーがすでに存在する場合は、別の名前を指定するよう求められます。

[出力の保存場所] ドロップダウン ボックスを使用して、結果を保存する [マイ コンテンツ] 内のフォルダーの名前を指定できます。

環境

解析環境設定は、ツールの結果に影響する追加パラメーターです。 このツールの解析環境設定にアクセスするには、ツール パネルの上部にある歯車 解析環境 アイコンをクリックします。

このツールでは次の [解析環境] が適用されます。

  • 範囲 - 解析に使用するエリアを指定します。
  • セル サイズ - 出力レイヤーで使用するセル サイズ。
  • 処理ワーカーのリサイクル間隔 - ワーカー プロセスを再開する前に処理するイメージ セクションの数を定義します。
  • 並列処理ファクター - ラスター処理 CPU または GPU インスタンスを制御します。
  • 失敗したときの再試行回数 - ジョブの処理中にランダムな障害が発生した場合に、ワーカー プロセスが再試行される回数を定義します。

類似のツールとラスター関数

ディープ ラーニングを使用したオブジェクトの分類ツールを使用し、画像のオブジェクトを分類します。 その他のツールは、類似した問題を解決するのに効果的です。

Map Viewer 解析ツールとラスター関数

ディープ ラーニングを使用したオブジェクトの検出ツールを使用し、画像内のオブジェクトの位置を検出します。 ディープ ラーニングを使用したピクセルの分類ツールを使用し、画像内の各ピクセルを分類します。

ArcGIS Pro 解析ツールとラスター関数

[ディープ ラーニングを使用したオブジェクトの分類 (Classify Objects Using Deep Learning)] ジオプロセシング ツールは、Image Analyst ツールボックスにあります。 ディープ ラーニング ツールセットのその他のツールは、ディープ ラーニング ワークフローを実行します。

ArcGIS Enterprise 開発者向けのリソース

ArcGIS REST API で作業を行っている場合は、Classify Objects Using Deep Learning 操作を使用します。

ArcGIS API for Python で作業を行っている場合は、arcgis.learn モジュールでディープ ラーニング タスクを実行 ArcGIS for Python API Web サイトします。