Disponible avec Image Server
L’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) exécute un modèle de Deep Learning sur une couche d’imagerie afin de produire une table ou une couche d’entités dans laquelle chaque objet d’entrée est classé.
La sortie correspond à une couche d'entités hébergée.
Exemples
L’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) peut être utilisé pour évaluer des bâtiments endommagés par une catastrophe naturelle. À partir d’une couche d’entités des emprises de bâtiment et une couche d’imagerie affichant les zones sinistrées, l’outil sait indiquer si les bâtiments existants ont été endommagés.
L’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) peut servir à indiquer l’état de la canopée pour des arbres existants. À partir d’une couche d’entités de canopées d’arbres et une couche d’imagerie affichant la canopée d’arbres actuelle, l’outil sait indiquer si les arbres existants sont sains ou menacés.
Remarques sur l’utilisation
L’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) inclut des configurations pour les couches d’imagerie en entrée, les couches d’entités en entrée, le modèle de Deep Learning et la couche de résultat.
Couche(s) en entrée
Le groupe Input layer(s) (Couche(s) en entrée) comprend les paramètres suivants :
- Input imagery layer or feature layer (Couche d’imagerie ou couche d’entités en entrée) permet de sélectionner une ou des couches d’imagerie servant à classer des objets. La couche d’imagerie sélectionnée doit être fondée sur les exigences du modèle de Deep Learning qui sera utilisé pour classer les objets. La couche d’imagerie doit être multidimensionnelle ou être une collection d’images.
- La Input feature layer (Couche d’entités en entrée) sert à sélectionner les entités en indiquant leurs positions afin de les classer. Chaque ligne dans la couche d’entités en entrée représente un seul objet. Si aucune couche d’entités en entrée n’est spécifiée, on suppose que chaque image en entrée contient un seul objet à classer.
- Le Processing mode (Mode de traitement) indique la façon dont les éléments raster sont traités dans la couche d’imagerie. Le paramètre Processing mode (Mode de traitement) comporte les options suivantes :
- Process as mosaicked image (Traiter comme image mosaïquée) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont mosaïqués ensemble et traités. Il s’agit de l’option par défaut.
- Process all raster items separately (Traiter tous les éléments raster séparément) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont traités en tant qu’images séparées.
Paramètres du modèle
Le groupe Model settings (Paramètres du modèle) comporte les paramètres suivants :
- Model for object classification (Modèle pour la classification des objets) spécifie le modèle de Deep Learning utilisé pour classer les objets. Le modèle de Deep Learning doit se trouver dans ArcGIS Online pour pouvoir être sélectionné dans l’outil. Vous pouvez sélectionner votre propre modèle, un modèle disponible publiquement dans ArcGIS Online ou à partir de ArcGIS Living Atlas of the World.
- Model arguments (Arguments du modèle) spécifie les arguments des fonctions définis dans la classe de fonctions raster Python. Sont répertoriés les paramètres de Deep Learning supplémentaires et les arguments des expériences et améliorations, tels qu’un seuil de confiance pour l’ajustement de la sensibilité. Les noms des arguments sont renseignés à partir du module Python.
- Output class label field name (Nom du champ d’étiquette de classe en sortie) précise le nom du champ qui contiendra l’étiquette de classification dans la table ou la couche d’entités hébergée en sortie.
Couche de résultat
Le groupe Result layer (Couche de résultat) comprend les paramètres suivants :
- Le paramètre Output name (Nom en sortie) détermine le nom de la couche créée et ajoutée à la carte. Le nom doit être unique. Si une couche du même nom existe déjà dans votre organisation, l’outil échoue et vous êtes invité à utiliser un autre nom.
- Le paramètre Save in folder (Enregistrer dans un dossier) indique le nom d’un dossier de My Content (Mon contenu) dans lequel est enregistré le résultat.
Environnements
Les paramètres d’environnement d’analyse sont des paramètres supplémentaires qui affectent les résultats d’un outil. Vous pouvez accéder aux paramètres d’environnement d’analyse de l'outil à partir du groupe de paramètres Environment settings (Paramètres d'environnement).
Cet outil respecte les environnements d'analyse suivants :
- Système de coordonnées en sortie
- Etendue de traitement
Remarque :
L’étendue de traitement par défaut dans Map Viewer correspond à l’étendue Full extent (Étendue totale). Ce paramètre par défaut diffère de Map Viewer Classic, où Use current map extent (Utiliser l’étendue courante de la carte) est activé par défaut.
- Taille de cellule
- Facteur de traitement parallèle
- Type de processeur
Sorties
Cet outil comprend les sorties suivantes :
- Couche d’entités hébergée avec les objets ou les entités étiquetées en fonction de la classification déterminée par le modèle de Deep Learning.
- Table avec les emplacements étiquetés en fonction de la classification déterminée par le modèle de Deep Learning.
Licences requises
Cet outil requiert les licences et configurations suivantes :
- Type d’utilisateur Creator ou GIS Professional
- Rôle d’éditeur ou d’administrateur, ou rôle personnalisé équivalent
- ArcGIS Image Server configuré pour l’analyse raster d’apprentissage profond
Ressources
Référez-vous aux ressources suivantes pour en savoir plus :
- Classer des objets à l’aide du Deep Learning dans ArcGIS REST API
- fonction classify_objects dans ArcGIS API for Python
- Détecter des objets à l’aide du Deep Learning dans ArcGIS Enterprise
- Classer des pixels à l’aide du Deep Learning dans ArcGIS Enterprise
- Classer des objets à l’aide du Deep Learning dans ArcGIS Pro
Vous avez un commentaire à formuler concernant cette rubrique ?