L’outil Détecter des objets à l’aide d’algorithmes de Deep Learning exécute un modèle de Deep Learning entraîné sur un raster en entrée afin de générer une classe d’entités contenant les objets qu’il trouve. Les entités peuvent être des polygones autour des objets trouvés ou encore des points situés aux centres des objets trouvés.
Remarque :
Cet outil est maintenant disponible dans Map Viewer, l’outil moderne de création de cartes dans ArcGIS Enterprise. Pour en savoir plus, reportez-vous à la rubrique Détecter des objets à l’aide du Deep Learning (Map Viewer).
Pour que cet outil puisse être exécuté, l’organisation doit être configurée pour l’analyse raster.
Si vous ne voyez pas cet outil dans Map Viewer Classic, contactez l’administrateur de votre organisation. Il se peut que votre portail ne soit pas configuré pour l'analyse raster ou que vous ne disposiez pas des privilèges requis pour exécuter l'outil.
Diagramme de workflow
Exemples
- Dans une image donné d’un voisinage, détectez l’emplacement de chaque toit doté d’un panneau solaire.
- Dans une image donnée d’une zone sauvage située au nord du Canada, détectez l’emplacement de chaque lac gelé.
Remarques sur l’utilisation
Lors de l’exécution de l’outil, le serveur d’analyse raster appelle une API Python de Deep Learning tierce et utilise la fonction raster Python spécifique pour traiter chaque tuile raster.
Le modèle de Deep Learning en entrée pour cet outil doit être un élément de paquetage de Deep Learning (.dlpk) conservé sur votre portail. Vous pouvez générer un élément .dlpk à l’aide de l’outil de géotraitement Entraîner le modèle de Deep Learning dans ArcGIS Pro ou l’outil d’analyse raster de ArcGIS REST API.
Une fois le modèle en entrée sélectionné ou spécifié, les arguments du modèle sont obtenus depuis le serveur d’analyse raster. L’outil peut ne pas réussir à obtenir ces informations si le modèle n’est pas valide ou si le serveur d’analyse raster n’est pas correctement configuré pour l’apprentissage Deep Learning.
L’élément .dlpk en entrée doit inclure un fichier de définition de modèle Esri (.emd). Reportez-vous au fichier exemple .emd ci-dessous.
{
"Framework" :"TensorFlow",
"ModelConfiguration": "ObjectDetectionAPI",
"ModelFile": ".\\CoconutTreeDetection.model",
"ModelType": "ObjectDetection",
"ImageHeight": 850,
"ImageWidth": 850,
"ExtractBands": [0,1,2],
"ImageSpaceUsed": "MAP_SPACE"
"Classes": [
{
"Value": 0,
"Name": "CoconutTree",
"Color": [0, 255, 0]
}
]
}
Cochez la case pour activer le paramètre Non Maximum Suppression (Suppression non maximale) afin d’identifier et supprimer les entités dupliquées dans la détection d’objets.
Si l’option Use current map extent (Utiliser l’étendue courante de la carte) est sélectionnée, seuls les pixels qui sont visibles dans l’étendue courante de la carte seront analysées. Si l’option n’est pas sélectionnée, la couche d’imagerie en entrée entière sera analysée.
Les paramètres de cet outil sont indiqués dans la table suivante :
Paramètre | Explication |
---|---|
Choisir l’image utilisée pour détecter des objets | Image en entrée utilisée pour classer les objets. |
Choisir le modèle d’apprentissage profond utilisé pour détecter des objets | L’entrée est l’URL d’un élément de paquetage de Deep Learning (.dlpk). Le paquetage de Deep Learning contient le fichier JSON de définition du modèle Esri (.emd), le fichier de modèle binaire de Deep Learning et, éventuellement, la fonction raster Python à utiliser. |
Spécifier les arguments du modèle d’apprentissage profond | Les arguments de la fonction sont définis dans la fonction raster Python référencée par le modèle en entrée. C’est là que vous répertoriez les paramètres de Deep Learning supplémentaires et les arguments permettant d’affiner l’apprentissage, tels qu’un seuil de confiance visant à ajuster la sensibilité. Les noms des arguments sont alimentés par l’outil lors de la lecture du module Python. |
Supprimer les entités dupliquées de la sortie (facultatif) | Spécifie si la suppression non maximale est réalisée, auquel cas les d’objets dupliqués trouvés sont identifiés et l’entité dupliquée dont la valeur de confiance est la plus faible est supprimée.
|
Champ de score de confiance | Champ dans le service d’entités qui contient les scores de confiance utilisés en sortie par la méthode de détection d’objets. Ce paramètre est obligatoire lorsque le paramètre Non maximum suppression (Suppression non maximale) est activée. |
Champ de valeur de classe | Champ de valeur de classe dans le service d’entités. S’il n’est pas spécifié, l’outil utilise les champs de valeur de classe standard Classvalue et Value. Si ces champs n’existent pas, toutes les entités seront traitées comme la même classe d’objets. Ce paramètre est obligatoire lorsque le paramètre Non maximum suppression (Suppression non maximale) est activée. |
Ratio de superposition maximale | Ratio de superposition maximale de deux entités se chevauchant, défini comme le rapport entre la zone d’intersection et la zone d’union. La valeur par défaut est 0. Ce paramètre est obligatoire lorsque le paramètre Non maximum suppression (Suppression non maximale) est activée. |
Processing mode (Mode de traitement) | Indique la façon dont tous les éléments raster sont traités dans un service d’imagerie.
|
Nom de la couche de résultat | Le nom de la couche qui sera créée dans la page My Content (Mon contenu) et ajoutée à la carte. Le nom par défaut repose sur le nom de l'outil et sur le nom de la couche en entrée. Si la couche existe déjà, vous êtes invité à fournir un autre nom. Vous pouvez spécifier le nom d’un dossier dans My Content (Mon contenu), dans lequel le résultat sera enregistré via la zone de liste déroulante Save result in (Enregistrer le résultat dans). |
Environnements
Les paramètres d’environnement d’analyse sont des paramètres supplémentaires qui affectent les résultats d’un outil. Vous pouvez accéder aux paramètres d’environnement d'analyse de l'outil en cliquant sur l'icône représentant un engrenage dans la partie supérieure de la fenêtre de l'outil.
Cet outil respecte les environnements d’analyse suivants :
- Système de coordonnées en sortie : indique le système de coordonnées de la couche en sortie.
- Étendue : indique la surface à utiliser pour l’analyse.
- Taille de cellule : taille de cellule à utiliser dans la couche en sortie.
- Masque : désigne une couche de masque, où seules les cellules qui se trouvent dans la zone du masque seront utilisées pour l’analyse.
- Facteur de traitement parallèle : contrôle les instances CPU ou GPU du traitement parallèle.
- Type de processeur : indique si le GPU ou le CPU doit être utilisé pour traiter les données.
Fonctions raster et outils similaires
Utilisez l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning pour détecter des objets dans une image. D’autres outils peuvent vous aider à résoudre des problèmes similaires.
Outils d’analyse et fonctions raster dans Map Viewer Classic
Utilisez l’outil Classer des objets à l’aide d’algorithmes de Deep Learning pour détecter l’emplacement d’objets dans une image. Utilisez l’outil Classer des pixels à l’aide d’algorithmes de Deep Learning pour classer chaque pixel dans une image.
Fonctions raster et outils d’analyse ArcGIS Pro
L’outil de géotraitement Détecter des objets à l’aide d’algorithmes de Deep Learning est disponible dans la boîte d’outils Image Analyst. D’autres outils du jeu d’outils Deep Learning permettent d’effectuer des processus de Deep Learning.
Ressources de développeur ArcGIS Enterprise
Si vous travaillez dans ArcGIS REST API, utilisez l’opération Detect Objects Using Deep Learning.
Si vous travaillez dans ArcGIS API for Python, procédez aux tâches de Deep Learning depuis le module arcgis.learn.
Vous avez un commentaire à formuler concernant cette rubrique ?