Verfügbar mit Image Server
Das Werkzeug "Objekte mit Deep Learning erkennen" identifiziert und sucht Objekte in einem Bilddaten-Layer mithilfe eines Deep-Learning-Modells.
Die Ausgabe ist ein gehosteter Feature-Layer.
Beispiele
Das Werkzeug "Objekte mit Deep Learning erkennen" kann zum Identifizieren von Gebäude-Footprints im Rahmen der Aktualisierung von Grundsteuerdaten für lokale Behörden oder für den regionalen Katastrophenschutz verwendet werden. Der Ausgabe-Layer des Werkzeugs ist ein Feature-Layer, mit dem die Gebäude in einem Bereich identifiziert werden können. Der Feature-Layer kann für den Abgleich mit vorhandenen Grundstücksdaten verwendet werden, um den aktuellen Gebäude-Footprint des Grundstücks zu erfassen.
Das Werkzeug "Objekte mit Deep Learning erkennen" kann verwendet werden, um Fahrzeuge auf einem Parkplatz zu identifizieren und so die Nutzung zu ermitteln und Verkehrs-Surveys zu erstellen. Der erstellte Feature-Layer kann im Werkzeug Objekte mit Deep Learning klassifizieren verwendet werden, um die Typen der erkannten Fahrzeuge zu klassifizieren.
Verwendungshinweise
Das Werkzeug "Objekte mit Deep Learning klassifizieren" enthält Konfigurationen für Eingabe-Layer, Modelleinstellungen und den Ergebnis-Layer.
Eingabe-Layer
Die Gruppe Eingabe-Layer enthält die folgenden Parameter:
- Eingabe-Bilddaten-Layer oder -Feature-Layer wird verwendet, um den Bilddaten-Layer oder Feature-Layer mit Anlagen auszuwählen, der zum Erkennen der im Deep-Learning-Modell identifizierten Objekte verwendet werden soll. Der ausgewählte Bilddaten-Layer sollte auf den Anforderungen des zum Klassifizieren der Pixel verwendeten Deep-Learning-Modells basieren.
- Verarbeitungsmodus beschreibt, wie die Raster-Elemente im Bilddaten-Layer verarbeitet werden sollen. Verarbeitungsmodus enthält die folgenden Optionen:
- Als mosaikiertes Bild verarbeiten: Alle Raster-Elemente im Mosaik-Dataset oder Image-Service werden zusammen mosaikiert und verarbeitet. Dies ist die Standardeinstellung.
- Alle Raster-Elemente separat verarbeiten: Alle Raster-Elemente im Mosaik-Dataset oder Image-Service werden als separate Bilder verarbeitet.
Modelleinstellungen
Die Gruppe Modelleinstellungen enthält die folgenden Parameter:
- Modell für die Objekterkennung gibt das zum Erkennen der Objekte verwendete Deep-Learning-Modell an. Das Deep-Learning-Modell muss sich in ArcGIS Online befinden, damit es im Werkzeug ausgewählt werden kann. Sie können ein eigenes Modell, ein öffentlich in ArcGIS Online verfügbares Modell oder ein Modell im ArcGIS Living Atlas of the World auswählen.
- Unter Modellargumente werden zusätzliche Deep-Learning-Parameter und Argumente für Verfeinerungen aufgeführt, die nicht in der Python-Raster-Funktion durch das Eingabemodell definiert sind, beispielsweise ein Konfidenzschwellenwert zur Anpassung der Empfindlichkeit. Die Namen der Argumente werden vom Werkzeug durch Lesen des Python-Moduls aufgefüllt.
- Non Maximum Suppression (NMS) bestimmt, ob eine Nicht-Maxima-Unterdrückung ausgeführt werden soll, um basierend auf Konfidenzwerten identifizierte doppelte Objekte zu entfernen.
- Feld für die Konfidenzpunktzahl gibt den Namen des Feldes an, in dem die Ausgabe der Objekterkennungsmethode erstellten Konfidenzpunktzahlen aufgezeichnet werden sollen. Dieser Parameter ist verfügbar, wenn Non Maximum Suppression (NMS) aktiviert ist.
- Klassenwertefeld ist das Feld im Ausgabe-Feature-Layer, das den Wert aus dem Eingabe-Bilddaten-Layer enthalten soll. Wenn dieses Feld nicht festgelegt wird, verwendet das Werkzeug die Standard-Klassenwertefelder Classvalue und Value. Wenn diese Felder nicht vorhanden sind, werden alle Features wie eine Objektklasse behandelt. Dieser Parameter ist verfügbar, wenn Non Maximum Suppression (NMS) aktiviert ist.
- Maximale Überlappungsrate definiert das Verhältnis von Schnittfläche zu Vereinigungsfläche für zwei überlappende Features. Der Standardwert ist 0. Dieser Parameter ist verfügbar, wenn Non Maximum Suppression (NMS) aktiviert ist.
Ergebnis-Layer
Die Gruppe Ergebnis-Layer enthält die folgenden Parameter:
- Ausgabe-Name bestimmt den Namen des Layers, der erstellt und der Karte hinzugefügt wird. Der Name muss eindeutig sein. Wenn in der Organisation bereits ein Layer mit dem gleichen Namen vorhanden ist, tritt ein Fehler auf, und Sie werden aufgefordert, einen anderen Namen zu verwenden.
- In Ordner speichern gibt den Namen eines Ordners in Eigene Inhalte an, in dem das Ergebnis gespeichert wird.
Umgebungen
Umgebungseinstellungen für die Analyse sind zusätzliche Parameter, mit denen die Ergebnisse eines Werkzeugs beeinflusst werden können. Sie können über die Parametergruppe Umgebungseinstellungen auf die Umgebungseinstellungen des Werkzeugs für die Analyse zugreifen.
Dieses Werkzeug berücksichtigt die folgenden Analyseumgebungen:
- Ausgabe-Koordinatensystem
- Verarbeitungsausdehnung
Hinweis:
Die standardmäßige Verarbeitungsausdehnung in Map Viewer ist Volle Ausdehnung. Diese Standardeinstellung unterscheidet sich von Map Viewer Classic, wo Aktuelle Kartenausdehnung verwenden standardmäßig aktiviert ist.
- Zellengröße
- Maske
- Faktor für parallele Verarbeitung
- Prozessortyp
Ausgaben
Die Ausgabe ist ein Feature-Layer, der jedes erkannte Objekt als einzelnes Feature mit hinzugefügten Feldern für den Klassenwert und die Konfidenz enthält.
Lizenzanforderungen
Für dieses Werkzeug werden folgende Lizenzen und Konfigurationen benötigt:
- Benutzertyp Creator oder GIS Professional
- ArcGIS Image Server mit Konfiguration für Deep-Learning-Raster-Analysen
- Publisher- oder Administratorrolle oder eine entsprechende benutzerdefinierte Rolle
Ressourcen
Weitere Informationen finden Sie in den folgenden Quellen:
- Objekte mit Deep Learning erkennen in ArcGIS REST API
- Funktion "detect_objects" in ArcGIS API for Python
- Objekte mit Deep Learning klassifizieren in ArcGIS Enterprise
- Objekte mit Deep Learning erkennen in ArcGIS Pro