Suite

Appliquer la symbologie aux rasters à l'aide d'Arcpy Script

Appliquer la symbologie aux rasters à l'aide d'Arcpy Script


J'ai un script ArcPy pour appliquer la symbologie d'une couche raster à toutes les couches raster de la table des matières. J'ai déjà utilisé ce script avec des couches d'entités au lieu de couches raster, et cela a parfaitement fonctionné. Désormais, lorsque je l'exécute, il s'exécute en continu et ne modifie la symbologie d'aucune des couches raster de la table des matières. Il ne me donne aucun message d'erreur ; la fenêtre apparaît, indiquant qu'elle a réussi à changer la symbologie. En outre, cela fonctionne lorsque j'applique manuellement la symbologie d'une couche raster aux autres couches de la table des matières. Le script semble parcourir la liste sans vraiment rien changer.


Il y a quelques problèmes mineurs dans votre code, je l'ai réécrit (espérons-le) mieux :

import arcpy arcpy.env.workspace = "c:DEM Files" # non requis mxd = arcpy.mapping.MapDocument("Current") # Ce MXD df = arcpy.mapping.ListDataFrames(mxd,"Georgia")[0] # le premier bloc de données appelé Georgia rasters = arcpy.mapping.ListLayers(mxd,"*",df) # toutes les couches # normalement la couche serait un fichier de couche, pas tellement une couche dans la symbologie de la carteLayer = "Feature_El147" # Je suppose que cela existe pour ThisLayer dans les rasters: print "Working on " + ThisLayer.name sinon ThisLayer.isBroken: # essayez seulement de travailler avec des calques qui ne sont pas cassés print "-not broken" sinon ThisLayer.name .upper() == symbologyLayer.upper(): print "-pas la couche source" # pas la couche source si ThisLayer.isRasterLayer: print "-est une couche raster" # s'applique uniquement aux couches raster arcpy.CalculateStatistics_management(ThisLayer. dataSource) print "--Statistiques calculées" arcpy.ApplySymbologyFromLayer_management(ThisLayer,symbologyLayer) print "--Symbology Applied" mxd.save() del mxd

Cela suppose que la trame de données appelée Georgia existe dans le mxd actuel, si ce n'est pas le cas, vous aurez des problèmes. J'ai ajouté une condition pour isRasterLayer au cas où vous auriez des couches mixtes d'entités/raster/groupe - notez que vous voudrez peut-être également inclure la couche.isBroken si vous avez des couches non référencées (points d'exclamation rouges).

J'ai modifié le script et l'ai testé ; cette version fonctionne sur ArcGis 10.1 :

import arcpy, sys try : symbologyLayer = arcpy.mapping.Layer(sys.argv[1]) sauf : arcpy.AddError("Les paramètres d'entrée n'ont pas pu être résolus") sys.exit(-1) arcpy.AddMessage("Couche source is %s" % symbologyLayer.symbologyType) # Quitte si la couche source est cassée if symbologyLayer.isBroken: arcpy.AddError("La couche source est cassée") sys.exit(-2) # Quitte si la couche source n'est pas un raster layer sinon symbologyLayer.isRasterLayer: arcpy.AddError("La couche source n'est pas une couche raster") sys.exit(-3) mxd = arcpy.mapping.MapDocument("Current") # Ce MXD #df = arcpy.mapping. ListDataFrames(mxd,"Georgia")[0] # le premier bloc de données appelé Georgia df = arcpy.mapping.ListDataFrames(mxd)[0] # Juste le premier bloc de données dans les rasters MXD = arcpy.mapping.ListLayers(mxd, "*",df) # tous les calques pour ThisLayer dans les rasters : arcpy.AddMessage( "Working on " + ThisLayer.name) sinon ThisLayer.isBroken : # n'essayez de travailler qu'avec des calques qui ne sont pas cassés arcpy.AddMessage( "-pas cassé") sinon ThisLayer.name.upper() == symbologyLayer.name.upper(): arcpy.AddMessage( "-pas la couche source") # pas la couche source si ThisLayer.isRasterLayer: arcpy.AddMessage( "-est une couche raster") # s'applique uniquement aux couches raster arcpy. CalculateStatistics_management(ThisLayer.dataSource) arcpy.AddMessage( "--Statistiques calculées") arcpy.AddMessage( "--La symbologie raster est %s" % ThisLayer.symbologyType) arcpy.ApplySymbologyFromLayer_management(ThisLayer,symbologyLayer) arcpy.AddMessage( "-- Symbologie appliquée") #mxd.save() # Je n'enregistre pas, décommentez ceci pour enregistrer del mxd

J'ai commenté des lignes qui ne conviennent pas à mon environnement…

Il est possible qu'il y ait des problèmes d'exécution à partir de la fenêtre python, j'ai donc configuré le code pour qu'il s'exécute à partir d'une boîte à outils, copiez et collez le code dans le bloc-notes, enregistrez-le en tant que fichier .py, puis créez une nouvelle boîte à outils dans le catalogue et ajoutez le script avec un paramètre:Couche à assortir, taperFichier de calque.

Dans ArcMap, exécutez l'outil à partir de la boîte à outils (dans la vue catalogue, c'est bien) et il appliquera la symbologie du fichier de couche…


Le code ci-dessous fonctionne pour moi, même si je pense qu'il est un peu bâclé. J'ai dû inclure make raster layer et enregistrer sur layer pour que cela fonctionne.

arcpy.MakeRasterLayer_management(in_raster, out_raster) arcpy.SaveToLayerFile_management(out_raster, display_raster, "ABSOLUTE") # Ajuster la symbologie de la couche raster arcpy.ApplySymbologyFromLayer_management(display_raster, raster_symbology) arcpy.Save_Save_management, #ABSave_toLayer map mxd = arcpy.mapping.MapDocument("CURRENT") df = arcpy.mapping.ListDataFrames(mxd, "*")[0] addLayer = arcpy.mapping.Layer(symbolized_raster) arcpy.mapping.AddLayer(df, addLayer, "BAS")

Le code fonctionne correctement et ajoute la carte à l'affichage, mais il a un problème avec la source de données. Il s'approvisionne dans un emplacement temporaire au lieu de l'environnement de l'espace de travail.

Dossier : C:UsersUserAppDataLocalTemp Raster : x234bc54_d8c9_c34_by1c458

Je viens de tester le code ci-dessous et il fonctionne très bien. Vous devez faire attention dans votre code à ne pas essayer d'appliquer la symbologie au modèle raster lui-même, sinon vous recevrez une erreur, j'ai donc ajouté une instruction if.

import arcpy mxd = arcpy.mapping.MapDocument("CURRENT") df = arcpy.mapping.ListDataFrames(mxd)[0] rasters = arcpy.mapping.ListLayers(mxd, "", df) pour le calque dans df : templatelyr = ' Feature_E1147' if layer.name != templateLyr: lyr = arcpy.mapping.Layer(templatelyr) arcpy.ApplySymbologyFromLayer_management(layer, lyr)

Qu'est-ce que "Feature_El147" ? L'aide de cette fonction indique que le deuxième argument doit être un : Feature Layer ; Couche raster;Couche TIN; Couche d'analyse de réseau ; Couche géostatistique.

Ce qui, dans ce contexte, fait référence à une couche actuellement dans la carte qui a la symbologie souhaitée. C'est comme ça que tu l'as configuré ?


Appliquer la symbologie aux rasters à l'aide d'Arcpy Script - Systèmes d'information géographique

Je n'y connais pas grand chose en systèmes de coordonnées.

Dans mon bureau, nous traitons des données spatiales provenant de sites archéologiques. Chaque site a son propre système de coordonnées x-y-z (GCS). Trois axes cartésiens orthogonaux simples. Au cours des dernières années, nous avons géré ces données spatiales via un logiciel SIG (ArcGIS), sans utiliser de système de coordonnées spécifique (laissez-le simplement comme "non défini")

J'aimerais savoir s'il existe un GCS conçu pour traiter de tels ensembles de données en utilisant un axe orthogonal cartésien simple, sans distorsions de grille du GCS typique. De plus, j'aimerais savoir si ce système est adapté à son utilisation dans une application de cartographie en ligne.

D'ailleurs, nous gérons des environnements 2D (ArcMap) et 3D (ArcScene) et travaillons avec "mm" comme unité de base de longueur.

Si une telle chose n'existe pas, peut-être que quelqu'un sait comment la créer.

En supposant que vos zones d'intérêt soient plutôt petites par rapport au globe, vous pouvez configurer une projection Mercator transversale personnalisée.

Vous devez connaître les coordonnées géographiques lat_0 et lon_0 de l'origine de votre SIR, et la direction des axes x et y :

Pour une utilisation avec Arcgis, le fichier .prj doit contenir :

Si elles ne sont pas parallèles aux directions Nord et Est, une rotation serait nécessaire en utilisant une projection de Mercator oblique :

Le fichier .prj pour cette projection est :

Voici les deux ensemble (tmerc en bleu et omerc en rouge) :

Lat_0 et lon_0 (ou lonc) sont les coordonnées de votre origine CRS locale. Vous devez les explorer avec un GPS ou à partir d'autres cartes. L'angle que vous devez calculer à partir des coordonnées de deux points connus sur votre axe X local.

La seule chose qui ne fonctionne pas comme prévu est le millimètre en tant qu'unité. Cela devrait fonctionner, mais ne fonctionne pas dans QGIS actuel :-(

Les versions actuelles de QGIS sont désormais capables de travailler avec des projections locales en utilisant les mm comme unités.


Hfrhyu

Pourquoi mkfifo avec un mode de 1755 n'accorde-t-il pas les autorisations de lecture et le sticky bit à l'utilisateur ?

Quelles sont les motivations pour publier de nouvelles éditions d'un manuel existant, au-delà des nouvelles découvertes dans un domaine ?

Qu'est-ce que les enfants Banks ont contre l'eau d'orge ?

Comment traduire "être comme" ?

Quelle pourrait être la bonne source d'alimentation pour une tronçonneuse géante jetable d'une durée de vie de 15 secondes ?

Pouvons-nous générer des nombres aléatoires en utilisant des nombres irrationnels comme π et e ?

Quelle est la manière la plus efficace de stocker une plage numérique ?

Comment taper un tiret long/em `—`

Existe-t-il d'autres méthodes à appliquer pour résoudre des équations simultanées ?

En ce qui concerne un effet qui se déclenche lorsqu'une créature attaque, comment s'applique-t-elle en arrivant sur le champ de bataille engagée et en attaquant ?

Si un sorcier lance le sort Bannissement sur un PJ alors qu'il est en Avernus, le PJ retourne-t-il dans son plan d'origine ?

Que veut dire Linus Torvalds quand il dit que Git ne suit "jamais" un fichier ?

La forme d'un dé affecte-t-elle la probabilité qu'un nombre soit obtenu ?

Que signifiait « aligner » une radio ?

Que faire lorsqu'on se déplace à côté d'une réserve ornithologique avec un chat peu domestiqué ?

Comment afficher des lignes dans un fichier comme ls affiche des fichiers dans un répertoire ?

Le soleil est-il plus brillant que ce que nous voyons ?

Un voleur peut-il utiliser une attaque sournoise avec des armes qui ont la propriété de lancer même si elles ne sont pas lancées ?

Commande pour annuler les espaces

"autant de détails que vous vous en souvenez"

Vieux film de science-fiction des années 50 ou 60 avec des hommes en uniforme rouge uni qui interrogent un espion du passé

Le voyage dans le temps modifie l'histoire mais les gens continuent de dire que rien n'a changé

Je suis un mot de huit lettres. Trouvez-moi qui suis-je ?

Diviser un fichier de formes avec de nombreux polygones en parties égales

Les résultats de l'enquête 2019 Stack Overflow Developer sont en coursCréation d'une "carte thermique" basée sur des polylignes à partir de pistes GPS ? Couper la couche en plusieurs parties à l'aide d'un fichier de formes ? ou interroger” le résultat d'une limitation matérielle ?Jointure spatiale de polygones à une grille de polygones avec des limites partagées dans ArcGIS Desktop ?Couper le polygone en parties égales ?Jointure spatiale de polygones, plusieurs à plusieursComptage du nombre de points différant par un attribut spécifique au sein d'un polygone dans ArcGIS Desktop ?Les attributs de sortie de la jointure spatiale diffèrent en fonction de l'entrée FC ou SHP

J'ai un fichier de formes avec des centaines de couloirs de déplacement des caribous.
en utilisant ces données, j'essaie de créer une carte affichant la fréquence d'utilisation pour déterminer les voies de déplacement et de migration importantes pour différents troupeaux.

Le fichier de formes original contient plusieurs années de données sur les déplacements individuels des caribous munis d'un collier obtenus à l'aide de la modélisation du mouvement du pont brownien.
À partir de ce fichier, j'ai réussi à créer le résultat souhaité en :
1. Utiliser l'outil d'union
2. Multipart à singlepart
3. Jointure spatiale à elle-même
4. Modifiez la symbologie du fichier de formes.

Le problème que je rencontre maintenant est que j'ai prolongé mes dates d'études et inclus plusieurs années dans un seul modèle. Lorsque j'essaie de suivre les étapes ci-dessus avec le grand ensemble de données, j'ai renvoyé un code d'erreur « mémoire insuffisante » à l'étape de jointure spatiale (3.).
De toute évidence, mon ordinateur n'a pas assez de RAM pour exécuter ce calcul, j'ai donc essayé de diviser mon fichier de formes en 4 parties égales, à l'aide d'une grille de résille, que je prévois de fusionner après avoir exécuté la jointure spatiale sur chaque parcelle. J'ai réussi à créer la grille et, à nouveau, à l'aide de l'outil Union, j'ai créé 4 fichiers de formes distincts de données. Maintenant, lorsque j'essaie de « diviser » les polygones de caribou de l'attribut de grille, l'opération échoue.

Je comprends qu'ArcGIS pro et peut-être un correctif pour arcmap pourraient aider mon ordinateur à accéder à une plus grande partie de sa mémoire vive pour exécuter une telle opération, cependant, je n'y ai actuellement pas accès, je recherche donc une sorte de méthode alternative pour obtenir les résultats souhaités .


Cartographie du paysage et de la surface imperméable dans la zone métropolitaine des villes jumelles à l'aide de techniques de reconnaissance de caractéristiques et d'arbre de décision

Cette thèse vous est proposée en accès libre et gratuit par Cornerstone: A Collection of Scholarly and Creative Works for Minnesota State University, Mankato. Il a été accepté pour inclusion dans les thèses, thèses et autres projets Capstone par un administrateur autorisé de Cornerstone: A Collection of Scholarly and Creative Works for Minnesota State University, Mankato.

Nagel, Philipp, "Landscape and Impervious Surface Mapping in the Twin Cities Metropolitan Area using Feature Recognition and Decision Tree techniques" (2014).Thèses, thèses et autres projets Capstone.Papier 309.

en utilisant les techniques de reconnaissance de caractéristiques et d'arbre de décision

Une thèse soumise en remplissant partiellement les exigences du diplôme de Master of Science

Université d'État du Minnesota, Mankato Mankato, Minnesota

Cartographie du paysage et de la surface imperméable dans la zone métropolitaine des villes jumelles à l'aide des techniques de reconnaissance de caractéristiques et d'arbre de décision

Cette thèse a été examinée et approuvée par les membres suivants du comité des étudiants. ________________________________ Fei Yuan, Ph. D. ________________________________ Martin Mitchell, Ph. D. ________________________________ Cynthia Miller, Ph. D.

Remerciements

Je tiens à remercier ma conseillère, le Dr Fei Yuan, pour son soutien continu, ses encouragements et son dévouement. Elle m'a constamment poussé à faire de mon mieux. Ses conseils non seulement dans la recherche et la rédaction de ma thèse, mais aussi dans mes efforts antérieurs à la Minnesota State University (MSU) ont été essentiels à ma réussite académique. Je tiens également à la remercier d'avoir aidé à financer ce projet grâce à sa subvention de recherche de la faculté. Elle est vraiment une excellente enseignante et conseillère.

Je tiens également à remercier les autres membres de mon comité de thèse, le Dr Cynthia Miller et le Dr Martin Mitchell. Vous m'avez tous les deux énormément appris pendant mon séjour à MSU. Je suis très chanceux d'avoir l'opportunité de travailler avec et d'avoir dans mon comité des universitaires aussi excellents et intéressants.

Un grand merci au Département de géographie et à tous ses professeurs et employés pour avoir créé une atmosphère de travail accueillante et collégiale.

Je tiens à remercier ma femme pour ses encouragements, et me poussant toujours à mon meilleur travail.

Enfin, mes sincères remerciements vont à mes parents pour leur soutien financier et pour leur soutien et leurs encouragements même lorsque j'ai déménagé sur un autre continent.

Cartographie du paysage et de la surface imperméable dans la zone métropolitaine des villes jumelles à l'aide des techniques de reconnaissance de caractéristiques et d'arbre de décision

Thèse de maîtrise en géographie Minnesota State University, Mankato Mai 2014

Abstrait

L'utilisation des terres et la couverture des terres (LULC) et la superficie imperméable (ISA) sont des paramètres importants pour de nombreuses études environnementales et constituent un outil essentiel pour les décideurs et les parties prenantes de la planification urbaine et régionale. L'ortho-imagerie aérienne à haute résolution spatiale et les données LiDAR nouvellement disponibles, combinées à des techniques de classification spécialisées, orientées objet et par arbre de décision, permettent une cartographie précise de ces caractéristiques. Dans cette étude, une méthode a été développée pour d'abord classer LULC à l'aide d'un classificateur basé sur des objets, puis utiliser la carte résultante comme entrée pour un modèle d'arbre de décision pour classer ISA dans la région métropolitaine de Twin Cities au Minnesota.

Il a été constaté que les classes de couverture végétale étaient les plus répandues dans la zone d'étude, représentant plus de la moitié de la superficie des terres. L'eau était la classe la plus petite, suivie de la couverture terrestre urbaine, qui représentait 11 %. Il a été déterminé que la surface imperméable représentait 14 % de la zone TCMA. La précision globale de la classification pour la couverture LULC a été estimée à 74 % et à 95 % pour la classification ISA.

Table des matières

2.1. Utilisation des terres et couverture des terres . 6

2.3. Détermination de la surface imperméable . 9

2.5.1. Arbres de décision en géographie . 14

2.5.2. Arbres de décision pour l'extraction de surface imperméable . 17

3.1. Acquisition et prétraitement des données . 21

3.1.3. Données de l'axe de la route et densité de la route . 24

3.1.4. Données complémentaires supplémentaires . 24

3.2. Classification de l'utilisation des terres et de la couverture des terres . 25

3.3. Classification de surface imperméable . 29

3.3.2. Modélisation de l'arbre de décision . 30

3.4. Évaluation de la précision . 34

4.1. Classification de l'utilisation des terres et de la couverture des terres . 36

4.1.1. LULC : Zone d'étude entière . 36

4.1.3. LULC : par ville et commune . 48

4.2. Classification de surface imperméable . 54

4.2.2. Surface imperméable : par département . 57

4.2.3. Surface imperméable : par ville ou canton . 62

4.3. Évaluation de la précision . 65

4.3.1. Utilisation des terres et précision de la couverture des terres . 65

4.3.2. Précision de surface imperméable . 66

5.1. Classification LULC et ISA. 68

5.1.1. Distribution et modèles LULC et ISA . 68

5.1.2. Méthodologie LULC et ISA . 73

5.2. Ancienne étude de classification LULC . 74

5.3. Visualisation de données . 78

6.1. Résumé des méthodes et des résultats . 80

6.2. Limites de cette étude et implications pour les études futures. 82

Annexe A. Équation globale de Moran I . 98

Annexe B. Équation Getis-Ord G* . 99

Annexe D. Superficie LULC par comté, 2006 . 106 Annexe E. Surface imperméable par ville ou canton. . 107

Liste des figures

Figure 1.1 : Carte d'ensemble de la zone d'étude. . 5

Figure 3.1 : Exemple de représentation fovéale de Feature Analyst (modèle Manhattan). . 29

Figure 3.2 : Modèle d'arbre de décision. . 34

Figure 4.2 : Distribution LULC sur la zone d'étude (en miles carrés). . 43

Figure 4.3 : Points chauds et froids LULC et statistiques I de Moran. . 44

Figure 4.4 : Couverture LULC par comté. L'annotation de la carte montre la zone de la classe LULC indiquée pour chaque comté. . 47

Figure 4.5 : Couverture LULC par ville ou canton. . 53

Figure 4.6 : Carte de la surface imperméable. . 56

Figure 4.7 : Densité de surface imperméable (surface hexagonale de 1 mile carré). . 57

Figure 4.8 : Superficie totale et pourcentage d'étanchéité pour chaque comté. . 58

Figure 4.9 : Pourcentage de la surface imperméable totale de la TCMA par comté. . 59

Figure 4.10 : Surface imperméable par comté (pourcentage et superficie totale). . 61

Figure 4.11 : Carte des points chauds des hexagones de surface imperméables. . 62

Figure 4.12 : Pourcentage de surface imperméable par ville ou canton. 64

Figure 5.1 : Densité de population dans la région TCMA en 2010. . 70

Figure 5.2 : Terres protégées par comté (UMN 2013). . 71

Liste des tableaux

Tableau 4.1 : Superficie LULC par comté. . 37

Tableau 4.2 : Surface imperméable par département. . 59

Tableau 4.3 : Matrice de précision pour la carte LULC. 66

Liste des équations

Équation 3.1 : Calcul de la variance où est la valeur DN du pixel à i,j, et est le nombre de pixels dans la fenêtre. Adopté de (Yuan 2008). . 23

Équation 3.2 : Estimation Kappa de Cohen (Cohen 1960 Congalton et Mead 1983). . 35

1.

Introduction

Des cartes de paysage précises, telles que les cartes d'utilisation et d'occupation des sols (LULC) et les cartes de surface imperméable (ISA) sont des données essentielles pour les décideurs locaux ainsi que pour de nombreux chercheurs.Alors qu'un produit avec une résolution spatiale élevée et une grande précision est souhaité, les données disponibles aujourd'hui ne sont souvent que de résolution spatiale faible à moyenne, et des degrés de précision variables.

Il est difficile d'extraire les informations LULC et ISA à l'aide d'images de télédétection haute résolution, de données d'élévation dérivées du LIDAR et d'autres données auxiliaires. Cette difficulté est en partie due au fait que les données d'entrée nécessaires pour générer des cartes d'occupation du sol ne sont souvent disponibles qu'à une résolution spatiale faible ou moyenne, alors que l'imagerie à haute résolution est souvent trop chère pour permettre son utilisation efficace. De plus, il y a un manque de techniques bien établies pour traiter des données spatiales à haute résolution. De nombreux ensembles de données établis sont également relativement anciens. En particulier, pour la zone d'étude de la Twin Cities Metropolitan Area (TCMA), le jeu de données le plus récent est basé sur des images Landsat de 2006 avec une résolution spatiale de 30 mètres (Yuan 2010) . Bien que cet ensemble de données LULC pour la zone d'étude possède une bonne précision, il a maintenant huit ans. Le développement urbain est rapide, par conséquent, un produit mis à jour serait souhaitable pour fournir des données plus récentes et permettre une analyse des changements. De nouvelles données LULC et ISA pour la zone d'étude sont nécessaires pour aider les parties prenantes à évaluer les effets de l'urbanisation et d'autres changements LULC. Les techniques de classification traditionnelles peuvent ne pas fournir les meilleurs résultats possibles lorsqu'elles sont appliquées aux nouvelles images à haute résolution spatiale disponibles. Dans ce cadre, j'ai développé une approche analytique

méthode pour extraire la LULC haute résolution souhaitée et les informations de surface imperméables à l'aide de techniques avancées telles que la classification orientée objet et la modélisation par arbre de décision.

Dans le passé, les méthodes développées pour l'identification des caractéristiques terrestres étaient axées sur l'utilisation d'images satellites à moyenne résolution. Depuis que l'imagerie aérienne à haute résolution et les données LIDAR sont devenues plus facilement disponibles et que la puissance de calcul a augmenté, les nouvelles techniques deviennent plus prometteuses. En particulier, dans cette étude, j'ai utilisé un classificateur basé sur des objets pour cartographier les types de couverture terrestre à haute résolution à partir d'ortho-imagerie numérique de 1 m pour le TCMA, Minnesota. J'ai également développé un modèle d'arbre de décision pour extraire des données de surface imperméables à partir d'une combinaison de sources de données. Les données résultantes et la méthode développée fournissent des intrants et un outil de prise de décision importants pour les gouvernements locaux et d'autres agences et organisations de la région.

Cette étude se concentrera sur la zone métropolitaine des villes jumelles (Minneapolis et St. Paul) du Minnesota. En particulier, la zone d'étude se compose de sept comtés : les comtés d'Anoka, de Carver, de Dakota, de Hennepin, de Ramsey, de Scott et de Washington (figure 1.1). Ces

les comtés ont une superficie combinée d'environ 2 939 milles carrés. De 2000 à 2010, la population est passée de 2,6 millions à 2,8 millions, ce qui représentait environ 54 % de la population totale du Minnesota (Metropolitan Council 2000 US Census 2013). Au centre de la TCMA se trouvent les villes de Minneapolis et de St. Paul. St. Paul est la capitale du Minnesota, qui a une culture distincte de Minneapolis. Il existe de nombreuses banlieues peuplées, ainsi que des zones très commercialisées. Le Mall of America, l'un des plus grands centres commerciaux couverts des États-Unis (US) est situé à Bloomington, au sud de Minneapolis. Un autre grand centre commercial, le Southdale Center à Edina, est considéré comme le plus ancien centre commercial des États-Unis. Plusieurs grandes sociétés et sociétés Fortune 500, telles que Target Corporation à Minneapolis, The Toro Company à Bloomington, Dairy Queen à Edina, 3M à Maplewood et General Mills à Golden Valley, ont leur siège dans les Twin Cities.

Une grande partie de l'économie initiale des villes jumelles a été influencée par la présence du fleuve Mississippi et de ses chutes Saint-Antoine, fournissant de l'hydroélectricité aux scieries et plus tard aux moulins à farine. Ces installations à Saint Anthony Falls ont été parmi les premières à utiliser l'hydroélectricité aux États-Unis (Anfinson 1995). La région était également une importante plaque tournante du transport pour les services ferroviaires et maritimes de fret et de passagers. Le grain était un bien commun à expédier dans les villes jumelles par voie fluviale ou ferroviaire, et par conséquent, la farine et d'autres

les produits de meunerie étaient alors exportés. Le bois récolté au Minnesota était également un important produit d'expédition. La fabrication a suivi pour être une partie importante de l'économie des villes jumelles. Aujourd'hui, l'économie est dominée par les entreprises du secteur tertiaire, la recherche et la production de haute technologie et les services financiers.

Le paysage de la zone d'étude est relativement diversifié, avec un grand nombre de lacs. Le développement urbain à haute densité est principalement situé dans la partie centrale tandis que la couverture végétale et les terres agricoles se trouvent dans le périmètre extérieur. Les cartes et les données produites dans cette étude élaboreront des modèles spécifiques de ces classes de couverture terrestre. Le climat dans les villes jumelles est typique du Midwest américain avec des températures extrêmement froides en hiver et une chaleur extrême en été. Les précipitations culminent pendant les mois d'été. La région est sujette à de nombreux types de catastrophes naturelles, telles que les tornades et autres tempêtes de vent, les crues soudaines, les températures extrêmes et les tempêtes hivernales.

Les villes jumelles ont été jugées par une variété d'enquêtes au cours des dernières années comme l'une des régions métropolitaines les plus attrayantes des États-Unis et l'un des meilleurs endroits où vivre. Ces cotes étaient en grande partie dues à la proximité de caractéristiques naturelles telles que les lacs, le vaste réseau de parcs et de sentiers et la vigueur de l'économie.

2.

Revue de littérature

Cette étude porte sur l'extraction précise de données de surface imperméables et de classes LULC à partir d'images aériennes à haute résolution et d'autres sources de données. Ce qui suit donnera un aperçu de la littérature existante qui est pertinente pour les différentes techniques utilisées ici. Je discuterai d'abord de l'importance de l'imperméabilité et de certaines techniques qui ont été utilisées pour identifier les surfaces imperméables. Je donnerai en outre un aperçu des recherches qui ont été effectuées en relation avec les différentes composantes de cette étude, telles que l'intégration de données, la modélisation par arbre de décision et la classification basée sur les objets.

2.1. Utilisation des terres et couverture des terres

Les données sur l'utilisation des terres et la couverture des terres sont des intrants et des outils essentiels pour les décideurs locaux et régionaux. Si la croissance urbaine indique une croissance économique, c'est aussi une préoccupation environnementale majeure. La croissance urbaine entraîne non seulement une augmentation des surfaces imperméables et des problèmes associés (voir section 2.2), elle dégrade également considérablement la qualité de l'air à l'échelle locale et mondiale, augmente la consommation d'énergie et consomme des ressources agricoles et forestières (Squires 2002). Collinge (1996) a effectué une revue de littérature approfondie concernant les effets de l'étalement urbain sur la biodiversité. Il a conclu que l'étalement urbain, en raison de ses modèles de croissance segmentés, est un contributeur majeur à la fragmentation de l'habitat et donc à la réduction de la biodiversité. Des données LULC précises sont importantes pour aider les décideurs à l'échelle locale, régionale et mondiale à améliorer les politiques

concernant le développement futur, la conservation des zones humides et des habitats, et la protection du climat (Anderson et al. 1976).

Le concept et la question de l'imperméabilité ont suscité beaucoup d'intérêt récemment dans de nombreux domaines, notamment en études géographiques et urbaines. Une surface imperméable limite l'écoulement de l'eau à travers la surface. Il est souvent considéré comme composé de toits de bâtiments et de dispositifs de transport (Schueler 1994), mais il convient également de noter que le sol nu et compacté ou le substrat rocheux exposé, sur les sites d'extraction par exemple, peuvent avoir des qualités imperméables. En cas de pluie, de fonte des neiges ou d'inondation, l'eau ne peut pas pénétrer dans le sol, mais serait plutôt transportée à la surface, ramassant de nombreux polluants de surface en cours de route (Chen et al. 2007). Néanmoins, avec la dépendance croissante vis-à-vis de l'automobile aux États-Unis et dans d'autres pays développés et en développement, le nombre de surfaces imperméables et leurs problèmes inhérents augmentent.

Les surfaces imperméables accélèrent le mouvement des eaux de ruissellement et des polluants collectés sur une grande surface, ce qui est à l'origine de nombreux problèmes actuels de pollution de l'eau. Dès 1994, l'Environmental Protection Agency des États-Unis a déterminé que la pollution de source diffuse (dont la pollution par ruissellement de surface imperméable est un exemple) est le plus grand contributeur et menace à la qualité de l'eau aux États-Unis (1994). Étant donné que les polluants de source diffuse sont transportés dans les eaux de surface et souterraines, ils ont un impact à la fois sur les écosystèmes naturels et humains.

Une surface imperméable est non seulement un contributeur majeur à la pollution diffuse, mais aussi un très bon indicateur de la qualité de l'eau. Les surfaces imperméables se sont avérées être un « indicateur environnemental clé » pour estimer de nombreux autres facteurs. Arnold Jr et Gibbons (1996) ont découvert que la connaissance de la quantité de surface imperméable peut servir de cadre pour résoudre les problèmes de planification des ressources naturelles. Ceci est particulièrement avantageux pour les agences de planification locales qui peuvent ne pas avoir les ressources nécessaires pour entreprendre des études plus complexes de zones problématiques particulières. La surface imperméable n'est pas seulement un indicateur environnemental général en soi, elle est également fortement liée à, et peut être considérée comme une mesure indirecte pour d'autres indicateurs qui sont beaucoup plus difficiles à mesurer (Schueler 1994). Une surface imperméable peut être utilisée comme mesure de l'impact environnemental non seulement localement, mais aussi globalement, comme l'ont souligné Sutton et al. (2009), qui ont construit un modèle global basé sur l'imagerie satellitaire et calibré le modèle avec des images aériennes à haute résolution dans le but de montrer qu'une surface imperméable peut être une mesure indirecte de l'empreinte écologique globale des sociétés. Bien que l'imperméabilité ait de forts impacts sur l'environnement à différentes échelles, elle est plus puissante à l'échelle locale. Comme Schueler (1994) l'a noté, les données de surface imperméable sont relativement faciles à obtenir par rapport à d'autres indicateurs environnementaux, et la quantité de surface imperméable peut être gérée par les politiques locales.

2.3. Détermination de la surface imperméable

Il existe de nombreuses approches pour estimer la quantité d'AIS dans une zone d'étude. La cartographie de terrain peut être utilisée pour obtenir des résultats précis, mais elle est souvent longue et coûteuse. Les techniques de télédétection offrent une méthode plus efficace. Les approches traditionnelles par pixel classent les données de télédétection en attribuant des classes d'occupation du sol à chaque pixel d'une image, souvent sur la base d'un algorithme qui fait des hypothèses statistiques sur les données. Pour extraire les surfaces imperméables, l'image est d'abord classée en catégories qui permettront au chercheur de les agréger en couvertures imperméables et perméables à l'étape suivante. Par exemple, les classes urbaines, de transport, de sol nu (comme les gravières ou les chantiers de construction) et les classes d'exploitation minière/extraction seraient considérées comme imperméables, tandis que les classes d'eau libre, de terres cultivées et de terres humides seraient considérées comme perméables. Dougherty et al. (2004) ont comparé cette approche à une méthode des sous-pixels. Ils ont constaté que la méthode traditionnelle par pixel donnait des résultats légèrement meilleurs que la méthode sous-par-pixel, mais que la précision des deux méthodes dépendait fortement des types de couverture terrestre classés (Dougherty et al. 2004). Lua et al. (2011) ont décrit une méthode qui utilise la méthode de classification traditionnelle en combinaison avec une méthode basée sur la segmentation et l'édition manuelle pour éliminer les inconvénients de chaque méthode individuelle.

Une autre technique relativement répandue est l'utilisation de classificateurs de sous-pixels pour estimer le pourcentage de surface imperméable par unité de surface, ou pixel. Cette méthode est basée sur l'utilisation d'images de télédétection qui ont une résolution spatiale faible à moyenne, ce qui signifie qu'un pixel représente une zone assez grande à la surface de la terre et comprend probablement de nombreux types de couverture terrestre. Cette méthode a été utilisée par Civco et Hurd

(1997) pour cartographier la quantité de surfaces imperméables du Connecticut. Leur approche impliquait l'utilisation d'un réseau de neurones artificiels, qui peut être calibré avec des données d'entraînement à haute résolution spatiale, mais appliqué à des images à résolution spatiale moyenne pour fournir des résultats plus précis pour de plus grandes zones. Des méthodes similaires ont également été utilisées par Stocker (1998). Van De Voorde et al. (2009) ont utilisé deux modèles de classification de sous-pixels différents pour extraire les pourcentages de surface imperméable dans une étude comparative. À l'instar de Civco et Hurd (1997), ils ont utilisé des images à haute résolution spatiale pour calibrer leur modèle, puis ont appliqué le modèle à des images à plus faible résolution spatiale de vastes zones. Ils ont constaté que le modèle de perceptron multicouche, qui est relativement complexe à utiliser, fonctionnait relativement mieux que le modèle d'analyse de mélange spectral. En poussant plus loin l'approche de la classification des sous-pixels, Jennings et al. (2004) ont développé un modèle pour estimer les surfaces imperméables, dans lequel diverses sources de données telles que le National Land Cover Dataset (NLCD) et les couches de transport municipal ont été utilisées pour générer des cartes de surface imperméables sub-pixel. Ces cartes ont ensuite été classées en classes conceptuelles décrivant la quantité de surfaces imperméables.

Une approche différente a été adoptée par Ridd (1995) avec un modèle « Végétation – Imperméable – Sol » (VIS) pour différencier les classes d'occupation du sol urbaine. Le modèle a été initialement développé pour l'interprétation visuelle de l'imagerie aérienne, mais a été adapté par Ridd (1995) pour être utilisé avec des données de télédétection numérique. Le modèle VIS décrit la composition des terres en fonction des trois classes pour lesquelles il porte son nom et peut être utilisé avec l'ajout d'une classe d'eau pour déterminer la quantité de surface imperméable.

Une méthode de modélisation qui n'était pas strictement basée sur des données de télédétection a été développée par Chabaeva et al. (2004). Les auteurs ont créé un modèle qui peut déterminer l'AIS en fonction des paramètres de population dérivés des données du recensement américain. Ils ont construit le modèle à l'aide de fichiers de formes NLCD et ont créé un modèle de régression à l'aide d'un logiciel d'apprentissage inductif. Ils ont calibré le modèle pour différentes localités et ont pu déterminer le pourcentage d'AIS de manière assez précise, mais uniquement au niveau du secteur de recensement (Chabaeva et al. 2004).

Après avoir passé en revue la littérature concernant l'extraction de la surface imperméable, il devient clair que ce sujet a encore de nombreuses questions ouvertes en termes de méthode qui fournit les résultats les plus précis. Chaque méthode décrite a ses propres avantages. La méthode utilisée doit être choisie en fonction des résultats souhaités et des données disponibles.

La plupart des méthodes d'extraction de surface imperméable discutées précédemment n'utilisaient pour la plupart qu'un ensemble spécifique de données comme entrée, telles que des images satellite ou aériennes, ou des données de recensement et de parcelles. Certaines études, cependant, ont utilisé plus d'un type de données pour extraire des informations sur la couverture terrestre ou la surface imperméable pour une zone. Des méthodes plus spécialisées sont toutefois nécessaires pour effectuer la classification à l'aide d'une combinaison d'images et de types de données auxiliaires plus abstraits.

Par exemple, Kontoes et al. (1993) ont décrit une méthode utilisant des images SPOT et des données cartographiques auxiliaires qui ont été numérisées et éditées manuellement. Les auteurs ont utilisé des données dérivées à la fois de l'imagerie et des données auxiliaires dans un système basé sur les connaissances.

qui leur a permis de classer les données et d'extraire la couverture des cultures agricoles avec une précision relativement élevée. Dans une autre approche, McNairn et al. (2005) ont combiné plusieurs types d'imagerie pour extraire les données souhaitées. Ils ont utilisé et comparé les méthodes du maximum de vraisemblance et des arbres de décision. Ils ont signalé qu'une approche d'arbre de décision permet l'intégration de données supplémentaires qui ne sont pas des images.

Mesev (1998) a décrit une méthode pour extraire des informations sur la couverture terrestre urbaine en combinant des images avec des données de recensement. Cependant, contrairement à Kontoes et al. (1993), qui a utilisé un modèle basé sur les connaissances, il a pu intégrer les données supplémentaires dans un classificateur à maximum de vraisemblance (MLC).

Une approche qui intègre les données de réflectance avec les données de température de surface dérivées des données Landsat a été adoptée par Lu et Weng (2006). Dans ce cas, les chercheurs ont utilisé un produit d'imagerie et un dérivé de la couche d'émission infrarouge supplémentaire fournie avec les données Landsat TM. Les chercheurs ont également combiné la télédétection optique avec des produits de télédétection active tels que l'imagerie radar pour améliorer les résultats des classifications. Rignot et al. (1997) ont comparé les classifications d'un site dans la forêt tropicale du Brésil obtenues à partir des données radar SIR-C et des capteurs optiques Landsat TM, SPOT et JERS-1. Ils ont découvert que chaque capteur avait des forces et des faiblesses spécifiques. Ils ont pu combiner ces résultats pour obtenir une carte finale globale plus précise pour identifier la biomasse dans leur zone d'étude. Saatchi et al. (1997) ont également utilisé des données radar pour cartographier la déforestation dans la forêt tropicale brésilienne. Ils ont utilisé les données Landsat TM pour vérifier leurs résultats et ont également combiné leurs résultats dérivés des deux données pour améliorer la précision globale de leur classification. Les données de télédétection optique et radar se complètent et

peuvent donc améliorer la précision et que les données radar peuvent être utilisées lorsque les données optiques montrent des faiblesses dues à la couverture nuageuse ou à la végétation en couches.

La modélisation par arbre de décision est une technique d'intelligence artificielle et d'apprentissage automatique, comme l'ont démontré Breiman (1984) et Wu et Kumar (2009). Dans cette étude, une combinaison de la classification basée sur les objets, de l'intégration de diverses sources et types de données et d'un classificateur d'arbre de décision a été utilisée. Le logiciel d'arbre de décision est un programme d'apprentissage automatique qui analyse les données existantes et construit un modèle d'arbre de décision qui s'adapte le mieux aux données dans des classes prédéterminées. Les arbres de décision sont utilisés non seulement pour la classification d'images, mais aussi pour de nombreuses autres applications dans divers domaines. En général, ils sont utiles pour analyser les données de cas en fonction d'attributs spécifiques et attribuer des valeurs de sortie discrètes à chaque cas (Mitchell 1997). De nombreuses études médicales utilisent des modèles d'arbre de décision : Granzow et al. (2001) ont utilisé des arbres de décision pour trouver des relations entre les types de tumeurs et les propriétés génétiques. Dans une application différente dans la recherche sur le cancer, Kuo et al. (2002) ont construit un modèle d'arbre de décision qui pourrait être calibré pour trouver des modèles de tumeurs du sein dans différents types de données échographiques. Silva et al. (2003) ont utilisé des modèles d'arbre de décision pour classer de grandes quantités de données trouvées dans les bases de données des unités de soins intensifs afin d'aider les médecins à prédire la probabilité de défaillance d'un organe chez les patients.

Les arbres de décision ont également été utilisés dans les études économiques pour aider à prendre des décisions pour la création de portefeuilles d'actions (Tseng (2003). Sen et Hernandez (2000) ont créé un modèle d'arbre de décision qui a aidé les acheteurs d'appartements à analyser les différentes données sur

les appartements et les marchés immobiliers accessibles au public, et prendre de meilleures décisions d'achat sur la base de ces données. Arditi et Pulket (2005) ont pu utiliser des modèles d'arbre de décision pour prédire l'issue des litiges en matière de construction. Un autre exemple intéressant de modèles d'arbre de décision pour des applications réelles a été présenté par Copeck et al. (2002) avec leur processus d'apprentissage automatique pour résumer des documents.

2.5.1. Arbres de décision en géographie

Dans les études géographiques, les arbres de décision sont le plus souvent utilisés pour la classification des images, mais ont également trouvé d'autres applications : Lang et Blaschke (2006) ont utilisé un modèle d'arbre de décision pour identifier les emplacements les mieux adaptés pour les ponts fauniques afin de protéger l'habitat de l'ours brun en Slovénie. Hansen et al. (1996) ont décrit les arbres de décision comme une alternative aux classificateurs traditionnels de la couverture terrestre et ont constaté qu'ils ont une précision similaire à la classification de vraisemblance maximale, tout en offrant plus de flexibilité pour les exigences des données d'entrée. Gahegan (2000) a examiné les avantages et les inconvénients particuliers de l'utilisation d'algorithmes d'apprentissage automatique pour analyser des données géographiques, par rapport aux outils statistiques plus traditionnels utilisés dans de nombreuses études. Il a également suggéré que les outils d'apprentissage automatique sont souvent mieux adaptés pour faire face aux très grands ensembles de données maintenant utilisés en géographie (Gahegan 2000, 2003). Une comparaison générale des classificateurs traditionnels, des réseaux de neurones artificiels (ANN) et des classificateurs d'arbres de décision a été présentée par Pal et Mather (2003). Les chercheurs ont découvert que les classificateurs d'arbres de décision présentent des avantages par rapport aux classificateurs traditionnels, car ils peuvent gérer divers types de données à différentes échelles et unités, et ne dépendent pas d'hypothèses statistiques sur les données. Par rapport aux réseaux de neurones artificiels, ils ont constaté que les arbres de décision sont avantageux

car ils sont plus faciles à utiliser, nécessitent moins de formation et de paramètres à configurer, traitent rapidement de grands ensembles de données et sont largement disponibles sur Internet. Ils ont également constaté que l'arbre de décision donnait des résultats acceptables par rapport à d'autres classificateurs dans la plupart des cas (Pal et Mather 2003). En revanche, Rogan et al. (2008) et Rogan et al. (2003) ont découvert que l'ANN peut obtenir de meilleures précisions pour la cartographie des changements de couverture terrestre.

Quelques bons exemples d'applications d'arbres de décision pour de très grands ensembles de données sont présentés dans les publications concernant plusieurs ensembles de données sur la couverture terrestre à l'échelle nationale des États-Unis. Des classificateurs d'arbres de décision ont été utilisés pour construire une base de données de 22 classes d'occupation du sol avec des données de télédétection de 2000 et de 16 classes avec des données de 2001 pour l'ensemble des États-Unis (Homer et al. 2007 Homer et al. 2002). Poursuivant l'utilisation de ces ensembles de données, Fry et al. (2009) ont utilisé des modèles d'arbre de décision pour cartographier efficacement les différences entre les produits de la base de données nationale sur la couverture des terres de 1992 et 2001. Un autre produit national qui a été développé avec des modèles d'arbres de décision est la couche de données sur les terres cultivées de 2009 (Johnson et Mueller 2010).

Un avantage supplémentaire de la classification par arbre de décision est qu'elle est capable de gérer de nombreux attributs, ou ensembles de données, et d'identifier les plus importants. Ceci est illustré par Bricklemyer et al. (2007) pour vérifier l'association des pratiques agricoles avec la séquestration du carbone dans le sol. De même, Ban et al. (2010) ont utilisé des arbres de décision pour combiner les données Quickbird et Radarsat afin de faciliter la classification de la couverture terrestre urbaine. Zhang et Wang (2003) ont également utilisé des modèles d'arbre de décision pour classer les types d'occupation des sols urbains à partir d'images multispectrales à haute résolution. Une autre étude a utilisé deux types d'imagerie (imagerie Landsat à moyenne résolution spatiale et imagerie aérienne à haute résolution spatiale) pour estimer la

densité du couvert arboré pour de vastes zones (Huang et al. 2001). Au lieu d'utiliser deux sources d'imagerie, Harris et Ventura (1995) ont utilisé des images Landsat et des données géographiques plus abstraites, telles que des données parcellaires et de recensement, pour classer les types d'occupation des sols urbains. En revanche, Griffin et al. (2011) ont utilisé des arbres de décision pour inclure les facteurs environnementaux dans une classification de divers types de végétation dans un écosystème spécifique. Pour une étude visant à évaluer les habitats des animaux et la couverture des terres agricoles, Lucas et al. (2007) ont utilisé un arbre de décision basé sur des règles pour cartographier les habitats et les classes de couverture sur la base d'images satellitaires multitemporelles, de divers dérivés de l'imagerie et de données extraites d'un système de gestion agricole. Une approche similaire a été adoptée par Wright et Gallant (2007) pour augmenter la précision de la cartographie des zones humides dans le parc national de Yellowstone.

En plus de tous les avantages mentionnés précédemment de la modélisation par arbre de décision, un autre avantage de cette technique est sa capacité à très bien gérer les erreurs (Mitchell 1997). Deux sources d'erreurs majeures en télédétection sont les incertitudes déjà présentes dans l'imagerie en raison de problèmes d'acquisition et de traitement, et les erreurs introduites par l'analyste lors de la génération des données d'apprentissage (Foody et al. 2002). Les modèles d'arbre de décision sont particulièrement tolérants envers ces deux types d'erreurs et peuvent même très bien gérer les cas où certains des attributs manquent (Mitchell 1997).

Il est évident que les systèmes de classification par arbre de décision peuvent fournir des résultats précis pour de nombreuses applications différentes dans la recherche géographique, en particulier lorsqu'il s'agit d'ensembles de données qui sont soit très volumineux, contiennent différentes échelles ou unités de données, ou sont problématiques pour les modèles traditionnels ou statistiques. Les arbres de décision se révèlent flexibles, conviviaux et efficaces.

2.5.2. Arbres de décision pour l'extraction de surface imperméable

Les études utilisant des arbres de décision pour identifier l'AIS n'ont vu le jour qu'au cours des dix à quinze dernières années. Smith (2000) a utilisé un modèle d'arbre de décision pour estimer le niveau sous-pixellisé ISA à partir d'images Landsat dans la zone diversement urbanisée de Santa Barbara en Californie du Sud. De même, Yang, Huang et al. (2003) et Yang, Xian et al. (2003) ont utilisé des arbres de décision pour extraire les sous-pixels ISA de Landsat TM et ETM+ et d'images aériennes à haute résolution, et pour détecter les changements de couverture des terres urbaines, respectivement. Des images aériennes à haute résolution spatiale ont été utilisées par Cutter et al. (2002) pour extraire ISA. Goetz et al. (2003) ont utilisé des arbres de décision pour extraire non seulement les surfaces imperméables, mais également les couvertures arborées des images IKONOS.

Alors que les classificateurs d'arbres de décision ont été utilisés occasionnellement pour extraire une surface imperméable à partir d'images à résolution spatiale moyenne au moyen d'une classification sous-pixel, ils semblent être les plus efficaces pour une utilisation avec des images à haute résolution spatiale. Ceci est noté par Cutter et al. (2002), qui ont découvert que les classificateurs traditionnels sont souvent incapables de gérer les défis posés par l'imagerie à haute résolution spatiale. Le fait que cette imagerie à haute résolution spatiale soit de plus en plus disponible peut également expliquer le fait que très peu de travaux ont été réalisés pour l'extraction de couverture imperméable avec des arbres de décision jusqu'à récemment.

2.6. Classification basée sur les objets

Alors qu'une approche d'arbre de décision a été utilisée dans cette étude pour classer ISA, la classification LULC restante a été complétée à l'aide d'une classification basée sur des objets. La classification basée sur les objets est un concept relativement nouveau par rapport à la classification basée sur les objets-pixel. Son développement a commencé lorsque la classification par pixel s'est avérée défaillante à certains égards et lorsque la puissance de calcul a augmenté, ce qui permet le développement de techniques plus avancées. Tobler (1970) a défini la première loi de la géographie comme suit : « Tout est lié à tout le reste, mais les choses proches sont plus liées que les choses éloignées ». Par conséquent, de nombreux chercheurs ont critiqué l'accent mis sur le pixel en tant qu'unité dans les classifications d'images. Ils ont découvert qu'il était plus logique d'inclure non seulement les informations présentes dans un pixel, mais aussi ce qui l'entoure. Compte tenu de cela, il ne faut pas seulement se concentrer sur les pixels individuels dans une étude, mais aussi considérer les données dans leur environnement (Fisher (1997) et Cracknell (1998). Haralick et al. (1973), Haralick et Shapiro (1985), et Myint (2001) ont tous suggéré d'intégrer des informations contextuelles en calculant des textures basées sur des valeurs de pixels environnants afin de mettre en œuvre ce principe dans des applications de télédétection.Dans cette étude, l'approche de bande de texture a été suivie pour la classification de surface imperméable.

La classification basée sur les objets a été utilisée comme méthode supplémentaire d'incorporation d'informations contextuelles. Au lieu de regarder chaque pixel individuellement, cette méthode tente de trouver des motifs dans les valeurs de pixel et de regrouper les pixels en fonction de ces motifs. Ce processus est également appelé segmentation d'images (Blaschke et Strobl 2001). Cette approche s'est avérée avantageuse, en particulier lors de la classification

l'imagerie qui a une résolution spectrale très limitée, comme l'imagerie en niveaux de gris (Blaschke et Strobl 2001), et pour l'imagerie qui est difficile à classer en raison de sa haute résolution spatiale (Miller et al. 2009). Alors que la classification basée sur les objets convient principalement à l'extraction de certains objets (tels que les arbres, les bâtiments, les plans d'eau), elle peut être adaptée pour être utilisée pour l'extraction de classes d'occupation du sol basées sur des objets à plusieurs échelles (Baatz et Schäpe 2000) . Dans cette étude, la classification basée sur les objets a été utilisée pour la partie classification générale LULC.

Feature Analyst est le logiciel choisi ici pour implémenter la classification LULC basée sur les objets. Feature Analyst est une extension tierce pour ESRI ArcGIS et est considéré comme un système de classification d'apprentissage inductif basé sur des objets.

En fait, Feature Analyst est une combinaison de divers algorithmes de classification. Il est basé sur les objets car il utilise la segmentation d'images et est capable d'identifier des objets individuels dans une image, par rapport à de nombreux autres systèmes qui ne peuvent effectuer que des classifications dites "mur à mur" où chaque objet d'une image a à inclure dans le classement.

Outre la segmentation des images, Feature Analyst utilise plusieurs autres modèles de classification. Ceux-ci incluent : (1) les arbres de décision, (2) les variantes de l'ANN, qui sont conçues pour évaluer l'information d'une manière similaire au cerveau humain (Opitz et Blundell 2008 Rumelhart et al. 1986), (3) l'apprentissage bayésien, qui est similaire aux ANN, mais utilise en outre des hypothèses de probabilité sur les données, et (4) K-plus proche

voisin, qui tente d'attribuer une classe à un cas simplement en fonction de la « proximité » de ses attributs avec ceux des cas connus (Mitchell 1997). Feature Analyst inclut automatiquement une ou plusieurs de ces approches dans ses modèles de classification, selon l'approche la mieux adaptée aux données à classer (Opitz et Blundell 2008).

En plus de sélectionner une ou plusieurs approches de classification, Feature Analyst utilisera également des ensembles, un concept très similaire au boosting dans les arbres de décision (voir 3.3.2). Les ensembles sont des ensembles de modèles de classification, qui sont entraînés à l'aide des mêmes données, et dont les résultats sont combinés pour produire un résultat final. Bien qu'il existe plusieurs options pour combiner les résultats, la plus courante, et celle utilisée dans Feature Analyst, est une moyenne pondérée de tous les résultats (Opitz 1999). Plusieurs études ont montré que les prédictions d'ensemble deviennent plus précises si les prédicteurs individuels sont autant que possible en désaccord (Breiman 1996 Freund et Schapire 1996 Opitz et Shavlik 1996a, 1996b). Par conséquent, Feature Analyst tente activement de construire plusieurs modèles qui produisent des résultats divers, augmentant ainsi la précision possible de l'ensemble entier (Opitz et Blundell 2008). Cette approche est censée être plus précise que des techniques similaires, telles que le renforcement de l'arbre de décision.

En résumé, Feature Analyst utilise plusieurs techniques de classification d'images innovantes et avancées qui promettent une précision améliorée pour les images à haute résolution spatiale par rapport à d'autres techniques de classification basées sur les pixels.

3.

Méthodes

3.1. Acquisition et prétraitement des données

Les données utilisées dans cette étude ont été obtenues du site Web Seamless Data Warehouse de l'United States Geological Survey (USGS) (http://seamless.usgs.gov/), et du centre d'échange de données du Minnesota Geospatial Information Office (MNGEO) (http:// www.mngeo.state.mn.us/). Les ensembles de données spécifiques étaient l'ortho-imagerie numérique haute résolution de 2010, les données d'élévation de détection et de télémétrie par la lumière (LIDAR) et les données d'axe de route.

3.1.1. Imagerie aérienne

L'imagerie aérienne faisait partie du programme National Agriculture Inventory (NAIP) financé par la US Farm Services Agency (FSA), qui met ces données à la disposition du public sans frais. Les ortho-images du PNIA 2010 ont été réalisées pendant la saison de croissance agricole, plus précisément pendant les mois de juillet et août. Les images ont une résolution spatiale de 1 mètre par pixel et une résolution radiométrique de 8 bits de profondeur de pixel. L'imagerie NAIP est orthorectifiée par le fournisseur de données à une précision horizontale de +/- 5 mètres en utilisant des points de contrôle au sol. Le fournisseur a ensuite mosaïqué les images individuelles pour produire des mosaïques de comté à l'aide d'une stratégie du dernier sur le dernier au sommet et a équilibré les couleurs des mosaïques à l'aide du logiciel Impho Orthovista.

Les images aériennes ont été acquises sous forme de mosaïques de comté complètes pour chacun des sept comtés métropolitains. Au lieu de mosaïquer ces fichiers individuels dans un nouveau raster, la fonctionnalité de mosaïque ArcGIS a été utilisée. Une mosaïque est un mosaïquage dynamique

et un outil de traitement qui permet de mosaïquer les images à la volée, plutôt que de manière statique. L'ensemble de données lui-même ne contient que des références aux fichiers individuels et est donc très économe en espace disque. En plus d'appliquer diverses fonctions de mosaïquage, il est également possible d'ajouter d'autres fonctions de raster à la volée, par exemple NDVI, affûtage panoramique ou traitement d'ombrage pour les rasters d'altitude. Les principaux avantages de la mosaïque incluent : elle est très rapide à appliquer, elle réduit l'espace de stockage requis en évitant la duplication des données et elle est compatible avec tous les outils raster ArcGIS. Dans cette étude, la mosaïque de données a d'abord été utilisée pour mosaïquer les images NAIP afin de couvrir l'ensemble de la zone d'étude. Une fonction de découpage a été appliquée pour exclure les zones en dehors de la zone métropolitaine d'intérêt des sept comtés.

Afin de fournir des paramètres de classification supplémentaires pour le LULC et la classification de surface imperméable, la bande proche infrarouge de l'imagerie NAIP a également été utilisée pour calculer les valeurs de texture. La texture, lorsqu'elle est considérée comme une variance dans des parties localisées spécifiques des données, a déjà été considérée comme indésirable car elle pourrait rendre la classification avec des méthodes par pixel plus difficile (Ryherd et Woodcock 1996 Gong et Howarth 1990 Herold et al. 2003 Zhang 1999) . Cette étude utilise un classificateur d'arbre de décision basé sur les objets et sur les pixels. Les informations de texture sont connues pour être utiles dans les systèmes à base d'objets (Ryherd et Woodcock 1996), et en raison de la fonction de vannage de C5, elles peuvent également être utilisées dans cette approche basée sur les pixels. Lorsque la texture est spécifiquement utilisée comme entrée pour la classification des images, en particulier dans les processus basés sur la segmentation, cela peut être bénéfique. La couche de texture a été calculée comme la variance d'une fenêtre de 3x3 pixels (Yuan 2008). L'équation utilisée pour calculer la variance est la suivante :

Malheureusement, étant donné que les fonctions pouvant être utilisées avec les mosaïques sont prédéfinies, cette étape n'a pas pu être effectuée directement avec une seule fonction. Le chaînage de fonctions dans une mosaïque permet d'appliquer plusieurs fonctions aux données dans un ordre spécifié. Par conséquent, la variance a été mise en œuvre en appliquant d'abord une fonction d'écart type, puis en mettant au carré le résultat de cette fonction dans une fonction distincte. Ces fonctions ont été appliquées avec une fenêtre de 3 x 3 pixels.

3.1.2. Données d'altitude

En plus de l'imagerie aérienne, des données d'élévation dérivées des données LiDAR ont été utilisées. Les données d'altitude utilisées dans cette étude ont été acquises en 2011 et 2012 par des fournisseurs privés en coopération avec le ministère des Ressources naturelles du Minnesota (MNDNR). Ces données font partie du projet Elevation Mapping Project du Minnesota. L'ensemble de données Twin Cities Metro Region utilisé ici a trois densités de points différentes, selon la zone couverte : les comtés d'Anoka, Carver, Hennepin, Ramsey, Scott et Washington ont été échantillonnés à 1,5 point par mètre carré, le comté de Dakota à 2 points par mètre carré , et les villes de Minneapolis, St. Paul et Maple Grove à 8 points par mètre carré. Le MNDNR a déterminé que la précision verticale était de 5 cm, 10,8 cm et 8,3 cm pour l'ensemble

Équation 3.1 : Calcul de la variance où est la valeur DN du pixel à i,j, et est le nombre de pixels dans la fenêtre. Adopté de (Yuan 2008).

zone de bloc de métro, comté de Dakota et Maple Grove, respectivement. Le fournisseur de données a produit un modèle numérique d'élévation (MNE) à partir de ces données ponctuelles LiDAR sur la base des points de terrain uniquement. Étant donné que les fichiers DEM sont fournis à la même résolution spatiale que l'imagerie aérienne (taille de pixel de 1 m), aucun traitement supplémentaire n'a été nécessaire. Les rasters DEM ont été mosaïqués à l'aide d'une mosaïque et masqués dans la même mesure que l'imagerie aérienne à l'aide d'une fonction de mosaïque.

3.1.3. Données de l'axe de la route et densité de la route

En tant qu'ensemble de données supplémentaire, la carte de base des routes a été téléchargée à partir du site Web MNDNR Data Deli, un portail de données géospatiales à l'échelle de l'État. Le but de la couche de routes dans cette étude était la production d'une couche de densité routière. La couche des routes est une carte numérisée des routes, produite par le ministère des Transports du Minnesota (MNDOT). Les routes ont été numérisées sur la base de cartes topographiques quadrangulaires USGS de 7,5 minutes et ont été mises à jour en 2001. La précision horizontale de ces routes est inférieure à +/- 12 m. Les routes sont représentées sous forme de lignes médianes et des informations détaillées sur la classe de route sont fournies.

3.1.4. Données complémentaires supplémentaires

En plus des données susmentionnées qui ont été utilisées directement dans la création des cartes de classification, des ensembles de données auxiliaires ont été acquis pour soutenir l'analyse et l'interprétation des résultats. Tout d'abord, des fichiers de formes polygonales des limites politiques ont été acquis pour les niveaux du comté et de la municipalité. Les limites des comtés ont été extraites du centre d'échange de données géographiques MNGeo en ligne (http://www.mngeo.state.mn.us/). Ces limites étaient à jour en juin 2013. Elles sont représentées à une échelle nominale de

1:24 000, et ont une précision spatiale de +/- 12 mètres (40 pieds). De même, les limites de toutes les municipalités ont également été extraites de MNGeo. Ces limites ont les mêmes caractéristiques temporelles et spatiales que les limites des comtés et comprennent les villes, les cantons et les territoires non organisés (CTU). Il est à noter que les limites des cantons renvoient à des entités politiques, qui ne coïncident pas nécessairement avec des entités d'arpentage public.

En outre, le site Web US Census Factfinder (http://factfinder2.census.gov) a été utilisé pour acquérir des données démographiques pour la région et les entités politiques représentées dans les fichiers de limites mentionnés précédemment.

3.2. Classification de l'utilisation des terres et de la couverture des terres

La classification LULC a été effectuée à l'aide de Feature Analyst, une extension pour ArcGIS qui utilise un algorithme de classification d'apprentissage inductif exclusif, basé sur des objets. Avant de procéder à la classification, le schéma de classe a été déterminé. Les classes LULC extraites comprennent l'eau (rivières, lacs, piscines et autres plans d'eau ouverts), les infrastructures urbaines imperméables (routes, bâtiments), les terres cultivées (champs et pâturages non végétalisés et végétalisés), les zones forestières (à feuilles caduques, à feuilles persistantes et forêts mixtes), d'autres zones végétalisées (arbustes, plantes herbacées, zones humides non boisées) et des sols et roches nus (opérations minières telles que gravières, substratum rocheux).Une note importante à noter est que la classe des terres cultivées a été classée en deux étapes : d'abord, elle a été séparée en parties végétalisées et non végétalisées des terres cultivées, puis ces deux classes ont été fusionnées pour former une seule classe. Ces mesures ont été prises en raison de la distribution bimodale des valeurs spectrales

au sein de cette classe. Alors que les méthodes de classification basées sur les objets devraient mieux faire face à ce problème que les approches traditionnelles basées sur les pixels, les tests initiaux ont montré que cette étape augmente la précision de la classification pour la classe des terres cultivées en évitant sa confusion avec d'autres classes LULC.

La classification basée sur les objets dans Feature Analyst utilise l'approche d'apprentissage inductif. Cela signifie que l'algorithme s'appuie sur un expert, ou un enseignant, pour identifier des exemples du résultat souhaité dans l'imagerie, fournissant ainsi un ensemble de données d'apprentissage au système de classification. L'algorithme utilise ensuite les informations contenues dans ces échantillons pour construire le modèle qui est utilisé pour effectuer la classification. Les échantillons d'apprentissage devaient être déterminés manuellement sur la base d'un ensemble de critères pour chaque classe. Le classificateur s'appuie non seulement sur les informations spectrales contenues dans chaque pixel, mais considère également les informations dérivées des groupes de pixels. Ceci est basé sur un processus connu sous le nom de segmentation d'image, qui divise les pixels individuels en groupes, représentant des objets. La segmentation est généralement basée sur des valeurs de pixels, des contours et des formes homogènes. Après avoir défini ces objets, des informations supplémentaires provenant des données d'apprentissage sont utilisées pour déterminer à quelle classe appartient un objet. Les valeurs spectrales, ainsi que des données supplémentaires telles que la taille et la forme de l'objet, ses motifs, sa texture et les objets voisins sont utilisées pour attribuer des valeurs de classe. Par conséquent, les échantillons d'apprentissage devaient représenter toutes ces caractéristiques pour chaque classe. Les échantillons d'apprentissage ont été créés sous forme de polygones et ont été dessinés aussi près que possible du bord de chaque entité pour permettre à l'échantillon de représenter la forme et le type de bord de l'objet. Par exemple, la plupart des bâtiments sont des éléments rectangulaires relativement simples, tandis que les rivières ou les lacs ont des contours incurvés plus complexes qui ont été indiqués par la forme de

leurs polygones d'entraînement. On a également pris soin d'inclure toute la variété de chaque caractéristique trouvée dans la zone d'étude. Par exemple, les petites dépendances, les maisons résidentielles et les grandes installations commerciales ou industrielles ont toutes été incluses dans l'ensemble de formation urbaine pour représenter de manière appropriée la gamme de tailles et de formes de ce type d'objet dans la zone d'étude.

Après avoir créé l'ensemble de polygones d'apprentissage, Feature Analyst présente plusieurs autres paramètres qui sont utilisés pendant le processus de classification pour ajuster l'algorithme à la situation spécifique et améliorer sa précision. Tout d'abord, les données d'entrée sont définies. Feature Analyst permet l'utilisation de plusieurs ensembles et types de données. Par conséquent, la classification LULC était basée sur l'imagerie NAIP à quatre bandes de 2010, ainsi que sur les données d'altitude dérivées du LiDAR et une couche de texture. Ceci est possible dans Feature Analyst sans empiler ou modifier au préalable les couches d'entrée, elles sont simplement ajoutées à une liste d'entrées et leur type (c'est-à-dire optique, élévation, texture) est défini. Étant donné que Feature Analyst est capable d'extraire des caractéristiques individuelles ou d'effectuer des classifications complètes, exhaustives et inclusives des caractéristiques de la couverture terrestre, plusieurs autres options sont disponibles. Tout d'abord, l'option « wall-to-wall » a été sélectionnée pour forcer Feature Analyst à classer toutes les zones de l'imagerie, plutôt que de simplement extraire certaines fonctionnalités. Feature Analyst est également capable d'étirer automatiquement les données d'image, cependant, cette option a été désactivée car les données ont déjà été étirées à la volée par les fonctions de la mosaïque. Afin d'utiliser des informations contextuelles (c'est-à-dire analyser des objets en fonction de leurs objets voisins), Feature Analyst utilise un système appelé représentation d'entrée. Ces représentations sont essentiellement des fenêtres locales qui permettent au classificateur de voir plus d'un pixel à la fois pendant

En traitement. Cela permet au classificateur de construire son modèle basé non seulement sur un pixel, mais aussi sur ses pixels voisins. Cependant, cette approche augmente le temps de traitement requis pour construire et implémenter le modèle, et elle ne prend toujours en compte que des zones relativement petites entourant chaque pixel. Feature Analyst permet des modèles de fenêtre plus complexes, appelés représentations fovéales, car ils sont conçus pour imiter la façon dont l'œil humain voit les choses (Opitz et Bain 1999). La figure 3.1 montre un

exemple de ces représentations fovéales utilisées dans Feature Analyst, le modèle Manhattan. Les pixels colorés sont ceux qui seraient visibles par le classificateur lors de l'analyse du pixel central, tandis que les pixels non colorés seraient ignorés. Par rapport aux fenêtres locales simples, cette approche permet au classificateur d'accorder plus d'importance aux pixels les plus proches du pixel en cours de traitement, tout en prenant également en considération les informations trouvées dans les pixels plus éloignés. Cette approche devrait augmenter la quantité d'informations disponibles pour le classificateur, tout en n'augmentant pas autant la quantité de données à traiter que l'approche par fenêtre simple. Cette approche rend l'intégration d'informations contextuelles dans un modèle de classification plus efficace, et témoigne encore une fois de la première loi de géographie de Tobler, qui stipule que les choses proches sont plus liées que les choses éloignées (Tobler 1970).

3.3. Classification de surface imperméable

3.3.1. Densité de la route

La densité des routes est souvent considérée comme une mesure importante de l'urbanisation (Schueler 1994). Par conséquent, la densité des routes a été calculée en tant que surface raster à utiliser comme l'un des paramètres d'entrée pour le modélisateur d'arbre de décision de surface imperméable. La densité des routes est généralement définie comme des kilomètres de route par 100 kilomètres carrés de superficie, ou des miles de route par miles carrés de superficie. Afin de rendre le traitement des données plus gérable et de s'assurer que la densité routière était considérée localement plutôt que globalement pour l'ensemble de la zone d'étude, elle a été calculée pour une zone de 1 kilomètre carré autour de chaque pixel. Le calcul de la densité de la route a été effectué sur la base de la couche de la ligne médiane de la route. La densité a été calculée en mètres de routes par kilomètre carré de superficie et stockée dans un raster à virgule flottante avec une taille de pixel de 1 m. Les données résultantes ont été utilisées comme paramètres d'entrée pour le modèle d'arbre de décision.

3.3.2. Modélisation de l'arbre de décision

La surface imperméable a été classée à l'aide d'un classificateur d'arbre de décision. Plus précisément, le logiciel See5 a été utilisé pour générer l'arbre de décision basé sur l'algorithme C5 (Quinlan 2013a). C5 est très similaire à l'algorithme C4.5, avec l'ajout de plusieurs fonctionnalités qui ont le potentiel d'augmenter la précision de la classification (Quinlan 1993, 2013b).

En général, C4.5 et C5 sont des systèmes de connaissances d'experts qui nécessitent des apports humains sous forme de données de formation. L'objectif général est d'utiliser les données d'apprentissage pour identifier à quelle classe chaque cas doit appartenir, puis de trouver une représentation de modèle précise pour attribuer une classe à chaque cas dans la population générale. Pour y parvenir, les algorithmes C4.5 et C5 commencent par diviser les cas en fonction de leurs attributs, puis identifient un point de rupture naturel dans l'attribut en fonction de la valeur de la classe. Cette approche produit un ensemble de règles de décision qui peuvent être combinées pour construire un arbre composé de branches et de feuilles. Chaque branche représente un test qui est effectué sur les données et mène soit à une autre branche, soit à une feuille, où une décision est prise et une classe attribuée. Ces étapes sont effectuées automatiquement par l'algorithme C5. De plus, C5 peut effectuer le vannage (décider d'exclure les attributs s'ils ne contribuent pas significativement au modèle) et l'élagage (supprimer les branches qui ne contribuent pas significativement au modèle) (Quinlan 1993, 2013a, 2013b).

Afin de créer des données d'apprentissage pour le modèle d'arbre de décision, un ensemble de 300 points distribués aléatoirement a été créé. Un deuxième ensemble de points suivant le même principe a été créé pour être utilisé pour l'évaluation de l'exactitude (Congalton 1988). Les deux ensembles ont été créés à ce moment-là car C5 est capable d'effectuer l'évaluation de la précision automatiquement après

générer le modèle sur la base d'un ensemble distinct de points. Par conséquent, la précision du modèle d'arbre de décision pourrait être évaluée immédiatement et la configuration de l'algorithme pourrait être ajustée si nécessaire. Pour chaque ensemble de points, l'outil ArcGIS « Value to points » a été utilisé pour écrire des valeurs raster dans la table attributaire de chaque point. Les valeurs de chaque bande de l'imagerie aérienne, la couche de texture calculée, le raster d'altitude, le raster LULC et la carte de densité routière ont été inclus dans ce processus. Un champ contenant des données binaires de surface imperméable a été ajouté et rempli en déterminant visuellement si chaque point est situé sur une surface imperméable ou non. Les tableaux résultants ont ensuite été ajustés dans Microsoft Excel et exportés pour être utilisés dans See5.

Dans See5, les données ont été analysées plusieurs fois à l'aide de différentes options pour identifier les paramètres qui peuvent offrir la meilleure précision et efficacité. Plus précisément, les options de vannage, d'élagage et de suralimentation ont été évaluées. Le vannage invite See5 à évaluer l'impact de chaque attribut sur le modèle final et à décider s'il doit être utilisé ou non. Cela permet un traitement plus rapide et rend l'arbre de décision résultant plus petit et moins complexe, conduisant souvent à une meilleure précision (Quinlan 1993 Foody et al. 2002). L'élagage est également une méthode pour rendre les grands arbres de décision plus petits et moins complexes. Lorsque l'élagage est utilisé, l'arbre est d'abord produit normalement, puis élagué. L'élagage fonctionne en divisant l'arbre en plusieurs sous-arbres et en estimant la probabilité d'une mauvaise classification pour chaque sous-arbre. Cette estimation est ensuite comparée au cas où le sous-arbre serait simplement remplacé par une feuille. Si ce changement ne modifie pas la probabilité d'erreur de classification de plus d'un certain seuil, le changement est appliqué à l'arbre, sinon le sous-arbre est laissé tel quel (Quinlan 1993). La taille est utile pour améliorer

arbres qui souffrent de surajustement, une condition dans laquelle l'arbre de décision correspond presque parfaitement aux données d'apprentissage, mais est biaisé par rapport à ces données et ne parvient donc pas à modéliser avec précision les données de test ou d'évaluation de la précision (Foody et al. 2002).

Le boosting est une méthode qui n'est utilisée que pour augmenter la précision des arbres de décision, au prix de rendre le modèle plus complexe et coûteux en calcul. Le boosting fonctionne en créant plus d'un modèle pour résoudre le même problème et en utilisant les résultats de chaque modèle pour « voter » pour un résultat final (Freund et al. 1999 Quinlan 2013b Schapire 1999). Par exemple, si dix modèles sont créés pour classer les pixels et que six d'entre eux déterminent qu'un pixel appartient à la classe a, tandis que quatre attribuent la classe b, le résultat final serait le vote majoritaire, classe a.

La sortie See5 est un fichier texte représentant l'arbre de décision de manière pseudo-graphique. Ce modèle a été "traduit" manuellement pour être utilisé dans un script Python pour effectuer le traitement des données proprement dit. Le script utilise le module ArcGIS ArcPy, qui permet l'utilisation d'outils ArcGIS dans un script Python.

L'arbre de décision a été implémenté dans le script à l'aide d'une série d'instructions conditionnelles « Con » imbriquées d'ArcGIS Spatial Analyst. La fonction Con évalue une condition par pixel et peut soit générer une constante, une autre valeur raster, soit lancer une autre instruction con imbriquée dans celle-ci. Certains des avantages de l'implémentation de cette fonction dans un script Python sont qu'il est facilement possible de sauvegarder et d'ajuster le script à tout moment, et que les opérations peuvent être effectuées en mémoire plutôt qu'à partir du disque dur, améliorant ainsi les performances. L'utilisation d'ArcPy permet également d'utiliser des jeux de mosaïques ArcGIS comme entrées, plutôt que des fichiers raster mosaïqués de manière statique.

Bien qu'il soit possible de traiter le modèle d'arbre de décision en Python sans utiliser de composants ArcPy, cela ne fonctionnerait qu'avec des fichiers raster entièrement mosaïqués. Par conséquent, en utilisant à la place des mosaïques, une étape supplémentaire de traitement et de consommation de données est supprimée du workflow. Après le traitement de l'arbre de décision basé sur les couches d'entrée définies, le résultat a été écrit sur le disque sous la forme d'un fichier raster 1 bit. La surface imperméable a été classée à l'aide de ce modèle d'arbre de décision nouvellement développé. Concrètement, pour construire le modèle, l'algorithme a eu accès aux attributs suivants pour chaque cas (pixel d'échantillon) : l'imagerie aérienne NAIP à quatre bandes, le LIDAR DEM, la couche de texture générée à partir de la bande proche infrarouge de l'imagerie aérienne, le couche de densité routière et la carte raster LULC. Lors de la construction du modèle d'arbre de décision, plusieurs options avancées ont été évaluées en fonction de leur capacité à augmenter la précision de classification du modèle. Ces options sont spécifiquement le vannage, l'élagage et le boostage (voir 3.3.2). Il a été constaté que l'utilisation du vannage n'a pas fait de différence dans le modèle. See5 utilisait les mêmes attributs, que le vannage ait été utilisé ou non. Par conséquent, le vannage n'a pas été utilisé pour le modèle final. De plus, le modèle d'arbre de décision créé sans élagage était déjà relativement petit et avait une très bonne précision. L'élagage de l'arbre n'a pas suffisamment réduit sa taille pour justifier la perte de précision causée par l'utilisation de l'élagage. Pour les options de rappel, un nombre gérable de dix essais a été évalué. Il a été constaté que l'utilisation de l'amplification avec dix modèles n'augmentait pas suffisamment la précision pour justifier la complexité supplémentaire et les dépenses de calcul du modèle résultant. En fait, alors que la précision augmentait pour l'ensemble de données d'entraînement, l'augmentation diminuait la précision atteinte pour l'ensemble de données de test. Sur la base de ces résultats d'évaluation, l'arbre de décision de base sans options avancées a été choisi comme modèle final.

Le modèle d'arbre de décision final ne comprend que les bandes un, trois et quatre de l'image aérienne. L'arbre de décision se compose de deux branches et de quatre feuilles (voir Figure 3.2).

Une évaluation de la précision a été menée indépendamment sur les cartes LULC et les cartes de surface imperméable. Pour chaque carte, un ensemble de 300 points d'échantillonnage aléatoires a été créé (Congalton 1988, 1991b). Des valeurs de référence supposées être « terres vraies » ont été attribuées à ces points sur la base d'une inspection visuelle de l'imagerie. Pour déterminer les valeurs classifiées de la carte LULC, l'outil ArcGIS « Valeur en points » a été utilisé pour écrire automatiquement les valeurs raster de la carte LULC dans la table de points d'échantillonnage. Pour la surface imperméable, cette tâche a été réalisée par See5, qui permet la saisie d'un ensemble distinct de données d'évaluation de la précision et évalue automatiquement le modèle par rapport à ces données.

Des matrices de précision standard ont été générées pour les deux cartes, et la précision par classe d'utilisateur et de producteur, la précision globale et la précision Kappa estimée ont été calculées sur la base des matrices (Cohen 1960 Bishop et al. 1975 Congalton 1991a Congalton et Mead 1983). L'exactitude de l'utilisateur est également appelée erreur de commission, qui décrit les erreurs de classification lorsqu'un pixel appartenant à une classe a été faussement affecté à une classe différente. En revanche, l'exactitude ou l'erreur d'omission du producteur est une erreur lorsqu'un pixel aurait dû se voir attribuer une certaine valeur de classe, mais n'a pas été inclus dans cette classe (Campbell 2002). Les statistiques Kappa ont été estimées avec une équation donnée par Cohen (1960) (voir l'équation 3.2). Le Kappa de Cohen est également appelé accord inter-observateur et trouve son origine dans les études psychologiques (Cohen 1960). Le coefficient Kappa a été proposé pour la première fois par Congalton et Mead (1983). estime « la différence entre l'accord observé entre deux cartes […] et l'accord qui pourrait être atteint uniquement par [le hasard] » (Campbell 2002).


Appliquer la symbologie aux rasters à l'aide d'Arcpy Script - Systèmes d'information géographique

J'étudie l'écologie migratoire des canards de mer sur la côte atlantique de l'Amérique du Nord.

Dans mon analyse, j'ai besoin de données environnementales substantielles sur une large plage géographique au cours des 15 dernières années et j'ai eu un grand succès en utilisant la base de données ICOADS pour la plupart de mes paramètres de modèle souhaités. Cependant, ils ne suivent pas les précipitations et m'ont laissé besoin d'une source différente pour cela. NARR est la seule source avec une échelle suffisamment étroite pour être réellement utile à mes fins, mais je la trouve beaucoup moins simpliste qu'ICOADS.

NARR utilise une projection conique conforme de Lambert et j'ai quelques difficultés à la reprojeter sous forme longue-lat. J'ai consulté quelques autres messages de forum similaires, tels que R : Comment obtenir les latitudes et les longitudes d'un RasterLayer ? , mais je ne comprends toujours pas ce que signifient réellement les suggestions et si je les applique correctement à mes propres données.

En suivant le lien ci-dessus, j'ai utilisé ce codage pour raster et reprojeter mon fichier de données de précipitations (voici le lien vers le fichier apcpc.2000.nc au cas où quelqu'un voudrait jouer avec les données eux-mêmes : ftp://ftp.cdc.noaa .gov/Datasets/NARR/Dailies/monolevel/) :

Cela semble fonctionner assez bien, mais je doute de ce que je suis censé entrer comme CRS initial ici. Il est tout simplement logique d'entrer la référence de coordonnées répertoriée du raster, mais l'exemple dans le message que j'ai consulté ne le fait pas (ils utilisent : "+proj=lcc +lat_1=48 +lat_2=33 +lon_0=-100 +ellps= WGS84"). De plus, le NARR indique que les limites de la couverture ne s'étendent qu'à environ 145 W et E et seulement à 45-50 N. Cependant, il semble que j'ai des valeurs pour l'ensemble de l'hémisphère nord. Cela pourrait facilement être causé par une couverture mise à jour depuis que cela a été déclaré il y a plusieurs années, mais sert à alimenter mon inquiétude, je me suis trompé quelque part.

De plus, le raster ne semble pas fournir la variable "time" nulle part. Existe-t-il également un moyen de l'extraire ? Comme il y a 366 jours dans ce fichier, il serait ennuyeux mais pas difficile de les ajouter plus tard en se basant sur la répétition des paires de coordonnées.

J'espère que quelqu'un a de l'expérience avec la base de données NARR (ou simplement en convertissant lcc en long-lat) et peut expliquer si et comment j'ai mal fait, puis m'orienter sur le bon chemin?

***MISE À JOUR**** Le tracé des r.pts de longitude et de latitude révèle que le codage fonctionne très bien pour la reprojection prévue. Mais je laisserai le message ouvert au cas où quelqu'un pourrait suggérer quelque chose pour la variable "temps".

Je ne peux pas vous aider dans R, mais l'utilisation de GDAL vous amène plus loin :

vous indique que les deux premières bandes contiennent les coordonnées lat et lon, et qu'elles sont en degrés WGS84 :

Avec le nom de sous-ensemble de données correct, vous pouvez l'extraire dans un Geotiff avec une projection différente à l'aide de gdalwarp :

Cela fonctionne indépendamment du CRS dans les métadonnées, car -geolo ne prend que les informations de coordonnées des deux premières bandes. Vous pouvez visualiser le résultat dans n'importe quel logiciel SIG :

Vous voyez que les données traversent la ligne de date, donc l'étendue en degrés semble couvrir tout l'hémisphère nord. En fait, ce n'est qu'entre 148°E et 5°W, mais le long chemin.


Ytdjtkui

Un sorcier doit-il acheter des encres fines à chaque fois qu'il veut copier des sorts dans son grimoire ?

Redimensionner les barres verticales (symboles de valeur absolue)

Les AppleTV créent un réseau WiFi alternatif bavard

Connexion du Mac Book Pro 2017 à 2 projecteurs via USB C

Quelle est la différence entre une "attaque à distance" et une "attaque avec une arme à distance" ?

Comment la lumière « choisit-elle » entre le comportement des ondes et celui des particules ?

Si Windows 7 ne prend pas en charge WSL, qu'est-ce que le « sous-système pour les applications UNIX » ?

Quelles adaptations permettraient aux nains fantastiques standards de survivre dans le désert ?

Créer un corps pour l'esprit d'un objet magique ?

Comment fonctionnent les calculs lors de l'achat de miles aériens ?

Comment Fremen a-t-il produit et transporté suffisamment de thumpers pour utiliser les Sandworms comme Ubers de facto ?

Combien de dégâts une tasse de matière d'étoiles à neutrons causerait-elle à la Terre ?

Quelle est la différence entre CTSS et ITS ?

Conversion d'une fonction scalaire en fonction TVF pour une exécution parallèle - Toujours en mode série

N'a pas affiché toute la colonne lors de l'exportation du fichier CSV lors de l'utilisation de Google Earth Engine

Unicorn Meta Zoo #1 : Pourquoi un autre podcast ? Comptez le nombre de pixels identifiés comme de l'eau à partir d'une collection d'images Landsat. faire la distinction entre les rivières/cours d'eau et les étangs/lacs dans un masque d'eauItération d'un calcul Earth Engine (réducteur) sur chaque pays du monde : un exemple simpleApplication d'un réducteur sur une très grande entitéUtiliser Google Earth Engine pour filtrer l'image Landsat Daytime ?Exporter le raster sur un boucle dans Google Earth EngineDérivation de la température de Landsat (Google Earth Engine)Calcul de l'intersection pour deux collections d'entités

J'essaie de calculer les zones d'eau et les statistiques de chaque bande pour chaque zone d'eau pour voir s'il y a des changements saisonniers.

Le fichier .csv exporté n'a que les colonnes ("GNIS_ID","AreaSqKm","waterArea") avant la jointure. J'ai imprimé la variable, Join, et elle contient toutes les colonnes dont j'ai besoin. Comment se fait-il qu'ils n'apparaissent pas dans le fichier CSV exporté ? Ai-je manqué quelque chose?

Bienvenue sur GIS SE. En tant que nouvel utilisateur, veuillez suivre la visite guidée qui souligne l'importance de poser une question par question. Veuillez modifier votre question pour vous concentrer sur votre question la plus urgente.

Votre titre a toujours un "et" cela indique plusieurs questions

Désolé je pensais l'avoir déjà supprimé. Merci de garder un oeil

J'essaie de calculer les zones d'eau et les statistiques de chaque bande pour chaque zone d'eau pour voir s'il y a des changements saisonniers.

Le fichier .csv exporté n'a que les colonnes ("GNIS_ID","AreaSqKm","waterArea") avant la jointure. J'ai imprimé la variable, Join, et elle contient toutes les colonnes dont j'ai besoin. Comment se fait-il qu'ils n'apparaissent pas dans le fichier CSV exporté ? Ai-je manqué quelque chose?

Bienvenue sur GIS SE. En tant que nouvel utilisateur, veuillez suivre la visite guidée qui souligne l'importance de poser une question par question. Veuillez modifier votre question pour vous concentrer sur votre question la plus urgente.

Votre titre a toujours un "et" cela indique plusieurs questions

Désolé je pensais l'avoir déjà supprimé. Merci de garder un oeil

J'essaie de calculer les zones d'eau et les statistiques de chaque bande pour chaque zone d'eau pour voir s'il y a des changements saisonniers.

Le fichier .csv exporté n'a que les colonnes ("GNIS_ID","AreaSqKm","waterArea") avant la jointure. J'ai imprimé la variable, Join, et elle contient toutes les colonnes dont j'ai besoin. Comment se fait-il qu'ils n'apparaissent pas dans le fichier CSV exporté ? Ai-je manqué quelque chose?

J'essaie de calculer les zones d'eau et les statistiques de chaque bande pour chaque zone d'eau pour voir s'il y a des changements saisonniers.

Le fichier .csv exporté n'a que les colonnes ("GNIS_ID","AreaSqKm","waterArea") avant la jointure. J'ai imprimé la variable, Join, et elle contient toutes les colonnes dont j'ai besoin. Comment se fait-il qu'ils n'apparaissent pas dans le fichier CSV exporté ? Ai-je manqué quelque chose?

Bienvenue sur GIS SE. En tant que nouvel utilisateur, veuillez suivre la visite guidée qui souligne l'importance de poser une question par question. Veuillez modifier votre question pour vous concentrer sur votre question la plus urgente.

Votre titre a toujours un "et" cela indique plusieurs questions

Désolé je pensais l'avoir déjà supprimé. Merci de garder un oeil

Bienvenue sur GIS SE. En tant que nouvel utilisateur, veuillez suivre la visite qui souligne l'importance de poser une question par question. Veuillez modifier votre question pour vous concentrer sur votre question la plus urgente.

Votre titre a toujours un "et" cela indique plusieurs questions

Désolé je pensais l'avoir déjà supprimé. Merci de garder un oeil

Bienvenue sur GIS SE. En tant que nouvel utilisateur, veuillez suivre la visite qui souligne l'importance de poser une question par question. Veuillez modifier votre question pour vous concentrer sur votre question la plus urgente.

Bienvenue sur GIS SE. En tant que nouvel utilisateur, veuillez suivre la visite guidée qui souligne l'importance de poser une question par question. Veuillez modifier votre question pour vous concentrer sur votre question la plus urgente.


2 réponses 2

  1. Dans Qgis, choisissez les éléments de menu Paramètres->Projections personnalisées et la boîte de dialogue Coordonnées personnalisées . apparaît.

    2.Dans la boîte de dialogue, appuyez sur le bouton '+'.

3.Entrez le nom Shankar ou autre.

4.Entrez la définition de votre projection comme indiqué dans la section Paramètres de la boîte de dialogue.

5.Cliquez sur OK et choisissez Projet->Propriétés.

6. Dans la boîte de dialogue Propriétés du projet, choisissez l'onglet CRS et sélectionnez la projection Shankar qui vient d'être générée.


7. Ce sera la projection de votre carte.

  1. Si vous souhaitez utiliser l'UTM 44 modifié pour un ellipsoïde personnalisé en mètres, vous devez proj4 définition comme celle-ci
    +proj=tmerc +a=6377301.243 +b=6356100.2284 +lat_0=0 +lon_0=81 +k_0=0.9996 +x_0=500000 +y_0=0 +towgs84=295.00,736.00,257.00,0,0,0,0 +unités =m +no_defs

De plus, vous avez égaré les valeurs du nord et de l'est. Nord - 27 et Est 82

Je suis vos instructions à fond. malheureusement, la projection de sortie montre/change dans le système WGS84 (système de degrés). Le système de projection fonctionne bien dans la version QGIS 2.18 mais pas dans QGIS 3.4.4. C'est tellement frustrant pour moi. svp

– Shankar Prasad Gupta
5 février à 11:10

Veuillez fournir quelques détails qui prouvent votre cas. Quelques captures d'écran.

Ici, j'ai joint quelques captures d'écran. dans la figure 1, j'ajoute une couche qui est dans la projection de zone WGS84/UTM 44N. Dans la figure 2, j'ai défini la projection personnalisée, nommée UTM modifié pour le Népal central. Dans la figure 3, je calcule la valeur de projection de conversion, mais le résultat est le même. Dans la figure 4, dans les propriétés du projet, j'ai défini la projection du projet dans une projection personnalisée, c'est-à-dire UTM modifié pour le centre du Népal. Dans la figure 5, la projection de couche ne change pas dans la projection souhaitée, elle change automatiquement en système WGS84 uniquement.

– Shankar Prasad Gupta
6 février à 7h17

J'ai trouvé une définition de votre UTM 44 modifié (regardez ma réponse) mais vous devriez la vérifier bien sûr.

Merci. Finalement, j'ai eu la solution et la chaîne de projection suivante fonctionne bien :


+proj=tmerc +lat_0=0 +lon_0=84 +k=0.9999 +x_0=500000 +y_0=0 +a=6377276.345 +b=6356075.41314024 +towgs84=296.207,731.545,273.001,0,0,0,0 +unités =m



1 réponse 1

Vous le faites bien, pour la plupart. puisque vos polygones peuvent être n'importe où sur la terre, vous devez utiliser un système de coordonnées qui utilise les mètres comme unité et couvre toute la terre, le meilleur ajustement serait le pseudo mercator 'epsg:3857'

remplacez simplement la projection que vous choisissez par celle-ci et cela devrait être ok

Hicham Zouarhi, merci pour ta réponse ! J'ai essayé les projections EPSG:3857 et EPSG:26944 sur 2 petits polygones (moins de 5 m de diamètre chacun) en Californie, pour EPSG:26944 cela donnait une distance de 191 m entre les polygones, tandis que pour EPSG:3857 c'était 249m. Cela me semble trop différent :( Des idées pourquoi et comment obtenir quelque chose de plus précis (qui fonctionnerait n'importe où dans le monde)? Au fait, j'ai essayé de mesurer la distance entre les centroïdes de ces polygones en utilisant great_circle distance from geopy module, elle était d'environ 193 m, elle correspond donc aux résultats de la projection EPSG : 26944.

Les polygones que j'essayais sont : polygon1 = [(-121.48307, 39.702249), (-121.48307, 39.702231), (-121.483035, 39.702231)] polygon2 = [(-121.483361, 39.700525), (-121.483361, 39.700507), (- 121.483380, 39.700507)]


Une collection des derniers logiciels ArcGIS complets à l'usage des étudiants.

Quoi de neuf dans ArcGIS Desktop ?

ArcGIS Desktop est l'application SIG de bureau phare d'Esri pour la cartographie, l'analyse et la gestion des données géospatiales. Nous améliorons constamment ArcGIS Desktop pour vous permettre de mieux visualiser les données spatiales 2D et 3D, de modifier et d'analyser les données et de vous connecter à l'ensemble du système ArcGIS.

ArcMap (avec ArcCatalog) est l'application de création et d'édition SIG traditionnelle leader sur le marché. Alors que nous continuerons à publier et à prendre en charge ArcMap, notre développement et notre innovation se concentrent sur ArcGIS Pro. Les nouvelles versions d'ArcMap fournissent des correctifs, des mises à jour et de nouvelles certifications d'environnement.

Quelles extensions sont disponibles pour ArcGIS Desktop ?

Les extensions suivantes sont disponibles pour ArcGIS Desktop :

  • Analyste ArcGIS 3D 1
  • ArcGIS Aviation Aéroports
  • Cartographie aéronautique ArcGIS
  • Bathymétrie ArcGIS
  • Analyste d'affaires ArcGIS 2
  • Interopérabilité des données ArcGIS 1
  • Réviseur de données ArcGIS 1
  • Analyste géostatistique ArcGIS 1
  • Analyste d'images ArcGIS 1,2
  • ArcGIS LocateXT 1
  • ArcGIS Maritime
  • Analyste de réseau ArcGIS 1
  • Référencement de pipeline ArcGIS
  • Éditeur ArcGIS 1
  • Routes et autoroutes ArcGIS
  • Schémas ArcGIS 1
  • Analyste spatial ArcGIS 1
  • Analyste de suivi ArcGIS 1
  • Gestionnaire de flux de travail ArcGIS 1
  • Cartographie de la défense ArcGIS
  • Cartographie de la production ArcGIS

Les extensions sous licence pour ArcGIS Desktop peuvent être utilisées avec ArcGIS Pro et ArcMap (selon disponibilité).

1 Inclus dans ArcGIS Desktop All Extensions Bundle

2 Disponible uniquement pour ArcGIS Pro

Comment obtenir ArcGIS Pro ?

ArcGIS Pro est inclus avec ArcGIS Desktop. Lorsque vous êtes à jour sur la maintenance avec ArcGIS Desktop, vous avez accès à ArcGIS Pro. Vous pouvez télécharger ArcGIS Pro à partir de My Esri.

Quelles sont les options de licence pour ArcGIS Desktop ?

ArcGIS Desktop est concédé sous licence à la fois par niveau de licence et par type de licence.

Les mêmes niveaux de licence (Basic, Standard et Advanced) s'appliquent aux deux applications ArcGIS Desktop : ArcGIS Pro et ArcMap.

Les trois types de licence sont Usage unique, Usage simultané et Utilisateur nommé (ArcGIS Pro uniquement).

  • Une licence à usage unique permet à un utilisateur d'installer et d'utiliser ArcGIS Desktop sur un ordinateur.
  • Une licence d'utilisation simultanée permet à ArcGIS Desktop d'être installé sur n'importe quel ordinateur. L'utilisation des applications par plusieurs utilisateurs est gérée via un gestionnaire de licence sur un ordinateur en réseau.
  • Une licence d'utilisateur nommé permet à ArcGIS Pro d'être utilisé par une personne disposant d'informations d'identification qui se connecte à l'application sur n'importe quelle machine sur laquelle elle est installée. Le type de licence Utilisateur nommé n'est actuellement disponible que pour ArcGIS Pro et non pour les autres applications ArcGIS Desktop.

Comme pour le niveau de licence, vous choisissez le type de licence pour chaque licence ArcGIS Desktop que vous achetez. Vous pouvez acheter des types et des niveaux de licence dans n'importe quelle combinaison. Par exemple, vous pouvez acheter cinq licences ArcGIS Desktop Advanced Single Use, trois licences ArcGIS Desktop Standard Single Use et une licence ArcGIS Desktop Basic Single Use.

Lorsque vous achetez une licence ArcGIS Desktop à utiliser avec ArcMap, elle doit être à usage simultané ou à usage unique. Avec chacun d'entre eux, une licence d'utilisateur nommé est fournie pour ArcGIS Pro et utilisée avec ArcGIS Pro par défaut. Cependant, les licences d'utilisateur nommé ArcGIS Pro peuvent être converties en utilisation unique ou simultanée en fonction du type de licence acheté pour ArcGIS Desktop.

Quelles ressources sont disponibles pour m'aider à démarrer avec ArcGIS Pro ?

  • Il existe plus de 200 ressources liées à ArcGIS Pro sur le site de formation Esri, notamment des séminaires, des cours en ligne, des formations dirigées par un instructeur et des didacticiels.
  • Le site Learn ArcGIS propose également de nombreuses leçons sur l'utilisation d'ArcGIS Pro, y compris une excellente leçon de mise en route.
  • Il existe des vidéos disponibles sur YouTube créées par Esri et Esri Canada.
  • Le blog Getting Technical d'Esri Canada comprend des articles fréquents sur des sujets concernant ArcGIS Pro.
  • Le blog ArcGIS et GeoNet ont un large éventail de contenus et une communauté active autour d'ArcGIS Pro.
  • Pour ceux d'entre vous qui préfèrent apprendre des livres, Esri Press propose plusieurs titres, notamment Passer à ArcGIS Pro à partir d'ArcMap, Se familiariser avec ArcGIS Pro et Comprendre le SIG : un classeur de projet ArcGIS Pro.
  • Le système complet d'aide en ligne d'ArcGIS Pro est également accessible à tous.
  • Si vous souhaitez migrer vos outils personnalisés d'ArcMap vers ArcGIS Pro, consultez ces ressources pour les développeurs.

Comment personnaliser et étendre ArcGIS Pro ?

Il existe de nombreuses façons de configurer, d'automatiser et d'étendre ArcGIS Pro en fonction de vos besoins :

  • Configurez les outils et les boutons qui apparaissent sur les onglets du ruban et la barre d'outils d'accès rapide dans l'application. Dans la version 2.4, vous pouvez enregistrer et partager des fichiers de personnalisation de l'interface utilisateur (UI).
  • Créez et partagez des tâches. Les tâches vous permettent de créer un flux de travail personnalisé avec des étapes et des instructions que vous pouvez partager avec d'autres personnes qui effectuent le même type de travail. Les tâches garantissent que tous ceux qui les utilisent effectueront un flux de travail cohérent et travailleront plus rapidement.
  • Utilisez ArcPy, un package de site Python, pour automatiser l'analyse et la cartographie. Vous pouvez utiliser Python, par exemple, pour créer un outil de script qui effectue une analyse complexe, ou le package ArcPy.mp pour créer une mise en page de carte automatisée qui se met à jour en fonction du contenu de la carte. L'automatisation via Python peut réduire considérablement les heures consacrées au traitement redondant et aux activités requises pour créer des cartes.
  • Développez des compléments avec ArcGIS Pro SDK pour Microsoft .NET Framework afin de créer une interface utilisateur et une expérience utilisateur ArcGIS Pro personnalisées pour votre organisation. Avec ArcGIS Pro SDK for .NET, vous pouvez créer vos propres outils et workflows personnalisés dans Microsoft Visual Studio à l'aide de la puissante API et des modèles de SDK faciles à utiliser dans ArcGIS Pro. Il existe trois principaux modèles de personnalisation (compléments, configurations de solution et sources de données de plug-in) et tous sont faciles à partager et à déployer. Des mises à jour d'ArcGIS Pro SDK for .NET sont incluses avec chaque version d'ArcGIS Pro, et de nombreuses nouvelles améliorations de l'API sont disponibles dans la version 2.4. Vous pouvez en savoir plus dans le document de concept "Migration vers ArcGIS Pro".

Quelle est la signification d'Arcade en tant que langage de script multiplateforme ?

Nous avions besoin d'un langage de script portable et sécurisé qui vous permette d'exécuter des expressions sur la plate-forme ArcGIS de manière cohérente. Après avoir recherché d'autres langages de script, y compris JavaScript et Python, nous avons constaté que pour répondre à ce besoin, nous devions écrire notre propre langage de script pour nous assurer qu'il était sécurisé et qu'il fournissait des fonctions de mappage communes. Ce langage de script s'appelle Arcade. Arcade vous permet d'écrire une expression et de s'assurer qu'elle fonctionnera de la même manière dans ArcGIS Pro, les cartes et couches Web et les applications Web ainsi que les applications créées avec les SDK ArcGIS Runtime. Par exemple, une expression Arcade pourrait être utilisée pour effectuer une opération mathématique sur un attribut dont le résultat pilote une propriété d'un symbole. Cette expression fonctionnera de la même manière et fournira le même résultat dans chaque application et appareil. De plus, depuis que nous avons écrit le langage, nous avons pu inclure des fonctions simplifiées pour effectuer des tâches courantes dans la cartographie. Par exemple, la fonction Proper peut être utilisée pour convertir une chaîne en casse correcte (une majuscule initiale suivie d'une minuscule), ce qui est une fonction très utile pour les cartographes.

ArcGIS Pro peut-il être virtualisé ?

Oui. ArcGIS Pro peut être utilisé dans des environnements virtualisés, à la fois sur site et dans le cloud, avec un grand succès. Esri comprend l'importance de la technologie de virtualisation pour nos utilisateurs. ArcGIS Pro est fortement testé et pris en charge sur tous les principaux environnements de virtualisation, notamment Citrix XenDesktop, Microsoft Hyper-V VDI et VMware Horizon View. Nous travaillons en étroite collaboration avec les principaux fournisseurs de virtualisation sur site, notamment Microsoft, VMware et Citrix, et les principaux fournisseurs de matériel informatique, notamment Dell. Nous travaillons également en étroite collaboration avec NVIDIA, dont les GPU (unités de traitement graphique) des postes de travail virtuels et la technologie d'hyperviseur GRID Manager sont importants pour la virtualisation d'ArcGIS Pro.

ArcGIS Pro peut également être utilisé avec des solutions de streaming et de virtualisation d'applications basées sur le cloud telles qu'Amazon AppStream et Frame.

Nous testons ArcGIS Pro dans une variété d'environnements et de configurations de virtualisation pour comprendre et fournir les dernières informations sur la façon d'obtenir la meilleure densité de machine virtuelle/serveur et d'offrir une expérience utilisateur optimale.

Les dernières informations sont disponibles sur la page Configuration système requise pour ArcGIS Pro. Vous pouvez également en savoir plus en consultant la documentation sur la virtualisation pour ArcGIS Pro.

Esri s'est associé à NVIDIA, VMware et Dell pour fournir l'appliance de virtualisation ArcGIS Desktop. Il s'agit d'un serveur qui a été minutieusement testé pour déterminer les workflows utilisateur, le nombre de machines virtuelles et les expériences utilisateur disponibles avec ce serveur. La configuration est constamment mise à jour pour offrir la meilleure densité et la meilleure expérience utilisateur possible.

Quels environnements virtualisés prennent en charge ArcGIS Pro ?

ArcGIS Pro est pris en charge dans les environnements virtuels Citrix XenDesktop, VMware (Horizon View) et Microsoft (Hyper-V VDI). La page Configuration système requise pour ArcGIS Pro fournit une liste de tous les environnements de virtualisation pris en charge. Nous révisons et mettons constamment à jour cette page pour fournir à nos utilisateurs les informations les plus récentes. Étant donné que la technologie de virtualisation change et évolue si rapidement, il est important de consulter fréquemment la page Configuration système requise pour ArcGIS Pro et la balise ArcGIS Pro sur le blog ArcGIS.


Voir la vidéo: 22 - Convert GPX Files to Shapefiles with Arcpy - ArcGIS Pro Scripting with Python and Arcpy