Suite

Comparer deux rasters de densité de noyau pour les zones d'intérêt ?

Comparer deux rasters de densité de noyau pour les zones d'intérêt ?


Le contexte de ma question est que j'ai des ventes unitaires pour le produit A agrégées par ville. J'ai également des ventes unitaires pour la catégorie A agrégées par ville.

L'objectif est de comparer les zones où le produit A fonctionne mieux que prévu compte tenu des performances de la catégorie A. La raison de la comparaison est que les dénombrements unitaires ont tendance à suivre les distributions de la population générale (c'est-à-dire qu'à première vue, les deux ensembles de données montrent que les mêmes grandes villes sont les principaux marchés ).

Ce que j'ai fait, c'est de prendre chaque ensemble de données et de le normaliser sur le z-score. J'ai ensuite calculé deux rasters de densité de noyau, un pour chaque ensemble. Maintenant, ma question est de savoir s'il existe un meilleur moyen de comparer les deux compte tenu de mon objectif ?

Puis-je simplement utiliser un calcul raster [Produit A] - [Catégorie A] pour créer un raster afin d'afficher les zones où le produit surpasse la catégorie ? Est-ce une approche valable ou existe-t-il une meilleure façon?

J'ai également remarqué que la plage de valeurs min/max calculée pour chaque densité de noyau est différente pour les deux ensembles de données. Est-ce important pour la comparaison ?

  • Produit A : -0.0055 à +0.0253
  • Catégorie A : -0.0087 à +0.0683

Mettre à jour Plus je joue avec ça, plus je n'obtiens pas les résultats dont j'ai besoin. Je ne peux pas utiliser d'opérateurs de division dans le calcul raster car des manifestants proches de zéro gonflent astronomiquement les chiffres. Je crois que je devrais d'abord renormaliser chacune des deux densités de noyau?


Comprendre la dynamique des zones urbaines d'intérêt grâce à l'information géographique volontaire

Obtenir des informations sur la dynamique de la structure urbaine est crucial pour le cadrage du contexte au sein de la ville intelligente. Cet article se concentre sur les zones urbaines d'intérêt (UAOI), un concept qui fournit des définitions fonctionnelles de la structure spatiale d'une ville. Les sources traditionnelles de données sociales peuvent rarement saisir ces aspects à grande échelle, tandis que les informations spatiales sur la ville ne permettent pas à elles seules de saisir comment la population valorise les différentes parties de la ville et de différentes manières. Par conséquent, nous tirons parti de l'information géographique volontaire (VGI) pour surmonter certaines des limites des sources traditionnelles en fournissant des informations structurelles et fonctionnelles urbaines. Nous utilisons un type spécial de VGI (métadonnées d'images Flickr géomarquées) pour identifier les UAOI et exploiter leurs attributs temporels et spatiaux. Pour ce faire, nous proposons une stratégie méthodologique qui combine le clustering spatial hiérarchique basé sur la densité pour les applications avec bruit et l'algorithme « α-shape » pour quantifier la dynamique des UAOI dans l'Inner London pour une période 2013-2015 et développer une visualisation innovante de Profils UAOI à partir desquels la dynamique UAOI peut être explorée. Nos résultats élargissent et améliorent la littérature précédente sur ce sujet et fournissent une référence utile pour les praticiens urbains qui pourraient souhaiter inclure des informations plus opportunes lors de la prise de décisions.


Méthodes

Les analyses sont basées sur des données individuelles et régionales collectées dans le cadre de l'étude Victorian Lifestyle and Neighbourhood Environment Study (VicLANES) auprès de 2349 individus dans 50 petites zones de la métropole de Melbourne. Des informations supplémentaires sur les zones ont également été obtenues à partir d'un éventail de différents ensembles de données géospatiales administratives. La conception du projet VicLANES a été approuvée par le comité d'éthique humaine de l'Université La Trobe (n° 02-130), et le consentement libre et éclairé a été obtenu de tous les participants.

Cadre et conception de l'étude

VicLANES était une vaste étude à plusieurs niveaux menée en 2003-2004 dans les 21 zones de gouvernement local les plus à l'intérieur de Melbourne, en Australie. Les méthodes VicLANES ont été rapportées précédemment.18, 19 En bref, les CCD (également connus sous le nom de districts de collecte de recensement au moment de l'étude, c'était la plus petite unité de mesure géographique utilisée par l'Australian Bureau of Statistics) ont été classés selon une mesure des ménages. de faible revenu (<$A400/semaine), puis stratifié en septiles. Cinquante CCD ont ensuite été choisis au hasard parmi les septiles supérieurs (17), médians (16) et inférieurs (17). Des questionnaires postaux ont été envoyés à 4005 résidents âgés de plus de 18 ans, qui ont été sélectionnés au hasard sur les listes électorales (le vote est obligatoire pour tous les Australiens âgés de plus de 18 ans, et on estime que 97,7% des personnes éligibles pour voter sont inscrites faire).20 La méthode de conception sur mesure pour les enquêtes postales21 a été adoptée pour maximiser les taux de réponse. Un taux d'achèvement valide de 58,7 % a été atteint, avec 2349 participants ayant renvoyé un sondage valide sur leur comportement en matière d'activité physique. Les répondants étaient âgés de 18 à 75 ans.

Mesure des résultats

La variable de résultat, l'IMC, était basée sur la taille et le poids autodéclarés et a été modélisée comme un résultat continu.

Variable d'exposition : destinations

Les informations sur les destinations provenaient de deux sources principales : (1) l'audit environnemental VicLANES22, 23 et (2) des ensembles de données spatiales accessibles au public. Nous avons choisi des destinations auxquelles nous pensions que les gens pourraient utiliser les déplacements actifs pour accéder dans leur quartier. Les destinations incluses dans l'analyse étaient les suivantes : établissements d'enseignement (écoles, jardins d'enfants, universités), cafés/magasins à emporter, arrêts et gares de transport, supermarchés, installations sportives, ressources communautaires (telles que bibliothèques, centres de santé maternelle et infantile, lieux de culte, centres commerciaux), les petits magasins d'alimentation (comme les dépanneurs, les boulangeries, les boucheries, les épiceries vertes). La table complémentaire en ligne S1 détaille les types de destination et les sources de ces données de destination.

KDE : construction de la variable d'exposition dans ArcGIS

Dans ArcGIS 10.1,24, toutes les destinations ont été combinées et fusionnées en une seule couche. La surface de densité du noyau des destinations a été estimée et extraite à l'aide de la commande « extraire les valeurs en points » dans la boîte à outils Spatial Analyst d'ArcGIS.24

Le processus de KDE commence par une surface de carte continue divisée en une grille de tailles de cellules spécifiées. Sur cette carte, KDE adapte une série de cônes ou de noyaux centrés sur chaque entité ponctuelle d'intérêt (dans ce cas les destinations), créant une carte continue de densité ou d'intensité d'entité.25 Le rayon de chaque cône/noyau est défini à une distance qui est estimé pour refléter la zone de service/zone d'effet de cette caractéristique ou ressource particulière. Chaque cellule sur la surface de la carte se voit attribuer une estimation de densité de noyau de telle sorte que les cellules au centre du cône reçoivent des estimations plus élevées, et les cellules à la périphérie du cône reçoivent des estimations plus petites.25 En effet, les estimations de densité de noyau sont inversement proportionnelles à la distance de la caractéristique sur laquelle le cône est centré (le centre du cône).25 KDE pondère l'effet des caractéristiques de telle sorte qu'une caractéristique située le plus près d'un point/emplacement d'intérêt se voit attribuer une plus grande pondération, tandis qu'une caractéristique située à une certaine distance reçoit un pondération.14 Les cônes des différentes caractéristiques/destinations se chevauchent, souvent de manière substantielle. Une fonction de lissage (distribution gaussienne bivariée) ajoute les estimations des noyaux qui se chevauchent pour chaque cellule.12, 25 Un exemple de l'image résultante de KDE de la distribution des destinations utilisant des noyaux de 1200 m est présenté dans la figure 1.

Représentation raster des estimations de densité de noyau de la distribution de destination à l'aide de noyaux de 1200 m.

Les valeurs de densité de noyau ont été extraites de sorte que l'emplacement du ménage de chaque participant se voit attribuer la valeur de densité de noyau de la cellule de sortie dans laquelle ils résidaient. Alors que les estimations de densité de noyau sont calculées sur la base de la proximité des destinations les unes des autres, les valeurs extraites à chaque emplacement de participant fournissent une indication de la proximité et de la densité des destinations par rapport à l'emplacement du participant. Les estimations de densité de noyaux élevées indiquent une intensité élevée ou un regroupement de destinations, les estimations de densité de noyaux faibles indiquent des destinations négligeables et très dispersées. Des estimations de densité de noyau modérées peuvent indiquer des destinations dispersées, ou elles peuvent se produire lorsqu'un participant est situé à une plus grande distance d'un ensemble de destinations fortement regroupées.

Dans cette analyse, les estimations de densité de noyau ont été calculées en utilisant des tailles de noyau de 400, 800 et 1200 m. Nous nous sommes intéressés à la mesure dans laquelle l'activité physique pouvait influencer les relations observées entre les destinations et l'IMC. Il est avancé que 400 m est la distance que les gens peuvent choisir de marcher plutôt que de conduire26, ce qui équivaut approximativement à 5 minutes de marche. Des distances de 800 et 1200 m ont également été choisies, car elles représentent la distance qu'une personne moyenne pourrait parcourir en 10 et 15 min, respectivement.

Construction de la variable d'exposition pour l'analyse statistique

Les estimations de densité de noyau ont été classées en quintiles (quintile 1 représentant les zones de destinations les moins intensément distribuées, et quintile 5 représentant les zones de destinations les plus intensément distribuées). Il existe des précédents pour l'utilisation de quintiles pour modéliser la distribution des destinations, y compris la recherche aux États-Unis13 et notre propre recherche.16

Confondeurs

Sur la base de la littérature, plusieurs covariables ont été incluses dans l'analyse en tant que facteurs de confusion potentiels.13 , 27 Il s'agit de : l'âge (regroupé en six catégories : 18-24 25-34 35-44 45-54 55-64 64 ans et plus), sexe, pays de naissance (né en Australie né dans un pays autre que l'Australie), éducation (baccalauréat ou diplôme supérieur formation professionnelle et aucune qualification post-scolaire), type de ménage (adulte seul-pas d'enfant adulte célibataire avec enfants deux adultes ou plus- pas d'enfants deux adultes ou plus avec enfants), occupation dominante du ménage (employé de bureau professionnel employé non actif – y compris les retraités, les étudiants, les chômeurs, ceux qui ne recherchent pas ou ne peuvent pas travailler) et invalidité/blessure qui empêche l'exercice (oui, non). Le désavantage de la zone a également été inclus comme facteur potentiel de confusion. Les trois septiles utilisés pour définir la base de sondage (voir « Paramètres et conception de l'étude » ci-dessus) ont été utilisés comme indicateur du désavantage de la zone et ont été définis comme étant les moins défavorisés, moyennement défavorisés et les plus défavorisés.

Suffisance de l'activité physique

À l'aide d'éléments de l'enquête Active Australia, les participants ont été invités à indiquer la fréquence et la durée de leur participation à la marche, à une activité physique vigoureuse, à une activité physique modérée, à un jardin ou à un jardin vigoureux. Ces éléments ont ensuite été utilisés pour produire une mesure de la suffisance globale de l'activité physique. L'enquête Active Australia Survey a été utilisée dans des enquêtes nationales et démontre une très bonne fiabilité et validité.28

Les directives australiennes et internationales recommandent qu'une personne participe à au moins 30 minutes d'activité d'intensité modérée à vigoureuse la plupart des jours de la semaine, pour un total d'au moins 150 minutes d'activité par semaine.28-30 Selon l'enquête Active Australia Survey. directives, la suffisance de l'activité physique pour la santé peut être mesurée de deux manières28 : (1) mesurée en tant que temps total consacré à l'activité physique (au moins 150 min pour la suffisance) (2) mesurée en tant que temps total sur le nombre total de séances (au moins 150 min sur au moins cinq séances). La mesure combinée du temps et du nombre de séances (au moins 150 minutes d'activité d'intensité au moins modérée sur au moins cinq semaines de séances)31, 32 a été choisie pour cette analyse, car elle correspond le plus aux directives sur la suffisance de l'activité physique29.

Conformément aux directives d'administration et de mise en œuvre de l'enquête Active Australia, les réponses VicLANES ont été converties en temps total (minutes) consacré à chaque activité, et additionnées, avec une activité vigoureuse pondérée par un facteur de 2,28, 33 Les participants ont ensuite été classés dans l'un des deux groupes : ceux ayant déclaré moins de 150 minutes d'activité au moins modérée sur cinq séances par semaine ont été classés comme insuffisamment actifs, ceux ayant au moins 150 minutes d'activité au moins modérée sur cinq séances ou plus ont été classés comme suffisamment actifs.

Analyses statistiques

Les femmes enceintes (n=22) ont été exclues car leur IMC peut avoir été modifié par leur état de grossesse. Un CCD juste à l'extérieur du quartier central des affaires de Melbourne a été omis de l'analyse finale (n = 14) car la zone de chalandise de ce CCD encapsulait presque tout le quartier central des affaires, et le nombre de fonctionnalités et de destinations contenues dans cette zone de chalandise était irrégulièrement élevé . Nous avons également exclu 150 participants pour lesquels les données d'IMC étaient manquantes, ce qui a donné un échantillon analytique de 2 163 participants et 49 CCD. Il n'y avait pas de données manquantes pour le sexe, le groupe d'âge ou le niveau de désavantage régional. Les données manquantes pour les autres variables allaient de 0,1 % à 2,1 %, à l'exception de l'élément handicap et de l'élément activité physique, pour lesquels les données manquantes s'élevaient respectivement à 5,6 % et 14,2 %.

Toutes les analyses ont été effectuées dans Stata IC 10.0. La catégorie de référence pour l'exposition était le quintile 1 (Q1, regroupement de destination le plus bas). Les analyses descriptives comprenaient des tableaux croisés entre l'IMC et à la fois les covariables individuelles et les estimations de densité par noyau. Une régression linéaire à plusieurs niveaux a été réalisée (avec des CCD au niveau 2 et des individus au niveau 1) pour examiner les associations entre l'IMC et les trois mesures de densité du noyau (400, 800 et 1200 m). Plus précisément, nous avons utilisé des modèles multiniveaux à effets mixtes avec des SE robustes. Tous les modèles ont été ajustés pour les facteurs de confusion. Enfin, l'activité physique a été incluse dans les modèles pour tester si elle atténuait les associations entre les estimations de densité du noyau et l'IMC. Les OR et les IC à 95 % sont indiqués pour toutes les estimations.


Revue de littérature

Les hotspots, qui sont définis comme des emplacements à risque relativement élevé, sont généralement identifiés sur la base de certains critères de sélection spécifiques. De nombreuses méthodologies et critères différents ont été développés pour améliorer la précision du processus d'identification des points chauds, donc la rentabilité d'un programme d'amélioration de la sécurité [6]. L'un des critères de sélection les plus couramment utilisés est défini par les fréquences de collision attendues sur les sites d'intérêt. Ce critère particulier met l'accent sur la maximisation des avantages à l'échelle du système d'une intervention de sécurité ciblée sur les points chauds, alors qu'un autre critère couramment mis en œuvre prend en compte le taux de collision attendu (c'est-à-dire la fréquence de collision attendue normalisée par l'exposition au trafic) qui met l'accent sur la perspective d'équité de chaque usager de la route [ 7].

La fréquence de collision attendue sur un site est généralement estimée à l'aide d'une approche basée sur un modèle de collision, dans laquelle la fréquence de collision est modélisée statistiquement en fonction de certaines caractéristiques pertinentes telles que les caractéristiques de la route, l'exposition au trafic et les facteurs météorologiques [1–5]. Les routes sont normalement divisées en sections homogènes de longueur égale et en intersections en tant qu'unités d'analyse spatiale. Divers modèles de dénombrement, le binomial négatif (NB) étant le plus populaire, sont utilisés pour estimer le nombre prévu d'accidents sur le réseau routier dans une zone d'étude, et les estimations sont ensuite comparées à une valeur seuil prédéfinie pour déterminer si un le site appartient à un hotspot. Notez que les modèles NB sont normalement utilisés dans le cadre empirique de Bayes (EB) pour mieux capturer l'expérience locale des niveaux de sécurité [1, 6]. L'une des parties les plus critiques de cette approche de modélisation est l'hypothèse d'une distribution de probabilité pour le nombre d'accidents et la spécification fonctionnelle des paramètres du modèle. Si ces composants sont spécifiés de manière incorrecte, l'application de tels modèles de comptage peut entraîner des points chauds incorrects. De plus, cette approche est gourmande en données et nécessite des efforts importants pour collecter et traiter les données associées et calibrer les modèles correspondants [8].

La fréquence de collision attendue pourrait également être estimée à l'aide d'une technique géostatistique en considérant les effets de variables de confusion non mesurées grâce au concept d'autocorrélation spatiale entre les événements de collision sur un espace géographique [9-13]. KDE est un exemple qui a été utilisé en sécurité routière pour étudier le schéma spatial des accidents et identifier les points chauds [8–12]. De même, il existe d'autres méthodes géostatistiques telles que les méthodes de regroupement qui évaluent le risque relatif en fonction de leur degré d'association avec son environnement. Des exemples de ces méthodes utilisées dans les études de sécurité routière sont le clustering K-mean [14, 15], le clustering hiérarchique du voisinage le plus proche (NNH) [16-18], l'indice I de Moran et les statistiques Getis-Ord Gi [19-21].

Anderson et al. [11] a appliqué la méthode KDE dans la ville d'Afyonkarahisar, en Turquie. Dans cette étude, les auteurs ont pu détecter des sections à haut risque d'accident qui étaient très concentrées dans les intersections routières. De même, Keskin et al. [13] et Blazquez et Celis [12] ont utilisé la méthode d'indice de KDE et de Moran pour observer la variation temporelle des points chauds à travers le réseau routier. Khan et al. [21] ont utilisé les statistiques Getis-Ord Gi pour explorer le schéma spatial des accidents liés aux conditions météorologiques, en particulier les accidents liés à la pluie, au brouillard et à la neige. Un modèle spécial a été révélé pour chaque catégorie de conditions météorologiques, ce qui a en outre suggéré la nécessité de hiérarchiser les traitements en fonction des différentes conditions météorologiques et emplacements. Pulgurtha et al. [9], Pulugurtha et Vanapalli [22], et Ha et Thill [23] ont utilisé la méthode KDE pour étudier la variation spatiale des accidents de piétons et des arrêts de bus dangereux. Ces études ont montré le potentiel de résoudre de manière efficace et économique les problèmes de sécurité des piétons et des passagers. Une autre étude menée par Levine [17] et Kundakci et Tuydes-Yaman [18] a utilisé la méthode de regroupement NNH pour détecter les points chauds d'accident sur le réseau routier.

Une différence notable dans les méthodes géostatistiques susmentionnées est la façon dont les corrélations spatiales sont prises en compte. Par exemple, dans la méthode KDE, une fonction noyau symétrique, qui est fonction de la bande passante, est placée sur chaque point de crash générant une surface d'intensité lisse. Ensuite, pour un point d'intérêt donné, l'intensité de collision est une somme de toute la surface de chevauchement due aux collisions. Au contraire, dans la technique de clustering telle que NNH, une valeur seuil, qui détermine l'étendue du clustering dans le voisinage, est pré-spécifiée. Si la distance entre les paires de points de données de plantage est inférieure à la valeur seuil, ces plantages sont regroupés dans le même cluster. Des critères supplémentaires tels que le nombre minimum de points devant être dans un cluster peuvent également être spécifiés. Cette variation dans l'attribution de poids différents aux plantages se produisant dans son voisinage (par exemple, méthode KDE) ou simplement en regroupant les plantages dans certains clusters indique clairement que ces techniques sont susceptibles d'avoir des résultats différents en termes de taille, de forme et d'emplacement des points chauds. L'une des parties intéressantes de la méthode KDE par rapport aux autres variantes des méthodes de clustering est qu'elle prend en considération l'autocorrélation spatiale des plantages (voir la section 4.1 pour des explications plus détaillées). De plus, cette méthode est simple et facile à mettre en œuvre. Cela pourrait être l'une des raisons pour lesquelles la méthode KDE est largement utilisée en sécurité routière.

Dans les efforts passés sur les méthodes géostatistiques, une autre technique populaire appelée krigeage a rarement été explorée dans l'analyse de la sécurité routière. En tant que l'une des méthodes d'interpolation les plus avancées, le krigeage a été largement utilisé dans de nombreux domaines d'études différents pour la nécessité de la prédiction spatiale. Avec peu d'informations a priori, cette technique est capable de fournir un meilleur estimateur linéaire sans biais (BLUE) pour les variables qui ont tendance à varier dans l'espace [24, 25].


Une étude sur l'utilisation et la modélisation du système d'information géographique pour lutter contre les délits forestiers : une évaluation des délits dans les forêts de la Méditerranée orientale

Cette étude porte sur l'évaluation géostatistique des modèles d'estimation spatiale dans les délits forestiers. Largement utilisé dans l'évaluation de la criminalité et des variables dépendantes de la criminalité, le système d'information géographique (SIG) aide à détecter les délits forestiers dans les régions rurales. Dans cette étude, les délits forestiers (empiètement des forêts, utilisation illégale, exploitation forestière illégale, etc.) sont évalués de manière holistique et la modélisation a été réalisée avec dix variables indépendantes différentes dans l'environnement SIG. Les domaines de recherche sont trois chefs d'entreprise forestière (Baskonus, Cinarpinar et Hartlap) affiliés à la Direction régionale des forêts de Kahramanmaras à Kahramanmaras. Un modèle d'estimation a été conçu en utilisant les méthodes des moindres carrés ordinaires (OLS) et de régression géographiquement pondérée (GWR), qui sont souvent utilisées en association spatiale. Trois modèles différents ont été proposés afin d'augmenter la précision du modèle d'estimation. L'utilisation de variables avec une valeur de facteur d'inflation de la variance (VIF) inférieure à 7,5 dans le modèle I et inférieure à 4 dans le modèle II et des variables dépendantes avec des valeurs de probabilité robustes significatives dans le modèle III sont associées aux crimes forestiers. Ensuite, le modèle avec le critère d'information d'Akaike corrigé le plus bas (AICc), et le plus haut R La valeur 2 a été choisie comme critère de comparaison. Par conséquent, le modèle III s'est avéré plus précis que les autres modèles. Pour le modèle III, tandis que l'AICc était de 328 491 et R 2 était de 0,634 pour le modèle OLS-3, AICc était de 318 489 et R 2 était de 0,741 pour le modèle GWR-3. A cet égard, les utilisations des SIG pour lutter contre la criminalité forestière fournissent différents scénarios et informations tangibles qui permettront de prendre des mesures politiques et stratégiques.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Stockage raster

Avec les environnements de stockage raster, vous pouvez contrôler certaines propriétés des rasters en sortie. Il existe également des dépendances de format, alors consultez la page d'aide de tout outil particulier que vous utilisez pour plus de détails.

En règle générale, il existe une différence entre les environnements de stockage raster pris en charge lorsque la sortie est une grille Esri et les autres formats raster pris en charge, tels que la géodatabase fichier ou les rasters TIFF.

Le fait qu'une sortie soit un nombre entier ou une virgule flottante peut déterminer si un environnement de stockage raster particulier est pris en charge ou non.

Certains outils ont un paramètre qui peut déterminer le type de raster en sortie.

Pour certains outils, le type de sortie est déterminé par les types de toutes les entrées. Par exemple, si l'outil prend plusieurs rasters en entrée et qu'ils sont tous des entiers à l'exception d'un à virgule flottante, le raster en sortie sera à virgule flottante. Lorsque la sortie est à virgule flottante, moins d'environnements de stockage raster peuvent être pris en charge.

Chaque référence d'outil a une section Environnements près du bas de la page. Tous les environnements pouvant être pris en charge par l'outil seront répertoriés ici. Notez que cette liste comprend toutes les sorties d'un outil, y compris celles facultatives. Par exemple, considérons l'outil Distance de coût, dont la sortie principale est un raster à virgule flottante. Bien que les rasters à virgule flottante ne prennent pas en charge le paramètre d'environnement de compression, il existe un raster de liaison arrière en sortie facultatif, qui est un entier. Étant donné que les rasters d'entiers pour certains formats peuvent prendre en charge la compression, cet environnement sera présent dans la liste des environnements pris en charge. C'est un détail important à comprendre lors de l'évaluation de ces environnements.

Les sections suivantes fournissent plus de détails sur chacun des environnements de stockage raster.

Compression

Le paramètre d'environnement Type de compression est généralement respecté pour les rasters d'entiers en sortie. Si la sortie est à virgule flottante, le paramètre est ignoré et le raster en sortie est toujours décompressé.

Les rasters d'entiers au format Esri Grid utilisent toujours une compression RLE (Run-length Encoding), de sorte que la définition de l'environnement sur Aucun n'aura aucun effet sur la grille de sortie.

Alors que certains formats peuvent autoriser une compression avec perte, seul le paramètre Type de compression est pris en charge. Le paramètre de qualité de compression n'est pas pris en charge et est essentiellement 100, même s'il est défini sur une autre valeur.

Pyramides

Le paramètre d'environnement Pyramide n'est pas respecté pour les rasters en sortie. Les pyramides ne sont pas créées pour la sortie raster d'un outil Spatial Analyst.

Statistiques raster

Avec le paramètre Calculate Statistics du paramètre d'environnement Raster Statistics, vous pouvez décider de ne pas générer de statistiques pour un raster d'entiers en sortie. Consultez la documentation spécifique à cet outil pour toute exception.

Les statistiques sont toujours générées pour les rasters en sortie à virgule flottante, quel que soit le paramètre de cet environnement.

Taille de la tuile

Le paramètre d'environnement Taille de tuile est généralement pris en charge par les outils Spatial Analyst pour les formats de sortie suivants : TIFF, géodatabase fichier ou géodatabase SDE.

La taille de tuile par défaut est de 128 x 128 cellules.


Causes probables des problèmes avec Topo to Raster

Si vous rencontrez des problèmes lors de l'exécution de Topo to Raster , consultez les points suivants pour obtenir des explications et des solutions aux problèmes les plus courants.

  • Les ressources système disponibles sont insuffisantes. Les algorithmes utilisés dans Topo to Raster conservent autant d'informations que possible en mémoire pendant le traitement. Cela permet d'accéder simultanément aux données de point, de contour, de puits, de cours d'eau et de lac. Pour faciliter le traitement de grands ensembles de données, il est recommandé de fermer les applications inutiles avant d'exécuter l'outil pour libérer de la RAM physique. Il est également important de disposer de suffisamment d'espace de swap système sur le disque.
  • Le contour ou le point d'entrée peut être trop dense pour la taille de cellule de sortie spécifiée. Si une cellule de sortie couvre plusieurs contours ou points d'entrée, l'algorithme peut ne pas être en mesure de déterminer une valeur pour cette cellule. Pour résoudre ce problème, essayez l'une des solutions suivantes :
    • Diminuez la taille de la cellule, puis ré-échantillonnez à la taille de cellule la plus grande après Topo to Raster .
    • Rasterisez des sections plus petites des données d'entrée à l'aide de l'étendue en sortie et de la marge dans les cellules . Assemblez les rasters de composants résultants avec l'outil Mosaïque.
    • Découpez les données d'entrée dans des sections qui se chevauchent et exécutez Topo to Raster séparément sur chaque section. Assemblez les rasters de composants résultants avec l'outil Mosaïque.

    La protection de la nature est de plus en plus importante à l'ère de la sixième extinction et de l'anthropocène. La cartographie des indicateurs environnementaux le long d'un continuum de modifications humaines fournit des informations clés pour la protection de la nature sauvage. Cependant, une incertitude peut survenir dans l'identification des zones de nature sauvage en reclassant les cartes du continuum de la nature sauvage. Dans cette étude, une approche intégrant à la fois la superposition booléenne et la combinaison linéaire pondérée (WLC) est utilisée pour identifier des parcelles de nature sauvage discrètes et évaluer leur qualité relative de nature sauvage. Cette approche est appliquée à la Chine avec une résolution de 1 km 2 . Les parcelles de nature sauvage sont d'abord identifiées à l'aide d'une superposition booléenne avec des seuils discrets pour l'utilisation des terres, la distance des établissements et des routes. Un indice de qualité de la nature sauvage est ensuite créé à l'aide d'un modèle WLC en pondérant et en combinant six indicateurs de qualité de la nature sauvage, notamment la naturalité biophysique, la densité de population, l'éloignement des établissements, l'éloignement des routes/voies ferrées, la densité des établissements et la densité des routes/voies ferrées. Une carte intégrée de la nature sauvage est ensuite créée en combinant les résultats des modèles booléen et WLC. On constate que la Chine est un pays très sauvage par endroits, contenant plus de 86 000 zones sauvages, avec des qualités de nature sauvage relatives variables, qui couvrent environ 42% de la superficie terrestre de la Chine. Environ 77% des zones de nature sauvage existantes ne sont pas couvertes par des réserves naturelles, ce qui indique les lacunes évidentes de conservation des zones de nature sauvage de la Chine. Les cartes de la nature sauvage présentées ici pourraient potentiellement soutenir la désignation de nouvelles zones de nature sauvage protégées, la conservation de la connectivité et les programmes de surveillance. Cette approche intégrée de la cartographie de la nature sauvage est potentiellement utile pour d'autres pays dans la conduite de leurs propres inventaires de la nature sauvage et l'élaboration de politiques de conservation de la nature sauvage.

    Cao Yue est un doctorat candidat au Département d'architecture de paysage à l'Université Tsinghua. Ses recherches portent sur la planification des aires protégées, la gestion des parcs nationaux, la cartographie de la nature sauvage et la conservation.

    Steve Carver est géographe, maître de conférences et directeur du Wildland Research Institute de l'Université de Leeds. Il a plus de 30 ans d'expérience dans le domaine des SIG et de l'évaluation multicritères avec des intérêts particuliers dans la nature sauvage, les terres sauvages, le réensauvagement, l'évaluation du paysage et la participation du public. Il a beaucoup travaillé sur le développement de méthodologies de cartographie et d'évaluation des terres sauvages et les a testées et appliquées à divers endroits et échelles spatiales, notamment en Écosse, en Angleterre, en Grande-Bretagne, en Europe, en Amérique du Nord et en Asie.

    Yang Rui est président et professeur au Département d'architecture paysagère et président de l'Institut des parcs nationaux de l'Université Tsinghua. Il a plus de 30 ans d'expérience dans la planification et la gestion du paysage des parcs nationaux et des sites du patrimoine mondial en Chine. Il a travaillé sur de nombreux projets d'aménagement paysager d'importance nationale en tant que chef d'équipe, notamment la planification du parc national Three River Source, du mont Wuyi, du mont Tai, de la montagne jaune, de la vallée de Jiuzhaigou, du mont Wutai, de la montagne enneigée de Meili, etc.


    Chapitre 6 Utiliser R comme SIG : travailler avec des données raster et vectorielles

    Une tâche SIG courante en archéologie est celle de relier les données raster et vectorielles - par exemple, relier les emplacements des sites à des variables environnementales telles que l'altitude, la pente et l'aspect. Il est courant de le faire en calculant les valeurs des emplacements des points dans un fichier de formes de sites, et souvent intéressant de comparer les variables environnementales à travers certains aspects de la variabilité du site - fonction, période, taille, etc. approche robuste qui examine les zones autour des sites plutôt que leurs emplacements précis, calculant une zone tampon autour de chaque emplacement de site, puis faisant la moyenne des valeurs de plusieurs variables environnementales au sein de ces zones tampons. Pour plus de simplicité, nous utiliserons un DEM et des rasters de pente et d'aspect que nous pouvons en dériver, mais toute autre donnée raster pourrait également être utilisée. À l'aide d'un jeu de données fictif pour une petite zone de Provence, nous examinerons quelques outils d'exploration de données spatiales et montrerons que les zones peuplées au début de l'âge du fer et de la période gallo-romaine étaient significativement distinctes en ce qui concerne certaines variables. , mais similaire dans d'autres.

    On pourrait émettre l'hypothèse, par exemple, que la colonisation romaine de la région était basée sur la production agricole céréalière pour l'exportation, et qu'en conséquence, la colonisation de la période gallo-romaine aurait privilégié des terres relativement basses et plates appropriées pour une telle activité. Nous pourrions tester cette hypothèse en comparant les surfaces occupées aux deux périodes en termes d'élévation et de pente.

    6.0.1.1 Premières étapes : Importation et format des données

    Nous allons commencer par charger quelques packages…

    … puis en important et en examinant les données.

    6.0.1.2 Travailler avec un DEM

    Nous pouvons utiliser le DEM pour calculer les dérivés DEM.

    Ces résumés sont utiles, mais traçons également notre DEM raster, ce n'est pas strictement nécessaire, mais il est rassurant de voir que les données sont significatives. Nous n'essaierons pas de rendre le tracé trop joli, les options spécifiées en font juste assez pour le tracer comme un MNT de terrain intelligible.

    6.0.1.3 Tracé de raster et de points

    We can check that our data occupy the same space, and visually assess our hypothesis, by plotting the raster with the sites overlain as points, varying color and shape by period. Since this is just for exploratory purposes, we won’t worry about making it too pretty.

    Satisfied that our data make sense, and perhaps already having developed some ideas about site distribution just by staring at the map, we can move on to explore the site locations analytically. We’ll begin by building a raster stack that consists of the rasters of the three variables we’ll examine: elevation, slope, and aspect.

    6.0.1.4 Raster Stacks

    6.0.1.5 Using extract() to selectively summarize raster data

    We can then take that raster stack and use extract() to summarize values of DEM, slope, and aspect within a buffer around each point.

    The results can be examined in any number of ways here we’ll make boxplots for each of the variables of interest. We’ll plot each variable by period, so each result will comprise two box-and-whisker plots, one for the Early Iron Age and one for the Gallo-Roman Period

    6.0.1.6 Boxplotting for exploratory data analysis

    As with the exploratory raster-and-point plotting we did above, we won’t worry too much about making these plots pretty we’ll just do enough to make them easily visually intelligible. I’m using the lattice package for the plotting, but there are several other ways to do this as well. Something that we won’t get into here because it adds a layer of complication is to also characterize the environmental background - i.e., to assess the question of whether settlement locations comprise a random sample of the the available landscape or instead focus on certain kinds of locations.

    We can already assess our hypothesis by looking at those plots individually, but since we’ve written them to objects we can also easily juxtapose them in a single plot and consider the results.

    We can now quantitatively assess whatever visual assessments we made: it’s clear (the notches give a rough 95% confidence interval for the medians) that parts of the landscape of differing slope and elvation were preferred in the two periods (and, in contrast, that aspect was considered similarly or perhaps remained unimportant).

    6.0.1.7 Summary

    What does all this mean for the archaeological question?Our hypothesis looks pretty compelling, at first glance. There is a marked change between the Early Iron Age and the Gallo-Roman Period in the parts of the landscape preferred, and the pattern is robust. That said, this should be seen as exploratory analysis, and common GIS caveats apply:

    • the variables we’re looking at hardly comprise an exhaustive list,
    • there’s perhaps some danger of ecological fallacy with categories so broad,
    • there’s always some risk that some other variable that is related to - or at least covaries with - those we’ve examined is actually the causal one,
    • issues like data quality and landscape taphonomy ought to be considered,
    • we are privileging environmental variables because that data is easily available,
    • etc.

    However, those are problems of argument construction more than of method, and I find this a powerful set of tools with which to explore data and think about which arguments to test in more detail. Such issues might be addressed by further exploring the data (e.g., exploring other site variables, varying the buffer size, varying the summary statistics use to describe the landscape within the buffer), adding other data (e.g., rasters of distance-from-streams, soil type and depth, etc.), and thinking about what it would take to build a more robust argument.

    Finally, by way of considering what we might gain by using R as a GIS in this way (rather than QGIS, ArcGIS, etc) I want to highlight four of the steps we’ve gone through:

    1. subsetting data
    2. adding environmental (or any spatial) variables as raster data and summarizing them with respect to site locations
    3. specifying analytical parameters (e.g., buffer size, summary statistics)
    4. visualising the distributions of environmental variables for the sites

    All of these provide flexibility in the particulars of the analysis, and the entire process is easily repeatable in varying permutations or with different data.


    In traffic safety studies, the few scholars who have focused on analyzing disaggregated data obtained results that have been either difficult to explain or demonstrate because they did not provide clear visual maps or utilize statistical tests to quantify the spatial relationships. In order to increase the use of such disaggregated spatial methods for use in traffic safety studies, the current study documents the application of a new RGB (red, green, blue) model which combines the color additive theorem and the kernel density map (KDE) to define crash colocation patterns and the coincidence spaces of related variables.

    This study contributes to the literature in three major ways: (1) a new RGB model was established and applied in the field of traffic safety (2) the variable dimensions were expanded from two to three and, (3) the dimension of uncertainty was also included. When the new RGB model was utilized with data collected in College Station, Texas, the results indicated that the new colocation map is able to clearly and accurately define colocation hotspots of crashes, crimes, and alcohol retailers. As expected, these hotspots are located in areas with many bars, the largest strip malls and busiest intersections. The intensity maps have provided results consistent with the above colocation maps. However, the uncertainty map does not show a relatively higher level of certainty regarding the location of hotspots as we expected because the input of each variable was not related to the highest kernel value. Therefore, future scholars should focus on the colocation and intensity maps while using the uncertainty map as a reference for individual event risk evaluation only.


    Voir la vidéo: Point density in Arcgis