Suite

Diviser les polygones en *n* nombre de groupes de nombres égaux avec ArcPy ?

Diviser les polygones en *n* nombre de groupes de nombres égaux avec ArcPy ?


Une de mes tâches pour le travail est de diviser les colis en groupes. Ces groupes seront utilisés par les agents pour parler aux propriétaires. L'objectif est de faciliter le travail de l'agent en regroupant les parcelles proches les unes des autres, ainsi que de diviser les parcelles en nombres égaux afin que le travail soit réparti uniformément. Le nombre d'agents peut varier d'un couple à 10+.

Actuellement, j'effectue cette tâche manuellement, mais j'aimerais automatiser le processus si possible. J'ai exploré divers outils ArcGIS, mais aucun ne semble répondre à mes besoins. J'ai essayé un script (en python) qui utiliseprès_analyseet la sélection de polygones, mais c'est plutôt aléatoire et prend une éternité pour obtenir un résultat semi-correct qui me prend ensuite plus de temps à corriger que si je faisais tout manuellement depuis le début.

Existe-t-il une méthode fiable pour automatiser cette tâche ?

Exemple de résultats (espérons-le sans la division que nous voyons en jaune) :


Ensemble d'origine :

Créez une pseudo-copie (CNTRL-glissez dans la table des matières) et effectuez une jointure spatiale un à plusieurs avec clone. Dans ce cas, j'ai utilisé la distance 500m. Tableau de sortie :

  1. Supprimez les enregistrements de cette table où PAR_ID = PAR_ID_1 - facile.

  2. Parcourez la table et supprimez les enregistrements où (PAR_ID,PAR_ID_1 )=(PAR_ID_1, PAR_ID) de tout enregistrement au-dessus. Pas si facile, utilisez acrpy.

Calculer les centroïdes du bassin versant (UniqID=PAR_ID). Ce sont des nœuds ou un réseau. Connectez-les par des lignes à l'aide d'une table de jointure spatiale. C'est un sujet séparé sûrement couvert quelque part sur ce forum.

Le script ci-dessous suppose que la table des nœuds ressemble à ceci :

d'où provenait le MUID des parcelles, P2013 est le champ à résumer. Dans ce cas = 1 pour le comptage uniquement. [rcvnode] - sortie de script pour stocker l'ID de groupe égal à NODEREC du premier nœud du groupe/cluster défini.

Structure de la table des liens avec les champs importants mis en évidence

Times stocke le poids des liens/arêtes, c'est-à-dire le coût du trajet d'un nœud à l'autre. Égal à 1 dans ce cas, de sorte que le coût du voyage vers tous les voisins est le même. [fi] et [ti] sont le nombre séquentiel de nœuds connectés. Pour remplir ce tableau, recherchez ce forum sur la façon d'attribuer depuis et vers des nœuds à lier.

Script personnalisé pour mon propre plan de travail mxd. Doit être modifié, codé en dur avec votre nommage des champs et sources :

importer arcpy, traceback, os, sys, time importer itertools as itt scriptsPath=os.path.dirname(os.path.realpath(__file__)) os.chdir(scriptsPath) importer COMMON sys.path.append(r'C: Usersfelix_pertzigerAppDataRoamingPythonPython27site-packages') import networkx as nx RATIO = int(arcpy.GetParameterAsText(0)) try: def showPyMessage(): arcpy.AddMessage(str(time.ctime()) ) + " - " + message) mxd = arcpy.mapping.MapDocument("CURRENT") theT=COMMON.getTable(mxd)

TROUVER LA COUCHE DE NOEUDS

theNodesLayer = COMMON.getInfoFromTable(theT,1) theNodesLayer = COMMON.isLayerExist(mxd,theNodesLayer)

OBTENIR LA COUCHE DE LIENS

theLinksLayer = COMMON.getInfoFromTable(theT,9) theLinksLayer = COMMON.isLayerExist(mxd,theLinksLayer) arcpy.SelectLayerByAttribute_management(theLinksLayer, "CLEAR_SELECTION") linksFromI=COMMON.getInfoFromTable(theT,14) linksToIrom=COMMON.get G=nx.Graph() arcpy.AddMessage("Ajout de liens au graphique") avec arcpy.da.SearchCursor(theLinksLayer, (linksFromI,linksToI,"Times")) comme curseur : pour la ligne du curseur : (f,t, c)=row G.add_edge(f,t,weight=c) del row, curseur pops=[] pops=arcpy.da.TableToNumPyArray(theNodesLayer,("P2013")) length0=nx.all_pairs_shortest_path_length(G) nNodes= len(pops) aBmNodes=[] aBig=xrange(nNodes) host=[-1]*nNodes while True : RATIO+=-1 if RATIO==0 : break aBig = filter(lambda x : x pas dans aBmNodes, aBig) p=itt.combinations(aBig, 2) pMin=1000000 small=[] pour a dans p : S0,S1=0,0 pour i dans aBig : p=pops[i][0] p0=length0[a[0 ]][i] p1=longueur0[a[1]][i] si p0

Exemple de sortie pour 6 groupes :

Vous aurez besoin du package de site NETWORKX http://networkx.github.io/documentation/development/install.html

Le script prend le nombre requis de clusters comme paramètre (6 dans l'exemple ci-dessus). Il utilise des tables de nœuds et de liens pour créer un graphique avec un poids égal/distance des bords de déplacement (Times=1). Il considère la combinaison de tous les nœuds par 2 et calcule le total de [P2013] dans deux groupes de voisins. Lorsque le rapport requis est atteint, par ex. (6-1)/1 à la première itération, continue avec un objectif de ratio réduit, c'est-à-dire 4, etc. ?) Voir les 3 premiers groupes dans l'exemple de sortie. Cela permet d'éviter la "coupe de branche" à chaque itération suivante.

Personnalisation du script pour fonctionner à partir de mxd :

  1. vous n'avez pas besoin d'importer COMMON. C'est mon propre truc, qui lit ma propre table d'environnement, où theNodesLayer, theLinksLayer, linksFromI, linksToI sont spécifiés. Remplacez les lignes pertinentes par votre propre nom de couches de nœuds et de liens.
  2. Notez que le champ P2013 peut stocker n'importe quoi, par ex. nombre de locataires ou superficie de la parcelle. Si c'est le cas, vous pouvez regrouper des polygones pour contenir un nombre approximativement égal de personnes, etc.

Vous devez utiliser l'outil « Analyse de groupe » pour atteindre votre objectif. Cet outil est un excellent outil de la boîte à outils "statistiques spatiales" comme l'a souligné @phloem. Cependant, vous devez affiner l'outil pour l'adapter à vos données et à votre problème. J'ai créé un scénario similaire à celui que vous avez publié et j'ai obtenu une réponse proche de votre objectif.

Astuce : à l'aide d'ArcGIS 10.2, lorsque j'ai exécuté l'outil, il s'est plaint du package python manquant, "six". Assurez-vous donc de l'avoir installé en premier Link

Pas:

  1. Ajoutez un champ à votre classe de polygones pour contenir une valeur unique
  2. Ajoutez un autre champ de type Short avec le nom, par ex. "Même Groupe"
  3. votre calculateur de champs pour attribuer 1 à ce champ pour toutes les lignes. changez simplement une ligne en 2.

  4. Définissez les paramètres de l'outil « Analyse de groupe » comme ceci :

essayez de modifier le paramètre "Nombre de voisins" en fonction de vos besoins.

Instantanés des résultats :


fondamentalement, vous voulez une méthode de regroupement de taille égale, vous pouvez donc rechercher avec ces mots clés sur le Web. Pour moi, il y a une bonne réponse sur stats.SE avec une implémentation Python dans l'une des réponses. Si vous êtes familier avec arcpy, vous devriez pouvoir l'utiliser avec vos données.

Vous devez d'abord calculer les centroïdes X et Y de vos polygones, puis vous pouvez entrer ces coordonnées dans le script et mettre à jour leur table attributaire à l'aide d'un curseur .da.


Salut, j'ai eu un problème similaire à celui-ci auparavant, alors je lui en avais donné quelques-uns, je n'en ai jamais commencé un autre, mais juste du côté théorique, je pensais

FORME D'ENTRÉE

je pensais que vous pourriez créer un résille sur la forme d'entrée

résille avec une intersection de votre forme d'entrée serait alors

Vous pouvez ensuite calculer la superficie de ces parcelles à l'intérieur du polygone nouvellement traité

Au début de votre script, la zone polygone d'entrée / nième quantité de tailles égales souhaitée

Vous auriez alors besoin d'un moyen de relier les parcelles afin qu'elles soient au courant de celles qui sont bordées.

Ensuite, vous pouvez passer par un curseur de ligne pour résumer les parcelles

Les règles étant

* Il partage une frontière avec le dernier été * Il n'a pas été additionné * Une fois qu'il dépasse la valeur calculée comme surface égale, il reculerait et ce serait un groupe * Le processus recommencerait * le dernier groupe pourrait être la somme des parcelles restantes

Je pense qu'établir la relation entre les colis pourrait être la chose délicate mais une fois cela fait, je pense qu'il pourrait être possible de l'automatiser


Je crois que l'extension que vous recherchez est Districting. Il est généralement utilisé pour les élections, mais aussi pour les territoires de franchise de taille égale. (La taille ne signifie pas nécessairement pour la zone, cela peut être n'importe quelle démographie)

http://www.esri.com/software/arcgis/extensions/districting

http://help.arcgis.com/en/redistricting/pdf/Districting_for_ArcGIS_Help.pdf


C'est ma solution pour les événements ponctuels. Aucune garantie que cela fonctionnera toujours…

  1. Sur votre couche d'événements ponctuels (appelez la couche1), ajoutez des colonnes pour x (double), y (double) et uniqueid (entier long)
  2. Ouvrir la table attributaire pour la couche 1. Calculer le point de coordonnée x pour x, le point de coordonnée y pour y et le FID pour l'identifiant unique
  3. Exécuter l'outil de statistiques spatiales > Mapper des clusters > Analyse de regroupement
    • définir la couche1 en tant qu'entités en entrée
    • définir uniqueid comme ID de champ unique
    • Définir le nombre de groupes (nous dirons 10)
    • Sélectionnez x et y pour les champs d'analyse
    • Choisissez "NO_SPATIAL_CONSTRAINT" pour les contraintes spatiales
    • Cliquez sur OK
  4. Exécuter des outils de statistiques spatiales > Mesure des distributions géographiques > Centre moyen
    • Sélectionnez la sortie de #3 comme classe d'entités en entrée
    • Sélectionnez SS_Group comme champ de cas
    • Cliquez sur OK
  5. Ouvrez Network Analyst > Outil d'allocation d'emplacement
    • Sortie de charge de #4 en tant qu'installations
    • Charger la couche1 en tant que points de demande
    • Ouvrir les attributs et définir
      • Type de problème pour maximiser la couverture capacitaire
      • Installations à choisir comme 10 (de #3 ci-dessus)
      • Capacité par défaut en tant que nombre total d'entités dans la couche 1 divisé par les installations à choisir arrondi (donc si 145 entités et 10 installations/zones, défini sur 15)
      • Cliquez sur OK
        • Résoudre
        • Vos points de demande doivent être plus ou moins également répartis en 10 clusters géographiques

Vous devrez d'abord créer un jeu de données réseau en utilisant vos rues. J'ai essayé cette méthode proposée et j'ai eu jusqu'à présent plus de chance de faire la même chose avec le regroupement (étape 3) par lui-même, en utilisant les coordonnées X, Y et k-means pour les champs de saisie (pas parfait, mais plus rapide et plus proche de ce que je suis besoin). Je suis ouvert aux autres commentaires et réactions.


Coordonnées des points divisant le cercle en n moitiés égales dans Pebble

J'essaie de diviser le cercle en n parties égales en utilisant des lignes droites. L'idée est d'obtenir les coordonnées des points d'extrémité sur la circonférence du cercle, puis de tracer la ligne.

pour trouver les coordonnées, j'utilise le code suivant :

En utilisant cette méthode getPoints, je remplis le tableau x[] et y[], puis je parcoure ces tableaux pour tracer des lignes entre x[i] et y[i]

Cependant, les valeurs calculées à partir du code ci-dessus s'avèrent étranges, ci-dessous se trouvent les journaux affichant le contenu de x[] et y[]

Veuillez indiquer ce qui me manque ici.


3 réponses 3

Je ne suis pas sûr de ce que vous entendez par "mettre toutes leurs informations ensemble dans un groupe", mais voici un moyen d'obtenir une liste avec des blocs de données fractionnés de votre bloc de données d'origine où chaque élément est un bloc de données des étudiants dans une note plage de 10 :

Je pense que la réponse de @Sacha devrait suffire pour ce que vous devez faire, même si vous en avez plusieurs.

Vous n'avez pas explicitement dit comment vous souhaitez « regrouper » les données dans votre message d'origine, et dans votre commentaire, où vous avez ajouté un deuxième ensemble de données, vous n'avez pas explicitement dit si vous envisagez de « fusionner » ces premiers ( rbind suffirait, comme recommandé dans le commentaire).

Donc, avec cela, voici plusieurs options, chacune avec différents niveaux de détail ou d'utilité dans la sortie. Espérons que l'un d'eux correspond à vos besoins.


C'est un peu vieux, mais j'ai pensé que j'utiliserais la méthode que j'utilise pour diviser un tableau en morceaux. Vous pouvez utiliser Group-Object avec une propriété construite :

$groups sera une collection d'objets GroupInfo dans ce cas, chaque groupe aura exactement 100 éléments (accessibles en tant que $groups[0].Group , $groups[1].Group , et ainsi de suite.) J'utilise une propriété d'objet pour le compteur pour éviter les problèmes de portée à l'intérieur du bloc de script -Property, car un simple $i++ ne réécrit pas dans la variable d'origine. Alternativement, vous pouvez utiliser $script:counter = 0 et $script:counter++ et obtenir le même effet sans objet personnalisé.


1 réponse 1

Cette question est un doublon, voir le commentaire de l'OP. Il est prouvé sur le site lié qu'il y a $ncdot2^$ triangulations admissibles. Une preuve considérablement plus simple va comme suit :

Il y a exactement deux triangles $ riangle_1$, $ riangle_$ ayant deux côtés sur $partial P$, et les $n-4$ triangles restants forment une chaîne ordonnée entre eux. La structure de cette chaîne peut être encodée comme un $$-mot de longueur $n-4$, complété par $ riangle_1$ et $ riangle_$ aux extrémités, où $L$ (resp., $R$) signifie que le triangle correspondant a son $partiel P$-côté à gauche (resp., à droite) de la "colonne vertébrale virtuelle" reliant $ riangle_1$ avec $ riangle_$.

Un exemple : lorsque $n=9$, un tel mot de passe pourrait ressembler à $ riangle_1,RRLRL> riangle_7$.

Étant donné un tel mot de code, la chaîne de triangles correspondante peut être intégrée de $n$ manières dans $P$. Puisque l'inversion de l'orientation de la "colonne vertébrale" et en même temps l'échange de $L$ et $R$ conduit à des triangulations égales, nous devons diviser le total obtenu $ncdot 2^$ par $2$ afin d'obtenir le bon nombre de triangulations.


Conclusion

La relation significative entre les classifications SOM et la distribution géographique des taux ajustés en fonction de la population pour certaines maladies a démontré une relation positive entre les conditions environnementales et les résultats pour la santé à l'appui de travaux antérieurs qui décrivaient l'environnement comme un déterminant de la santé de la population. [28, 29] Ce résultat donne une crédibilité basée sur l'observation aux théories conceptuelles suggérant que l'environnement fonctionne comme un système complexe et que l'environnement est corrélé à la distribution des maladies chroniques et infectieuses dans les populations au niveau communautaire. [3, 30, 2] Étant donné que les conditions environnementales sont liées aux résultats pour la santé, les variables environnementales peuvent être utiles pour estimer la santé de la population. Les évaluations environnementales multivariées peuvent être utilisées comme substituts pour les évaluations de la santé fondées sur la pratique dans les cas où les données sont limitées. Une étude plus approfondie est nécessaire pour déterminer la contribution des variables individuelles (ou des groupes de variables), identifier les ensembles de données facilement disponibles et étudier pleinement le développement d'une mesure indirecte significative.


Conclusion

Cette recherche démontre que la pondération combinée de la population et de la surface, comparée aux méthodes cartographiques de pondération centroïde et surfacique simple, et à une méthode géostatistique, renvoie des estimations plus précises de la mortalité en transformant les petits dénombrements par comté en dénombrements agrégés pour les grandes zones cibles qui ne sont pas conformes à la norme. unités de dénombrement. La pondération par les données de population auxiliaires pour prendre en compte la population à risque, associée à l'allocation des mortalités pondérées, qui élimine le problème du « tout ou rien » inhérent aux méthodes centroïdes, répartit l'erreur entre les zones d'étude, améliorant ainsi les estimations. De plus, les praticiens sans les ressources des statisticiens et des logiciels géospatiaux peuvent trouver cette méthode cartographique plus simple plus accessible et tout aussi efficace pour transformer les décomptes de zones sources au niveau des comtés en zones cibles plus grandes et non standard. Cette méthodologie devrait intéresser les praticiens et les chercheurs limités à l'analyse des données de dénombrement pour des unités sources de dénombrement relativement grandes, telles que les dénombrements de mortalité au niveau du comté du NCHS, entre autres sources de données. Nous nous attendons à observer un soutien accru pour l'utilisation d'estimations combinées de la pondération de la population et de la zone, en particulier par rapport à d'autres méthodes de superposition cartographique.


Le meilleur régime : la qualité compte

"Une calorie est une calorie" est un slogan diététique souvent répété, et ne pas trop manger est en effet une mesure de santé importante. Plutôt que de se concentrer uniquement sur les calories, cependant, de nouvelles recherches montrent que la qualité est également essentielle pour déterminer ce que nous devons manger et ce que nous devons éviter afin d'atteindre et de maintenir un poids santé. Plutôt que de choisir des aliments uniquement en fonction de leur valeur calorique, pensez plutôt à choisir des aliments sains de haute qualité et à minimiser les aliments de mauvaise qualité.

  • Des aliments de haute qualité inclure des aliments non raffinés et peu transformés tels que des légumes et des fruits, des grains entiers, des graisses saines et des sources saines de protéines - les aliments recommandés dans l'assiette pour une alimentation saine.
  • Des aliments de moindre qualité comprennent les grignotines hautement transformées, les boissons sucrées, les céréales raffinées (blanches), le sucre raffiné, les aliments frits, les aliments riches en graisses saturées et trans et les aliments à indice glycémique élevé comme les pommes de terre.

Il n'y a pas un régime « parfait » pour tout le monde, en raison des différences individuelles dans les gènes et le mode de vie.

La qualité compte

Une étude a analysé si certains aliments étaient plus ou moins susceptibles de favoriser la prise de poids. Ce type de recherche examinant des aliments et des boissons spécifiques nous permet de comprendre si «une calorie est une calorie» ou si manger plus d'aliments de meilleure qualité et moins d'aliments de qualité inférieure peut entraîner une perte et un maintien du poids.

Des chercheurs du département de nutrition de la Harvard School of Public Health nous montrent que la qualité est en fait très importante pour déterminer ce que nous devons manger pour atteindre et maintenir un poids santé, et que la notion « une calorie est une calorie » ne dit rien. toute l'histoire.

  • Dans une étude portant sur plus de 120 000 femmes et hommes en bonne santé sur 20 ans, les chercheurs ont déterminé que le changement de poids était le plus fortement associé à la consommation de croustilles, de pommes de terre, de boissons sucrées et de viandes rouges transformées et non transformées. Les chercheurs ont conclu que la consommation d'aliments transformés riches en amidons, céréales raffinées, graisses et sucres peut augmenter la prise de poids.
  • Les aliments associés à la perte de poids étaient les légumes, les grains entiers, les fruits, les noix et le yogourt.
  • Les chercheurs n'ont pas ignoré l'importance des calories, suggérant plutôt que le choix d'aliments de haute qualité (et la diminution de la consommation d'aliments de moindre qualité) est un facteur important pour aider les individus à consommer moins de calories. (23)

Consultez le communiqué de presse de l'HSPH, « Les changements dans des facteurs alimentaires spécifiques peuvent avoir un impact important sur la prise de poids à long terme : une stratégie de perte de poids pour seulement « Manger moins, faire plus d'exercice » peut être trop simpliste »

Gérer les macronutriments : est-ce important ?

Avec la prolifération des régimes à base de macronutriments au cours des dernières décennies, des régimes pauvres en graisses aux régimes pauvres en glucides, la discussion sur les trois principaux macronutriments - glucides, protéines et graisses - est devenue la norme lorsqu'on parle de régimes optimaux. Les chercheurs ont commencé à comparer ces régimes de type « gestion des macronutriments » les uns aux autres afin de déterminer lequel est le plus efficace, mais jusqu'à présent, les preuves sont largement peu concluantes.

Une étude, publiée dans JAMA en 2007, a comparé quatre régimes amaigrissants allant d'un apport faible à élevé en glucides. Cet essai de 12 mois a suivi plus de 300 femmes préménopausées en surpoids et obèses, les assignant au hasard à un régime Atkins (très faible en glucides), Zone (faible teneur en glucides), LEARN (riche en glucides) ou Ornish (très riche en glucides).

  • Après un an, la perte de poids était plus importante chez les femmes du groupe du régime Atkins par rapport aux autres groupes du régime.
  • Cette étude a également examiné les résultats secondaires axés sur les effets métaboliques (tels que le cholestérol, le pourcentage de graisse corporelle, les niveaux de glucose et la pression artérielle) et a constaté que ceux du groupe Atkins étaient comparables ou plus favorables que les autres groupes de régime.
  • Il n'y avait pas de différence significative dans la perte de poids entre les trois autres régimes (Zone, LEARN et Ornish).
  • Cette étude soulève des questions sur les effets et les mécanismes à long terme, mais les chercheurs ont conclu qu'un régime pauvre en glucides, riche en protéines et riche en graisses peut être considéré comme une recommandation faisable pour la perte de poids. (24)

Une autre étude, publiée dans le New England Journal of Medicine en 2009, a contesté les conclusions de l'étude ci-dessus en testant quatre types de régimes différents et en produisant des résultats qui ont montré une perte de poids moyenne comparable entre les différents régimes.

  • L'étude a suivi 800 personnes sur 2 ans, assignant les sujets à l'un des quatre régimes suivants : faible en gras et moyenne en protéines, faible en gras et riche en protéines, riche en graisses et moyenne en protéines, et riche en graisses et en protéines.
  • Les chercheurs ont conclu que tous les régimes entraînaient une perte de poids significative, malgré les différences de composition en macronutriments.
  • L'étude a également révélé que plus les participants aux séances de conseil en groupe assistaient, plus ils perdaient de poids et moins ils en reprenaient. Cela soutient l'idée que non seulement ce que vous mangez est important, mais que les facteurs comportementaux, psychologiques et sociaux sont également importants pour la perte de poids. (25)

Une étude supplémentaire, publiée dans le New England Journal of Medicine en 2010, a examiné le rôle des protéines et de l'index glycémique dans le maintien de la perte de poids. Les chercheurs ont d'abord mis en œuvre un régime hypocalorique pour produire une perte de poids, puis ont examiné si les protéines et l'indice glycémique avaient un impact sur le maintien de la perte de poids.

  • La population étudiée était composée de près de 800 adultes en surpoids originaires de pays européens qui avaient perdu au moins 8% de leur poids corporel initial avec un régime hypocalorique. Les participants ont ensuite été soumis à l'un des cinq régimes pour empêcher la reprise de poids sur une période de 26 semaines : un régime pauvre en protéines et à faible indice glycémique, un régime pauvre en protéines et à indice glycémique élevé, un régime riche en protéines et à faible indice glycémique. un régime à index glycémique, un régime riche en protéines et à index glycémique élevé, ou un régime témoin.
  • Le régime pauvre en protéines et à index glycémique élevé a été associé à une reprise de poids significative par la suite, et la reprise de poids était moindre dans les groupes assignés à un régime riche en protéines que dans ceux assignés à un régime pauvre en protéines, ainsi que moins dans les les groupes assignés à un régime à index glycémique bas que dans ceux assignés à un régime à index glycémique élevé.
  • Ces résultats montrent qu'une augmentation modeste de la teneur en protéines et une réduction modeste de l'index glycémique ont conduit à une amélioration du maintien de la perte de poids. (26)

Les résultats de ces trois études suggèrent qu'il peut y avoir certains avantages à une approche diététique basée sur les macronutriments, mais la recherche montre également que si un régime particulier peut entraîner une perte de poids pour une personne, il peut ne pas être efficace pour une autre personne en raison de différences dans les gènes et le mode de vie. Pour ceux qui recherchent le régime « parfait » à taille unique, alors, il n'y en a pas ! La bonne nouvelle est que tout le monde peut suivre les directives de The Healthy Eating Plate et choisir des aliments sains et savoureux pour créer un régime qui vous convient le mieux.

Les références


23. Mozaffarian, D., et al., Modifications du régime alimentaire et du mode de vie et prise de poids à long terme chez les femmes et les hommes. N Anglais J Med, 2011. 364 (25) : p. 2392-404.
24. Gardner, C.D., et al., Comparaison des régimes Atkins, Zone, Ornish et LEARN pour le changement de poids et les facteurs de risque associés chez les femmes préménopausées en surpoids : l'étude de perte de poids A TO Z : un essai randomisé. JAMA, 2007. 297(9) : p. 969-77.
25. Sacks, F.M., et al., Comparaison des régimes amaigrissants avec différentes compositions de graisses, de protéines et de glucides .N Anglais J Med,2009. 360(9) : p. 859-73.
26. Larsen, T.M., et al., Régimes à teneur élevée ou faible en protéines et index glycémique pour le maintien de la perte de poids .N Anglais J Med, 2010. 363(22) : p. 2102-13.

Conditions d'utilisation

Le contenu de ce site Web est à des fins éducatives et n'est pas destiné à offrir des conseils médicaux personnels. Vous devriez demander l'avis de votre médecin ou d'un autre professionnel de la santé qualifié pour toute question que vous pourriez avoir concernant un problème de santé. Ne négligez jamais l'avis d'un professionnel de la santé et ne tardez pas à le rechercher à cause de quelque chose que vous avez lu sur ce site Web. La Source Nutrition ne recommande ni n'approuve aucun produit.


Améliorer et évaluer le remplissage de l'algèbre des limites pour identifier les intersections de polygones

L'intersection de polygones est importante pour le traitement des données dans les systèmes d'information géographique. Pour les grands ensembles de données, les méthodes d'indexation spatiale telles que R-tree permettent l'identification des intersections de polygones, mais récupèrent souvent des résultats inexacts. Une méthode améliorée de remplissage algébrique aux limites (iBAF) a été proposée au préalable comme alternative à R-tree. Cependant, son applicabilité, ses performances et sa précision nécessitent une optimisation, et ses conditions d'application restent à dévoiler. Cette étude développe la version iBAF 2.0 pour une identification plus efficace et évalue les performances pour différentes intensités de calcul et applications. Les polygones d'intersection et les zones raster au sein des intersections peuvent être rapidement regroupés dans les cellules rastérisées des polygones en entrée. Les polygones résultants peuvent ensuite être générés en configurant les groupes de polygones ou en convertissant les zones en vecteurs. Nous utilisons le rapport de complexité RC, qui est défini comme la somme du nombre de polygones dans chaque groupe réellement sécant divisé par le nombre total de polygones, pour représenter l'intensité de calcul. Deux ensembles de données sur l'utilisation des terres contenant 4295 et 741 562 polygones sont considérés, et nous établissons des cas de test contenant les mêmes polygones avec des variations RC. Les résultats expérimentaux montrent que l'iBAF 2.0 surpasse R-tree lorsqu'il est appliqué à la vérification de la topologie. Cependant, ses performances sont conditionnelles à la superposition de polygones et au calcul de surface entre deux couches. Plus précisément, iBAF 2.0 présente un regroupement de polygones et de zones raster plus efficace lorsque RC dépasse des seuils spécifiques. De plus, une meilleure évolutivité est obtenue par rapport à R-tree lorsque des polygones avec des formes complexes et des couches supplémentaires sont pris en compte.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


6 réponses 6

Ouvrez les paramètres de grille et d'accrochage, cliquez au milieu

Sélectionnez votre objet, dans le panneau de modification, cliquez sur modifier le poly

Dans le panneau déroulant "Sélection", cliquez sur le bord

Recherchez et cliquez sur "insérer le bouton du sommet", ciblez le bord requis et cliquez dessus

Sélectionnez l'objet auquel vous souhaitez appliquer la subdivision. Accédez au panneau de modification et dans la liste des modificateurs, accédez aux modificateurs de l'espace objet. Sélectionnez Subdiviser dans la liste. Il devrait maintenant être appliqué à l'objet sélectionné

J'ai trouvé cet article via Google et j'ai pensé fournir une liste élargie d'options pour obtenir ce résultat à partir d'un autre article sur le sujet. Selon votre cas d'utilisation, voici une approche différente qui ajoutera un sommet ou, dans certains cas, en ajoutera plusieurs. Certes, certains sont mieux adaptés que d'autres. Tous utilisent le jeu d'outils du modificateur Poly éditable.

1. Insérer l'outil Sommet

En mode bord, il y a un bouton intitulé Insérer un sommet . Il fait exactement ce qu'il dit. Cliquez simplement sur une arête pour ajouter autant de sommets que vous le souhaitez. Activez les snaps (idéalement au milieu) pour éviter de devenir fou.

2. Outil de connexion Cliquez sur deux arêtes en mode arête et vous pouvez utiliser l'outil Connecter. Cela crée une arête supplémentaire entre les deux (ou plusieurs) arêtes sélectionnées. Il y a un nouveau sommet à chaque extrémité.

3. Tranche rapide Quick slice créera une arête sur un plan bidimensionnel (ou un plan 3D si dans une vue non projetée) qui crée un nouveau point de sommet à chaque point d'intersection avec une autre arête sur votre modèle. Ce n'est pas une approche que j'utiliserais mais qui créerait certainement des sommets supplémentaires.

4. Plan de coupe Similaire à l'outil de coupe rapide mais vous permet d'utiliser l'outil gizmo pour ajuster dans l'espace 3D à partir d'une vue 2D. Crée de nombreux sommets aux points d'intersection.

5. Outil Tesselate Encore une fois, ce n'est pas une approche que je recommanderais mais qui peut être utile dans certains cas. Essential subdivise votre géométrie en ajoutant des bords supplémentaires. Sera limité à toute sélection de sous-objet effectuée (face ou arêtes). Les nouveaux sommets sont aux extrémités.


Voir la vidéo: ArcGIS - Editor - Merge boundarie to boundaries of a polygon shapefile