Suite

Ajouter manuellement une variable Z dans Qgis sur une couche vectorielle ?

Ajouter manuellement une variable Z dans Qgis sur une couche vectorielle ?


J'essaie d'ajouter manuellement une variable Z constante (par exemple 200 mètres) sur l'ensemble d'une couche vectorielle dans Qgis afin que je puisse éventuellement utiliser le plugin Interpolation pour générer un Tin.

Je n'ai pas trouvé d'informations sur la façon de procéder sur le site. Est-ce possible?


Depuis la version 2.10, QGIS prend en charge les valeurs Z et M. (Voir l'entrée correspondante du journal des modifications)

Dans QGIS 3.4, il existe un outil de traitement appelé Définir la valeur Z pour ajouter une valeur Z constante et il y a Draper pour ajouter Z à partir d'un raster.


Ancienne réponse

Ajoutez simplement un autre attribut à la table attributaire de la couche vectorielle et remplissez-le avec la valeur à l'aide du calculateur de champs. Pour obtenir de l'aide avec le calculateur de champ, veuillez consulter la documentation : http://docs.qgis.org/2.2/en/docs/user_manual/working_with_vector/field_calculator.html

Notez que QGIS ne prend pas en charge les géométries 3D, vous devez donc stocker votre valeur z dans la table attributaire.


Ajouter manuellement une variable Z dans Qgis sur une couche vectorielle ? - Systèmes d'information géographique

Une collecte de données de terrain simple, puissante et efficace est vitale pour tout projet ayant un aspect géospatial. Input est une application FOSS créée par Lutra consulting qui apporte la puissance de QGIS à un appareil portable pour la collecte de données. L'équipe de stagiaires de Kartoza a été mise au défi de se familiariser avec Input. L'équipe a décidé de rester simple et de créer un projet pour collecter des données dans les parcs locaux, y compris les sentiers, les arbres et les infrastructures. Ce blog suit le parcours de l'équipe et comprend des trucs et astuces pour aider les utilisateurs novices.

Le workflow Input peut être divisé en trois parties : 1) une solution de collecte de données de terrain mobile (Input), 2) une solution de stockage et de synchronisation de données (Mergin) et 3) une solution de bureautique (QGIS). Input est essentiellement une version mobile de QGIS. Input peut être téléchargé et installé gratuitement sur les téléphones et/ou tablettes Android et iOS.

L'équipe de stagiaires a commencé par une vidéo d'introduction présentée par Hans van der Kwast sur la création d'enquêtes sur le terrain à l'aide de QGIS, Mergin et Input . Il existe également un didacticiel étape par étape entièrement gratuit et des exemples de données à expérimenter associés à la vidéo d'introduction . L'équipe de stagiaires, ayant une expérience de l'utilisation de QGIS, a trouvé le guide vidéo suffisant pour commencer à créer un projet.

Tout d'abord, chaque membre du groupe de stagiaires s'est inscrit pour un compte Mergin (Fig.1). Mergin est un service cloud qui permet le stockage, l'administration et la synchronisation des géo-données. Les données stockées dans Mergin peuvent être gérées à partir du site Web de Mergin, de l'application Input ou dans QGIS à l'aide du plugin Mergin (Fig.2). Mergin est utilisé pour partager des projets avec d'autres utilisateurs de Mergin. Avec le plugin QGIS, vous pouvez créer, supprimer et synchroniser des projets et des données sur le stockage local.

Figure 1 : Le site Web de Mergin avec le formulaire d'inscription.

Figure 2 : Le plugin Mergin disponible dans le gestionnaire de plugins QGIS.

Un projet QGIS pour la collecte de données de terrain est simple à créer même pour les débutants. Pour commencer, ouvrez un nouveau projet QGIS et enregistrez toutes les données dans un seul fichier de projet .qgs (type de fichier reconnu par Input). Premièrement, dans le projet, créez un contexte en incluant des cartes de base. les stagiaires utilisaient des cartes de base en ligne en raison d'un environnement urbain avec une connexion de données mobile constante. Les stagiaires ont choisi une carte de base OpenStreetMap (OSM) car elle donne un contexte utile dans les zones urbaines. Il existe plusieurs options pour les cartes en ligne. Les utilisateurs peuvent utiliser le plug-in QuickMapServices ou d'autres services de cartographie Web pour obtenir des cartes de base. Les stagiaires ont choisi d'inclure le satellite Google et la carte des rues Google au projet des parcs (Fig.3).

Les couches hors ligne sont essentielles dans les instances de collecte sur le terrain où il n'y a pas d'accès à Internet ou aux données mobiles. Pour qu'OSM soit disponible hors ligne, il doit être converti en MBTiles. Pour plus de conseils et d'instructions étape par étape sur l'ajout de différentes cartes de base et images et leur conversion en versions hors ligne, consultez le didacticiel gratuit du projet et la vidéo liés ci-dessus.

Figure 3 : Image montrant le projet de parcs terminé avec des couches distinctes créées pour différentes données collectées, trois cartes de base différentes pour le contexte et une symbologie appliquée aux données collectées.

Avant de créer des couches ou des formulaires dans QGIS, il est essentiel d'avoir une bonne idée de la structure du schéma de données que vous souhaitez utiliser et de la manière dont les données seront collectées. Par exemple, quelles données sont collectées dans la table attributaire et comment elles sont structurées. Un schéma de données clair rendra la création de formulaires et le projet global plus efficace et convivial. Pour créer des couches pour la collecte de données, créez d'abord un nouveau GeoPackage pour la géométrie de la couche vectorielle (point, ligne ou polygone) à stocker. Les stagiaires ont rapidement découvert qu'il est plus efficace d'avoir des couches séparées pour chaque type de données différent. Par exemple, au lieu d'avoir des couches ponctuelles pour collecter les informations géographiques et attributaires des arbres et des infrastructures, il est préférable d'avoir deux couches séparées avec des formulaires de collecte de données pour chacune (Fig.3). Les champs attributaires nécessaires à la collecte de données (par exemple, fid, observer_id, hauteur de l'arbre, horodatage, photographie, etc. Fig.4) doivent être ajoutés lors de la création de la nouvelle couche mais peuvent être ajoutés plus tard en utilisant l'onglet Champs dans les propriétés de la couche ( Fig.4). Les couches créées seront vides de géométrie.

Figure 4 : Champs d'attribut créés pour la couche dans laquelle les données sont collectées.

Les formulaires sont créés dans l'onglet Formulaire d'attributs des propriétés de la couche avec le concepteur glisser-déposer (Fig.5). Dans la colonne Widgets disponibles, cliquez sur chaque champ d'attribut et définissez leurs valeurs par défaut. Par exemple, sous l'ID d'observateur, la saisie de @mergin_username dans le champ de valeur par défaut entraînera l'affichage du nom d'utilisateur Mergin des collecteurs de données. De même, un horodatage automatique pour la collecte de données peut être obtenu en plaçant $now dans le champ de valeur par défaut. Choisissez les données à collecter dans la "Mise en page du formulaire" dans la colonne Widgets disponibles (Fig.5). Tous les widgets non choisis seront masqués dans la forme finale. Parcourez la plage des cases (affichage du widget, type de widget général, etc.) et attribuez les valeurs appropriées (par exemple, Fig.5). Sous l'affichage du widget, cochez la case de l'étiquette et sous Général, attribuez un alias descriptif aux données. Sous Type de widget, les cartes de valeurs sont utiles lorsque le collecteur de données doit choisir parmi une liste d'éléments prédéterminés comme la hauteur des arbres. La carte de valeurs doit être saisie manuellement par le créateur du projet. Si le collecteur de données doit remplir un champ de texte, alors la « modification du texte » est appropriée. Les types de widgets sont généralement intuitifs à utiliser et à attribuer. De plus, lorsqu'on clique dessus, les widgets ont une description pour aider le créateur à comprendre ce qu'ils font. Sous les contraintes, on peut spécifier si les données doivent être non nulles (aucune valeur saisie) pour enregistrer le formulaire. La meilleure façon d'apprendre à créer des formulaires est de parcourir et d'expérimenter chaque domaine et de voir ce qu'ils font. Les formulaires peuvent être vérifiés QGIS en éditant la couche et en ajoutant de la géométrie. Une fois qu'un point est ajouté, par exemple, QGIS ouvrira une boîte de dialogue nécessitant la saisie d'attributs de champ, donnant un aperçu du formulaire et de ce que le collecteur de données verra dans l'entrée (Fig.6).

Figure 5 : Création de formulaire dans l'onglet Attributs From des propriétés de la couche avec un exemple d'informations d'arborescence à l'aide d'une carte de valeurs.

Figure 6 : la forme des attributs affichée dans QGIS lors de la numérisation.

Pour terminer le projet dans QGIS, les couches doivent être organisées et attribuées en thèmes de carte pour une utilisation en ligne et hors ligne. Tout d'abord, assurez-vous que les fonds de carte sont au bas de la liste des couches et que les couches ont un sens cartographique. Les points doivent être au-dessus des lignes et des lignes au-dessus des polygones. Les fonds de carte doivent être affectés à différents thèmes, y compris un thème hors ligne si MBtiles a été créé. Cela peut être fait en cochant et décochant les couches de carte de base, en attribuant chacune à son propre thème et en enregistrant le projet avec les thèmes. Enfin, le projet doit être téléchargé dans Mergin. Le plugin Mergin se trouve dans l'onglet du navigateur (Fig.7), et une fois configuré à l'aide des identifiants de connexion de l'utilisateur, un projet peut être ajouté. Faites un clic droit sur Mergin sélectionnez créer un nouveau projet. Suivez les invites et assurez-vous de sélectionner le dossier du projet actuel dans la boîte de dialogue. Le plugin Mergin synchronisera automatiquement le dossier du projet jusqu'au cloud Mergin. Le projet sera disponible sous l'onglet Mes protections (Fig.7) et peut être trouvé sur la page Web Mergin.

Figure 7 : Mergin développé dans le panneau du navigateur de QGIS.

Une fois le projet stocké dans Mergin, il peut être consulté et synchronisé à l'aide de Input. L'entrée peut être téléchargée depuis l'App Store d'un téléphone ou d'une tablette (Fig.8.A). Une fois ouvert pour la première fois, Input invitera l'utilisateur à se connecter avec ses informations d'identification Mergin. Ensuite, les projets sont accessibles sous l'onglet projets (Fig.8.B). Les projets sont accessibles en les téléchargeant sur l'appareil portable à l'aide du bouton de téléchargement. La page d'accueil de Projets est l'endroit où les projets peuvent être synchronisés depuis et vers Mergin lorsque l'appareil est en ligne (Fig.8.B). La synchronisation doit avoir lieu chaque fois que des modifications sont apportées au projet dans QGIS afin que les modifications puissent être vues dans Input ou après que les données aient été collectées dans Input pour mettre à jour le projet QGIS de bureau. Une fois le projet téléchargé, cliquer sur le projet l'ouvrira et amènera l'utilisateur à la page principale. La navigation dans l'application est intuitive. Pour explorer le projet, il est préférable de commencer par passer par l'onglet Plus. Sous Plus se trouve les fonctionnalités de navigation qui montrent les couches du projet, les thèmes de carte où les cartes de base peuvent être modifiées et les paramètres de collecte de données (Fig.8.C). Sur la page principale, il y a des onglets pour enregistrer les données et centrer le GPS (l'entrée utilise le GPS intégré à moins qu'un autre appareil ne soit connecté au téléphone ou à la tablette) (Fig.8.C).

Figure 8 : A. l'application mobile Input, B) la page d'accueil de l'onglet Projets où les projets peuvent être visualisés et synchronisés, C) le menu Plus ouvert avec les options.

Avant de commencer la collecte de données, explorez le menu des paramètres. Les paramètres sont l'endroit où la précision du GPS peut être définie, l'utilisateur peut trouver le menu d'aide et les conditions d'utilisation se trouvent (Fig.9.A). Une fois les paramètres définis, il est temps d'enregistrer les données. Accédez simplement au bouton d'enregistrement (Fig.8.C) et sélectionnez le calque souhaité en cliquant sur le ruban vert clair au-dessus des outils de collecte de données. Un menu à choisir apparaîtra (Fig.9.B). L'utilisation des outils de collecte de géométrie peut demander un peu de pratique. Assurez-vous d'attendre que le pointeur devienne vert, montrant une précision GPS idéale s'il ne devient pas vert, assurez-vous que vous pouvez voir le ciel et que le GPS de votre appareil est activé. Une fois qu'un point, une ligne ou un polygone est enregistré, le formulaire de collecte de données s'ouvre où du texte, des données et des médias tels que des photos et des vidéos peuvent être ajoutés (Fig.9.C). Collected peut être modifié dans Input. Une fois la collecte des données terminée, synchronisez le projet avec Mergin afin qu'il soit disponible dans le projet de bureau QGIS. Une fois les données synchronisées dans le projet QGIS, elles peuvent être davantage manipulées, symbolisées et des mises en page cartographiques et des rapports créés.

Figure 9 : A) le menu des paramètres, B) les couches créées dans les projets des parcs dans l'onglet fiche en entrée, C) le formulaire associé aux données d'arborescence requises.

Le projet des parcs des stagiaires est un moyen simple de connaître et d'explorer le système Input. Cependant, ce type de système de collecte de données sur le terrain a des applications et des utilisations infinies. Toutes les données collectées avec un emplacement ou un aspect géographique peuvent être collectées à l'aide du flux de travail d'entrée. Cette méthode de collecte de données sur le terrain peut être appliquée pour enregistrer des parcelles de terrain dans des projets de régime foncier ou pour collecter des coordonnées de points et d'autres informations associées aux plantes exotiques dans les études de biologie des invasions. Le système d'entrée peut être utilisé par plusieurs collecteurs de données, ce qui le rend idéal pour les grands projets multi-utilisateurs. Si l'équipe de stagiaires peut le faire, vous aussi, alors prenez votre téléphone, sortez et commencez à collecter des données.


Dans ggplot, les légendes sont automatiquement créées pour l'esthétique mappée. Vous pouvez ajouter de tels mappages comme suit :

Dans l'exemple ci-dessus, j'ai également déplacé le mappage esthétique commun data & (x) vers ggplot() .

Cette solution vise à tracer 2 courbes à partir d'une trame de données. Les données d'une colonne sont tracées comme graphique linéaire contre l'axe des x (date d'observation) et l'autre est tracé comme Graphique en aires par rapport au même axe x (date d'observation). La courbe de surface sera sur l'axe y secondaire. Le traçage et le formatage de la légende sont également illustrés dans les images jointes. J'espère que vous apprécierez la solution.

La structure du cadre de données ressemblera à ce qui suit/Ceci est un échantillon de l'ensemble de données, je choisirai 2 colonnes, obsdate, revenu et valeur :

J'utilise la bibliothèque Shiny pour l'héberger sur un serveur si vous ne connaissez pas Shiny, vous pouvez l'ignorer, ce n'est que la mise en page


II. Visualiser vos données

A. Ajout de couches de données supplémentaires

Vous passerez la plupart de votre temps à visualiser vos données dans la fenêtre de carte pour examiner les relations spatiales, visualiser diverses mesures de densité et de proximité et superposer diverses couches de données. Ajoutons quelques autres fichiers de formes inclus dans le dossier cambridge_shapefiles. Choisissez à nouveau « Calque / Ajouter un calque / Ajouter un calque vectoriel » pour ouvrir le « Gestionnaire de sources de données | Fenêtre de vecteur. (Vous pouvez également cliquer sur la partie la plus à gauche des icônes dans la 'Barre d'outils du gestionnaire de sources de données'. L'icône est intitulée 'Ouvrir le gestionnaire de sources de données'.) Ouvrez chacun de ces fichiers : sales89.shp et cambtigr.shp.

Les fichiers de formes sont un format populaire et largement utilisé pour stocker des données « vecteurs » de base sur l'emplacement, la forme et les attributs des données étiquetées par emplacement. Il a été développé par ESRI, le fournisseur d'ArcGIS, un SIG « industriel » populaire utilisé par de nombreuses agences gouvernementales, et le format shapefile est maintenant largement utilisé, sans redevances, pour stocker et échanger des données SIG. Notez que chacun des fichiers de formes enregistrés dans votre dossier de données est en réalité un ensemble d'environ 7 fichiers individuels. Les fichiers avec *.shp comme suffixe contiennent une géométrie dans un format binaire (non lisible). Les fichiers *.dbf contiennent des tables d'attributs (dans un format dBase d'environ 1980), les fichiers *.prj contiennent des informations de « projection » sur le système de référence de coordonnées (CRS) et les fichiers *.xml contiennent des métadonnées. Les autres fichiers contiennent des informations d'indexation pour accélérer les requêtes et la visualisation. Un fichier de formes ne peut inclure qu'un seul type d'entité géométrique : par exemple, des points, des lignes ou des polygones. Un fichier de formes de points contient une paire de nombres X,Y pour chaque point. (X,Y,Z si l'on inclut l'élévation comme troisième dimension.) Un fichier de formes de ligne stocke des séquences de paires X,Y qui définissent chacune un segment de ligne. Un fichier de formes de polygones stocke des séquences de points dont chacun trace la limite d'un objet spatial bidimensionnel sous la forme d'une séquence fermée de segments de ligne. Dans chaque cas, sur l'ID d'objet caractéristique, la géométrie de l'objet est alignée sur la ligne de la table attributaire qui contient le champ d'informations décrivant l'objet.

Le ventes18 shapefile contient des points qui représentent l'emplacement approximatif de chaque maison résidentielle à Cambridge, MA qui a été vendue au cours de l'année 1989. Chaque «point de vente» est associé à une ligne dans la table attributaire (sale89.dbf) qui contient l'adresse, le prix de vente , et d'autres informations pertinentes sur chaque vente immobilière. Le fichier de formes cambtigr contient des lignes qui représentent les axes des rues de toutes les routes de Cambridge. Chaque ligne de la table attributaire associée contient des informations sur un segment de rue s'étendant d'une intersection de route (ou d'une extrémité) à la suivante. Le fichier de formes cambbgrp contient des polygones qui représentent les 94 groupes de blocs du recensement américain à Cambridge. Chaque groupe d'îlots au sein de Cambridge contient jusqu'à 10 îlots urbains et les limites du groupe d'îlots sont généralement les axes routiers des rues qui composent la limite du groupe d'îlots. (Nous disons « généralement » parce que les rivières, les voies ferrées, etc. pourraient également former la limite d'un groupe de blocs.)

B. Examen des données d'attribut

Activez/désactivez chacun des trois fichiers de formes que vous avez chargés dans QGIS et parcourez leurs tables d'attributs. (Activez/désactivez la case à cocher à côté de chaque calque dans la fenêtre « Calque » pour activer/désactiver ce calque.) Les couches sont répertoriées dans l'ordre inverse de la façon dont elles sont dessinées à l'écran. Par exemple, si vous activez à la fois les couches cambbgrp et cambtigr, mais placez cambtigr sous cambbgrp, l'ombrage plein des groupes de blocs masquera les axes de route indiqués dans la couche cambtigr.

Utilisez les fonctionnalités de « sélection » pour mettre en évidence les lignes de la table attributaire et voir les fonctionnalités géométriques correspondantes. De même, sélectionnez des entités spatiales sur la carte (en cliquant d'abord sur l'icône « Sélectionner des entités par zone ou un seul clic ») et consultez les lignes correspondantes de la table attributaire. Notez que l'icône de l'outil « Sélectionner les entités par zone ou par simple clic » sélectionnera les entités de la ou des dernières couches que vous avez mises en surbrillance dans la fenêtre « Couche ». En outre, il y a une icône dans la « Barre d'outils du projet » intitulée « Désélectionner les entités de toutes les couches ». Cliquer sur cette icône désélectionnera toutes les fonctionnalités. S'il y a un grand nombre d'entités dans une couche, il peut être difficile de trouver les entités que vous avez sélectionnées. Dans la fenêtre de la table attributaire, cliquez sur l'onglet en bas à gauche de la fenêtre pour choisir « Afficher les entités sélectionnées » afin qu'elles soient visibles en haut de la table. De même, en cliquant avec le bouton droit sur le nom d'une couche et en choisissant « zoomer sur la sélection », vous effectuerez un zoom sur la plus petite fenêtre de carte contenant toutes les entités sélectionnées dans cette couche.

Si vous souhaitez examiner les attributs d'une entité spatiale particulière, vous pouvez cliquer sur l'icône « Identifier les entités » dans la « Barre d'outils du projet », puis cliquer sur une entité dans la fenêtre Carte. Une fenêtre « Identifier les résultats » s'ouvre (et serre la fenêtre Carte sur le côté) et affiche les valeurs du champ attributaire pour la ou les entité(s) sélectionnée(s). La sélection est faite à partir de la couche d'entités qui est mise en surbrillance dans la fenêtre « Couche ».


On a $f = fcirc T,$ où $T$ est l'application linéaire $(x,y,z) o (x+y,0,x+z).$ Si on suppose $Df(p) $ existe pour tout $p,$ alors par la règle de la chaîne

$Df(p) = Df(T(p))circ DT(p) = Df(T(p))circ T,$

où nous avons utilisé le fait que $DT(p) = T$ (vrai pour toute application linéaire). Maintenant, la plage de $T$ est contenue dans le sous-espace à deux dimensions $ mathbb R imes <0> imes mathbb R,$ donc le rang de $T$ est $le 2$ (c'est en fait $2, $ mais peu importe). Ainsi le rang de $Df(T(p))circ T$ est au plus de $2,$ donc il n'est pas surjectif.

Comme @Alex M., je ne comprends pas le business $(a,0,c)$.

Puisque vous référencez $f'$, $f$ doit être différentiable. Le théorème de la fonction inverse peut en fait être assoupli des fonctions $C^1$ aux fonctions dérivables (voir ici), donc l'argument que vous aviez en tête s'applique toujours.

Rappelons que $f'(x,y,z) : Bbb R^3 o Bbb R^3$ est une application linéaire dire qu'elle est surjective signifie, dans ce cas, dire que $ ext f'(x,y,z) = 3$, ce qui revient ici à dire que $det f'(x,y,z) e 0$. Soit $f = (u,v,w)$, calculons ce déterminant.

Commencez par calculer les dérivées partielles de la relation donnée :

et remplacer les deuxième et troisième morceaux de relation dans le premier, pour obtenir

et ceci est valable à chaque point de $Bbb R^3$, pas seulement aux points de la forme $(a,0,c)$ !

En écrivant explicitement les composants de $f$ et en supprimant l'argument $(x,y,z)$, ce qui précède signifie que

(encore une fois, c'est valable partout).

De là il s'ensuit que

car la première colonne est une combinaison linéaire des deux autres. Puisque le déterminant est $, il s'ensuit que $ ext f'(x,y,z) le 2$, donc $f'(x,y,z)$ n'est pas surjectif pour tout $(x,y,z) in Bbb R^3$ (pas seulement pour les points de la forme $(a,0,c)$!).

(À mon avis, c'est un très mauvais exercice car il suggère à l'élève que les points $(a,0,c)$ sont en quelque sorte spéciaux et que l'énoncé du problème ne vaut que pour eux, ce qui n'est clairement pas le Je parie qu'il y a de meilleurs supports de cours disponibles.)


RÉSULTATS

Au total, 347 rongeurs capturés dans la nature ont été capturés au cours de 2 340 nuits de piégeage à 13 emplacements (39 sites de piégeage). Le nombre moyen de rongeurs capturés dans la nature par piège-nuit a été calculé comme le nombre de rongeurs capturés dans la nature sur chaque site divisé par le nombre de pièges-nuits multiplié par le nombre de nuits pendant lesquelles les pièges ont été posés sur le terrain (tableau 1). . Cependant, aucun rongeur n'a été collecté dans les sous-districts de Nong Rawiang ou de Hua Thale. Les rongeurs appartenaient à deux familles de l'Ordre Rodentia et comprenaient neuf espèces (tableau 2). Au total, 1 518 tiques ont été prélevées sur des rongeurs capturés dans la nature, qui appartenaient tous à Heamaphysalis bandicota (Tableau 2). Seulement 57 Xenopsylla cheopis les puces ont été retirées des rongeurs capturés dans la nature.

Sous-districts Rongeurs H. bandicota Tiques X. cheopis Des puces
Nombre total Moyenne par nuit-piège Nombre total Moyenne par nuit-piège Nombre total Moyenne par nuit-piège
Khok Sung 18 0.100 0 0 1 0.005
Phutsa 80 0.444 79 0.439 4 0.022
Ban Pho 35 0.194 0 0 24 0.133
Talat 6 0.033 0 0 1 0.005
Maroeng 87 0.483 1,092 6.067 0 0
Nong Rawiang 0 0 0 0 0 0
Pru Yai 6 0.033 0 0 22 0.122
Muen Wai 4 0.022 0 0 4 0.022
Nong Krathum 4 0.022 0 0 0 0
Nong Khai Nam 38 0.211 256 1.422 0 0
Cho Ho 60 0.333 68 0.378 0 0
Nai Muang 9 0.050 23 0.128 1 0.005
Hua Thale 0 0 0 0 0 0
Total 347 1,518 57
Espèces de rongeurs sauvages Nombre total de rongeurs capturés dans la nature (%) Nombre total de H. bandicota Tiques (nombre de rongeurs) ∗ ∗ Nombre de rongeurs dont les ectoparasites ont été retirés.
Nombre total de X. cheopis Puces (nombre de rongeurs) ∗ ∗ Nombre de rongeurs dont les ectoparasites ont été retirés.
Famille Espèce
Rattus exulans 45 (13.0) 0 28 (16)
Rattus rattus 134 (38.6) 51 (17) 8 (6)
Rattus perdant 5 (1.4) 0 21 (5)
Muridés Rattus argentivent 19 (5.5) 12 (6) 0
Rattus norvagicus 1 (0.3) 0 0
Bandicota indica 107 (30.8) 1,405 (58) 0
Bandicota savilei 20 (5.8) 50 (13) 0
Bandicota bengalensis 2 (0.6) 0 0
Sciuridés Callosciurus finlaysonii 14 (4.0) 0 0
Total 347 1,518 57

Seuls 22 des 347 (6,3 %) échantillons de sang de rongeurs étaient positifs pour Anaplasme sp. par PCR. Le taux d'infection le plus élevé par nuit-piège a été trouvé chez les rongeurs capturés dans la nature à Phutsa (0,044, n=8) suivis de Maroeng (0,039, n=7), Nong Khai Nam (0,033, n=6) et Cho Ho ( 0,005, n=1) sous-districts (tableau 3). Anaplasme sp. pathogène a été isolé de trois des neuf espèces de rongeurs testés et le taux d'infection le plus élevé a été trouvé dans B. indica rongeurs (n=20, 91,0%) suivis de B. savilei (n=1, 4,5%) et R. rattus (n=1, 4,5 %).

Sous-district Anaplasme sp. Bartonella sp.
Sang de rongeurs Tiques Sang de rongeurs Tiques Des puces
Positif( ∗ ∗ Nombre moyen d'échantillons positifs par piège-nuit.
)
Nombre d'échantillons testés Positif Nombre de piscines testées Positif ( ∗ ∗ Nombre moyen d'échantillons positifs par piège-nuit.
)
Nombre d'échantillons testés Positif Nombre de piscines testées Positif ( ∗ ∗ Nombre moyen d'échantillons positifs par piège-nuit.
)
Nombre de piscines testées
Khok Sung 0 18 - ∗∗ ∗∗ Aucun échantillon n'a été prélevé.
- 6 (0.033) 18 - - 0 1
Phutsa 8 (0.044) 80 0 26 27 (0.150) 80 0 26 0 4
Ban Pho 0 35 - - 7 (0.039) 35 - - 0 12
Talat 0 6 - - 3 (0.017) 6 - - 0 1
Maroeng 7 (0.039) 87 0 44 37 (0.205) 87 0 44 - -
Pru Yai 0 6 - - 4 (0.022) 6 - - 5 (0.028) 6
Muen Wai 0 4 - - 2 (0.011) 4 - - 0 2
Nong Krathum 0 4 - - 1 (0.005) 4 - - - -
Nong Khai Nam 6 (0.033) 38 0 59 7 (0.039) 38 0 59 - -
Cho Ho 1 (0.005) 60 0 34 26 (0.144) 60 0 34 - -
Nai Mueang 0 9 0 7 1 (0.005) 9 0 7 0 1
Total 22 347 0 170 121 347 0 170 5 27

Sur 170 H. bandicota pools de tiques collectés sur des rongeurs infectés (28 pools de larves non nourries, 42 pools de larves nourries, 50 pools de nymphes non nourries, 40 pools de nymphes nourries, quatre pools d'adultes non nourris et six pools de tiques adultes nourris), aucun n'a été testé positif pour Anaplasme.

Un plus grand nombre d'échantillons positifs de Bartonella sp. a été détecté. Au total, 121 des 347 échantillons de sang de rongeurs (34,9 %) se sont révélés positifs (tableau 3). Bartonella sp. a été détecté chez presque toutes les espèces de rongeurs, à l'exception de B. bengalensis et C. finlaysonii. Sur le nombre total de rongeurs infectés, le taux d'infection le plus élevé a été trouvé dans R. rattus (n=77, 63,6%) suivi de B. indica (n=18, 14,9%), R. argentiventer (n=12, 9,9%), B. savilei (n=6, 5,0 %), R.losea (n=4, 3,3 %), R. exulans (n=3, 2,5 %), et R. norvagicus (n=1, 0,8%). De plus, cinq des 27 bassins de X. cheopis les puces ont été trouvées positives pour Bartonella. Tous ont été retirés de cinq R. Losea rongeurs dans le sous-district de Pru Yai. Aucune tique n'a été trouvée infectée par Bartonella sur 170 piscines testées.

La double infection de Anaplasme spp. et Bartonella spp. a été trouvé dans trois B. indica rongeurs (3/347, 0,9%) collectés dans les zones rizicoles. Parmi ceux-ci, deux rongeurs ont été collectés dans le sous-district de Phutsa et un rongeur dans le sous-district de Maroeng, qui représentaient par coïncidence les emplacements pour le plus grand nombre de rongeurs capturés dans la nature dans toute l'étude. Bien qu'il y ait eu des infections doubles trouvées dans les échantillons de sang de rongeurs testés, aucune infection double n'a été trouvée dans les tiques regroupées.

Les résultats de l'analyse phylogénétique ont révélé que, sur 22 Anaplasme-détections positives de rongeurs capturés dans la nature, 17 d'entre eux provenaient B. indica rongeurs (7, 5, 4 et 1 des sous-districts de Maroeng, Phutsa, Nong Khai Nam et Cho Ho, respectivement), désignés comme Anaplasma bovis Y258 (CA : KY425447). Trois rongeurs positifs (un R. rattus, un B. indica à Phutsa, et un B. savilei des sous-districts de Nong Khai Nam) ont été désignés comme incultes Anaplasme sp. (CA : JX846966). Un positif B. indica rongeur collecté dans le sous-district de Phutsa a été désigné comme Anaplasma bovis AB-KBHL (AC: AF470698) tandis qu'un autre positif B. indica rongeur du sous-district de Nong Khai Nam a été désigné comme Anaplasma bovis RB9 (CA : KY458573). L'analyse de l'arbre phylogénétique a indiqué que les plantes non cultivées Anaplasme sp. (AC : JX846966) regroupés dans le même clade que A. bovis avec une valeur bootstrap élevée de 95 % (figure 2). Tous les 126 échantillons positifs (121 rongeurs positifs plus cinq pools de puces) de Bartonella pathogène a démontré une identité partagée (98-100%) avec une souche de Bartonella queenslandensis AUST/NH15 (AC : EU111769) 98-100 % basé sur l'arbre UPGMA (Figure 3).

Les cartes de densité de Anaplasme sp. et Bartonella sp. les infections dans trois zones différentes (autour de la maison, à 100 m de la maison et les zones de terrain) ont été pondérées en fonction du nombre de rongeurs infectés par chaque agent pathogène par piège-nuit en utilisant QGIS basé sur KDE. Il a révélé que la plupart des rongeurs capturés dans la nature ont été collectés dans les zones de terrain (n = 318), suivis des zones autour de la maison (n = 17) et des zones à 100 m de la maison (n = 12). Pour le Anaplasme-rongeurs positifs, tous les rongeurs infectés ont été capturés dans les zones de terrain. La plus forte densité de rongeurs infectés par nuit-piège a été trouvée dans les sous-districts de Phutsa (0,133, n=8) suivis des sous-districts de Maroeng (0,117, n=7) et de Nong Khai Nam (0,083, n=5) (Figure 4) .

Pour le Bartonella-échantillons positifs, les rongeurs infectés ont été trouvés dans les trois sites de piégeage. Pour les emplacements proches de la maison, un rongeur infecté a été trouvé dans chacun des trois pièges, y compris dans les sous-districts de Khok Sung, Ban Pho et Nong Krathum, ce qui représentait 0,016 (n=1) par piège-nuit. Des résultats similaires ont été enregistrés dans les emplacements des pièges placés à 100 m de la maison. Un rongeur infecté a été trouvé dans les sous-districts de Khok Sung et Talat, ce qui représentait 0,016 (n=1) par piège-nuit. Dans les zones de terrain, la plus forte densité de rongeurs positifs a été collectée dans les sous-districts de Maroeng (0,617, n=37), suivis des sous-districts de Phutsa (0,400, n=24) et de Cho Ho (0,267, n=16) (Figure 5). .


  • Sélectionnez le calque et appuyez sur Ctrl + T et
  • Faites un clic droit sur la transformation et choisissez Perspective puis
  • Maintenez la touche Ctrl enfoncée et faites glisser le coin latéral droit vers le bas

Alternativement à la réponse de Bala, si vous vous moquez de votre image sur quelque chose comme un moniteur pour cet exemple, je trouve qu'il est plus facile d'utiliser l'outil Déformer car vous pouvez faire glisser les coins de l'image pour correspondre à ce que vous posez. votre image sur.

  1. Édition → Transformer → Déformer
  2. Faites glisser les points d'angle vers les bords du moniteur pour remplir l'écran vide
  3. Ajoutez une petite ombre intérieure à "l'écran fictif" pour qu'il ait l'air plus "en place"

Une fois le calque d'image sélectionné, accédez à la barre d'outils en haut et sélectionnez « Édition → Transformer → Perspective ».

C'est aussi une bonne pratique de faire de vos images des "objets intelligents" avant de les éditer afin qu'elles conservent leur qualité.

Cliquez avec le bouton droit sur le calque d'image → Créer un objet intelligent

Cela vous permet de transformer votre image un nombre infini de fois tout en conservant la qualité d'origine de votre image.


Inversez une fonction de symétrie impaire d'une variable (avec un paramètre) en utilisant deux termes et le théorème d'inversion de Lagrange.

Tout d'abord, je n'ai pas beaucoup de représentants à dépenser ici, mais j'en ai beaucoup plus au DSP SE. Donc, si vous voulez gagner un représentant au DSP SE, veuillez aller à ma question là-bas car demain je vais y accrocher le maximum de 500 points de prime. Je ne peux pas m'en tirer ici, bien que si quelqu'un me vote sur cette question (ou quelque chose d'autre que j'ai fait ici), je peux accrocher une prime de 350 sur cette question dans quelques jours.

J'ai donc une fonction de la forme :

$ f(x) = lnleft(arctanleft(alpha , e^ ight) ight) - lnleft(arctanleft( alpha , e^<-x> ight) ight) $

Ce que je veux faire, c'est inverser $f(x)$ (mais je sais que je ne peux pas le faire exactement avec une belle forme fermée). J'ai déjà fait une approximation du premier ordre et je veux la faire passer à une approximation du troisième ordre. Et c'est devenu une sorte de chienne femelle en accouplement, même si cela devrait être simple.

Maintenant, cela a quelque chose à voir avec le théorème d'inversion de Lagrange dont j'ai déjà parlé et je veux seulement le porter à un terme de plus que moi.

Nous savons d'en haut que $f(x)$ est une fonction à symétrie impaire :

Cela signifie que $f(0)=0$ et tous les termes d'ordre pair de la série de Maclaurin seront nuls :

La fonction inverse est également une symétrie impaire, passe par zéro et peut être exprimée sous la forme d'une série de Maclaurin

et si nous savons ce que sont $a_1$ et $a_3$ de $f(x)$, alors nous avons une bonne idée de ce que doivent être $b_1$ et $b_3$ :

$ b_1=frac<1> quad quad quad quad b_3 = -frac $

Maintenant, je suis capable de calculer la dérivée de $f(x)$ et de l'évaluer à zéro et j'obtiens $a_1$ et $b_1$ comme une belle fonction de $alpha$. Mais j'ai du mal à obtenir $a_3$ et donc $b_3$. Quelqu'un peut-il faire ça ? Je me contenterais même d'une expression solide pour la dérivée troisième de $f(x)$ évaluée à $x=0$.


2 réponses 2

Une bonne approche consiste à faire ceci :

  1. utilisez les coordonnées 2d (x,y) pour décrire votre ellipse, par exemple en cas de cercle vous utiliseriez (x,y)=(r*cos t, r*sin t)
  2. puis définir un plan en utilisant 2 vecteurs comme v1=(x1,y1,z1) et v2=(x2,y2,z2) puis le centre du plan comme point p1 = (x3,y3,z3)
  3. puis convertissez les coordonnées 2D en coordonnées 3D en utilisant ce qui suit : x*v1+y*v2+p1, vous devez utiliser la multiplication scalaire et vectorielle x*(a,b,c) = (x*a,x*b,x *c) et addition vecteur-vecteur ($x_1$,$y_1$,$z_1$)+($x_2$,$y_2$,$z_2$) = ($x_1+x_2,y_1+y_2,z_1+z_2$ ).

Vous dites que vous devez suivre les variables x , y , z (position dans l'espace) en termes de t (temps), et vous parlez d'autres paramètres comme la vitesse, donc cela me rappelle les équations paramétriques. Ces équations font une fonction de t pour x , y , z , c'est-à-dire :

qui s'exprime le mieux comme un vecteur fonction : les coordonnées dans l'espace sont pointées par un vecteur de l'origine au point (x,y,z) et ce vecteur change lorsque t change (c'est une fonction du temps) : r(t).

Vous devez maintenant trouver ces formules reliant les coordonnées avec t , ce qui peut ne pas être évident au début. Mais il pourrait être simplifié en utilisant la notion de vecteur vitesse, v. Ce vecteur sera toujours tangent au chemin de votre point r suivre dans l'espace. Il s'agit donc de mettre à jour le vecteur position r(t) en y ajoutant le v vecteur pour trouver une nouvelle position r(t+dt):

Il vous suffit de rendre le pas (de temps) dt suffisamment petit pour obtenir plus de précision. De cette façon, vous pouvez suivre toutes les courbes dans l'espace : non seulement les ellipses, mais aussi les lignes, les spirales ou toute autre chose.

D'accord, mais vous voulez des points de suspension, n'est-ce pas ?

Alors maintenant, votre problème s'est déplacé vers la recherche du vecteur vitesse à chaque instant du temps (t). Mais ce problème a déjà été résolu dans l'histoire, par Johannes Kepler et Isaac Newton, pour des orbites elliptiques de planètes dans un champ de gravité central. If you know a bit of physics, you can use these facts to derive proper equations for velocity from acceleration in central gravity field, which is related to distance from one of the ellipse's centers.

But if you don't want to get into details of physics, you can also use the fact that all ellipses lie in a plane, and no parts of it stick out from that plane. So you can get a formula for the ellipse in 2D planar coordinates (polar or rectangular, whichever you like more) and transform them into 3D by rotating around proper angles.

Usually this transformation can be made with matrix multiplication: you get a coordinate in 2D as a vector, extend it with zeros for other coordinates, and multiply it by a matrice which describes rotation transformation, and you'll get another vector, in a rotated coordinate system. The only thing you need is to prepare the matrix (once is enough if the plane of your ellipse doesn't change). Such transformation matrices have standard forms, which you can find over the Net (search phrase: "rotation matrix", for example). You simply insert the sines & cosines of rotation angles in the proper places and lo! a matrix could be used for transforming coordinates readily. Usually you'll find matrices for rotating around separate axes of coordinate system, X, Y, Z. But you can join these transformations together by multiplying these matrices together. You can also multiply them with the translation matrix, which can move the center of the ellipse to some other place. This is how it's usually made in 3D computer games or vector graphics/modelling.

But there's also another way of doing rotations in space, which is by use of quaternions. It needs less coordinates and factors to keep track of, but it's a bit harder to understand if you've never have any experience with them before. But it has an advantage of avoiding the problem of so called "gimbal lock", which usually makes problems with typical coordinate matrices using those three Euler angles.


Machine learning for landslides susceptibility assessment

Aperçu

Landslide susceptibility expresses the likelihood of a landslide event occurring in a given area based on local terrain conditions or climate conditions. It usually partitions the geographical surface into zones of varying grades of stability based on the landslide inventory [60]. The resulting output is a solely spatial distribution of the predicted categorized hazard probabilities across grid cells [120].

Machine learning methods applied for landslide susceptibility assessment represent a structured gathering of the available information extracted from landslide inventories, process/model with that information, and form a judgment about it in a transient workflow. This workflow unfolds through stages of preprocessing, implementation or modeling, and postprocessing, wherein modeling plays an essential role.

Workflow of a machine learning in landslides susceptibility assessment

Supervised learning is by far the most widespread form of machine learning applied in landslide susceptibility assessment. The following are details about the workflow of supervised learning applied in landslide susceptibility assessment.

Initially, high-quality spatial data are collected from remotely sensed images or real-time monitoring for a landslide to produce landslide inventories [32]. A landslide inventory includes historical landslide data and other related information, such as geological data, meteorological conditions, and topographical data, which can roughly clarify the relationships between predisposing factors and landslide occurrences [109]. Based on these data, the predictive models for landslide susceptibility zonation can construct the relationships between the input and output variables [50]. Prior to any prediction modeling, these two types of variables should be identified. Commonly, the output consists of landslides and non-landslides. The input relates to conditioning factors of landslides.

Redundant or irrelevant factors may create noise, decreasing the overall predictive capability of the models. It is essential to choose suitable factors in landslide susceptibility assessment. Thus, the optimum conditioning factors for a study area will be subsequently determined, in which prior knowledge that refers to the analysis of the characteristics and geo-environmental conditions of the study area in relation to past landslide occurrences is needed.

To date, no universal guidelines have been agreed upon for the determination of case-specific conditioning factors [82]. Landslide conditioning factors show variation with respect to the study area and its geographical locations. Every study area has its own particular set of factors that cause landslides [182]. According to numerous studies, common landslide causal factors can be divided into two categories: (i) internal factors, which are related to geology and topography, such as the elevation, profile curvature, slope, plan curvature, distance to faults, aspect, distance from rivers, landform and lithology and (ii) external factors, which usually cause landslides, such as rainfall, distance from roads and the seismic intensity.

To further select the appropriate input factors, one effective method involves ranking the importance of the input variables. Popular algorithms include ReliefF [109], Genetic Algorithms (GA) [33], Information Gain Ratio (IGR) [168], and symmetrical uncertainty analysis [137]. Through calculating a score for each factor, these algorithms can evaluate and rank the contributions of landslide causal factors, and the factors with lower contributions are sequentially removed. Furthermore, machine learning methods can rank these factors by their weights. The most frequently used supervised learning methods include LR [5], ANN [129], SVM [61], NB [171], and DT [170]. Unsupervised learning methods such as cluster sampling can evaluate factors by weighting the relative importance of each conditioning factor [118].

The predictive model is trained. The performance of the models is usually measured through some kind of cost function. It is also important to optimize model performance. This entails the adjustment of hyperparameters that control the training process, structure, and properties of the model [148]. For example, a validation dataset is separated from the test and training sets using sampling strategies. The generic approach that was selecting the training sets is usually made by sampling 70% of all instances randomly throughout the available data. The remaining part is reserved for testing the model.

Conventional machine learning methods for landslides susceptibility assessment

Conventional machine learning algorithms have been applied to landslide susceptibility assessment and achieve outstanding performance and are mainly classified into single base learning algorithms and ensemble learning algorithms.

Single base learning algorithms

The most frequently traditional single algorithms applied for landslide susceptibility assessment include (1) LR, (2) SVM, (3) DT, and (4) ANN [26, 77, 81, 143].

Three typical single algorithms that applied in landslide susceptible assessment

LR has a long tradition of application in landslide susceptibility assessment [89, 95]. A study proved that the predictive model complexity and the size of the training dataset influence the accuracy and predictive power of LR models concerning landslide susceptibility [56].

SVM can identify the optimal boundary between the training data from two classes [27]. Compared with other algorithms, the SVM algorithm achieves slightly better accuracies in shallower landslide assessment applications [113, 134, 189]. The quality of the predictive results produced by the algorithms is correlated with the input data quality.

As an original tree-like structure, DT can reveal some important relations between causal factors and landslides but yield landslide susceptibility models with lower accuracy than other methods. For instance, given the slope and altitude as input variables, a DT can reveal that slope is more important than altitude [69].

The standard ANN model comprises three layers, namely an input layer (i.e., landslide conditioning factors), hidden layers, and an output layer (i.e., landslide susceptibility) [96]. A case proved that ANN applied in landslide susceptibility assessment achieved fairly precise models [97].

In summary, several drawbacks are usually identified when utilizing the aforementioned single base learning algorithms, such as overfitting and unstable performance.

Ensemble learning algorithms

Generally, ensemble learning algorithms can enhance the performance of the single base learning algorithms and improve the robustness and generalizability.

A commonly used ensemble algorithm in landslide susceptibility assessment is RF [19, 24, 169, 190]. Usually, an RF model has a more predictive capability to identify landslide susceptibility zones than other models [46]. Since the random selection of the training dataset may affect the results of the model, a set of many trees helps to ensure the stability of the model [24].

For example, Hong et al. [59] indicated that three ensemble models (i.e., AdaBoost, bagging, and rotation forest) could significantly improve the performance of J48 DT as the base learner, and rotation forest can be considered a promising method for landslide susceptibility mapping in similar cases with better accuracy than other methods.

Other ensemble methods have been developed for landslide susceptibility assessment, including GBDT [21, 158], Random Subspace [109], Multiboost [128], and Regularized Greedy Forests [146]. These ensemble methods can reduce both the bias and variance and avoid overfitting problems compared to the base classifiers to improve predictive capability. The main advantage of numerous ensemble models is that model construction is not complicated, and the training time was short with the data at hand.

Dou et al. [34] produced four classes of ensemble learning models (SVM-stacking, SVM, SVM-bagging, and SVM-boosting) using SVM as the base learner. The study suggests that an ensemble machine learning model does not necessarily mean excellent performance. It is better to prudently select the proper model or the base learner for the predictive models. Each leaner should be seriously considered before grouping it into the ensemble models. In addition, the interpretation of the ensemble methods is more complicated than that of the base models [59, 86, 128, 146].

In conventional machine learning applications to landslide susceptibility assessment, the correlations between factors should be first eliminated to reduce model noise [23]. Furthermore, conventional feature engineering involves a substantial amount of prior knowledge in the process of seeking the proper parameters and thresholds of each feature. These empirical methods mean that the inherent and deep features of input datasets are challenging to extract [10, 194].

Deep learning methods in landslides susceptibility assessment

Recently, with the rapid development of deep learning, state-of-the-art learning approaches have been successfully applied in landslide susceptibility assessment in the field. Indeed, deep learning has also been commonly applied to feature extraction [62]. Deep learning can find optimal features and handle indirect relationships between features and goals and can thus simplify the feature engineering and data preprocessing steps.

Autoencoder

When applying an autoencoder, landslide/non-landslide labels and linear/nonlinear correlation assumptions are not needed [40]. In general, an autoencoder neural network for landslide susceptibility assessment consists of input layers for raw feature dropout, hidden layers for sparse feature encoding, output layers for sparse feature extraction, and classification for prediction. The autoencoder is trained to reconstruct the input of the landslide-influencing factors onto the output layer for feature extraction and dimensionality reduction. The methods prevent the simple copying of the data and the network [121].

Maher et al. [146] used an autoencoder as an optimized factor to learn features from a dataset in an unsupervised manner [58]. They indicated that this factor optimization strategy based on unsupervised learning improves the performance of tree-based landslide susceptibility models by reducing the dimensionality. However, the strategy requires additional experiments and statistical analysis.

An autoencoder consists of an encoder and a decoder. The encoder compresses the input data into a fewer (two shown here) dimensions in the so-called bottleneck layer. The decoder tries to reconstruct the original input from the compressed data in the bottleneck layer [38]. Driven by data rather than prior knowledge, the autoencoder is capable of transforming raw data into sparse and nonlinear correlated features [65]

As a typical deep learning method, when a CNN is applied in landslide susceptibility, whole landslide inventories can be regarded as an input matrix in which each pixel has several landslide-influencing attributes. That is, each condition factor layer can be a channel.

After selecting landslide-influencing factors, Wang et al. [179] constructed three CNN architectures (i.e., CNN-1D, CNN-2D, CNN-3D) to produce landslide susceptibility maps. More detailed results of the three architectures are as follows.

CNN-1D could exploit the local correction and gradually learn more intricate representations form factor vectors to directly extract the information from landslide influencing factors and landslide susceptibility analysis.

After converting a one-dimensional input grid cell (vector) comprised of different attribute features into a two-dimensional matrix, CNN-2D can extract the valuable hidden features to reflect the probability of a landslide occurring. The output is divided into two classes: landslides and non-landslides.

CNN-3D not only learns factor representations but also extracts local spatial information. Specifically, the CNN-3D architecture extracts the influencing factor information and spatial relations to predict the probability of landslide occurrence.

The results indicated that CNN can effectively extract spatial information using local connections and can significantly reduce the number of network parameters by sharing weights they can be used to produce reliable landslide susceptibility maps. Other related studies were scarce. Therefore, more research to verify different CNN architectures for landslide susceptibility assessment is needed.

Similar to other deep learning methods, CNN confronts a generalization problem: both underfitting and overfitting results in poor performance of classification models. As an optimization algorithm, gradient descent is acceptable and has been commonly used to tune CNN to minimize the cost function.

Pham et al. [130] selected a Moth-Flame Optimization (MFO) algorithm as a replacement. The regularization technique was applied by defining the search boundary (lower bound and upper bound) of the MFO algorithm to prevent the model from taking extreme values for connecting weights. In nature, moths move in groups in a spiral path towards a light source. Their positions can be modeled in dimensional space. In CNN applications, the hyperparameters of filters and weights of the fully connected layer were considered the dimensions of the moths, and the model searched for the best moth (i.e., the one with the smallest RMSE). Finally, the performance of the CNN model applied in landslide susceptibility assessment has been improved to some extent.

Another type of deep learning is RNN, which can use internal memory units to process arbitrary sequences of inputs. As a complicated evolution process, the formation and occurrence of landslides practically respond to the interaction of these multiple instability factors. The recurrent structure of the RNN will contribute to retaining the most critical information involved in a landslide occurrence and pass it to the next hidden state.

Workflow and general framework for machine learning methods in landslide susceptibility assessment. Conventional machine learning methods conduct hand-crafted feature selection. Deep learning methods (e.g., CNN, RNN) implement feature extraction. In CNN architectures, the landslide inventory is the input data. It can be regarded as a picture. Here, each pixel integrates information of different several influencing factor attributes. Layers of maps that converted from each factor represent a channel, respectively [179]. In RNN architectures, (W_) refers to weights for the connection of the input layer to the RNN layer (i.e., the hidden layer). U refers to the weights of connection in the RNN layer. (W_) refers to the weights for the connection of the hidden layer to the output layer [180]

Wang et al. [180] sorted each landslide-influencing factor layer in descending order of importance. Landslide influencing factors are viewed as a single-band image, and each pixel is converted into a sequential sample according to importance. Accordingly, the most important factors are sent to the RNN structure first, and the least important factors are sent last.

To express the complex relationships between landslide occurrences and continually changing factors, Xiao et al. [184] proposed a novel and dynamic model that can remember historical data using memory blocks. After collecting data and extracting features from the DEM, high-resolution remote sensing images, geologic maps, and meteorological data from January 2015 to December 2016, they built an LSTM model to solve the landslide susceptibility classification problem.


The point p should be projected onto the image plane via the model-view-projection matrix (MVP-matrix) which is composed as follows:

All four matrices are 4x4. For projection, p is given a fourth component w = 1 , to make it homogenous. Now it can be projected to p_ in camera space as follows:

The coordinates of p_ should be in range [0, 1] . The desired coordinates (x_, y_) can then be calculated by rescaling p_.x and p_.y to the ranges [0, res_x] , [0, res_y] , res_x and res_y being the resolution of the rendered image:

The result for this example is 4471.2872314453125 851.4681959152222 , which isn't even in the rendering which has a resolution of (960, 540) . The desired output would be something like 692.0, 104.5) .