Suite

Actualisation json d'interopérabilité des données

Actualisation json d'interopérabilité des données


J'utilise ArcGIS 10.2.2 avec l'extension d'interopérabilité des données. Je construis également une application Web en utilisant python, django et django-rest-framework. Je construis une api json que je peux ajouter à arcmap en utilisant l'interopérabilité des données. mais je ne peux pas comprendre comment faire en sorte qu'arcmap/catalogue vide le fichier json mis en cache qu'il télécharge et le remplace par une version mise à jour (comme je modifie la sortie de l'api). Des idées?


Deviner. Vous pouvez effacer le cache d'interopérabilité des données en cliquant sur « Effacer le cache » situé sous l'onglet Interopérabilité des données dans les options ArcMap :

Personnaliser -> Options ArcMap -> onglet Interopérabilité des données -> Vider le cache


Leçon 4.2 : Introduction à l'interopérabilité des données

Cette leçon vise à expliquer les bases de l'interopérabilité des données.

Après avoir étudié cette leçon, vous devriez être capable de :

comprendre les bases de l'interopérabilité des données

identifier les différents types et couches d'interopérabilité des données.

La définition la plus utilisée de « l'interopérabilité » sur le Web est : « la capacité d'un système ou d'un produit à fonctionner avec d'autres systèmes ou produits sans effort particulier de la part de l'utilisateur ». Wikipédia le définit comme « une caractéristique d'un produit ou d'un système, dont les interfaces sont parfaitement comprises, pour fonctionner avec d'autres produits ou systèmes, présents ou futurs, dans la mise en œuvre ou l'accès, sans aucune restriction ».

Lorsque nous parlons d'interopérabilité des données, étant donné que les données sont sérialisées dans des ensembles de données, les définitions ci-dessus peuvent être facilement appliquées à un ensemble de données en tant que produit.

Dans les actes d'une conférence organisée par la communauté CIARD sur l'interopérabilité des données pour l'agriculture, l'interopérabilité des données a été définie comme « une caractéristique des ensembles de données… grâce à laquelle les données peuvent être facilement récupérées, traitées, réutilisées et reconditionnées (« exploitées ») par d'autres systèmes .’

Certaines définitions le définissent comme l'interopérabilité «entre deux systèmes», mais il est communément admis que quelque chose est vraiment interopérable (ou plus interopérable) lorsque autant de systèmes que possible peuvent l'interopérer. Plus encore, nous verrons qu'en utilisant certains formats de données et en appliquant certaines normes de données, les données peuvent être rendues « interopérables par conception » sans nécessairement savoir avec quel système elles seront interopérables : l'interopérabilité planifiée avec des systèmes spécifiques signifie que les données seront « » étroitement couplé avec ces systèmes, tandis que l'interopérabilité maximisée vise à un couplage lâche avec autant de systèmes que possible.

Cependant, il n'y aura jamais quelque chose comme une interopérabilité universelle ou parfaite, une manière d'exposer des données qui conviendra à tous les cas possibles. L'interopérabilité est toujours relative à un système de normes partagées et de modes d'utilisation communs des données qui sont dans certains cas très larges et polyvalents (comme Dublin Core ou schema.org et un cas d'utilisation de moteur de recherche générique) et dans d'autres cas très spécifiques à communautés scientifiques ou d'intérêt (comme les spécifications de données et les visualisations de séquences de gènes).

En effet, les définitions ci-dessus définissent l'interopérabilité comme une caractéristique des seules données, ce qui est correct car elles sont l'objet de l'interopérabilité, mais l'écosystème d'acteurs et de produits qui doivent coopérer pour parvenir à une interopérabilité complète est plus large : un définition intéressante de l'interopérabilité qui souligne l'importance des « attentes partagées » est celle du Data Interoperability Standards Consortium (DISC) : « L'interopérabilité des données traite de la capacité des systèmes et services qui créent, échangent et consomment des données à avoir des attentes claires et partagées pour le contenu, le contexte et la signification de ces données.'

L'interopérabilité peut être réalisée à différents niveaux. Alors que Wikipédia fait la distinction entre l'interopérabilité syntaxique et l'interopérabilité sémantique, une distinction plus granulaire est faite dans la classification des types d'interopérabilité par la Healthcare Information and Management Systems Society (HIMSS) :

Fondamental L'interopérabilité permet à l'échange de données d'un système informatique d'être reçu par un autre et ne nécessite pas la capacité du système informatique destinataire à interpréter les données.

Ce niveau concerne principalement les protocoles de transmission, que nous n'analyserons pas car il n'intéresse pas le gestionnaire de données, mais il couvre également certains protocoles d'échange de niveau supérieur, fonctionnant principalement au-dessus du protocole HTTP commun (par exemple des API REST spéciales comme OAI-PMH, SPARQL, Linked Data API ou négociation de contenu basée sur des requêtes de type contenu HTTP). Celles-ci peuvent être intéressantes pour les gestionnaires de données car, avant d'être lues et comprises, les données doivent être transmises, et il existe des moyens différents et plus pratiques de le faire en plus des téléchargements FTP. Nous verrons ce niveau d'interopérabilité dans la leçon 4.3.

De construction L'interopérabilité est un niveau intermédiaire qui définit la structure ou le format de l'échange de données (c'est-à-dire les normes de format de message). L'interopérabilité structurelle définit la syntaxe de l'échange de données. Il garantit que les échanges de données entre les systèmes informatiques peuvent être interprétés au niveau du champ de données.

C'est le niveau où les formats de fichiers et les formats de données jouent le rôle le plus important et c'est le niveau où les (méta)données deviennent « lisibles par machine » et peuvent être analysées par des machines : plus il est facile pour la machine d'analyser les (méta) format/syntaxe des données (XML, Json, CSV…) plus les données sont structurellement interopérables. Nous examinerons ce niveau d'interopérabilité plus en profondeur dans la leçon 4.3.

Sémantique L'interopérabilité assure l'interopérabilité au plus haut niveau, c'est-à-dire la capacité de deux ou plusieurs systèmes ou éléments à échanger des informations et à utiliser les informations qui ont été échangées. L'interopérabilité sémantique profite à la fois de la structuration de l'échange de données et de la codification des données y compris le vocabulaire afin que les systèmes informatiques récepteurs puissent interpréter les données.

Alors qu'avec l'interopérabilité structurelle, les machines comprennent ce que sont les différents éléments (et leur relation structurelle réciproque), avec l'interopérabilité sémantique, elles comprennent également la signification de ces éléments et peuvent les traiter avec des outils sensibles à la sémantique et faire un raisonnement avancé. Les formats de données ne suffisent pas pour cela : les technologies sémantiques (voir leçon 4.4) permettent d'intégrer des éléments sémantiques lisibles par machine à partir de vocabulaires convenus dans des (méta)données sérialisées dans la plupart des formats de données existants, bien que les formats les plus appropriés pour cela soient jusqu'à présent les différentes saveurs de RDF (RDF/XML, Turtle, N-Triples) et JSON-LD. Nous verrons ce niveau d'interopérabilité dans la leçon 4.4.

Dans la leçon 4.3, nous verrons comment l'interopérabilité structurelle et architecturale peut être mise en œuvre. Dans la leçon 4.4, nous verrons comment l'interopérabilité sémantique peut être implémentée, avec des exemples plus spécifiques dans la leçon 4.4.1.

Pour des recommandations plus détaillées sur la façon de mettre en œuvre l'interopérabilité des données, le W3C ‘Data on the Web Best Practices’ est probablement le meilleur document de référence. Il est fortement basé sur l'approche « données liées » (voir leçon 4.3), mais de nombreuses recommandations aident à mettre en œuvre l'interopérabilité à différents niveaux, même si elles ne visent pas 100 % de données liées.

Les données sans métadonnées ne peuvent pas être comprises par les machines. Les données sont normalement accompagnées de métadonnées.

La définition des données dans Wikipédia est : ‘ Les données sont valeurs de variables qualitatives ou quantitatives, appartenant à un ensemble d'items En tant que tel, à la fin, les données font toujours partie d'une collection (un ensemble d'éléments) et dans l'élément individuel (ligne, enregistrement) de l'ensemble, les données sont les valeurs de certaines variables, elles seront donc toujours encapsulées dans une forme de paire clé-valeur où la clé (la variable) est en fin de compte un élément de métadonnées qui donne un sens aux données. Cette paire clé-valeur est ce que l'on appelle en termes FAIR[5] « une seule association entre deux concepts », qui est « l'un des plus petits « éléments de données » possibles.

Les deux parties de la paire clé-valeur peuvent présenter des problèmes d'interopérabilité, nous traitons donc des problèmes d'interopérabilité des métadonnées (par exemple des schémas convenus pour les éléments de métadonnées, des noms de variables convenus) et des problèmes d'interopérabilité des données/valeurs (par exemple des listes contrôlées convenues /ranges à partir desquelles la valeur doit être prise, ou problèmes de syntaxe). Cependant, étant donné qu'il est également courant de considérer les valeurs contrôlées et la spécification de la syntaxe ou de l'unité de mesure comme des « métadonnées » (notamment parce qu'elles devraient idéalement être définies par des éléments de métadonnées distincts et non dans la valeur elle-même), nous pouvons également dire que l'interopérabilité est principalement sur les métadonnées. L'interopérabilité des données est obtenue grâce à l'interopérabilité des métadonnées, par ex. nous voulons que les métadonnées « température de l'air » soient interopérables pour obtenir ensuite la valeur réelle (les données) dont nous avons besoin - le nombre qui exprime la valeur ne sera jamais trouvable ou compréhensible en soi sans les métadonnées associées.

Nous suivrons la même convention adoptée dans les principes directeurs FAIR mentionnés ci-dessus, en utilisant le terme (méta)données lorsque quelque chose s'applique indifféremment aux données et aux métadonnées.

Il existe des métadonnées qui accompagnent les données individuelles collectées et il existe des métadonnées générales sur l'ensemble de la collection à laquelle les données appartiennent.

Un ensemble de données peut être décrit et rendu interopérable en tant que produit en soi, une « œuvre » (avec ses propres métadonnées) et en tant que données contenues dans un ensemble de données (avec leurs propres métadonnées, les variables auxquelles correspondent les valeurs).

L'interopérabilité peut être réalisée au niveau des métadonnées du jeu de données et au niveau des données : de bonnes métadonnées du jeu de données peuvent jeu de données détectable de bonnes métadonnées sur la structure des données peuvent données analysables (de plus, l'utilisation d'une sémantique telle que des noms de variables normalisés liés à des vocabulaires convenus ou à des valeurs contrôlées dans les enregistrements de données réels rendra données compréhensibles et entièrement interopérable, voir la leçon 4.4 pour en savoir plus à ce sujet).

Les principes FAIR sont très explicites concernant les différentes couches de métadonnées/données : selon leur définition, un Data Object est « un élément de données avec des éléments de données + des métadonnées ’ et ils utilisent le terme (Méta)données lorsque « le principe est vrai pour les métadonnées ainsi que pour les éléments de données réels et collectés dans l'objet de données ».

De plus, le même jeu de données peut être distribué sous différentes formes (un fichier Excel, un CSV, un format spécifique à l'application) et pour que les machines sachent quelle distribution obtenir, nous avons également besoin de métadonnées sur le répartitions (par exemple, format, licence, encore une fois les métadonnées structurelles).

Il est important d'être conscient du fait qu'il existe différentes couches de métadonnées : métadonnées décrivant l'ensemble de données (métadonnées de description/métadonnées de découverte), métadonnées décrivant les distributions et métadonnées décrivant les données (métadonnées structurelles décrivant les noms, les types et les plages de valeurs dans l'ensemble de données, par exemple les noms et les types de colonnes dans un ensemble de données tabulaire) qui peut être au niveau de l'ensemble de données ou au niveau de l'élément de données.

Tous les principaux modèles d'ensembles de données/métadonnées prévoient des métadonnées au moins à deux niveaux : l'ensemble de données et la distribution. La plupart d'entre eux prévoient également des métadonnées au niveau de l'un des enregistrements ou même (dans le cas de FAIR) d'éléments de données plus petits tels qu'une paire clé-valeur.


À quoi cela ressemble-t-il lorsque vous combinez la puissance brute de deux des principales plates-formes logicielles de l'industrie en un seul super-outil géant ? Dans mon esprit, un peu comme un épisode de dessin animé où tous les véhicules respectifs des héros se combinent en un seul &hellip Continuer la lecture &rarr

Ma banque aime quand je dépense de l'argent. Tout l'argent qui entre et sort de leurs poches se traduit par des revenus pour eux. Ma banque aime aussi m'aider à dépenser mon argent et a créé une "application" sophistiquée pour &hellip Continuer la lecture &rarr


Données Géochimiques Européennes GSI GEMAS

L'ensemble de données GEMAS est basé sur un échantillonnage géochimique à faible densité des sols agricoles (Ap) et des prairies (Gr) dans 34 pays européens. Densité d'échantillonnage couvrant une superficie de 5,6 millions de km2 de 1 site chacun, des terres arables (0-20 cm) et des terres sous couverture herbacée permanente (0-10 cm), par 2500 km2. La Cartographie Géochimique des Sols Agricoles et Pastoraux comprend plus de 70 éléments et paramètres chimiques déterminés sur plus de 4000 échantillons de sol. La géochimie de l'agriculture et des pâturages européens est représentée graphiquement sur les cartes de l'atlas géochimique du GEMAS.

En 2016, le Geological Survey of Ireland, en tant que partenaire européen, contribue au GEMAS et à l'EGDI (European Geological Data Infrastructure) en fournissant une classification des données spatiales SIG et en publiant des services de cartographie Web géochimique WMS pour soutenir l'interopérabilité des données européennes du portail Web EGDI.

L'échantillon de classification GIS GEMAS a été construit dans ArcGIS 10.1 et le jeu de données GEMAS d'origine est disponible au format de fichier de formes ESRI.


5 réponses 5

J'ai fait cette recherche la semaine dernière et je me suis retrouvé avec les mêmes 2 bibliothèques. Comme j'utilise Spring 3 (qui adopte Jackson dans sa vue Json par défaut 'JacksonJsonView'), il était plus naturel pour moi de faire de même. Les 2 lib sont à peu près les mêmes. à la fin, ils correspondent simplement à un fichier json ! :)

en tout cas comme tu dis Jackson a un + en performance et c'est très important pour moi. Le projet est également très actif comme vous pouvez le voir sur leur page web et c'est aussi un très bon signe.

Jackson et Gson sont les packages Java JSON les plus complets en ce qui concerne la prise en charge réelle de la liaison de données. De nombreux autres packages ne fournissent que la liaison primitive Map/List (ou modèle d'arbre équivalent). Les deux ont également une prise en charge complète des types génériques, ainsi qu'une configuration suffisante pour de nombreux cas d'utilisation courants.

Étant donné que je connais mieux Jackson, voici quelques aspects pour lesquels je pense que Jackson a un support plus complet que Gson (excuses si je manque une fonctionnalité Gson):


1.3 Allégations de certification et de conformité

Bien qu'il puisse être démontré qu'un produit est conforme à cette spécification, aucun produit ne peut être désigné comme Certifié SIF™ par une organisation ou un individu jusqu'à ce que le produit ait été testé et satisfait aux critères de conformité établis, publiés séparément [SIFCertification]. Les organisations et les individus qui paient actuellement des cotisations annuelles à l'Association SIF et qui consacrent des ressources à l'initiative peuvent également utiliser la désignation Participant SIF pour décrire leur implication avec l'Association SIF et SIF dans le marketing, les relations publiques et d'autres documents.


TRAVAUX CONNEXES

Interopérabilité des données géospatiales: niveaux d'interopérabilité pour les données géospatiales (Bishr 1998 Sheth 1999 Brodaric 2007 Manso et al. 2009) sont abordés via des approches architecturales qui ont évolué initialement de SOA à SDI à LOD (Wache et al. 2001 Manso et al. 2009 Nativi et al. 2014 Kuhn et al. 2014). Les réseaux de données associés couvrent la variété des disciplines concernées par les données géospatiales, y compris les géosciences telles que la géologie, la couverture et l'utilisation des terres, les sols, les océans, la végétation et autres (Brodaric & Gahegan 2006 INSPIRE 2008 Durbha et al. 2009 Lutz et al. 2009), mais n'ont pas été créés à ce jour pour le domaine des eaux souterraines.

Interopérabilité des données sur les eaux de surface : premiers réseaux de données d'interopérabilité dans le domaine hydroélectrique axés sur les données sur les eaux de surface, plutôt que sur les données sur les eaux souterraines, initialement par l'adoption de SOA et de services Web propriétaires (par exemple, Tarboton et al. 2011), incluant des approches sémantiques (Beran & Piasecki 2009 Duce & Janowicz 2010), bientôt suivies par les architectures SDI et les services web standards (Bermudez & Arctur 2011 Yu & Di 2014). En complément de ce passage aux approches SDI, des travaux en cours sur des schémas standard pour divers aspects des eaux de surface (Taylor 2012 Dornblut & Atkinson 2014 Jackson et al. 2014). D'autres développements récents, principalement parmi les chercheurs universitaires, incluent les approches LOD des eaux de surface pour aider à la création de relations entre les données, en particulier pour aider à la prise de décision (Curry et al. 2014 Anzaldi & amp Wu 2014). Bien que bon nombre de ces aspects architecturaux soient transférables aux données sur les eaux souterraines, les caractéristiques des eaux souterraines restent largement une préoccupation secondaire et ne sont pas représentées de manière exhaustive, et le support sémantique se concentre principalement sur la découverte de données plutôt que sur la livraison de données.

Interopérabilité des données sur les eaux souterraines: jusqu'à récemment, la construction et la liaison de réseaux de données sur les eaux souterraines étaient largement absentes en dehors des projets GIN et NGWMN. Les premiers efforts d'IDS dans les eaux souterraines incluent la spécification de schémas pour l'échange de données en Amérique du Nord et en Europe (Boisvert & Brodaric 2012 INSPIRE 2013). Ceux-ci servent de base à l'initiation et au développement continu de normes internationales pour les caractéristiques des eaux souterraines (Lucido & Booth 2014), ainsi qu'à la construction de réseaux de données sur les eaux souterraines basés sur le SDI, tels que le projet Visualizing Victoria's Groundwater pour l'État australien de Victoria ( Dahlhaus et al. 2012) et les efforts émergents en Nouvelle-Zélande (Klug & Kmoch 2014). Cependant, ces réseaux de données sur les eaux souterraines n'ont pas (encore) été explicitement liés à d'autres réseaux de ce type, contrairement à GIN et NGWMN.


Permettre aux utilisateurs de télécharger des ensembles de données entiers en masse

Lorsque vous fournissez une API Open Data, vous devez permettre aux utilisateurs de télécharger des ensembles de données entiers, à moins qu'ils ne contiennent des informations restreintes. Cela donne aux utilisateurs :

la capacité d'analyser l'ensemble de données localement

assistance lors de l'exécution d'une tâche nécessitant l'accès à l'ensemble des données (par exemple, tracer un graphique sur les zones de recrutement scolaire en Angleterre)

Les utilisateurs doivent être en mesure d'indexer leur copie locale des données à l'aide de la technologie de base de données de leur choix, puis d'effectuer une requête pour répondre à leurs besoins. Cela signifie que les futurs temps d'arrêt de l'API ne les affecteront pas, car ils disposent déjà de toutes les données dont ils ont besoin.

L'utilisation d'une requête API de données enregistrement par enregistrement pour effectuer la même action serait sous-optimale, à la fois pour l'utilisateur et pour l'API. Ceci est dû au fait:

les limites de débit ralentiraient l'accès, ou pourraient même empêcher le téléchargement complet de l'ensemble de données

si l'ensemble de données est mis à jour en même temps que le téléchargement enregistrement par enregistrement, les utilisateurs peuvent obtenir des enregistrements incohérents

Si vous autorisez un utilisateur à télécharger un ensemble de données complet, vous devriez envisager de lui fournir un moyen de le maintenir à jour. Par exemple, vous pouvez diffuser en direct vos données ou les informer que de nouvelles données sont disponibles afin que les consommateurs d'API sachent qu'ils doivent vous télécharger périodiquement des données d'API.


Contenu

L'API SensorThings est conçue spécifiquement pour les appareils IoT à ressources limitées et la communauté des développeurs Web. Il suit les principes REST, l'encodage JSON et le protocole OASIS OData et les conventions d'URL. En outre, il dispose d'une extension MQTT permettant aux utilisateurs/appareils de publier et de souscrire des mises à jour à partir d'appareils, et peut utiliser CoAP en plus de HTTP.

La base de l'API SensorThings est son modèle de données basé sur la norme ISO 19156 (Observations et mesures ISO/OGC), qui définit un modèle conceptuel pour les observations et pour les fonctionnalités impliquées dans l'échantillonnage lors de la réalisation d'observations. Dans le contexte de SensorThings, les caractéristiques sont modélisées comme Des choses, Capteurs (c'est à dire., Procédures dans O&M), et Caractéristique des intérêts. En conséquence, l'API SensorThings fournit une vue de mise au point d'observation interopérable, qui est particulièrement utile pour concilier les différences entre les systèmes de détection hétérogènes (par exemple, in situ capteurs et capteurs à distance).

Un appareil ou un système IoT est modélisé comme un Chose. UNE Chose a un nombre arbitraire de Lieus (dont 0 Lieus) et un nombre arbitraire de Flux de données (dont 0 Flux de donnéess). Chaque Flux de données observe un Propriété observée avec une Capteur et a beaucoup Observations collecté par le Capteur. Chaque Observation observe un particulier CaractéristiqueD'intérêt. Le modèle basé sur O&M permet à SensorThings d'accueillir des appareils IoT hétérogènes et les données collectées par les appareils. [5]

L'API SensorThings fournit deux fonctionnalités principales, chacune gérée par une partie. Les deux profils sont la partie Détection et la partie Tâche. La partie Détection fournit un moyen standard de gérer et de récupérer des observations et des métadonnées à partir de systèmes de capteurs IoT hétérogènes, et les fonctions de la partie Détection sont similaires au service d'observation des capteurs OGC. La partie Tâche fournit un moyen standard de paramétrer - également appelé tâche - des appareils IoT pouvant être chargés, tels que des capteurs ou des actionneurs. Les fonctions de la partie Tasking sont similaires au service de planification des capteurs OGC. La partie Détection est conçue sur la base du modèle d'observations et de mesures ISO/OGC (O&M) et permet aux appareils et applications IoT de CRÉER, LIRE, METTRE À JOUR et SUPPRIMER (c'est à dire., HTTP POST, GET, PATCH et DELETE) Données et métadonnées IoT dans un service SensorThings.

SensorThings API Part I - Sensing définit les ressources suivantes. Comme SensorThings est un service Web RESTful, chaque entité peut être CREATE, READ, UPDATE et DELETE avec des verbes HTTP standard (POST, GET, PATCH et DELETE) : [6] [7]

  • Chose : Un objet du monde physique (choses physiques) ou du monde de l'information (choses virtuelles) qui est susceptible d'être identifié et intégré dans des réseaux de communication. [8]
  • Emplacements : Localise le Chose ou la Des choses il est associé à.
  • HistoricalLocations : Set fournit les emplacements actuels (c'est-à-dire, les derniers connus) et précédents du Chose avec leur temps.
  • Datastream : Une collection d'Observations et les Observations dans un Flux de données mesurer la même chose Propriété observée et sont produits par le même Capteur.
  • ObservedProperty : Spécifie le phénomène d'un Observation.
  • Capteur : Un instrument qui observe une propriété ou un phénomène dans le but de produire une estimation de la valeur de la propriété.
  • Observation : Acte de mesurer ou autrement déterminer la valeur d'un bien. [9]
  • Caractéristique d'intérêt : un Observation entraîne l'attribution d'une valeur à un phénomène. Le phénomène est une propriété d'une caractéristique, cette dernière étant la CaractéristiqueD'intérêt de la Observation. [9]

En plus des ressources de détection ci-dessus, SensorThings API Part II - Tasking Core définit les ressources suivantes : [10]

  • TaskingCapabilities : spécifie les paramètres de tâche d'un actionneur.
  • Tâches : Une collection de Tâches qui a été créée.
  • Actionneur : Un type de transducteur qui convertit un signal en une action ou un phénomène du monde réel. [11]

Afin de réduire la taille des données transmises sur le réseau, l'extension de tableau de données API SensorThings permet aux utilisateurs de demander plusieurs entités d'observation et de formater les entités au format dataArray. Lorsqu'un service SensorThings renvoie une réponse dataArray, le service regroupe les entités Observation par Datastream ou MultiDatastream, ce qui signifie que les entités Observation liées au même Datastream ou au même MultiDatastream sont agrégées dans un dataArray.

Exemple de demande de tableau de données Modifier

Exemple de réponse de tableau de données Modifier

Interopérabilité entre OpenIoT et SensorThings "Nous pensons que la mise en œuvre de l'API SensorThing sera une amélioration majeure pour le middleware OpenIoT. Cela donnera à OpenIoT une interface standardisée et vraiment facile à utiliser pour les valeurs des capteurs. Cela complétera les services de raisonnement sémantique riches avec une interface simple basée sur les ressources. Et le mappage cohérent du modèle de données donne à la fois un contexte commun pour décrire l'Internet des objets". [12]

L'API SensorThings a été démontrée dans un projet pilote [13] parrainé par le Department of Homeland Security Science and Technology Directorate. Le Dr Reginald Brothers, sous-secrétaire à la science et à la technologie de la sécurité intérieure, a été "impressionné par l'état de la pratique où ces divers capteurs de l'industrie peuvent être intégrés aujourd'hui à l'aide de normes ouvertes qui suppriment les limitations de cloisonnement des technologies uniques. [ 14] "

  • API OGC® SensorThings Partie 1 : Détection[6]
    • Numéro de référence interne de ce document OGC® : 15-078r6
    • Date de soumission : 2015-06-18
    • Date de publication : 2016-07-26
    • Éditeur : Steve Liang (Université de Calgary/SensorUp)
    • Co-éditeurs : Chih-Yuan Huang (National Central University) / Tania Khalafbeigi (University of Calgary/SensorUp)
    • Numéro de référence interne de ce document OGC® : 17-079r1
    • Date de soumission : 2017-10-13
    • Date de publication : 2019-01-08
    • Éditeur : Steve Liang (Université de Calgary/SensorUp)
    • Co-éditrices : Tania Khalafbeigi (Université de Calgary/SensorUp)
    • Partie I - Détection
    • Partie II - Tâches

    Moustaches Modifier

    En mars 2016, SensorUp et le GeoSensorWeb Lab de l'Université de Calgary ont soumis une proposition de projet de logiciel open source à la Fondation Eclipse et ont été approuvées. Le projet s'appelle Whiskers. [15] Whiskers est un framework API OGC SensorThings. Il aura un client JavaScript et un serveur léger pour les appareils de passerelle IoT (par exemple, Raspberry Pi ou BeagleBone). Whiskers vise à favoriser un écosystème IoT sain et ouvert, par opposition à un écosystème dominé par des silos d'informations propriétaires. Whiskers vise à faciliter le développement de SensorThings pour le monde vaste et en pleine croissance des développeurs IoT.

    GOST Modifier

    GOST [16] est une implémentation open source de l'API SensorThings dans le langage de programmation Go initiée par Geodan. Il contient un logiciel serveur facilement déployable et un client JavaScript. Actuellement (juin 2016) il est en développement mais une première version peut déjà être téléchargée et déployée. Le logiciel peut être installé sur n'importe quel appareil prenant en charge Docker ou Go (par exemple Windows, Linux, Mac OS et Raspberry Pi). Par défaut, les données des capteurs sont stockées dans une base de données PostgreSQL.

    GEL Modifier

    FROST-Server [17] est une implémentation serveur Open Source de l'API OGC SensorThings. FROST-Server implémente l'intégralité de la spécification, y compris toutes les extensions. Il est écrit en Java et peut s'exécuter dans Tomcat ou Wildfly et est disponible sous forme d'image Docker. Parmi ses nombreuses fonctionnalités, citons la possibilité d'utiliser des identifiants d'entité basés sur une chaîne ou un UUID.

    FROST-Client [18] est une bibliothèque cliente Java pour communiquer avec un serveur compatible API SensorThings.

    SensorThings HcDT Charting SDK Modifier

    SensorThings HcDT [19] est une bibliothèque de graphiques JavaScript pour l'API OGC SensorThings. Il est basé sur l'open source [ éclaircissements nécessaires ] Bibliothèque Highcharts et DataTables. Il s'agit d'une bibliothèque de graphiques frontale permettant aux développeurs de se connecter à des flux de données à partir de n'importe quel service API OGC SensorThings et d'afficher les observations des capteurs dans des graphiques, des tableaux ou des widgets de tableau de bord pour les applications Web.

    Mozilla STA Modifier

    Mozilla a développé une implémentation de nœud de l'API OGC SensorThings. [20]

    52°Nord STA Modifier

    52N SensorThingsAPI [21] est une implémentation open source de l'API OGC SensorThings. Ses principales caractéristiques sont l'interopérabilité avec le 52N SOS mettant en œuvre le service d'observation des capteurs OGC, des mappages de bases de données personnalisables et plusieurs extensions pratiques. Il peut être déployé en tant que conteneur Docker, dans un Apache Tomcat ou en tant qu'application autonome.

    Expérience opérationnelle S&T Shaken Fury du Département de la sécurité intérieure Modifier

    En 2019, l'expérience opérationnelle Shaken Fury [22] pour le programme DHS Next Generation First Responder décrit un scénario de tremblement de terre provoquant un effondrement structurel partiel et une fuite HAZMAT dans un stade. L'API OGC SensorThings est utilisée comme interface standard [23] qui interconnecte plusieurs capteurs et offre une connaissance de la situation en temps réel activée par l'IoT.

    Smart Citizens for Smart Cities YYC - Détection de la qualité de l'air par la foule Modifier

    Le 8 octobre 2016, [24] un groupe de bénévoles (citoyens intelligents) à Calgary s'est réuni, a assemblé leurs propres capteurs, les a installés chez eux et a formé un réseau de capteurs de qualité de l'air participatif. Toutes les données sont accessibles au public via l'API OGC SensorThings. [25] Ces efforts de détection citoyenne ont augmenté le nombre de capteurs de qualité de l'air de Calgary de 3 à plus de 50.

    Projet d'émission intelligent à Nijmegen, NL Modifier

    Smart Emission [26] est un projet de surveillance de la qualité de l'air dans la ville de Nijmegen, aux Pays-Bas. Le projet a déployé plusieurs capteurs de qualité de l'air dans toute la ville. Les données sont publiées avec des normes ouvertes, y compris l'API OGC SensorThings. Une partie du projet est un moteur ETL open source pour charger les données du capteur du projet dans une API OGC SensorThings. [27]

    Tableau de bord SensorThings Modifier

    Ce tableau de bord fournit une visualisation côté client facile à utiliser des données des capteurs de l'Internet des objets à partir des serveurs compatibles OGC SensorThings API. Différents types de widgets peuvent être organisés et configurés sur le tableau de bord. Il s'agit d'une application Web qui peut être intégrée à n'importe quel site Web. Une démo en direct est disponible sur la page du projet. https://github.com/SensorThings-Dashboard/SensorThings-Dashboard

    Tableau de bord GOST v2 Modifier

    GOST Dashboard v2 est une bibliothèque open source d'éléments HTML personnalisés (composants Web) prenant en charge l'API SensorThings. Ces éléments facilitent le développement d'applications HTML intégrant des fonctionnalités et des données de services compatibles avec l'API SensorThings. Les composants sont développés avec Predix-UI et Polymer.

    L'API SensorThings fournit des fonctions similaires au service d'observation des capteurs OGC, une spécification OGC approuvée en 2005. Les deux spécifications standard font partie de la suite standard OGC Sensor Web Enablement. Le tableau suivant résume la différence technique entre les deux spécifications. [28]


    Conclusion

    L'article se concentre sur l'interopérabilité des géodonnées dans le domaine des transports et présente les résultats du projet OpenTransportNet. Il montre et explique d'abord le processus d'harmonisation dans son ensemble, puis mentionne l'importance de la description des données – medatada – et de son harmonisation. Après cela, l'article se concentre d'abord sur l'ouverture des données en général - en décrivant un cas d'utilisation possible - en utilisant la solution Datatank, qui permet à la fois d'augmenter le niveau de données liées et de servir des données dans divers formats. Ensuite, l'article aborde le domaine du transport et montre un moyen d'harmoniser les données liées au transport dans un schéma ouvert standardisé (défini dans INSPIRE TWG [7]). Ensuite, la section des résultats décrit les leçons apprises - les expériences, qui peuvent être utiles pour les responsables municipaux et autres propriétaires de données qui souhaitent fournir et travailler avec différentes sources de données spatiales et non spatiales, en mettant l'accent sur trois résultats clés : 1) s'assurer que les données sont et reste adapté à l'objectif 2) publier les données de manière à réduire les obstacles à la réutilisation et permettre de les combiner avec d'autres données 3) soutenir l'utilisation des données grâce à des métadonnées fiables et cohérentes et des portails de données faciles à utiliser et enfin au moins 4) assurer l'interopérabilité avec, et construire, les grands ensembles de données (et internationaux) établis.