Suite

Script ou outil portable open source rapide et robuste pour l'interpolation - la triangulation ou similaire

Script ou outil portable open source rapide et robuste pour l'interpolation - la triangulation ou similaire


je cherche quelques bibliothèque/script/outil d'interpolation open source rapide et robuste.

L'objectif est de ré-interpoler relativement gros (1M+ points) grilles non structurées (xyz) en grilles cartésiennes haute résolution (fichiers tif ou autre format que je peux traiter avec GDAL) pour produire de jolis contours lisses.

Jusqu'à présent, le seul moyen utilisable que j'ai trouvé est d'utiliser la triangulation dans saga_cmd mais plus j'ai de points, plus cela prend de temps et à partir d'un nombre plus élevé, ce n'est pas fini même après des heures alors que si je fais la même chose dans d'autres logiciels SIG via l'interface graphique, cela prend seulement quelques secondes à quelques minutes maximum.

Je voulais utiliser GDAL mais bien que le plus proche soit rapide, cela ne me donne pas les détails dont j'ai besoin et d'autres méthodes ont pris du temps, même pour un nombre de points inférieur… Je ne sais pas si/comment pourrais-je utiliser GRASS. L'une de mes exigences est que le la solution doit être portable (jusqu'à présent, j'ai utilisé python portable, gdal et saga).

Sur la base des réponses à ce jour :

  1. Exemple de données

  2. gdal_fillnodata est incroyablement rapide mais laisse des pointes quel que soit leur degré de lissage, idem avec les écarts étroits SAGA, où la vitesse dépend fortement du seuil de tension, plus c'est gros, plus c'est rapide

  3. toutes les interpolations gdal (2 et les plus proches) ne sont pas vraiment adaptées à cette tâche - la plus proche prend juste la valeur la plus proche (pas vraiment l'interpolation), la moyenne mobile est une étape meilleure mais crée de grandes étapes qui ne conviennent pas aux contours, l'IDW est très difficile à définir à des résultats raisonnables et de toute façon cela prend trop de temps

  4. jusqu'à présent, les meilleurs résultats que j'ai obtenus sont toujours avec la triangulation. Comme je l'ai mentionné, le bus prend beaucoup de temps avec SAGA pour les grilles de taille moyenne et pour les gros, il échoue

Il y a encore quelques choses que je n'ai pas encore essayées ou pas testées correctement :

  • SAGA Close Gaps avec spline
  • python NUMPY et Skipy comme mentionné dans ce fil : Lissage/interpolation raster en Python à l'aide de GDAL ?

Les deux, je ne suis pas sûr de la vitesse et je serai heureux de toute expérience ou de meilleures suggestions. Merci.


Le légendaire la triangulation est disponible http://www.cs.cmu.edu/~quake/triangle.html

de la page :

J'ai chronométré la triangulation de Delaunay de 1 000 000 de sommets uniformément répartis aléatoirement dans un carré. La sortie contenait 1 999 955 triangles. (J'ai utilisé le commutateur -I pour supprimer la réécriture des sommets d'entrée dans un autre fichier, car les sommets écrits seraient identiques à ceux lus. Par conséquent, seuls les triangles ont été écrits sur le disque.) Temps de triangulation de Delaunay : 20,761 sec Temps de sortie du fichier : 28,794 s Durée totale (au-dessus plus entrée de fichier) : 56,115 s

Cela a été traduit en une bibliothèque python selon http://dzhelil.info/triangle/index.html# qui comprend la documentation, téléchargez https://pypi.python.org/pypi/triangle/2013.04.05 - notez, ces les liens peuvent devenir morts à mesure que la version change. Je les ai trouvés avec google en moins de 10 minutes.


Dans la saga, assurez-vous de lire vos données comme un nuage de points "Importer un nuage de points à partir d'un fichier texte" et traitez-le comme un nuage de points :Nuage de points vers grille. Cela devrait être beaucoup plus rapide que d'utiliser la forme. La dernière étape peut êtrecombler les lacunespour remplir toutes les valeurs non données.

Je ne recommanderais pas d'utiliser la triangulation si vous voulez juste une grille. l'algorithme prend du temps et n'est pas meilleur que les autres.


Je n'ai jamais utilisé l'outil moi-même, maispoints2grillea été conçu pour être un outil léger pour interpoler de grands ensembles de données ponctuelles dans une grille structurée. On le trouve à quelques endroits :

  • ASU / GEON Points2Grid Utility, un outil Windows uniquement, et je pense le premier à implémenter l'algorithme. Il n'a pas été mis à jour depuis 2007.
  • Points2grid de NSF OpenTopography, avec un article de blog connexe qui fait référence à l'outil GEON.
  • Les points2grid de CRREL, qui peuvent être liés à PDAL. Ceci est la version actuelle de l'outil, et est un fork de l'outil OpenTopography. Pour l'utiliser, il faut savoir compiler avec CMake, ou installer avec OSGeoW4.

Enfin, pour créer des contours, essayez d'utiliser gdal_contour avec le raster interpolé.


J'ai fini par utiliser Python avec GDAL, etc., car il est facile à installer et après ce package portable lors de l'installation de QGIS OSGeo4W. Matplotlib - matplotlib.mlab.griddata (interp='linear') pour une interpolation ultra-rapide dans une grille régulière. Sur cela, appliquez matplotlib.pyplot.contour à un contourage très rapide. Package osgeo.ogr et shapely pour enregistrer aux formats SIG. Le noyau de mon code a été énormément inspiré par le plugin python QGIS appelé "Contour plugin" - https://github.com/ccrook/QGIS-Contour-Plugin (Plugin construit par Lionel Roubeyrie. Contributions de Chris Crook)


Script portable open source rapide et robuste ou outil d'interpolation - triangulation ou similaire - Systèmes d'information géographique

Logiciel, 2002, 149(1), 3-17. 3. DiBona, C., Cooper, D., et Stone, M. (Eds.), Open Sources 2.0, 2005, O'Reilly Media, Sebastopol, CA. Voir également C. DiBona, S. Ockman et M. Stone (éds.). Open Sources : Vocides from the Open Source Revolution, 1999. O’Reilly Media, Sebastopol, CA. 4. Ducheneaut, N.

Cong, Truong Van Chi Groeneveld, Eildert

Les systèmes d'information open source complexes sont généralement implémentés en tant que logiciels basés sur des composants pour hériter des fonctionnalités disponibles des progiciels existants développés par des tiers. Par conséquent, le déploiement de ces systèmes nécessite non seulement l'installation du système d'exploitation, du cadre d'application et la configuration des services, mais doit également résoudre les dépendances entre les composants. Le problème devient plus difficile lorsque l'application doit être installée et utilisée sur différentes plates-formes telles que Linux et Windows. Pour résoudre ce problème, une approche efficace utilisant la technologie de virtualisation est suggérée et discutée dans cet article. L'approche a été appliquée dans notre projet de déploiement d'un système d'information intégré basé sur le Web dans les laboratoires de génétique moléculaire. Il s'agit d'une solution à faible coût qui profite à la fois aux développeurs de logiciels et aux utilisateurs finaux. PMID : 22102770

Arias, Carolina Brovelli, Maria Antonia Moreno, Rafael

Nous sommes à une époque où les ressources en eau se font de plus en plus rares et les impacts des activités humaines sur celles-ci sont omniprésents. Ces problèmes ne respectent pas les frontières administratives ou politiques et ils doivent être traités en intégrant des informations provenant de sources multiples à de multiples échelles spatiales et temporelles. La communication, la coordination et le partage des données sont essentiels pour résoudre les problèmes de conservation et de gestion de l'eau du 21e siècle. Cependant, différents pays, provinces, autorités locales et agences traitant des ressources en eau ont des contextes organisationnels, socioculturels, économiques, environnementaux et informatiques (TI) divers qui posent des défis à la création de systèmes d'information capables d'intégrer et de diffuser l'information à travers leurs domaines de responsabilité de manière efficace et opportune. Des ressources financières restreintes et disparates, et des infrastructures informatiques dissemblables (données, matériel, logiciels et expertise du personnel) compliquent encore la création de ces systèmes. Il existe un besoin urgent de systèmes d'information sur l'eau distribués et interopérables qui soient conviviaux, facilement accessibles et capables de gérer et de partager de grands volumes de données spatiales et non spatiales. Dans un système distribué, les données et les processus sont créés et maintenus dans différents emplacements, chacun avec des avantages concurrentiels pour mener à bien des activités spécifiques. Les données ouvertes (données pouvant être distribuées librement) sont disponibles dans le domaine de l'eau et devraient être davantage promues dans les pays et les organisations. La conformité aux spécifications ouvertes pour la collecte, le stockage et la distribution des données est la première étape vers la création de systèmes capables d'interagir et d'échanger des données de manière transparente (interopérable). Les fonctionnalités des logiciels libres et open source (FOSS) offrent un faible coût d'accès qui facilite l'évolutivité et la viabilité à long terme des systèmes d'information. Le World Wide Web (le Web) sera la plate-forme de choix pour déployer et accéder à ces systèmes

Bagayoko, Cheick-Oumar Dufour, Jean-Charles Chaacho, Saad Bouhaddou, Omar Fieschi, Marius

On assiste actuellement à une augmentation significative de l'utilisation des outils Open Source dans le domaine de la santé. Notre étude vise à rechercher le potentiel de ces progiciels pour les pays en développement. Notre expérience a été menée au Centre Hospitalier Mère Enfant au Mali. Après avoir passé en revue plusieurs outils Open Source dans le domaine des systèmes d'information hospitaliers, le logiciel Mediboard a été choisi pour notre étude. Afin d'assurer l'exhaustivité de Mediboard par rapport aux fonctionnalités requises pour un système d'information hospitalier, ses fonctionnalités ont été comparées à celles d'un outil complet de gestion des dossiers bien défini mis en place au CHU "La Timone" de Marseille en France. Il a ensuite été installé sur deux serveurs Linux : un premier serveur pour tester et valider les différents modules, et un second pour l'implémentation complète déployée. Après plusieurs mois d'utilisation, nous avons évalué les aspects de convivialité du système, y compris les commentaires des utilisateurs finaux via un questionnaire. Les premiers résultats ont montré le potentiel de l'Open Source dans le domaine de l'informatique de santé pour les pays en développement comme le Mali. Cinq modules principaux ont été entièrement mis en œuvre : la gestion des dossiers administratifs et médicaux des patients des activités hospitalières, le suivi des activités des praticiens, la gestion des infrastructures et le système de facturation. . Cette dernière composante du système a été entièrement développée par l'équipe locale du Mali. L'évaluation a montré que le système est largement accepté par tous les utilisateurs qui ont participé à l'étude. 77% des participants ont trouvé le système utile 85% l'ont trouvé facile 100% d'entre eux pensent que le système augmente la fiabilité des données. La même proportion encourage la poursuite de l'expérimentation et son expansion dans tout l'hôpital. Au vu des résultats, nous pouvons conclure que l'objectif de notre étude a été atteint. Cependant, il est important de prendre en compte les recommandations et les enjeux évoqués ici pour éviter plusieurs écueils potentiels spécifiques au contexte de

Contexte Nous assistons actuellement à une augmentation significative de l'utilisation des outils Open Source dans le domaine de la santé. Notre étude vise à rechercher le potentiel de ces progiciels pour les pays en développement. Notre expérience a été menée au Centre Hospitalier Mère Enfant au Mali. Méthodes Après avoir passé en revue plusieurs outils Open Source dans le domaine des systèmes d'information hospitaliers, le logiciel Mediboard a été choisi pour notre étude. Afin d'assurer l'exhaustivité de Mediboard par rapport aux fonctionnalités requises pour un système d'information hospitalier, ses fonctionnalités ont été comparées à celles d'un outil complet de gestion des dossiers bien défini mis en place au CHU "La Timone" de Marseille en France. Il a ensuite été installé sur deux serveurs Linux : un premier serveur pour tester et valider les différents modules, et un second pour l'implémentation complète déployée. Après plusieurs mois d'utilisation, nous avons évalué les aspects de convivialité du système, y compris les commentaires des utilisateurs finaux via un questionnaire. Résultats Les premiers résultats ont montré le potentiel de l'Open Source dans le domaine de l'informatique de santé pour les pays en développement comme le Mali. Cinq modules principaux ont été entièrement mis en œuvre : la gestion des dossiers administratifs et médicaux des patients des activités hospitalières, le suivi des activités des praticiens, la gestion des infrastructures et le système de facturation. Ce dernier élément du système a été entièrement développé par l'équipe locale du Mali. L'évaluation a montré que le système est largement accepté par tous les utilisateurs qui ont participé à l'étude. 77% des participants ont trouvé le système utile 85% l'ont trouvé facile 100% d'entre eux pensent que le système augmente la fiabilité des données. La même proportion encourage la poursuite de l'expérimentation et son expansion dans tout l'hôpital. Conclusions Au vu des résultats, nous pouvons conclure que l'objectif de notre étude a été atteint. Cependant, il est important de prendre en compte les recommandations et les enjeux évoqués ici pour éviter plusieurs

La bibliothèque Darien, où l'auteur est responsable des services de connaissances et d'apprentissage, a lancé un nouveau site Web le 1er septembre 2008. Le site Web est construit avec Drupal, un système de gestion de contenu (CMS) open source. Dans cet article, l'auteur décrit comment elle et ses collègues ont remanié le site Web de la bibliothèque pour fournir un contenu open source…

De plus en plus, les collèges et les universités se tournent vers l'open source pour répondre à leurs besoins en matière d'infrastructure technologique et d'application. L'open source a changé la vie des DSI visionnaires et de leurs communautés de campus à l'échelle nationale. L'auteur discute de ce que ces technologues considèrent comme les avantages et les considérations.

Pirhadi, Somayeh Sunseri, Jocelyn Koes, David Ryan

Le succès des efforts de modélisation moléculaire et de chimie computationnelle dépend, par définition, d'applications logicielles de qualité. Le développement de logiciels open source offre de nombreux avantages aux utilisateurs d'applications de modélisation, dont le moindre n'est pas que le logiciel est gratuit et entièrement extensible. Dans cette revue, nous catégorisons, énumérons et décrivons les progiciels open source disponibles pour la modélisation moléculaire et la chimie computationnelle. PMID : 27631126

Alvarsson, Jonathan Andersson, Claes Spjuth, Ola Larsson, Rolf Wikberg, Jarl E S

Le profilage des composés et le criblage de médicaments génèrent de grandes quantités de données et sont généralement basés sur des tests sur microplaques. Les systèmes d'information actuels utilisés pour gérer cela sont principalement commerciaux, à source fermée, coûteux et lourds et il existe un besoin pour un système ouvert léger et flexible pour gérer la conception des plaques, la validation et la préparation des données. Un plugin Bioclipse composé d'une partie client et d'une base de données relationnelle a été construit. Une interface pointer-cliquer pour la disposition des plaques en plusieurs étapes a été implémentée dans Bioclipse. Le système contient une étape de validation des données, où les valeurs aberrantes peuvent être supprimées, et enfin un rapport de plaque avec toutes les données calculées pertinentes, y compris les courbes dose-réponse. Brunn est capable de gérer les données des tests sur microplaques. Il peut créer des courbes dose-réponse et calculer les valeurs IC50. L'utilisation d'un tel système facilite le travail en laboratoire. La possibilité de réutiliser des plaques et des dispositions de plaques déjà construites en commençant à une étape antérieure du processus de conception de disposition de plaques permet de gagner du temps et de réduire les sources d'erreurs.

Certains ensembles de données hydrologiques, tels que la climatologie du bassin, les précipitations et le stockage de l'eau terrestre, ne sont pas faciles à obtenir et à distribuer en raison de leur taille et de leur complexité. Nous présentons un portail d'information hydrologique (HIP) qui a été mis en œuvre à l'Université de Californie pour la modélisation hydrologique (UCCHM) et qui a été organisé autour des grands bassins fluviaux d'Amérique du Nord. Ce portail est facilement accessible via un navigateur Web moderne qui permet un accès et une visualisation faciles de ces ensembles de données hydrologiques. Certaines des principales fonctionnalités de notre HIP incluent un ensemble de fonctionnalités de visualisation des données afin que les utilisateurs puissent rechercher, récupérer, analyser, intégrer, organiser et cartographier les données dans les grands bassins fluviaux. Des technologies de l'information récentes telles que Google Maps, Tornado (serveur Web asynchrone Python), NumPy/SciPy (bibliothèque scientifique pour Python) et d3.js (bibliothèque de visualisation pour JavaScript) ont été intégrées au HIP pour faciliter la navigation dans de grands ensembles de données. Avec de telles bibliothèques open source, HIP peut donner aux utilisateurs publics un moyen de combiner et d'explorer divers ensembles de données en générant plusieurs types de graphiques (ligne, barre, tarte, nuage de points) directement à partir de la fenêtre Google Maps. Chaque objet rendu tel qu'une forme de bassin sur la fenêtre est cliquable, et c'est la première étape pour accéder à la visualisation des ensembles de données.

Contexte Les installations de criblage à haut débit (HTS) à usage partagé sont de plus en plus courantes dans le milieu universitaire, à mesure que des stratégies de criblage d'ARNi à grande échelle à petite molécule et à l'échelle du génome sont adoptées à des fins de recherche fondamentale. Ces installations partagées nécessitent une infrastructure informatique unique qui doit non seulement fournir un accès et une analyse des données de dépistage, mais doit également gérer les défis administratifs et techniques associés à la conduite de nombreux efforts de dépistage entrelacés dirigés par plusieurs groupes de recherche indépendants. Résultats Nous avons développé Screensaver, un système de gestion des informations de laboratoire (LIMS) gratuit, open source et basé sur le Web, pour répondre aux besoins informatiques de notre installation de criblage de petites molécules et d'ARNi. Screensaver prend en charge le stockage et la comparaison des ensembles de données de dépistage, ainsi que la gestion des informations sur les écrans, les examinateurs, les bibliothèques et les demandes de travail de laboratoire. À notre connaissance, Screensaver est l'une des premières applications à prendre en charge le stockage et l'analyse de données provenant à la fois de projets de criblage d'ARNi à l'échelle du génome et de projets de criblage de petites molécules. Conclusions Les besoins informatiques et administratifs d'une installation HTS peuvent être mieux gérés par une application unique, intégrée et accessible sur le Web, telle que Screensaver. L'économiseur d'écran s'est avéré utile pour répondre aux exigences de l'installation de dépistage ICCB-Longwood/NSRB de la Harvard Medical School et a fourni des avantages similaires à d'autres installations HTS. PMID : 20482787

Tolopko, Andrew N Sullivan, John P Erickson, Sean D Wrobel, David Chiang, Su L Rudnicki, Katrina Rudnicki, Stewart Nale, Jennifer Selfors, Laura M Greenhouse, Dara Muhlich, Jeremy L Shamu, Caroline E

Les installations de criblage à haut débit (HTS) à usage partagé sont de plus en plus courantes dans le milieu universitaire, car des stratégies de criblage d'ARNi à grande échelle de petites molécules et à l'échelle du génome sont adoptées à des fins de recherche fondamentale. Ces installations partagées nécessitent une infrastructure informatique unique qui doit non seulement fournir un accès et une analyse des données de dépistage, mais doit également gérer les défis administratifs et techniques associés à la conduite de nombreux efforts de dépistage entrelacés dirigés par plusieurs groupes de recherche indépendants. Nous avons développé Screensaver, un système de gestion des informations de laboratoire (LIMS) gratuit, open source et basé sur le Web, pour répondre aux besoins informatiques de notre installation de criblage de petites molécules et d'ARNi. Screensaver prend en charge le stockage et la comparaison des ensembles de données de dépistage, ainsi que la gestion des informations sur les écrans, les filtres, les bibliothèques et les demandes de travail de laboratoire. À notre connaissance, Screensaver est l'une des premières applications à prendre en charge le stockage et l'analyse de données provenant à la fois de projets de criblage d'ARNi à l'échelle du génome et de projets de criblage de petites molécules. Les besoins informatiques et administratifs d'une installation HTS peuvent être mieux gérés par une application unique, intégrée et accessible sur le Web, telle que Screensaver. L'économiseur d'écran s'est avéré utile pour répondre aux exigences de l'installation de dépistage ICCB-Longwood/NSRB de la Harvard Medical School, et a fourni des avantages similaires à d'autres installations HTS.

Bendou, Hocine Sizani, Lunga Reid, Tim Swanepoel, Carmen Ademuyiwa, Toluwaleke Merino-Martinez, Roxana Meuller, Heimo Abayomi, Akin Christoffels, Alan

Un système de gestion de l'information de laboratoire (LIMS) est au cœur de l'infrastructure informatique qui sous-tend les activités de biobanque.À ce jour, un large éventail de LIMS commerciaux et open source sont disponibles et la décision d'opter pour un LIMS plutôt qu'un autre est souvent influencée par les besoins des clients et des chercheurs de la biobanque, ainsi que par les ressources financières disponibles. Le Baobab LIMS a été développé en personnalisant le logiciel Bika LIMS ( www.bikalims.org ) pour répondre aux exigences des bonnes pratiques en matière de biobanque. La nécessité de mettre en œuvre des procédures opérationnelles standard de biobanque ainsi que de stimuler l'utilisation de normes pour la représentation des données de biobanque a motivé la mise en œuvre de Baobab LIMS, un LIMS open source pour la biobanque. Baobab LIMS comprend des modules pour l'assemblage de kits de biospécimens, l'expédition de kits de biospécimens, la gestion du stockage, les demandes d'analyse, le reporting et la facturation. Le Baobab LIMS est basé sur le framework de gestion de contenu Web Plone. Toutes les exigences du système pour Plone sont applicables à Baobab LIMS, y compris le besoin d'un serveur avec au moins 8 Go de RAM et 120 Go d'espace disque. Baobab LIMS est un système basé sur serveur-client, grâce auquel l'utilisateur final peut accéder au système en toute sécurité via Internet sur un navigateur Web standard, éliminant ainsi le besoin d'installations autonomes sur toutes les machines.

Bendou, Hocine Sizani, Lunga Reid, Tim Swanepoel, Carmen Ademuyiwa, Toluwaleke Merino-Martinez, Roxana Meuller, Heimo Abayomi, Akin

Un système de gestion de l'information de laboratoire (LIMS) est au cœur de l'infrastructure informatique qui sous-tend les activités de biobanque. À ce jour, un large éventail de LIMS commerciaux et open source sont disponibles et la décision d'opter pour un LIMS plutôt qu'un autre est souvent influencée par les besoins des clients et des chercheurs de la biobanque, ainsi que par les ressources financières disponibles. Le Baobab LIMS a été développé en personnalisant le logiciel Bika LIMS (www.bikalims.org) pour répondre aux exigences des bonnes pratiques de la biobanque. La nécessité de mettre en œuvre des procédures opérationnelles standard de biobanque ainsi que de stimuler l'utilisation de normes pour la représentation des données de biobanque a motivé la mise en œuvre de Baobab LIMS, un LIMS open source pour la biobanque. Baobab LIMS comprend des modules d'assemblage de kits de biospécimens, d'expédition de kits de biospécimens, de gestion du stockage, de demandes d'analyses, de reporting et de facturation. Le Baobab LIMS est basé sur le framework de gestion de contenu Web Plone. Toutes les exigences système pour Plone sont applicables à Baobab LIMS, y compris le besoin d'un serveur avec au moins 8 Go de RAM et 120 Go d'espace disque. Baobab LIMS est un système basé sur serveur-client, grâce auquel l'utilisateur final peut accéder au système en toute sécurité via Internet sur un navigateur Web standard, éliminant ainsi le besoin d'installations autonomes sur toutes les machines. PMID : 28375759

Gastelum, Zoe N. Whitney, Paul D. White, Amanda M.

Le Pacific Northwest National Laboratory a consacré plusieurs années à la recherche, au développement et à la validation de grands modèles de réseaux bayésiens pour prendre en charge l'intégration d'ensembles de données open source pour la recherche sur la prolifération nucléaire. Nos travaux actuels se concentrent sur la génération d'un ensemble de modèles interdépendants pour l'évaluation multisource des programmes nucléaires, par opposition à un seul modèle global. En utilisant cette approche, nous pouvons décomposer les modèles pour couvrir des sous-problèmes logiques qui peuvent utiliser différentes expertises et sources de données . Cette approche permet aux chercheurs d'utiliser les modèles individuellement ou en combinaison pour détecter et caractériser un programme nucléaire et identifier les lacunes dans les données. Les modèles fonctionnent plus » à divers niveaux de granularité, couvrant une combinaison d'évaluations au niveau de l'État avec des modèles plus détaillés des caractéristiques du site ou de l'installation. Cet article décrira les modèles de non-prolifération nucléaire actuellement en cours de développement, axés sur l'open source, les avantages et les inconvénients de l'approche analytique et les domaines de recherche supplémentaire.« moins

Triplette, Thomas Butler, Gregory

Dans de nombreux laboratoires, les chercheurs stockent les données expérimentales sur leur propre poste de travail à l'aide de feuilles de calcul. Cependant, cette approche pose un certain nombre de problèmes, allant des problèmes de partage à l'exploration de données inefficace. Les feuilles de calcul standard sont également sujettes aux erreurs, car les données ne subissent aucun processus de validation. Pour surmonter les limitations inhérentes aux tableurs, un certain nombre de systèmes propriétaires ont été développés, pour lesquels les laboratoires doivent payer des frais de licence élevés. Ces coûts sont généralement prohibitifs pour la plupart des laboratoires et empêchent les scientifiques de bénéficier de systèmes de gestion de données plus sophistiqués. Dans cet article, nous proposons l'EnzymeTracker, un système de gestion des informations de laboratoire basé sur le Web pour le suivi des échantillons, en tant qu'alternative open source et flexible qui vise à faciliter la saisie, l'extraction et le partage de données biologiques expérimentales. L'EnzymeTracker propose des feuilles de calcul en ligne et des outils pour surveiller de nombreuses expériences menées par plusieurs collaborateurs pour identifier et caractériser des échantillons. Il fournit également des bibliothèques de données partagées telles que des protocoles et des outils d'administration pour le contrôle d'accès aux données à l'aide d'Open ID et de la gestion des utilisateurs/équipes. Notre système repose sur un système de gestion de base de données pour une indexation et une gestion efficaces des données et une interface AJAX conviviale accessible via Internet. L'EnzymeTracker facilite la saisie de données en suggérant dynamiquement des entrées et en fournissant des outils d'exploration de données intelligents pour récupérer efficacement les données. Notre système comprend un certain nombre d'outils pour visualiser et annoter les données expérimentales et exporter des rapports hautement personnalisables. Il prend également en charge les codes-barres matriciels QR pour faciliter le suivi des échantillons. L'EnzymeTracker a été conçu pour être facile à utiliser et offre de nombreux avantages par rapport aux tableurs, présentant ainsi les caractéristiques requises pour faciliter l'acceptation par la communauté scientifique. Il est utilisé quotidiennement avec succès depuis 20 mois par plus de 50 scientifiques. L'EnzymeTracker est disponible gratuitement en ligne sur http

Contexte Dans de nombreux laboratoires, les chercheurs stockent les données expérimentales sur leur propre poste de travail à l'aide de tableurs. Cependant, cette approche pose un certain nombre de problèmes, allant des problèmes de partage à l'exploration de données inefficace. Les feuilles de calcul standard sont également sujettes aux erreurs, car les données ne subissent aucun processus de validation. Pour surmonter les limitations inhérentes aux tableurs, un certain nombre de systèmes propriétaires ont été développés, pour lesquels les laboratoires doivent payer des frais de licence élevés. Ces coûts sont généralement prohibitifs pour la plupart des laboratoires et empêchent les scientifiques de bénéficier de systèmes de gestion de données plus sophistiqués. Résultats Dans cet article, nous proposons l'EnzymeTracker, un système de gestion des informations de laboratoire basé sur le Web pour le suivi des échantillons, comme une alternative open source et flexible qui vise à faciliter la saisie, l'extraction et le partage de données biologiques expérimentales. L'EnzymeTracker propose des feuilles de calcul en ligne et des outils pour surveiller de nombreuses expériences menées par plusieurs collaborateurs pour identifier et caractériser des échantillons. Il fournit également des bibliothèques de données partagées telles que des protocoles et des outils d'administration pour le contrôle d'accès aux données à l'aide d'Open ID et de la gestion des utilisateurs/équipes. Notre système repose sur un système de gestion de base de données pour une indexation et une gestion efficaces des données et une interface AJAX conviviale accessible via Internet. L'EnzymeTracker facilite la saisie de données en suggérant dynamiquement des entrées et en fournissant des outils d'exploration de données intelligents pour récupérer efficacement les données. Notre système comprend un certain nombre d'outils pour visualiser et annoter les données expérimentales et exporter des rapports hautement personnalisables. Il prend également en charge les codes-barres matriciels QR pour faciliter le suivi des échantillons. Conclusions L'EnzymeTracker a été conçu pour être facile à utiliser et offre de nombreux avantages par rapport aux tableurs, présentant ainsi les caractéristiques requises pour faciliter l'acceptation par la communauté scientifique. Il est utilisé quotidiennement avec succès depuis 20 mois par plus de 50 scientifiques. L'EnzymeTracker est

Parc, Jungkap Piehowski, Paul D. Wilkins, Christopher

La protéomique descendante implique l'analyse de protéines intactes. Cette approche est très intéressante car elle permet d'analyser les protéines sous leur forme endogène sans protéolyse, en préservant des informations précieuses sur les modifications post-traductionnelles, les isoformes, le traitement protéolytique ou leurs combinaisons appelées collectivement protéoformes. De plus, la qualité des ensembles de données LC-MS/MS descendantes augmente rapidement en raison des progrès de l'instrumentation de chromatographie en phase liquide et de spectrométrie de masse et des protocoles de traitement des échantillons. Cependant, les spectres de masse descendants sont nettement plus complexes que les données ascendantes plus conventionnelles. Pour tirer pleinement parti de la qualité croissante des ensembles de données LC-MS/MS descendants, il est urgent de développer des algorithmes et des outils logiciels pour une identification et une quantification fiables des protéoformes. Dans cette étude, nous présentons une nouvelle suite logicielle open source pour l'analyse protéomique descendante composée d'un algorithme de recherche de caractéristiques LC-MS, d'un algorithme de recherche de base de données et d'un visualiseur de résultats interactif. L'outil présenté ainsi que plusieurs autres outils populaires ont été évalués à l'aide d'échantillons de tumeurs mammaires luminales et basales de xénogreffe humaine chez la souris qui sont connus pour avoir des différences significatives dans l'abondance des protéines sur la base d'une analyse ascendante.« moins

Comité pour le développement économique, 2006

La numérisation de l'information et Internet ont considérablement élargi la capacité d'ouverture. Ce rapport détaille les avantages de l'ouverture dans trois domaines - les normes ouvertes, les logiciels open source et l'innovation ouverte - et examine les principaux enjeux du débat sur l'opportunité d'encourager ou non l'ouverture. Le rapport explique chacun de ces…

French, N. H. Erickson, T. McKenzie, D.

L'un des principaux objectifs du North American Carbon Program est de résoudre les incertitudes liées à la compréhension et à la gestion du cycle du carbone en Amérique du Nord. À mesure que les outils de modélisation du carbone deviennent plus complets et orientés spatialement, des ensembles de données précis pour quantifier spatialement les émissions de carbone dues aux incendies sont nécessaires, et ces ressources de données doivent être accessibles aux utilisateurs pour la prise de décision. Dans le cadre d'un nouveau projet de science du cycle du carbone de la NASA, les Drs. Nancy French et Tyler Erickson, de la Michigan Technological University, Michigan Tech Research Institute (MTRI), font équipe avec des spécialistes de l'équipe USDA Forest Service Fire and Environmental Research Applications (FERA) pour fournir aux utilisateurs des informations permettant de cartographier les émissions de carbone dérivées du feu. . L'objectif du projet comprend le développement d'un système basé sur le Web pour fournir des estimations des émissions d'incendies résolues spatialement pour l'Amérique du Nord dans un environnement convivial. Le système d'aide à la décision basé sur le Web sera basé sur une variété de technologies open source. La carte raster du système de classification des caractéristiques des carburants (FCCS) des carburants et les cartes vectorielles des zones brûlées dérivées de MODIS seront traitées à l'aide de la bibliothèque d'abstraction de données géographiques (GDAL) et de la bibliothèque d'entités simples OGR. Les données tabulaires et spatiales du projet seront stockées dans un PostgreSQL/PostGIS, un serveur de base de données relationnelle spatialement activé. L'interface utilisateur basée sur un navigateur sera créée à l'aide du cadre de page Web Django pour permettre la saisie de l'utilisateur pour le système d'aide à la décision. Le cadre cartographique Open Layers sera utilisé pour fournir aux utilisateurs des cartes interactives dans le navigateur. En outre, les produits de données seront disponibles dans des formats de données ouverts standard tels que KML, pour permettre une intégration facile dans d'autres modèles spatiaux et systèmes de données.

Woodcock, R. Cox, S.J. Fraser, R. Wyborn, L.A.

Depuis 2005, le gouvernement australien a soutenu une série d'initiatives permettant aux chercheurs d'accéder aux principales installations de recherche et aux réseaux d'information nécessaires à une recherche de classe mondiale. En commençant par la Stratégie nationale d'infrastructure de recherche collaborative (NCRIS), la communauté australienne des sciences de la Terre a établi un système national intégré d'infrastructure géoscientifique appelé AuScope. AuScope est maintenant opérationnel, fournissant un certain nombre de composants pour aider à comprendre la structure et l'évolution du continent australien. Il s'agit notamment de l'acquisition d'images souterraines, d'une analyse de la composition et de l'âge de la terre, d'une bibliothèque virtuelle de carottes de forage, d'une simulation de processus géologiques et d'un cadre de référence géospatial à haute résolution. Pour rassembler des informations provenant de la communauté des sciences de la Terre dans les universités, l'industrie et le gouvernement, AuScope comprend une infrastructure d'information distribuée à l'échelle nationale. Les logiciels libres et ouverts (FOSS) ont été un catalyseur important dans la construction de la communauté AuScope et la fourniture d'une gamme de services interopérables pour accéder aux données et aux logiciels scientifiques. Un certain nombre de composants FOSS ont été créés, adoptés ou mis à niveau pour créer une pile de services d'information spatiale (SISS) cohérente et conforme à l'OGC. SISS est maintenant déployé dans toutes les commissions géologiques australiennes, de nombreuses universités et le CSIRO. Composé d'un ensemble de catalogues et de services de données OGC, et complété par de nouveaux services de vocabulaire et d'identifiant, le SISS fournit un package complet permettant aux organisations de contribuer leurs données au réseau AuScope. Cet emballage et une variété d'activités de test et de documentation de logiciels ont permis une plus grande confiance et considérablement réduit les obstacles à l'adoption. La sélection des logiciels libres était importante, non seulement pour la capacité technique et la robustesse, mais aussi pour les modèles de licence et de communauté appropriés afin d'assurer la durabilité de l'infrastructure à long terme. Les organismes gouvernementaux étaient sensibles à ces questions et Au

Pirhadi, Somayeh Sunseri, Jocelyn Koes, David Ryan

Le succès des efforts de modélisation moléculaire et de chimie computationnelle dépend, par définition, d'applications logicielles de qualité. Le développement de logiciels open source offre de nombreux avantages aux utilisateurs d'applications de modélisation, dont le moindre n'est pas que le logiciel est gratuit et entièrement extensible. Dans cette revue, nous catégorisons, énumérons et décrivons les progiciels open source disponibles pour la modélisation moléculaire et la chimie computationnelle. Une version en ligne mise à jour de ce catalogue est disponible sur https://opensourcemolecularmodeling.github.io. Copyright © 2016 L'auteur(s). Publié par Elsevier Inc. Tous droits réservés.

Anzalone, Gerald C. Glover, Alexandra G. Pearce, Joshua M.

Le coût élevé de ce qui a toujours été des capteurs et des outils sophistiqués liés à la recherche a limité leur adoption à un groupe relativement restreint de chercheurs bien financés. Cet article fournit une méthodologie pour appliquer une approche open-source à la conception et au développement d'un colorimètre. Un colorimètre open source imprimable en 3D utilisant uniquement des solutions matérielles et logicielles open source et des composants discrets facilement disponibles est discuté et ses performances comparées à un colorimètre portable commercial. Les performances sont évaluées avec des flacons commerciaux préparés pour la méthode de demande chimique en oxygène (DCO) à reflux fermé. Cette approche a réduit le coût d'une DCO à reflux fermé fiable de deux ordres de grandeur, ce qui en fait une alternative économique pour la grande majorité des utilisateurs potentiels. Le colorimètre open source a démontré une bonne reproductibilité et sert de plate-forme pour le développement ultérieur et la dérivation de la conception à d'autres fins similaires telles que la néphélométrie. Cette approche promet un accès sans précédent à une instrumentation sophistiquée basée sur des capteurs à faible coût pour ceux qui en ont le plus besoin, les laboratoires du monde sous-développé et en développement. PMID : 23604032

Lakhan, Shaheen E. Jhunjhunwala, Kavita

Les établissements d'enseignement se sont précipités pour mettre en ligne leurs ressources et services académiques, initiant la communauté mondiale sur une plate-forme commune et éveillant l'intérêt des investisseurs. Malgré des défis techniques persistants, l'éducation en ligne est très prometteuse. Les logiciels open source offrent une approche pour résoudre les problèmes techniques dans…

Goh, Dion Luyt, Brendan Chua, Alton Yee, See-Yong Poh, Kia-Ngoh Ng, How-Yeu

Les portails sont devenus indispensables pour les organisations de tous types qui tentent de s'implanter sur le Web. Malheureusement, il n'y a eu que quelques études d'évaluation des logiciels de portail et encore moins de logiciels de portail open source. Cette étude vise à compléter la littérature disponible dans ce domaine important en proposant et en testant une liste de contrôle pour…

Anzalone, Gerald C Glover, Alexandra G Pearce, Joshua M

Le coût élevé de ce qui a toujours été des capteurs et des outils sophistiqués liés à la recherche a limité leur adoption à un groupe relativement restreint de chercheurs bien financés. Cet article fournit une méthodologie pour appliquer une approche open-source à la conception et au développement d'un colorimètre. Un colorimètre open source imprimable en 3D utilisant uniquement des solutions matérielles et logicielles open source et des composants discrets facilement disponibles est discuté et ses performances comparées à un colorimètre portable commercial. Les performances sont évaluées avec des flacons commerciaux préparés pour la méthode de demande chimique en oxygène (DCO) à reflux fermé. Cette approche a réduit le coût d'une DCO à reflux fermé fiable de deux ordres de grandeur, ce qui en fait une alternative économique pour la grande majorité des utilisateurs potentiels. Le colorimètre open source a démontré une bonne reproductibilité et sert de plate-forme pour le développement ultérieur et la dérivation de la conception à d'autres fins similaires telles que la néphélométrie. Cette approche promet un accès sans précédent à une instrumentation sophistiquée basée sur des capteurs à faible coût pour ceux qui en ont le plus besoin, les laboratoires du monde sous-développés et en développement.

Rey-Martinez, Jorge Pérez-Fernández, Nicolás

L'objectif de validation proposé de 0,9 dans le coefficient de corrélation intra-classe a été atteint avec les résultats de cette étude. Avec les résultats obtenus, nous considérons que le logiciel développé (RombergLab) est un logiciel d'évaluation de l'équilibre validé. La fiabilité de ce logiciel dépend des spécifications techniques de la plate-forme de force utilisée. Développer et valider un logiciel de posturographie et partager son code source en termes open source. Étude de validation prospective non randomisée : 20 adultes consécutifs ont subi deux tests d'évaluation de l'équilibre, six posturographies ont été réalisées à l'aide d'un logiciel cliniquement approuvé et d'une plate-forme de force et les mêmes conditions ont été mesurées à l'aide du nouveau logiciel open source développé à l'aide d'une plate-forme de force à faible coût. L'indice de corrélation intra-classe de la zone de balancement obtenu à partir du centre des variations de pression dans les deux appareils pour les six conditions était la principale variable utilisée pour la validation. Une excellente concordance entre RombergLab et la plate-forme de force cliniquement approuvée a été obtenue (coefficient de corrélation intra-classe = 0,94). Un graphique de concordance graphique de Bland et Altman a également été obtenu. Le code source utilisé pour développer RombergLab a été publié en termes open source.

Tolentino, Herman Marcelo, Alvin Marcelo, Portia Maramba, Inocencio

Les systèmes communautaires d'information sur les soins primaires sont l'un des éléments constitutifs des systèmes nationaux d'information sur la santé. Aux Philippines, après la dévolution des soins de santé aux gouvernements locaux, nous avons observé des « îlots de systèmes d'information sur la santé » liés à des programmes verticaux nationaux mis en œuvre dans des unités de santé décentralisées. Ces structures conduisent à un énorme « travail d'information » dans la transformation de l'information sanitaire au niveau communautaire. Ce document décrit le travail effectué pour développer et mettre en œuvre le projet de système de suivi des informations sur la santé communautaire (CHITS) open source, qui a été mis en œuvre pour résoudre ce problème de gestion de l'information et ses résultats.Plusieurs leçons apprises sur le terrain ainsi que des stratégies de développement de logiciels sont mises en évidence dans la construction de systèmes d'information au niveau communautaire qui sont liés aux systèmes d'information sur la santé au niveau national. PMID : 16779052

Klukas, Christian Chen, Dijun Pape, Jean-Michel

Le phénotypage à haut débit est en train de devenir une technologie importante pour disséquer les composants phénotypiques des plantes. Un traitement d'image et une extraction de caractéristiques efficaces sont des conditions préalables pour quantifier la croissance et les performances des plantes en fonction des traits phénotypiques. Les problèmes incluent la gestion des données, l'analyse d'images et la visualisation des résultats d'ensembles de données phénotypiques à grande échelle. Nous présentons ici la plate-forme d'analyse intégrée (IAP), un cadre open source pour le phénotypage des plantes à haut débit. IAP fournit des interfaces conviviales et ses fonctions principales sont hautement adaptables. Notre système prend en charge le transfert de données d'images à partir de différents environnements d'acquisition et l'analyse d'images à grande échelle pour différentes espèces de plantes sur la base de données d'imagerie en temps réel obtenues à partir de différents spectres. En raison de l'énorme quantité de données à gérer, nous avons utilisé une structure de données commune pour un stockage et une organisation efficaces des données à la fois pour les données d'entrée et les données de résultat. Nous avons mis en œuvre une méthode basée sur des blocs pour le traitement automatisé des images afin d'extraire une liste représentative des traits phénotypiques des plantes. Nous fournissons également des outils pour le traçage des données intégré et l'exportation des résultats. Pour la validation de l'IAP, nous avons réalisé un exemple d'expérience qui contient 33 plants de maïs (Zea mays « Fernandez »), qui ont été cultivés pendant 9 semaines dans une serre automatisée avec imagerie non destructive. Par la suite, les données d'images ont été soumises à une analyse automatisée avec le pipeline de maïs mis en œuvre dans notre système. Nous avons constaté que le volume numérique calculé et le nombre de feuilles sont en corrélation avec nos données mesurées manuellement avec une grande précision jusqu'à 0,98 et 0,95, respectivement. En résumé, IAP fournit un ensemble multiple de fonctionnalités pour l'import/export, la gestion et l'analyse automatisée des données de phénotypage des plantes à haut débit, et ses résultats d'analyse sont très fiables. PMID : 24760818

Dans cet article, David Wiley donne un aperçu de la manière dont l'expansion générale des logiciels open source a affecté le monde de l'éducation en particulier. Ce faisant, Wiley aborde non seulement le développement d'applications logicielles open source pour les enseignants et les administrateurs, il explique également comment la philosophie fondamentale de l'open source…

Gichoya, Judy W Kohli, Marc Ivange, Larry Schmidt, Teri S Purkayastha, Saptarshi

Le développement open source peut fournir une plate-forme d'innovation en sollicitant les commentaires des membres de la communauté ainsi qu'en fournissant des outils et une infrastructure pour tester de nouvelles normes. Les vendeurs de systèmes propriétaires peuvent retarder l'adoption de nouvelles normes jusqu'à ce qu'il y ait suffisamment d'incitations telles que des mandats légaux ou des incitations financières pour encourager/imposer l'adoption. De plus, les systèmes open source de soins de santé ont été largement adoptés dans les pays à revenu faible et intermédiaire et peuvent être utilisés pour combler les lacunes qui existent dans la radiologie de la santé mondiale. Depuis 2011, les auteurs, ainsi qu'une communauté de contributeurs open source, ont travaillé au développement d'un système d'information radiologique (RIS) open source dans deux communautés : Open MRS et LibreHealth. L'objectif principal du RIS est de mettre en œuvre des flux de travail de radiologie de base, sur lesquels d'autres peuvent construire et tester de nouvelles normes de radiologie. Ce travail a abouti à trois versions majeures du système, avec les changements architecturaux actuels entraînés par l'évolution de la technologie, le développement de nouvelles normes en matière d'informatique de santé et d'imagerie et les besoins changeants des utilisateurs. À la base, ces deux communautés se concentrent sur la création de systèmes de DSE à usage général, mais sur la base des contributions des utilisateurs en marge, nous avons pu créer un système innovant qui a été utilisé par des hôpitaux et des cliniques dans quatre pays différents. Nous fournissons un aperçu de l'historique du LibreHealth RIS, de l'architecture du système, un aperçu de l'intégration des normes, décrivons les défis du développement d'un produit open source et les orientations futures. Notre objectif est d'attirer plus de participation et d'implication pour développer davantage le LibreHealth RIS en un système d'imagerie d'entreprise qui peut être utilisé dans d'autres imageries cliniques, y compris la pathologie et la dermatologie.

Vatsavai, Raju Burk, Thomas E Lime, Steve

Les composants d'un SIG Open Source sont expliqués dans ce chapitre. Un serveur cartographique (Sect. 30.1) peut être largement défini comme une plate-forme logicielle permettant de générer dynamiquement des produits cartographiques numériques référencés spatialement. Le MapServer de l'Université du Minnesota (UMN Map Server) est l'un de ces systèmes. Ses fonctionnalités de base sont la visualisation, la superposition et la requête. La section 30.2 nomme et explique de nombreuses bibliothèques open source géospatiales, telles que GDAL et OGR. Les autres bibliothèques sont FDO, JTS, GEOS, JCS, MetaCRS et GPSBabel. Les exemples d'application incluent des logiciels SIG dérivés et des conversions de formats de données. Le SIG quantique, son origine et ses applications expliquées plus » en détail dans la Sect. 30.3. Les fonctionnalités incluent une interface graphique riche, des tables d'attributs, des symboles vectoriels, un étiquetage, des fonctions d'édition, des projections, un géoréférencement, une prise en charge GPS, une analyse et une fonctionnalité de serveur de cartes Web. Les développements futurs concerneront les applications mobiles, la 3-D et le multithreading. Les origines de PostgreSQL sont décrites et PostGIS discuté en détail dans la Sect. 30.4. Il étend PostgreSQL en implémentant le standard Simple Feature. La section 30.5 détaille les licences open source les plus importantes telles que la GPL, la LGPL, la licence MIT et la licence BSD, ainsi que le rôle de Creative Commons.« moins

Contexte La microscopie virtuelle comprend la numérisation des lames histologiques et l'utilisation de technologies informatiques pour l'investigation complexe de maladies telles que le cancer. Cependant, l'analyse automatisée des images, ou la publication sur le site Web de ces images numériques, est entravée par la taille de leurs fichiers. Résultats Nous avons développé deux outils open source basés sur Java : Snapshot Creator et NDPI-Splitter. Snapshot Creator convertit une partie d'une grande diapositive numérique en une image JPEG de qualité souhaitée. L'image est liée aux informations cliniques et de traitement du patient dans un logiciel de gestion de données sur le cancer open source personnalisé (Caisis) utilisé à l'Australian Breast Cancer Tissue Bank (ABCTB), puis publié sur le site Web ABCTB (http://www.abctb .org.au) en utilisant la technologie open source Deep Zoom. Grâce au moteur de recherche en ligne ABCTB, les images numériques peuvent être recherchées en définissant divers critères tels que le type de cancer ou les biomarqueurs exprimés. NDPI-Splitter divise un gros fichier image en plus petites sections d'images TIFF afin qu'elles puissent être facilement analysées par un logiciel d'analyse d'image tel que Metamorph ou Matlab. NDPI-Splitter a également la capacité de filtrer les images vides. Conclusions Snapshot Creator et NDPI-Splitter sont de nouveaux outils Java open source. Ils convertissent les diapositives numériques en fichiers de plus petite taille pour un traitement ultérieur. En conjonction avec d'autres outils open source tels que Deep Zoom et Caisis, cette suite d'outils est utilisée pour la gestion et l'archivage des images de microscopie numérique, permettant d'explorer et de zoomer en ligne les images numérisées. Notre référentiel d'images en ligne a également la capacité d'être utilisé comme ressource pédagogique. Ces outils permettent également de sectionner des fichiers volumineux pour l'analyse d'images. Diapositives virtuelles La ou les diapositives virtuelles de cet article sont disponibles ici : http://www.diagnosticpathology.diagnomx.eu/vs/5330903258483934 PMID:23402499

Khushi, Matloob Edwards, Georgina de Marcos, Diego Alonso Carpenter, Jane E Graham, J Dinny Clarke, Christine L

La microscopie virtuelle comprend la numérisation des lames histologiques et l'utilisation de technologies informatiques pour l'investigation complexe de maladies telles que le cancer. Cependant, l'analyse automatisée d'images, ou la publication sur le site Web de telles images numériques, est entravée par la taille de leurs fichiers. Nous avons développé deux outils open source basés sur Java : Snapshot Creator et NDPI-Splitter. Snapshot Creator convertit une partie d'une grande diapositive numérique en une image JPEG de qualité souhaitée. L'image est liée aux informations cliniques et thérapeutiques du patient dans un logiciel open source personnalisé de gestion des données sur le cancer (Caisis) utilisé à l'Australian Breast Cancer Tissue Bank (ABCTB), puis publié sur le site Web ABCTB (http://www.abctb .org.au) en utilisant la technologie open source Deep Zoom. Grâce au moteur de recherche en ligne ABCTB, les images numériques peuvent être recherchées en définissant divers critères tels que le type de cancer ou les biomarqueurs exprimés. NDPI-Splitter divise un gros fichier image en plus petites sections d'images TIFF afin qu'elles puissent être facilement analysées par un logiciel d'analyse d'images tel que Metamorph ou Matlab. NDPI-Splitter a également la capacité de filtrer les images vides. Snapshot Creator et NDPI-Splitter sont de nouveaux outils Java open source. Ils convertissent les diapositives numériques en fichiers de plus petite taille pour un traitement ultérieur. En conjonction avec d'autres outils open source tels que Deep Zoom et Caisis, cette suite d'outils est utilisée pour la gestion et l'archivage des images de microscopie numérique, permettant d'explorer et de zoomer en ligne les images numérisées. Notre référentiel d'images en ligne a également la capacité d'être utilisé comme ressource pédagogique. Ces outils permettent également de sectionner des fichiers volumineux pour l'analyse d'images. La ou les diapositives virtuelles de cet article sont disponibles ici : http://www.diagnosticpathology.diagnomx.eu/vs/5330903258483934.

Santillan, M.M.-M. Santillan, J.R. Morales, E.M.O.

Nous discutons dans cet article du développement, y compris des caractéristiques et des fonctionnalités, d'un système d'analyse et de diffusion d'informations sur les risques d'inondation basé sur le Web, appelé « Flood EViDEns ». Flood EViDEns est l'abréviation de "Flood Event Visualization and Damage Estimations", une application qui a été développée par l'Université d'État de Caraga pour répondre aux besoins des gestionnaires locaux de catastrophes dans la région de Caraga à Mindanao, aux Philippines, en accédant à des informations opportunes et pertinentes sur les risques d'inondation avant, pendant et après la survenance des inondations catastrophiques au niveau de la communauté (c'est-à-dire du barangay et des ménages). L'application Web a utilisé diverses technologies de cartographie et de visualisation Web gratuites / open source (GeoServer, GeoDjango, Open Layers, Bootstrap), divers ensembles de données géospatiales, y compris des produits d'élévation et d'information dérivés du LiDAR, des données hydrométéorologiques et des modèles de simulation d'inondation pour visualiser divers scénarios d'inondation et les dommages associés aux infrastructures. L'application Flood EViDEns facilite la diffusion et l'utilisation de ces informations liées aux inondations grâce à une interface frontale conviviale composée d'une carte Web et de tableaux. Une version publique de l'application est accessible à l'adresse http://121.97.192.11:8082/. L'application est actuellement étendue pour couvrir des sites supplémentaires à Mindanao, aux Philippines, par le biais du programme "Géo-informatique pour l'évaluation systématique des effets et des risques d'inondation pour un Mindanao résilient" ou du programme "Geo-SAFER Mindanao".

Morisawa, Hiraku Hirota, Mikako Toda, Tosifusa

Contexte À l'ère du post-génome, la plupart des chercheurs travaillant dans le domaine de la protéomique sont confrontés à des difficultés de gestion de gros volumes de données, qu'ils sont tenus de conserver dans des formats adaptés à l'exploration de données ultérieure. Par conséquent, un système de gestion des informations de laboratoire (LIMS) open source bien développé devrait être disponible pour leurs études de recherche en protéomique. Résultats Nous avons développé un LIMS open source adapté de manière appropriée pour le flux de travail protéomique basé sur l'électrophorèse sur gel 2-D. Les principales caractéristiques de sa conception sont la compacité, la flexibilité et la connectivité aux bases de données publiques. Il prend en charge le traitement des données importées à partir d'un logiciel de spectrométrie de masse et d'un logiciel d'analyse d'images de gel 2D. Le LIMS est équipé de la même interface d'entrée pour les informations de gel 2D qu'une carte cliquable sur les bases de données publiques 2DPAGE. Le LIMS permet aux chercheurs de suivre leurs propres procédures expérimentales en examinant les illustrations des cartes de gel en 2D et la disposition des puits sur les plaques de digestion et les plaques d'échantillons MS. Conclusion Notre nouveau LIMS open source est maintenant disponible en tant que modèle de base pour l'informatique du protéome, et est accessible pour une amélioration ultérieure. Nous espérons que de nombreux chercheurs travaillant dans le domaine de la protéomique évalueront notre LIMS et suggéreront des moyens de l'améliorer. PMID : 17018156

Hart, Andrew F. Verma, Rishi Mattmann, Chris A. Crichton, Daniel J. Kelly, Sean Kincaid, Heather Hughes, Steven Ramirez, Paul Goodale, Cameron Anton, Kristen

Au cours de la dernière décennie, le Jet Propulsion Laboratory de la NASA, en collaboration avec l'Université de Dartmouth, a servi de centre informatique pour le Early Detection Research Network (EDRN). L'EDRN est un effort de recherche multi-institutions financé par le National Cancer Institute (NCI) des États-Unis et chargé d'identifier et de valider des biomarqueurs pour la détection précoce du cancer. Au fur et à mesure que le réseau distribué s'est développé, des processus de plus en plus formels ont été développés pour l'acquisition, la conservation, le stockage et la diffusion d'actifs d'informations de recherche hétérogènes, et une infrastructure informatique a émergé. Dans cet article, nous discutons de l'évolution de l'informatique EDRN, de son succès en tant que mécanisme d'intégration d'informations distribuées et des avantages potentiels de la durabilité et de la réutilisation des efforts émergents pour rendre les composants de la plate-forme eux-mêmes open source. Nous décrivons notre expérience de transition d'un grand système logiciel à code source fermé vers un projet open source piloté par la communauté à l'Apache Software Foundation, et soulignons les leçons apprises qui guideront nos efforts actuels pour promouvoir la réutilisation de l'infrastructure informatique EDRN par une communauté plus large. .

de Hoon, M J L Imoto, S Nolan, J Miyano, S

Nous avons implémenté le clustering k-means, le clustering hiérarchique et les cartes auto-organisées dans une seule bibliothèque open source polyvalente de routines C, appelables à partir d'autres programmes C et C++. En utilisant cette bibliothèque, nous avons créé une version améliorée du célèbre programme Cluster de Michael Eisen pour Windows, Mac OS X et Linux/Unix. De plus, nous avons généré une interface Python et Perl vers la bibliothèque de clustering C, combinant ainsi la flexibilité d'un langage de script avec la vitesse de C. La bibliothèque de clustering C et le module d'extension Python C correspondant Pycluster ont été publiés sous la licence Python, tandis que le module Perl Algorithm::Cluster a été publié sous la licence artistique. Le code GUI Cluster 3.0 pour Windows, Macintosh et Linux/Unix, ainsi que le programme de ligne de commande correspondant, ont été publiés sous la même licence que le code Cluster d'origine. Le code source complet est disponible sur http://bonsai.ims.u-tokyo.ac.jp/mdehoon/software/cluster. Alternativement, Algorithm::Cluster peut être téléchargé à partir du CPAN, tandis que Pycluster est également disponible dans le cadre de la distribution Biopython.

L'entropie de transfert de fond (TE) est une mesure pour la détection des interactions dirigées. L'entropie de transfert est une implémentation théorique de l'information du principe de causalité observationnelle de Wiener. Il propose une approche de détection des interactions neuronales exempte d'un modèle explicite des interactions. Par conséquent, il offre la possibilité d'analyser les interactions linéaires et non linéaires de la même manière. Cela permet par exemple l'analyse complète des interactions dirigées dans les réseaux de neurones à différents niveaux de description. Nous présentons ici la boîte à outils open source MATLAB TRENTOOL qui permet à l'utilisateur de gérer la complexité considérable de cette mesure et de valider les résultats obtenus à l'aide de tests statistiques non paramétriques. Nous démontrons l'utilisation de la boîte à outils et les performances de l'algorithme sur des données simulées avec un couplage non linéaire (quadratique) et sur des potentiels de champ locaux (LFP) enregistrés à partir de la rétine et du tectum optique de la tortue (Pseudemys scripta elegans) où un neuronal une connexion à deux voies est probablement présente. Résultats Dans les données simulées, TE a détecté le flux d'informations dans la direction simulée de manière fiable avec des faux positifs ne dépassant pas les taux attendus sous l'hypothèse nulle. Dans les données LFP, nous avons trouvé des interactions dirigées de la rétine au tectum, malgré les transformations compliquées du signal entre ces étapes. Aucune interaction faussement positive dans les directions inverses n'a été détectée. Conclusions TRENTOOL est une implémentation d'entropie de transfert et d'analyse d'information mutuelle qui vise à soutenir l'utilisateur dans l'application de cette mesure théorique de l'information. TRENTOOL est implémenté comme une boîte à outils MATLAB et disponible sous une licence open source (GPL v3). Pour une utilisation avec des données neuronales, TRENTOOL s'intègre de manière transparente à la célèbre boîte à outils FieldTrip. PMID : 22098775

Lindner, Michael Vicente, Raul Priesemann, Viola Wibral, Michael

L'entropie de transfert (TE) est une mesure pour la détection des interactions dirigées. L'entropie de transfert est une implémentation théorique de l'information du principe de causalité observationnelle de Wiener. Il propose une approche de détection des interactions neuronales exempte d'un modèle explicite des interactions. Par conséquent, il offre la possibilité d'analyser les interactions linéaires et non linéaires de la même manière. Cela permet par exemple l'analyse complète des interactions dirigées dans les réseaux de neurones à différents niveaux de description. Nous présentons ici la boîte à outils open source MATLAB TRENTOOL qui permet à l'utilisateur de gérer la complexité considérable de cette mesure et de valider les résultats obtenus à l'aide de tests statistiques non paramétriques. Nous démontrons l'utilisation de la boîte à outils et les performances de l'algorithme sur des données simulées avec un couplage non linéaire (quadratique) et sur des potentiels de champ locaux (LFP) enregistrés à partir de la rétine et du tectum optique de la tortue (Pseudemys scripta elegans) où un neuronal -way connexion est probablement présente. Dans les données simulées, TE a détecté le flux d'informations dans la direction simulée de manière fiable avec des faux positifs ne dépassant pas les taux attendus sous l'hypothèse nulle. Dans les données LFP, nous avons trouvé des interactions dirigées de la rétine au tectum, malgré les transformations compliquées du signal entre ces étapes. Aucune interaction faussement positive dans les directions inverses n'a été détectée. TRENTOOL est une implémentation d'entropie de transfert et d'analyse d'information mutuelle qui vise à accompagner l'utilisateur dans l'application de cette mesure théorique de l'information. TRENTOOL est implémenté comme une boîte à outils MATLAB et disponible sous une licence open source (GPL v3). Pour une utilisation avec des données neuronales, TRENTOOL s'intègre de manière transparente avec la boîte à outils FieldTrip populaire.

La prolifération des armes nucléaires est une grande menace pour la paix et la stabilité mondiales. La question du renforcement du régime de non-prolifération est ouverte depuis longtemps. En 1997, le Conseil des gouverneurs (BOG) de l'Agence internationale de l'énergie atomique (AIEA) a adopté le Protocole de garanties supplémentaires. L'objectif du protocole est d'améliorer la capacité de l'AIEA à détecter la production non déclarée de matières fissiles dans les États membres. Cependant, l'AIEA ne dispose pas toujours de ressources humaines et financières suffisantes pour accomplir cette tâche. Développé ici est un concept d'utilisation des ressources humaines et techniques disponibles dans le milieu universitaire qui pourrait être utilisé pour améliorer la mission de l'AIEA. L'objectif de cette recherche était d'étudier la faisabilité d'une communauté universitaire utilisant des sources d'information et des produits disponibles commercialement ou publiquement dans le but de détecter des installations et des activités secrètes destinées à l'acquisition illégale de matières fissiles ou à la production d'armes nucléaires.Dans cette étude, la disponibilité et l'utilisation de systèmes commerciaux d'imagerie satellitaire, de codes informatiques commerciaux pour l'analyse d'images satellitaires, la vérification du Traité d'interdiction complète des essais (TICE), le Système international de surveillance (IMS), les sources d'information accessibles au public telles que les groupes de surveillance et les articles de presse, et Les informations des services douaniers ont été explorées. Un système d'intégration de ces sources de données pour former des conclusions a également été développé. Les résultats ont prouvé que les sources d'information et d'analyse de données disponibles publiquement et commercialement peuvent être un outil puissant pour suivre les violations du régime international de non-prolifération nucléaire et un cadre pour la mise en œuvre de ces outils dans la communauté universitaire a été développé. À la suite de cette étude, la formation d'une communauté universitaire internationale de surveillance de la non-prolifération (INMAC) est proposée. Il s'agirait d'une organisation indépendante composée d'universitaires (professeurs, personnel et étudiants) des deux États dotés d'armes nucléaires (NWS) et

Jonnalagadda, Siddhartha Gonzalez, Graciela

BioSimplify est un outil open source écrit en Java qui introduit et facilite l'utilisation d'un nouveau modèle de simplification des phrases adapté à l'analyse automatique du discours et à l'extraction d'informations (par opposition à la simplification des phrases pour améliorer la lisibilité humaine). Le modèle est basé sur une approche « shot-gun » qui produit de nombreuses versions différentes (plus simples) de la phrase originale en combinant des variantes de ses éléments constitutifs. Cet outil est optimisé pour le traitement de la littérature scientifique biomédicale telle que les résumés indexés dans PubMed. Nous avons testé notre outil sur son impact sur la tâche d'extraction PPI et il a amélioré le f-score de l'outil PPI d'environ 7%, avec une amélioration du rappel d'environ 20%. L'outil BioSimplify et le corpus de test peuvent être téléchargés sur https://biosimplify.sourceforge.net.

L'introduction de l'open source dans les sciences de la vie est de plus en plus suggérée comme alternative au brevetage. C'est pourtant une alternative qui prend forme au croisement des sciences de la vie et de l'informatique. De nombreux exemples peuvent être identifiés dans lesquels l'open source dans les sciences de la vie fait référence à l'accès, au partage et à la collaboration en tant que pratiques informatiques. Cela inclut l'open source en tant que modèle expérimental et en tant qu'approche plus sophistiquée du génie génétique. La première section traite de la plus grande flexibilité en matière de brevetage et de la relation avec l'introduction de l'open source dans les sciences de la vie. L'argument principal est que la propriété des connaissances dans les sciences de la vie devrait être reconsidérée dans le contexte de la centralité de l'ADN dans les formats informatiques. Ceci est illustré en discutant une série d'exemples de modèles open source. La deuxième partie se concentre sur l'open source en biologie synthétique en tant qu'exemple pour la re-matérialisation de l'information en nourriture, énergie, médecine, etc. L'article se termine en soulevant la question de savoir si un autre type d'alternative pourrait être possible : une qui considère l'open source comme un modèle pour une alternative à la marchandisation de la vie qui est comprise comme une tentative de supprimer complètement les restrictions de l'utilisation de l'ADN dans l'un de ses formats.

Discute de la méthode de développement logiciel Open Source et de sa relation avec le contrôle du contenu de l'information. Les sujets comprennent les ressources numériques des bibliothèques les services de référence la préservation le statut juridique et économique de l'information les normes techniques l'accès aux données numériques le contrôle de l'utilisation de l'information et les lois sur le droit d'auteur et les brevets.…

Une enquête sur l'état de l'art actuel des pratiques de programmation en temps réel open source. Ce document inclut les technologies disponibles, leur facilité d'obtention, de configuration et d'utilisation, ainsi que certaines mesures de performances effectuées sur les différents systèmes. Une matrice de fournisseurs et de leurs produits est incluse dans le cadre de cette enquête, mais il ne s'agit pas d'une liste exhaustive et ne représente qu'un instantané du temps dans un domaine en évolution rapide. Plus précisément, trois approches sont étudiées : 1. Complètement open source sur du matériel générique, téléchargé depuis le net. 2. Open source emballé par un vendeur et fourni sous forme de copie d'évaluation gratuite. 3. Matériel propriétaire avec logiciel source propriétaire préchargé fourni par le vendeur comme pour notre évaluation.

Helsens, Kenny Colaert, Niklaas Barsnes, Harald Muth, Thilo Flikka, Kristian Staes, An Timmerman, Evy Wortelkamp, ​​Steffi Sickmann, Albert Vandekerckhove, Joël Gevaert, Kris Martens, Lennart

La protéomique basée sur MS produit de grandes quantités de spectres de masse qui nécessitent un traitement, une identification et éventuellement une quantification avant que l'interprétation puisse être entreprise. Les études à haut débit nécessitent une automatisation de ces différentes étapes, et une gestion des données en association avec les résultats obtenus. Nous présentons ici ms_lims (http://genesis.UGent.be/ms_lims), un système open source disponible gratuitement basé sur une base de données centrale pour automatiser la gestion et le traitement des données dans les analyses protéomiques pilotées par MS.

Tank Information System est une application Web qui fournit des informations complètes sur les réservoirs d'irrigation mineurs de l'État de Telangana. Dans le cadre du programme, une application de cartographie Web utilisant Flex et ArcGIS Server a été développée pour rendre les données accessibles au public. Au fil du temps, alors que Flex est devenu obsolète, une migration de l'interface client vers les dernières technologies basées sur JavaScript a été effectuée. Initialement, l'application basée sur Flex a été migrée vers l'API JavaScript ArcGIS à l'aide de Dojo Toolkit. Les deux applications clientes utilisaient les services publiés du serveur ArcGIS. Pour vérifier le modèle de migration du propriétaire vers l'open source, l'application ArcGIS basée sur JavaScript a ensuite été migrée vers Open Layers et Dojo Toolkit qui utilisait le service publié de GeoServer. Le modèle de migration remarqué dans l'étude met particulièrement l'accent sur l'utilisation de Dojo Toolkit et de la base de données PostgreSQL pour le serveur ArcGIS afin que la migration vers l'open source puisse être effectuée sans effort. L'application actuelle fournit une étude de cas qui pourrait aider les organisations à migrer leurs applications Web ArcGIS propriétaires vers l'open source . En outre, l'étude révèle les avantages financiers de l'adoption de l'open source par rapport aux logiciels commerciaux.

la capacité de tous les participants à accéder librement au code source et à se tenir au courant des progrès. Il ne peut y avoir de thésaurisation d'informations sur une source ouverte. développé de cette manière dépend de communications prêtes et fiables. Tout comme Internet a augmenté la capacité des gens à échanger des informations. l'investissement est maximisé grâce à une utilisation et une réutilisation prolongées. Ce processus aboutit à des systèmes qui exploitent les capacités collaboratives de ses développeurs utilisateurs

Une proposition a été faite lors du congrès EWRI 2009 à Kansas City, MO pour établir un projet Open Source (OSP) pour le programme d'analyse de réseau de canalisations EPANET largement utilisé. Il s'agirait d'un effort de collaboration continu entre un groupe de conseillers et de développeurs géographiquement dispersés, wo.

Preece, Alun Roberts, Colin Rogers, David Webberley, Will Innes, Martin Braines, Dave

Le traitement et l'exploitation rapides des informations open source, y compris les sources des médias sociaux, afin de raccourcir les cycles de prise de décision, sont devenus un problème important dans l'analyse du renseignement ces dernières années. À travers une série d'études de cas et d'expériences naturelles, axées principalement sur des scénarios de maintien de l'ordre et de lutte contre le terrorisme, nous avons développé une approche de la recherche et du cadrage d'informations pour éclairer la prise de décision, en s'appuyant sur l'intelligence open source, en particulier Twitter, en raison de sa réalité. concentration sur le temps et utilisation fréquente comme support de liens vers d'autres médias. Notre travail utilise une combinaison de traitement du langage naturel (NL) et du langage naturel contrôlé (CNL) pour prendre en charge la collecte d'informations à partir de capteurs humains, la liaison et la schématisation des informations collectées et le cadrage d'images situationnelles. Nous illustrons l'approche à travers une série de vignettes, soulignant (1) comment des modèles de connaissances (schémas) relativement légers et réutilisables peuvent être rapidement développés pour ajouter du contexte aux données collectées sur les réseaux sociaux, (2) comment les informations provenant de sources ouvertes peuvent être combinées avec des rapports. provenant d'observateurs de confiance, à des fins de corroboration ou pour identifier des informations contradictoires et (3) comment l'approche aide les utilisateurs opérant à la limite tactique ou près de celle-ci, pour effectuer rapidement la collecte d'informations et éclairer la prise de décision. L'approche est soutenue par des outils logiciels sur mesure pour l'analyse des médias sociaux et la gestion des connaissances.

Hellman, S.B. Lisowski, S. Baker, B. Hagerty, M. Lomax, A. Leifer, J.M. Thies, D.A. Schnackenberg, A. Barrows, J.

Tsunami Information Technology Modernization (TIM) est un projet de la National Oceanic and Atmospheric Administration (NOAA) visant à mettre à jour et à normaliser les systèmes de surveillance des tremblements de terre et des tsunamis actuellement utilisés dans les centres d'alerte aux tsunamis des États-Unis à Ewa Beach, Hawaii (PTWC) et Palmer, Alaska (NTWC ). Bien que ce projet ait été financé par la NOAA pour résoudre un problème spécifique, les exigences selon lesquelles le système livré soit à la fois open source et facilement maintenable ont entraîné la création d'une variété de progiciels open source (OS). Le logiciel open source est maintenant terminé et il s'agit d'une présentation du logiciel OS qui a été financé par la NOAA au profit de l'ensemble de la communauté sismique. L'architecture de conception comprend trois composants distincts : (1) L'interface utilisateur, (2) Le système d'acquisition et de traitement des données en temps réel et (3) La bibliothèque d'algorithmes scientifiques. Le système suit une conception modulaire avec un couplage lâche entre les composants. Nous identifions maintenant les principales composantes du projet. L'interface utilisateur, CAVE, est écrite en Java et est compatible avec le système graphique open source existant du National Weather Service (NWS) AWIPS. Le système d'acquisition et de traitement sismique en temps réel sélectionné est l'open source SeisComp3 (sc3). La bibliothèque sismique (libseismic) contient de nombreux algorithmes sismiques open source écrits et enveloppés personnalisés (par exemple, ML/mb/Ms/Mwp, magnitude du manteau (Mm), tenseur de moment de phase w, tenseur de moment d'onde corporelle, inversion de faute finie, traitement de réseau ). La bibliothèque sismique est organisée d'une manière (nommage des fonctions et utilisation) qui sera familière aux utilisateurs de Matlab. La bibliothèque sismique étend sc3 afin qu'elle puisse être appelée par le système temps réel, mais elle peut également être pilotée et testée en dehors de sc3, par exemple, par ObsPy ou Earthworm. Pour unifier les trois composants principaux, nous avons développé une couche de communication flexible et légère appelée SeismoEdex.

Stamelos, Ioannis Kakarontzas, George

Les chapitres précédents de ce livre ont traité de la gestion des connaissances en architecture dans les projets traditionnels de logiciels à source fermée (CSS). Ce chapitre tentera d'examiner les façons dont les connaissances sont partagées entre les participants aux projets de logiciels libres libres et open source (FLOSS 1) et comment les connaissances architecturales sont gérées par rapport à l'architecture. CSS. Les projets FLOSS sont organisés et développés d'une manière fondamentalement différente des projets CSS. Les projets FLOSS ne développent tout simplement pas de code comme le font les projets CSS. Par conséquent, leurs mécanismes de gestion des connaissances reposent également sur différents concepts et outils.

Alors que la microscopie devient de plus en plus automatisée et que l'imagerie s'étend dans les dimensions spatiales et temporelles, les outils d'analyse quantitative pour l'imagerie par fluorescence deviennent essentiels pour éliminer les goulots d'étranglement ainsi que pour extraire et exploiter pleinement les informations contenues dans l'imagerie. Ces dernières années, il y a eu une vague d'activité dans le développement d'outils et de méthodes d'analyse de bio-images, avec pour résultat qu'il existe maintenant de nombreux projets d'analyse de bio-images open source de haute qualité, bien documentés et bien soutenus avec de grands bases d'utilisateurs qui couvrent pratiquement tous les aspects, de la capture d'images à la publication. Ces solutions open source offrent désormais une alternative viable aux solutions commerciales. Plus important encore, ils forment un réseau d'outils interopérables et interconnectés qui permettent de partager des données et des méthodes d'analyse entre plusieurs des grands projets. Tout comme les chercheurs s'appuient sur, transmettent et vérifient les connaissances par le biais de la publication, les méthodes et logiciels d'analyse open source créent une base sur laquelle s'appuyer, transmettre et vérifier. Nous décrivons ici de nombreux projets majeurs, leurs capacités et leurs fonctionnalités. Nous donnons également un aperçu de l'état actuel des logiciels open source pour l'analyse par microscopie à fluorescence et les nombreuses raisons d'utiliser et de développer des méthodes open source. Copyright © 2012 Elsevier Inc. Tous droits réservés.

Strömbäck, L. Pers, C. Isberg, K. Nyström, K. Arheimer, B.

Le modèle de prédictions hydrologiques pour l'environnement (HYPE) est un modèle de captage intégré dynamique, semi-distribué, basé sur les processus. Il utilise des concepts hydrologiques et de transport de nutriments bien connus et peut être appliqué à des évaluations à petite et à grande échelle des ressources en eau et de leur état. Dans le modèle, le paysage est divisé en classes selon le type de sol, la végétation et l'altitude. La représentation du sol est stratifiée et peut être divisée en trois couches maximum. L'eau et les substances sont acheminées par les mêmes voies d'écoulement et stockages (neige, sol, eaux souterraines, ruisseaux, rivières, lacs) compte tenu du renouvellement et de la transformation en route vers la mer. HYPE a été utilisé avec succès dans de nombreuses applications hydrologiques au SMHI. Pour l'Europe, nous avons actuellement trois modèles différents Le modèle S-HYPE pour la Suède Le modèle BALT-HYPE pour la mer Baltique et le modèle E-HYPE pour toute l'Europe. Ces modèles simulent les conditions hydrologiques et les nutriments pour leurs zones respectives et sont utilisés pour la caractérisation, les prévisions et les analyses de scénarios. Les données du modèle peuvent être téléchargées sur hypeweb.smhi.se. De plus, nous fournissons des modèles pour la région arctique, la région arabe (Moyen-Orient et Afrique du Nord), l'Inde, le bassin du fleuve Niger, le bassin de La Plata. Cela démontre l'applicabilité du modèle HYPE pour la modélisation à grande échelle dans différentes régions du monde. Un objectif important de notre travail est de rendre nos données et nos outils disponibles en tant que données et services ouverts. Dans ce but, nous avons créé la communauté Open Source HYPE (OSC) qui met le code source de HYPE à la disposition de toute personne intéressée par le développement ultérieur de HYPE. Le HYPE OSC (hype.sourceforge.net) est une initiative open source sous la licence publique Lesser GNU prise par SMHI pour renforcer la collaboration internationale dans la modélisation hydrologique et la production de données hydrologiques. L'hypothèse est que plus de cerveaux et plus de tests se traduiront par de meilleurs modèles et un meilleur code. Le code est transparent et peut être modifié

Locatelli, Paolo Baj, Emanuele Restifo, Nicola Origgi, Gianni Bragagia, Silvia

L'open source est une chance encore inexploitée pour les organisations de santé et les fournisseurs de technologies de répondre à une demande croissante d'innovation et d'associer des avantages économiques à une nouvelle façon de gérer les systèmes d'information hospitaliers. Ce chapitre présentera le cas du portail clinique d'entreprise Web développé en Italie par l'hôpital Niguarda de Milan avec le soutien de la Fondazione Politecnico di Milano, pour permettre un environnement sans papier pour les activités cliniques et administratives dans le service. Cela représente également un cas rare de technologie open source et de réutilisation dans le secteur de la santé, car le portage du système est actuellement en cours à l'institut neurologique Besta de Milan. Cet institut personnalise le portail pour alimenter les chercheurs avec des données cliniques structurées collectées dans les dossiers des patients de son portail, afin qu'elles puissent être analysées, par exemple, via des outils de business intelligence. Les avantages organisationnels et cliniques sont étudiés, de la surveillance des processus à la structuration sémantique des données, en passant par la reconnaissance de modèles communs dans les processus de soins.

Un navigateur Web fournit une interface utilisateur uniforme pour différents types d'informations. Rendre cette interface universellement accessible et plus interactive est un objectif à long terme encore loin d'être atteint. Les navigateurs universellement accessibles nécessitent de nouvelles modalités d'interaction et des fonctionnalités supplémentaires, pour lesquelles les navigateurs existants ont tendance à n'apporter que des solutions partielles. Bien que les fonctionnalités d'accessibilité du Web puissent être trouvées sous forme de composants logiciels libres et open source, leur réutilisation et leur intégration sont complexes car elles ont été développées dans divers environnements de mise en œuvre, suivant des normes et des conventions incompatibles avec le Web. Pour résoudre ces problèmes, nous avons lancé plusieurs activités visant à exploiter le potentiel des logiciels open source pour l'accessibilité du Web. La première de ces activités est le développement de Adaptable Multi-Interface COmmunicator (AMICO):WEB, une infrastructure qui facilite la réutilisation et l'intégration efficaces de composants logiciels open source dans l'environnement Web. La principale contribution d'AMICO:WEB est de permettre l'interopérabilité syntaxique et sémantique entre les mécanismes d'extension Web et une variété de mécanismes d'intégration utilisés par les composants logiciels libres et open source. Sa conception est basée sur nos expériences dans la résolution de problèmes pratiques où nous avons utilisé des composants open source pour améliorer l'accessibilité des applications Web rich media. La deuxième de nos activités consiste à améliorer l'éducation, où nous avons utilisé notre plate-forme pour enseigner aux étudiants comment créer des solutions d'accessibilité avancées à partir de divers logiciels open source. Nous sommes également partiellement impliqués dans les projets Eclipse récemment lancés appelés Accessibility Tools Framework (ACTF), dont le but est le développement d'une infrastructure extensible, sur laquelle les développeurs peuvent construire une variété d'utilitaires qui aident à évaluer et à améliorer l'accessibilité des applications et du contenu. pour les personnes handicapées. Dans cet article, nous rendons brièvement compte de ces activités.

Les logiciels open source n'atteindront jamais l'ubiquité. Il y a des environnements dans lesquels il ne s'épanouit tout simplement pas. De par sa nature, le développement open source nécessite un libre échange d'idées, l'implication de la communauté et les efforts d'individus talentueux et dévoués. Cependant, les pressions peuvent provenir de plusieurs sources qui empêchent cela de se produire. En outre, l'ouverture et les problèmes de licence complexes invitent à une utilisation abusive et abusive. Il faut veiller à éviter les pièges des logiciels libres.

Zhou, Steven Zhiying Gilani, Syed Omer Winkler, Stefan

Les téléphones portables sont passés d'un appareil de communication un à un passif à un appareil informatique portable puissant. Aujourd'hui, la plupart des nouveaux téléphones mobiles sont capables de capturer des images, d'enregistrer des vidéos, de naviguer sur Internet et de faire bien plus. De nouvelles applications sociales passionnantes font leur apparition dans le paysage mobile, comme les lecteurs de cartes de visite, les détecteurs de chant et les traducteurs. Ces applications aident les utilisateurs à rassembler rapidement les informations au format numérique et à les interpréter sans avoir besoin de transporter des ordinateurs portables ou des tablettes PC. Cependant, avec toutes ces avancées, nous trouvons très peu de logiciels open source disponibles pour les téléphones mobiles. Par exemple, il existe actuellement de nombreux moteurs OCR open source pour la plate-forme de bureau mais, à notre connaissance, aucun n'est disponible sur la plate-forme mobile. En gardant cela en perspective, nous proposons un système complet de détection et de reconnaissance de texte avec capacité de synthèse vocale, en utilisant la technologie de bureau existante. Dans ce travail, nous avons développé un framework OCR complet avec des sous-systèmes de la communauté de bureau open source.Cela inclut un moteur OCR open source populaire nommé Tesseract pour la détection et la reconnaissance de texte et le module de synthèse vocale Flite, pour ajouter la capacité de synthèse vocale.

Strömbäck, Lena Arheimer, Berit Pers, Charlotta Isberg, Kristina

Le modèle de prévision hydrologique pour l'environnement (HYPE) est un modèle de bassin versant intégré dynamique, semi-distribué, basé sur les processus (Lindström et al., 2010). Il utilise des concepts hydrologiques et de transport de nutriments bien connus et peut être appliqué à des évaluations à petite et à grande échelle des ressources en eau et de leur état. Dans le modèle, le paysage est divisé en classes selon le type de sol, la végétation et l'altitude. La représentation du sol est stratifiée et peut être divisée en trois couches maximum. L'eau et les substances sont acheminées par les mêmes voies d'écoulement et stockages (neige, sol, eaux souterraines, ruisseaux, rivières, lacs) compte tenu du renouvellement et de la transformation en route vers la mer. En Suède, le modèle est utilisé par les autorités chargées de l'eau pour respecter la directive-cadre sur l'eau et la directive-cadre sur la stratégie pour le milieu marin. Il est utilisé pour la caractérisation, les prévisions et les analyses de scénarios. Les données du modèle peuvent être téléchargées gratuitement à partir de trois applications HYPE différentes : Europe (www.smhi.se/e-hype), bassin de la mer Baltique (www.smhi.se/balt-hype) et Suède (vattenweb.smhi.se) Le HYPE OSC (hype.sourceforge.net) est une initiative open source sous la licence publique Lesser GNU prise par SMHI pour renforcer la collaboration internationale dans la modélisation hydrologique et la production de données hydrologiques. L'hypothèse est que plus de cerveaux et plus de tests se traduiront par de meilleurs modèles et un meilleur code. Le code est transparent et peut être modifié et appris. De nouvelles versions du code principal seront livrées fréquemment. L'objectif principal du HYPE OSC est de fournir un accès public à un modèle hydrologique opérationnel de pointe et d'encourager l'expertise hydrologique de différentes parties du monde à contribuer à l'amélioration du modèle. HYPE OSC est ouvert à tous ceux qui s'intéressent à l'hydrologie, à la modélisation hydrologique et au développement de codes - par ex. scientifiques, autorités et consultants. La communauté Open Source HYPE a été initiée en novembre 2011 par un lancement et un atelier avec 50 participants enthousiastes

Les projets de logiciels open source commerciaux sont des projets de logiciels open source qui appartiennent à une seule entreprise qui tire un flux de revenus direct et important du logiciel. L'open source commercial représente à première vue un paradoxe économique : comment une entreprise peut-elle gagner de l'argent si elle met gratuitement son produit à disposition en open source ? Cet article présente les principales propriétés des modèles commerciaux open source et explique leur fonctionnement. En utilisant une approche commerciale open source, les entreprises peuvent se lancer sur le marché plus rapidement avec un produit de qualité supérieure à un coût inférieur à celui des concurrents traditionnels. L'article montre comment ces avantages découlent d'une communauté d'utilisateurs engagée et autonome. En l'absence de toute référence globale préalable, cet article est basé sur une analyse des déclarations publiques de praticiens de l'open source commercial. Il forge les diverses anecdotes dans une description cohérente des stratégies de génération de revenus et des fonctions commerciales pertinentes.


Voir la vidéo: UT#26 Construction des polynômes interpolateurs de Lagrange