Le Center for Data Science de l’université Paris Saclay met en oeuvre une solution opérationnelle depuis 2016 afin de référencer toutes les sources de données, fichiers ou d’API au sein de l’université. Nous verrons quelles opportunités apportent le respect des standards et bonnes pratiques pour faciliter la réutilisation et la valorisation des données de la recherche.
Version ouverte à tous : http://linkedwiki.com
Version de l’université Paris Saclay : https://io.datascience-paris-saclay.fr
Les professionnels de l'information face aux défis du Web de donnéesGautier Poupeau
Diaporama pour une communication donnée dans le cadre de la journée d'études ADBS-EDB, "Quel Web demain ?", 7 avril 2009, http://www.adbs.fr/quel-web-demain--57415.htm
De l'intelligence dans les données ouvertes - Problèmes et solutions dans les...Mathieu d'Aquin
Presentation a la matinee Donnees Ouverte LIRMM - Montpellier - 28/11/2013
Presentation at the Open Data workshop LIRMM
http://odrg.lirmm.fr/index.php/event-details?id=14
Logiciels pour bibliothèques, l’open source impose ses codes, Livres Hebdo, n...Marc Maisonneuve
Tosca consultants publie les résultats de la 22ème édition de l’enquête annuelle sur le marché français des logiciels métier destinés aux bibliothèques
Comme précédemment, cette enquête traite les questions suivantes.
- Quelle est la couverture fonctionnelle des logiciels métier proposés aux bibliothèques ?
- Quelle a été la diffusion des différents logiciels métier ?
- Quelles ont été les tendances du marché en 2015 ?
- Quel est le montant du marché 2015 ?
- Quelles sont les nouveautés des progiciels pour 2016 ?
- Quels sont les logiciels gratuits disponibles sur le marché ?
Les résultats de cette enquête sont disponibles en page logiciel du site de Tosca consultants.
Le présent article rend compte de l'évolution de l'offre et présente l'état de celle-ci début 2016.
Logiciels pour bibliothèques, l’open source impose ses codes / Emmanuelle Asselin, Marc Maisonneuve in Livres Hebdo, n°1074, 26 février 2016. - (p. 51-59).
Présentaion des outils et services documentaires offerts par le Service IST de la Délégation Régionale Occitanie de l'IRD (Montpellier), en présentiel et à distance : sites web, adresses mails, publications et ressources sur abonnement, assistance, recommandations et formations,...
Visite guidée au pays de la donnée - Traitement automatique des donnéesGautier Poupeau
Ce diaporama est le 2ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 2ème partie présente le traitement automatique des données : intelligence artificielle, fouille de textes et de données, Traitement automarique de la langue ou des images. Après avoir défini ces différents domaines, cette présentation s'attache à faire le tour des différents outils disponibles pour analyser les contenus audiovisuels.
Ce webinaire présentera COVID-END aux participants et abordera les manières dont les ressources de COVID-END peuvent vous soutenir dans votre réponse à la COVID-19. Contenant des astuces, des outils et un guide de sources de données probantes utiles tant aux chercheurs qu’aux décideurs, COVID-END peut offrir quelque chose à chacun.
Visite guidée au pays de la donnée - Du modèle conceptuel au modèle physiqueGautier Poupeau
Ce diaporama est le 3ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette partie s'attache à présenter comment on passe de la modélisation des données jusqu'à leur stockage. Elle dresse un panorama des différentes solutions de stockage de données, en présente les particularités, les forces et les faiblesses.
Les professionnels de l'information face aux défis du Web de donnéesGautier Poupeau
Diaporama pour une communication donnée dans le cadre de la journée d'études ADBS-EDB, "Quel Web demain ?", 7 avril 2009, http://www.adbs.fr/quel-web-demain--57415.htm
De l'intelligence dans les données ouvertes - Problèmes et solutions dans les...Mathieu d'Aquin
Presentation a la matinee Donnees Ouverte LIRMM - Montpellier - 28/11/2013
Presentation at the Open Data workshop LIRMM
http://odrg.lirmm.fr/index.php/event-details?id=14
Logiciels pour bibliothèques, l’open source impose ses codes, Livres Hebdo, n...Marc Maisonneuve
Tosca consultants publie les résultats de la 22ème édition de l’enquête annuelle sur le marché français des logiciels métier destinés aux bibliothèques
Comme précédemment, cette enquête traite les questions suivantes.
- Quelle est la couverture fonctionnelle des logiciels métier proposés aux bibliothèques ?
- Quelle a été la diffusion des différents logiciels métier ?
- Quelles ont été les tendances du marché en 2015 ?
- Quel est le montant du marché 2015 ?
- Quelles sont les nouveautés des progiciels pour 2016 ?
- Quels sont les logiciels gratuits disponibles sur le marché ?
Les résultats de cette enquête sont disponibles en page logiciel du site de Tosca consultants.
Le présent article rend compte de l'évolution de l'offre et présente l'état de celle-ci début 2016.
Logiciels pour bibliothèques, l’open source impose ses codes / Emmanuelle Asselin, Marc Maisonneuve in Livres Hebdo, n°1074, 26 février 2016. - (p. 51-59).
Présentaion des outils et services documentaires offerts par le Service IST de la Délégation Régionale Occitanie de l'IRD (Montpellier), en présentiel et à distance : sites web, adresses mails, publications et ressources sur abonnement, assistance, recommandations et formations,...
Visite guidée au pays de la donnée - Traitement automatique des donnéesGautier Poupeau
Ce diaporama est le 2ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette 2ème partie présente le traitement automatique des données : intelligence artificielle, fouille de textes et de données, Traitement automarique de la langue ou des images. Après avoir défini ces différents domaines, cette présentation s'attache à faire le tour des différents outils disponibles pour analyser les contenus audiovisuels.
Ce webinaire présentera COVID-END aux participants et abordera les manières dont les ressources de COVID-END peuvent vous soutenir dans votre réponse à la COVID-19. Contenant des astuces, des outils et un guide de sources de données probantes utiles tant aux chercheurs qu’aux décideurs, COVID-END peut offrir quelque chose à chacun.
Visite guidée au pays de la donnée - Du modèle conceptuel au modèle physiqueGautier Poupeau
Ce diaporama est le 3ème d'une série qui vise à donner un panorama de la gestion des données à l'ère du big data et de l'intelligence artificielle. Cette partie s'attache à présenter comment on passe de la modélisation des données jusqu'à leur stockage. Elle dresse un panorama des différentes solutions de stockage de données, en présente les particularités, les forces et les faiblesses.
Présentation au Pôle Science de l’IRD , le 13 septembre 2018 du projet d'entrepôt de données ouvertes de l'IRD, du contexte de l'Open Science en France et en Europe et des avantages à disposer d'un entrepôt de données pour l'IRD et ses partenaires.
L'offre de logiciels pour bibliothèque et les conditions d'acceptation d'un c...Marc Maisonneuve
Cette intervention de Marc Maisonneuve, le 13 janvier 2017 à l'Université de Fribourg s'inscrit dans le cadre du Certificat en gestion de documentation et de bibliothèque.
Déroulé de l'intervention
Introduction : quelques repères historiques
1. L’offre de logiciels métier pour bibliothèque
1.1 La typologie des logiciels
1.2 Les évolutions des système de gestion de bibliothèque et des opacs
1.3 L’évolution des modes de commercialisation des logiciels métier pour bibliothèque
2. Les modes d’exploitation d’un logiciel : sur ses propres serveurs, sur ceux d’un prestataire, en SaaS (plateforme de services)
3. Zoom sur le mode SaaS (plateforme de services)
3.1 Les solutions principalement disponibles en SaaS
3.2 Les avantages du mode SaaS
3.3 Les points de vigilance associés au mode SaaS
3.4 L’abonnement à une plateforme de services : à quoi dois-je penser ?
4. Les exigences d’accessibilité numérique
Documation 2011 : de la recherche fédérée à l'accès unifiéAntidot
Toute organisation subit les limites de son système d’information : entrepôts de données cloisonnés, données hétérogènes, documents non structurés, thésaurus incomplets, taxonomies incohérentes…
Les utilisateurs en souffrent et attendent un véritable « accès unifié à l’information » : trouver l’information par les concepts plutôt que la chercher par les mots, naviguer aisément dans l’information, mieux l’exploiter en collaborant. L’entreprise doit évoluer vers un « espace informationnel enrichi », servant différents usages selon le profil ou la mission de chaque collaborateur.
La vision innovante d'Antidot permet d’aller bien au-delà de ce que permettent les approchent traditionnelles comme la « recherche fédérée » ou encore les « search based applications » car Antidot Information Factory et Antidot Finder Suite permettent de modéliser l’information, de capter, normaliser, décrire et agréger des données puis d’en inférer des informations nouvelles, facilement accessibles.
Intégrant nativement les technologies du web sémantique, Antidot apporte les solutions les plus en pointe dans le domaine et démontre à travers une réalisation emblématique - le projet ISIDORE du CNRS TGE Adonis - comment remodeler et diffuser une information à forte valeur ajoutée.
Un plan de gestion de données (PGD ou DMP pour Data Management Plan) est un document qui spécifie quelles données sont collectées ou générées, et comment elles seront gérées, partagées et préservées pendant et après un projet. Le support de ce webinaire donne les clés pour pouvoir amorcer la rédaction d’un PGD en toute sérénité en présentant les enjeux et objectifs d’un PGD, son contenu et un outil d’aide à la rédaction : DMP OPIDOR.
Claire SOWINSKI est responsable du service formation-DoRANum de l’Inist-CNRS (Institut de l’Information Scientifique et Technique).
Cette introduction au Module Doctoral Cap sur les Données Environnement 2020 réalisé pour l'Université de Montpellier par la Commission Information Scientifique et Technique Agropolis définit rapidement ce qui fait partie des données de la recherche publique et le cadre juridique qui leur est appliqué.
Livres Hebdo n°1030 Logiciels pour bibliothèques, l'arrivée des outils PNBMarc Maisonneuve
Tosca consultants publie les résultats de la 21ème édition de l’enquête annuelle sur le marché français des logiciels métier destinés aux bibliothèques
Comme précédemment, cette enquête traite les questions suivantes.
- Quelle est la couverture fonctionnelle des logiciels métier proposés aux bibliothèques ?
- Quelle a été la diffusion des différents logiciels métier ?
- Quelles ont été les tendances du marché en 2014 ?
- Quel est le montant du marché 2014 ?
- Quelles sont les nouveautés des progiciels pour 2015 ?
- Quels sont les logiciels gratuits disponibles sur le marché ?
Les résultats de cette enquête sont disponibles en page logiciel du site de Tosca consultants.
Le présent article rend compte de l'évolution de l'offre et présente l'état de celle-ci début 2015.
Logiciels pour bibliothèques, l’arrivée des outils PNB / Marc Maisonneuve in Livres Hebdo, n°1030, 20 février 2015. - (p. 22-28)
Atelier JDEV2017 : initiation à SPARQL avec Wikidata
Cet atelier a pour objectif de vous montrer comment dans l’avenir un étudiant et un chercheur (et demain les machines) vont naviguer dans le Linked Data (Web des données) à l’aide du langage SPARQL. Nous utiliserons un outil d'auto-complétion qui facilitera la création de votre première requête. Nous utiliserons le logiciel http://LinkedWiki.com afin d’écrire et partager les requêtes des participants de l’atelier ou bien https://io.datascience-paris-saclay.fr/map.php si le participant est membre de cette université.
Panorama de l'offre de logiciels libres pour bibliothèque v2Marc Maisonneuve
Introduction : définitions du logiciel libre et du logiciel open source
1. Typologie des logiciels métier pour bibliothèque
2. La place des logiciels libres ou open source dans cet ensemble
3. Quelques exemples de réalisations s’appuyant sur l’emploi de logiciels libres ou open source
4. Les caractéristiques, les avantages et les inconvénients d’un logiciel libre ou open source
5. Le choix d’un logiciel libre ou open source : à quoi dois-je penser ?
Logiciels pour bibliothèques : un chiffre d’affaires en baisse de 5 %Marc Maisonneuve
Tosca consultants publie les résultats de la 22ème édition de l’enquête annuelle sur le marché français des logiciels métier destinés aux bibliothèques
Comme précédemment, cette enquête traite les questions suivantes.
- Quelle est la couverture fonctionnelle des logiciels métier proposés aux bibliothèques ?
- Quelle a été la diffusion des différents logiciels métier ?
- Quelles ont été les tendances du marché en 2015 ?
- Quel est le montant du marché 2015 ?
- Quelles sont les nouveautés des progiciels pour 2016 ?
- Quels sont les logiciels gratuits disponibles sur le marché ?
Les résultats de cette enquête sont disponibles en page logiciel du site de Tosca consultants.
Le présent article rend compte de l'évolution du marché en 2015.
Logiciels pour bibliothèques : un chiffre d’affaires en baisse de 5 % / Marc Maisonneuve, Emmanuelle Asselin in Archimag, n°292, mars 2016. - (p. 33 - 38).
Slides de l'atelier JDEV2017 : SPARQL, avancé
Vous saurez après cet atelier : lire un document RDF écrit en Turtle, découvrir une ontologie au travers d’un service SPARQL et lire la documentation officielle de SPARQL.
Numérique en pratique : les portails de bibliothèquesMarc Maisonneuve
- concepts de base : expérience utilisateur, ergonomie, accessibilité numériques,
- architecture du portail et composants logiciels,
- recommandations pratiques pour l'ergonomie et l'accessibilité du portail,
- problématique de l'accès aux ressources numériques et solutions permettant d'améliorer l'expérience utilisateur
La Science Ouverte est à l’ordre du jour, en France et en Europe.
Après les publications, les données de la recherche sont sous le feu des projecteurs.
Ce gisement de connaissances, trop peu connu et exploité, est même souvent voué à l’oubli et à la destruction, faute de signalisation et de sauvegarde pérenne.
L’IRD, plus encore que les autres organismes de recherche, se doit de proposer une politique, des méthodologies et des outils de préservation et de partage des données recueillies dans, par et pour les pays du Sud par l’ensemble de ses équipes de recherche.
Lors de cette conférence, Pascal Aventurier, responsable du Service Information Scientifique et Technique (IST), et Jean-Christophe Desconnets, Directeur de la Mission Infrastructure et Données Numériques (MIDN), présenteront le projet d’entrepôt de données de l’IRD qui ouvrira mi 2019.
Fiche pratique IST Agropolis : Les Données de la Recherche : Questions-RéponsesAgropolis International
Foire aux questions - FAQ sur les donnnées de la recherche
Fiche créée en septembre 2015 et révisée en octobre 2016
Qu'est-ce que l'ouverture des données (Open Data) ?
Quelles données préserver ?
Où déposer mes données ?
Comment définir les conditions de réutilisation de mes données ?
Et si mes données sont déjà déposées dans les réseaux sociaux (ResearchGate, Academia...) ?
Qu'est-ce qu'un jeu de données ?
Où rechercher des jeux de données ?
Qu'est-ce qu'un DOI ?
Comment citer un jeu de données ?
Qu'est-ce qu'un PGD ?
A quelles questions répond un PGD ?
De quels outils je dispose pour rédiger un PGD ?
Avec qui interagir pour élaborer un PGD ?
L'éthique du partage et moi ?
Auteurs : Cécile Adamolle, Annabelle Filatre, Hanka Hensens, Isabelle Nault, Chantal Salson, Christine Silvy, Marie-Violaine Tatry
Fiche créée en septembre 2015 et révisée en octobre 2016
L'objectif de cette présentation est de proposer des pistes pour rendre un projet de bioinformatique reproductible.
Durée : 30 + 10 minutes de questions
Lieu : Roscoff, France
AGMQ 2011 : Les données libres et le territoirenoucher
Colloque annuel de l'Association de Géomatique Municipale du Québec (AGMQ) sur le thème "Les données libres et le territoire" organisé à l'Université Laval, Québec, le 3 mai 2011. Conférence introductive de Matthieu Noucher (France).
Le "Lac de données" de l'Ina, un projet pour placer la donnée au cœur de l'or...Gautier Poupeau
Support de l'intervention effectuée au cours de la séance dédiée aux lacs de données du séminaire "Nouveaux paradigmes de l'Archive" organisée par le DICEN-CNAM et les Archives nationales
Gestion des données scientifiques en imagerie in vivo – Journée scientifique organisée par PIV le 7 décembre 2017 au PARCC-HEGP
Marie-Christine Jacquemot
OPIDOR
La Duck Conf - Initier un Datalab : rien à voir avec ce que j'imaginais !OCTO Technology
Présentation du talk de Frederic Petit.
Mettre en place un Datalab, c'est simple, il suffit d'installer un cluster Hadoop ! Et bien non : 3 mois après le lancement de projet, toujours pas d'Hadoop mais des data-scientists heureux et productifs !
La recette d'un bon datalab : étudier les données, assurer leur qualité et qualifier des use cases métier précis.
Présentation au Pôle Science de l’IRD , le 13 septembre 2018 du projet d'entrepôt de données ouvertes de l'IRD, du contexte de l'Open Science en France et en Europe et des avantages à disposer d'un entrepôt de données pour l'IRD et ses partenaires.
L'offre de logiciels pour bibliothèque et les conditions d'acceptation d'un c...Marc Maisonneuve
Cette intervention de Marc Maisonneuve, le 13 janvier 2017 à l'Université de Fribourg s'inscrit dans le cadre du Certificat en gestion de documentation et de bibliothèque.
Déroulé de l'intervention
Introduction : quelques repères historiques
1. L’offre de logiciels métier pour bibliothèque
1.1 La typologie des logiciels
1.2 Les évolutions des système de gestion de bibliothèque et des opacs
1.3 L’évolution des modes de commercialisation des logiciels métier pour bibliothèque
2. Les modes d’exploitation d’un logiciel : sur ses propres serveurs, sur ceux d’un prestataire, en SaaS (plateforme de services)
3. Zoom sur le mode SaaS (plateforme de services)
3.1 Les solutions principalement disponibles en SaaS
3.2 Les avantages du mode SaaS
3.3 Les points de vigilance associés au mode SaaS
3.4 L’abonnement à une plateforme de services : à quoi dois-je penser ?
4. Les exigences d’accessibilité numérique
Documation 2011 : de la recherche fédérée à l'accès unifiéAntidot
Toute organisation subit les limites de son système d’information : entrepôts de données cloisonnés, données hétérogènes, documents non structurés, thésaurus incomplets, taxonomies incohérentes…
Les utilisateurs en souffrent et attendent un véritable « accès unifié à l’information » : trouver l’information par les concepts plutôt que la chercher par les mots, naviguer aisément dans l’information, mieux l’exploiter en collaborant. L’entreprise doit évoluer vers un « espace informationnel enrichi », servant différents usages selon le profil ou la mission de chaque collaborateur.
La vision innovante d'Antidot permet d’aller bien au-delà de ce que permettent les approchent traditionnelles comme la « recherche fédérée » ou encore les « search based applications » car Antidot Information Factory et Antidot Finder Suite permettent de modéliser l’information, de capter, normaliser, décrire et agréger des données puis d’en inférer des informations nouvelles, facilement accessibles.
Intégrant nativement les technologies du web sémantique, Antidot apporte les solutions les plus en pointe dans le domaine et démontre à travers une réalisation emblématique - le projet ISIDORE du CNRS TGE Adonis - comment remodeler et diffuser une information à forte valeur ajoutée.
Un plan de gestion de données (PGD ou DMP pour Data Management Plan) est un document qui spécifie quelles données sont collectées ou générées, et comment elles seront gérées, partagées et préservées pendant et après un projet. Le support de ce webinaire donne les clés pour pouvoir amorcer la rédaction d’un PGD en toute sérénité en présentant les enjeux et objectifs d’un PGD, son contenu et un outil d’aide à la rédaction : DMP OPIDOR.
Claire SOWINSKI est responsable du service formation-DoRANum de l’Inist-CNRS (Institut de l’Information Scientifique et Technique).
Cette introduction au Module Doctoral Cap sur les Données Environnement 2020 réalisé pour l'Université de Montpellier par la Commission Information Scientifique et Technique Agropolis définit rapidement ce qui fait partie des données de la recherche publique et le cadre juridique qui leur est appliqué.
Livres Hebdo n°1030 Logiciels pour bibliothèques, l'arrivée des outils PNBMarc Maisonneuve
Tosca consultants publie les résultats de la 21ème édition de l’enquête annuelle sur le marché français des logiciels métier destinés aux bibliothèques
Comme précédemment, cette enquête traite les questions suivantes.
- Quelle est la couverture fonctionnelle des logiciels métier proposés aux bibliothèques ?
- Quelle a été la diffusion des différents logiciels métier ?
- Quelles ont été les tendances du marché en 2014 ?
- Quel est le montant du marché 2014 ?
- Quelles sont les nouveautés des progiciels pour 2015 ?
- Quels sont les logiciels gratuits disponibles sur le marché ?
Les résultats de cette enquête sont disponibles en page logiciel du site de Tosca consultants.
Le présent article rend compte de l'évolution de l'offre et présente l'état de celle-ci début 2015.
Logiciels pour bibliothèques, l’arrivée des outils PNB / Marc Maisonneuve in Livres Hebdo, n°1030, 20 février 2015. - (p. 22-28)
Atelier JDEV2017 : initiation à SPARQL avec Wikidata
Cet atelier a pour objectif de vous montrer comment dans l’avenir un étudiant et un chercheur (et demain les machines) vont naviguer dans le Linked Data (Web des données) à l’aide du langage SPARQL. Nous utiliserons un outil d'auto-complétion qui facilitera la création de votre première requête. Nous utiliserons le logiciel http://LinkedWiki.com afin d’écrire et partager les requêtes des participants de l’atelier ou bien https://io.datascience-paris-saclay.fr/map.php si le participant est membre de cette université.
Panorama de l'offre de logiciels libres pour bibliothèque v2Marc Maisonneuve
Introduction : définitions du logiciel libre et du logiciel open source
1. Typologie des logiciels métier pour bibliothèque
2. La place des logiciels libres ou open source dans cet ensemble
3. Quelques exemples de réalisations s’appuyant sur l’emploi de logiciels libres ou open source
4. Les caractéristiques, les avantages et les inconvénients d’un logiciel libre ou open source
5. Le choix d’un logiciel libre ou open source : à quoi dois-je penser ?
Logiciels pour bibliothèques : un chiffre d’affaires en baisse de 5 %Marc Maisonneuve
Tosca consultants publie les résultats de la 22ème édition de l’enquête annuelle sur le marché français des logiciels métier destinés aux bibliothèques
Comme précédemment, cette enquête traite les questions suivantes.
- Quelle est la couverture fonctionnelle des logiciels métier proposés aux bibliothèques ?
- Quelle a été la diffusion des différents logiciels métier ?
- Quelles ont été les tendances du marché en 2015 ?
- Quel est le montant du marché 2015 ?
- Quelles sont les nouveautés des progiciels pour 2016 ?
- Quels sont les logiciels gratuits disponibles sur le marché ?
Les résultats de cette enquête sont disponibles en page logiciel du site de Tosca consultants.
Le présent article rend compte de l'évolution du marché en 2015.
Logiciels pour bibliothèques : un chiffre d’affaires en baisse de 5 % / Marc Maisonneuve, Emmanuelle Asselin in Archimag, n°292, mars 2016. - (p. 33 - 38).
Slides de l'atelier JDEV2017 : SPARQL, avancé
Vous saurez après cet atelier : lire un document RDF écrit en Turtle, découvrir une ontologie au travers d’un service SPARQL et lire la documentation officielle de SPARQL.
Numérique en pratique : les portails de bibliothèquesMarc Maisonneuve
- concepts de base : expérience utilisateur, ergonomie, accessibilité numériques,
- architecture du portail et composants logiciels,
- recommandations pratiques pour l'ergonomie et l'accessibilité du portail,
- problématique de l'accès aux ressources numériques et solutions permettant d'améliorer l'expérience utilisateur
La Science Ouverte est à l’ordre du jour, en France et en Europe.
Après les publications, les données de la recherche sont sous le feu des projecteurs.
Ce gisement de connaissances, trop peu connu et exploité, est même souvent voué à l’oubli et à la destruction, faute de signalisation et de sauvegarde pérenne.
L’IRD, plus encore que les autres organismes de recherche, se doit de proposer une politique, des méthodologies et des outils de préservation et de partage des données recueillies dans, par et pour les pays du Sud par l’ensemble de ses équipes de recherche.
Lors de cette conférence, Pascal Aventurier, responsable du Service Information Scientifique et Technique (IST), et Jean-Christophe Desconnets, Directeur de la Mission Infrastructure et Données Numériques (MIDN), présenteront le projet d’entrepôt de données de l’IRD qui ouvrira mi 2019.
Fiche pratique IST Agropolis : Les Données de la Recherche : Questions-RéponsesAgropolis International
Foire aux questions - FAQ sur les donnnées de la recherche
Fiche créée en septembre 2015 et révisée en octobre 2016
Qu'est-ce que l'ouverture des données (Open Data) ?
Quelles données préserver ?
Où déposer mes données ?
Comment définir les conditions de réutilisation de mes données ?
Et si mes données sont déjà déposées dans les réseaux sociaux (ResearchGate, Academia...) ?
Qu'est-ce qu'un jeu de données ?
Où rechercher des jeux de données ?
Qu'est-ce qu'un DOI ?
Comment citer un jeu de données ?
Qu'est-ce qu'un PGD ?
A quelles questions répond un PGD ?
De quels outils je dispose pour rédiger un PGD ?
Avec qui interagir pour élaborer un PGD ?
L'éthique du partage et moi ?
Auteurs : Cécile Adamolle, Annabelle Filatre, Hanka Hensens, Isabelle Nault, Chantal Salson, Christine Silvy, Marie-Violaine Tatry
Fiche créée en septembre 2015 et révisée en octobre 2016
L'objectif de cette présentation est de proposer des pistes pour rendre un projet de bioinformatique reproductible.
Durée : 30 + 10 minutes de questions
Lieu : Roscoff, France
AGMQ 2011 : Les données libres et le territoirenoucher
Colloque annuel de l'Association de Géomatique Municipale du Québec (AGMQ) sur le thème "Les données libres et le territoire" organisé à l'Université Laval, Québec, le 3 mai 2011. Conférence introductive de Matthieu Noucher (France).
Le "Lac de données" de l'Ina, un projet pour placer la donnée au cœur de l'or...Gautier Poupeau
Support de l'intervention effectuée au cours de la séance dédiée aux lacs de données du séminaire "Nouveaux paradigmes de l'Archive" organisée par le DICEN-CNAM et les Archives nationales
Gestion des données scientifiques en imagerie in vivo – Journée scientifique organisée par PIV le 7 décembre 2017 au PARCC-HEGP
Marie-Christine Jacquemot
OPIDOR
La Duck Conf - Initier un Datalab : rien à voir avec ce que j'imaginais !OCTO Technology
Présentation du talk de Frederic Petit.
Mettre en place un Datalab, c'est simple, il suffit d'installer un cluster Hadoop ! Et bien non : 3 mois après le lancement de projet, toujours pas d'Hadoop mais des data-scientists heureux et productifs !
La recette d'un bon datalab : étudier les données, assurer leur qualité et qualifier des use cases métier précis.
Mémoire de fin d'étude - La big data et les réseaux sociauxChloé Marty
Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?
Cette présentation définit rapidement le Plan de gestion de données dans le cadre du Module Doctoral Cap sur les Données Environnement 2020 réalisé pour l'Université de Montpellier par la Commission Information Scientifique et Technique Agropolis.
De plus en plus d’applications installées jadis sur poste de travail basculent aujourd’hui en mode SaaS (Software-as-a-Service) et s’utilisent directement depuis le navigateur sans installation locale. Ce mode de mise à disposition a suscité la polémique dans la communauté du logiciel libre, à l’image de Richard Stallman assimilant le cloud computing à une "campagne marketing branchée".
Cette conférence passera en revue quelques enjeux liés au cloud computing (e.g. vie privée, propriété des données et liberté), développera en particulier la question du lock-in et passera en revue les initiatives existantes d’open cloud (e.g. TIO).
Analytics & Machine Learning avec la Data VirtualizationDenodo
Watch full webinar here: [https://buff.ly/2ZaQk8S]
La data science avancée, telle que le machine learning, se révèle être un outil extrêmement utile pour tirer des informations et de la valeur des données existantes. Cependant, une grande partie des ressources (comme les data scientists) se voit affectée à la recherche des bonnes données et à leur préparation.
Dans ce nouveau webinar en français, nous vous montrerons comment utiliser la virtualisation des données pour obtenir les informations souhaitées de manière plus efficace et plus agile.
Rejoignez ce webinar le 6 juin pour découvrir:
*Comment la data virtualisation accélère l’acquisition et le traitement des données
*Comment la plateforme Denodo pour la virtualisation des données s'intègre à des outils tels que Spark, Python, Zeppelin, etc.
*Comment la virtualisation des données permet de gérer plus efficacement de gros volumes de données
*Cas client & démo
Webinar Denodo & CRIP : Souveraineté, information sensible et data gouvernanc...Denodo
Watch full webinar here: https://buff.ly/46fhGwK
A l’ère où l’adoption de nouvelles technologies et la modernisation des infrastructures de données s’accélèrent, la sécurité des données reste une priorité absolue. Les entreprises sont confrontées à un volume de plus en plus important de données et l’éclatement de ces dernières est une quasi-constante dans toutes les organisations : piloter cet ensemble peut donc s’avérer difficile.
C’est pour cette raison que la mise en place d’une gouvernance efficace des données prend un rôle fondamental pour tirer le meilleur parti de toutes ces informations.
Dans ce webinar, nous vous proposons de discuter des technologies à adopter pour mettre en place une gouvernance des données efficace.
Nous verrons notamment comment Denodo Platform, basée sur la technologie de data virtualization, peut jouer un rôle essentiel en matière de gouvernance et de sécurité des données, en permettant un niveau élevé de sécurité et d’auditabilité, du masquage en temps réel, du lignage, la détection des changements concernant les sources de données et le contrôle de l’impact sur les consommateurs, ainsi qu’une intégration aux systèmes externes de gestion d’entreprise des métadonnées.
Rejoignez ce webinar pour découvrir :
- Pourquoi la Denodo Platform représente une technologie essentielle dans la mise en place d'une gouvernance efficace de vos données,
- Comment Denodo Platform simplifie l’accès aux données de l'entreprise grâce à un point unique d’accès à la donnée tout en fournissant une couche de sécurité et de gouvernance,
- Comment Denodo Platform permet aux utilisateurs métiers un accès contrôlé à toutes les données, quel que soit leur emplacement, rapidement et facilement,
- Une démo live de certaines des capacités clés de la plateforme Denodo permettant d'illustrer ce webinar.
Datalift, une plateforme Linked Data, Retour d'expériencesSemWebPro
La production, la consommation et l'échange de données s'intensifient et le besoin d'interopérabilité n'a jamais été aussi prégnant. Mais a-t-on encore le temps de développer des interfaces ou de mettre au point une langue commune entre acteurs ? A-t-on encore besoin de telles interfaces qui ne serviront peut-être qu’une fois ? Ou bien la solution n’est pas plutôt dans une data interopérable ? Le linked data n'est plus un Eldorado incertain, il est devenu une réalité aux dimensions vastes et en expansion mais encore méconnue.
Datalift est une plateforme tout-en-un productrice de linked data qui apporte une solution concrète et aisée. Les données à traiter sont captées dans leurs structures d'origine (fichiers, bases de données, requêtes, données géographiques, etc.). A l'aide de vocabulaires (thesaurus, ontologies), elles sont transformées pour faciliter leurs liaisons. Les fusions obtenues enrichissent mutuellement les sources en même temps qu’elles forment un ensemble de données liées (linked data) exploitables de multiples façons : requêtes, data visualisation, extractions, exports dans de nombreux formats. Ces opérations peuvent être réalisées sans programmation sur un socle open source de façon interactive, elles peuvent aussi être automatisées. La richesse fonctionnelle et technologique de Datalift fait que ses utilisateurs vont des simples utilisateurs aux datascientistes, mais aussi au dialogue machine to machine.
Le développement de la plateforme et son utilisation permettent aujourd'hui de dresser un premier regard rétrospectif que nous nous proposons de présenter en trois temps. Nous commencerons notre exposé par la démonstration d’une interconnexion de jeux de données hétérogènes rendue possible par un alignement d’ontologies. Cette démo visibilisera le caractère « tout-en-un » d’une plateforme qui s’installe en un clic. Nous poursuivrons par un survol de l’architecture de la plateforme. Nous terminerons par un triple retour d’expérience : méthodologique, architectural et usages.
Des ressources éducatives libres aux MOOC : Défis et orientationsGilbert Paquette
Ce cours fait partie d'un MOOC diffusé par l'Université de Moncton en mars 2014.
Les ressources éducatives (ou objets d'apprentissage) libres constituent un mouvement international de fond. Une décade de développement, du MIT "Open Consortium" jusqu'au MOOC (Massive Online Open Course ou CLOM - Cours en ligne ouvert et massif), révèle un potentiel important et des difficultés qui perdurent, notamment quant aux standards de référencement et sur le plan technologique. L'auteur présente quelques solutions à ces difficultés notamment sur le plan des standards et des outils de gestion des référentiels de ressources éducatives libres.
Introduction au web des données (Linked Data)BorderCloud
L'Open Data, le Big Data, le Web des données, le Web sémantique, les ontologies, le NoSql et le SPARQL sont autant de notions qu'il faut comprendre pour ne pas rater la prochaine rupture technologique du Web.
Cette présentation est l'introduction de la formation sur le Web sémantique que donne la société BorderCloud pour prendre un peu de recule sur les buzzwords du moment et savoir si vous avez besoin de faire du Big Data ou bien du Linked Data.
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entre...Antidot
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entreprise
Créez de nouvelles applications qui répondent à des besoins métier, de façon rapide et agile, en réutilisant et valorisant les données déjà existantes dans votre système d’information. Déployez un moteur de recherche d’entreprise vraiment intelligent.
Les systèmes d’information des entreprises se sont construits de façon incrémentale. Chaque nouveau besoin opérationnel a déclenché la mise en œuvre d’une application ad hoc : ERP, CRM, GED, annuaire, messagerie, extranet… Le développement du SI a été pensé en termes d’applications et de processus. Chaque nouvelle application a entrainé la création d’un silo de données si bien que les entreprises sont aujourd’hui confrontées à un nouveau défi : la gestion et la valorisation de ces données par essence hétérogènes et cloisonnées.
Le Linked Enterprise Data repense l’accès à l’information pour atteindre cet objectif. Il crée un espace informationnel unifié qui se nourrit de l’ensemble des données de l’entreprise, structurées ou non, voire de données externes captées sur Internet.
Évolutif et agile par essence, le Linked Enterprise Data permet de créer les données opérationnelles demandées par les métiers sans modification des applications existantes ni perturbation du système d’information. Les bénéfices du Linked Enterprise Data sont nombreux :
- Décloisonner les données en offrant un hub informationnel qui permet à chaque application de s’enrichit des données en provenance de tout le SI.
- Bénéficier d’un cadre technologique ouvert, standardisé, sécurisé, pérenne et performant défini par le W3C (avec les standards XML, RDF, SPARQL, OWL).
- Réduire la complexité par une méthodologie unifiée pour l’échange de données entre applications, que les données soient internes ou externes à l’entreprise.
Le Linked Enterprise Data c’est aussi l’opportunité de créer de nouvelles applications pour répondre à des besoins métier spécifiques, comme des applications mobiles pour les ventes ou le support, de façon rapide et efficace en réutilisant et valorisant les données déjà existantes dans le système d’information.
En apportant à chaque utilisateur les vues métiers dont il a besoin, les solutions Antidot ouvrent une nouvelle voie dans la recherche et l’accès à l’information.
Présentation faite par Pierre Col (Antidot) lors de la conférence T2M Lyon le 13 novembre 2013
Similaire à IODS : Retour d’expériences au sein du Center for Data Science (20)
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entre...
IODS : Retour d’expériences au sein du Center for Data Science
1. Web 3.0 Hosting & Factory
Karima Rafes, BorderCloud
IODS
Input/Output Data Science
Retour d’expériences au sein du
Center for Data Science de l’université Paris-Saclay
06/07/2017
2. Karima Rafes
karima.rafes@gmail.com
@Karima_Rafes
http://karimarafes.me
Développeuse Web (des données) depuis 1999
CanalPlus (Canalnumédia), Orange Lab, Globecast, Experte UE, INRIA, etc.
Fondatrice et CEO de BorderCloud depuis 2010
Logiciels-Formations-Conseils
Email : karima.rafes@bordercloud.com
Twitter : @BorderCloudInfo
http://www.bordercloud.com/
Doctorante depuis 2014
Sujet de thèse : Gestion des données de la recherche en utilisant le Web sémantique
5. 5
Introduction
BorderCloud développe :
• depuis 2010 des outils à destination des
entreprises afin de mettre en œuvre le
Web sémantique et
• depuis 2015 une plateforme adapté aux
data scientists dans les laboratoires de
recherche
• des formations
• des expérimentations
6. 1. Formations et expérimentations :
prototypes, démonstrateurs & recherche
7. 7
En production: IODS
Depuis janvier 2016, le Center for Data Science Paris Saclay
utilise la plateforme LinkedWiki V1 afin de réutiliser les données
entre les chercheurs de l’université Paris Saclay
https://io.datascience-paris-saclay.fr
8. 8
En production: IODS
Plate-forme pour le référencement des
données et leurs réutilisations
– ouvert depuis février 2016 pour l’université
– 70 utilisateurs
– 35 jeux de données ouvertes
– 20 jeux de données semi-publics
– >100 requêtes SPARQL
Formations internes et sensibilisation à
l’ouverture et la réutilisation des données
9. 9
Version pour tous
Depuis septembre 2017, une version
de démonstration est ouverte à toutes
les personnes qui souhaitent tester la
version 1 du logiciel.
http://linkedwiki.com
60 utilisateurs, 34 sources de données,
>80 requêtes SPARQL
10. 10
Actions de formation
depuis 2015
Mission de formation au Web des données au sein
des laboratoires :
• SHS : droit canonique, éducation (U-PSud Droit,
ENS Cachan)
• Chimie analytique : LipSys², IPS2 (U Paris Sud)
• Science de la vie : LATMOS (IPSL)
• Informatique : LRI
Environ 20 chercheurs ont suivi entre 1 et 5
jours de formations qui a donné lieu ensuite à des
expérimentations
11. 11
Les prototypes
en expérimentation
1. Banc de test pour vérifier l’interopérabilité
des solutions avant déploiement
2. Définition des ontologies au sein des
laboratoires par les scientifiques
3. Référencement des scientifiques par
chaque laboratoire
Etape suivante la traçabilité des données et
l’environnement de travail pour les analyser
12. 12
Les démonstrateurs
en expérimentation
1. Systèmes d’information de partage des
données au sein des laboratoires
2. Environnement de travail virtualisé pour
les data scientists
Besoins de simplifier l’accès aux données tout en
offrant le moyen de réutiliser les ressources de
l’université (cloud, cluster,…)
13. 13
Les recherches
en cours
• Mise à disposition des ressources données, cloud et
HPC auprès de tous les chercheurs, étudiants au travers
d’un guichet unique
Wikidata pour la science 2017, 30 scientifiques simultanément
dans le cloud de l’université faisant du Big Data
1er cours/TP durant l’année scolaire 2017/18 afin de former les
étudiants à l’utilisation du Web des données et à la production de
données structurées dans leur domaine.
• Faciliter l’accès aux données au travers de nouvelles
fonctionnalités d’autocomplétion pour SPARQL
Premier résultat en production à partir de 2019
15. 15
Plateforme LinkedWiki
Un seul logiciel pour la réutilisation des
données :
du Big Data
de la recherche
des archives ouvertes
des systèmes d’information
Mutualisation des coûts de développement et de la
maintenance
Une solution unique pour tous les data scientists (Video)
16. 16
Notre produit
facilite la :
La réutilisation des données disponibles
dans une organisation.
La déclaration des sources de données
interopérables ou non.
Le contrôle d’accès.
Indispensable au sein d’un système
d’information complexe afin d’aider les
utilisateurs à réutiliser leurs données.
17. 17
Problématiques (1/2)
Face au raz de marée des données, les
organisations rencontrent les difficultés
suivantes :
1.Comment découvrir les données
disponibles ?
2.Comment réutiliser des données avec des
descriptions insuffisantes ?
3.Comment consommer ces données
simplement dans nos applications ?
18. 18
Problématiques (2/2)
4. Un scientifique passe 80% sont temps à
traiter de la donnée plutôt que de travailler
sur sa problématique. Comment
automatiser les tâches récurrentes ?
5. Comment industrialiser les calculs d’un
chercheur dans une organisation ?
6. Comment utiliser simplement les
ressources de calculs dans une
organisation ?
19. 19
Sur le marché du
Big Data ou de l’Open Data ?
Les outils sont centrés sur :
L’analyse des données
La mise à disposition de fichiers
La visualisation
Notre solution à l’inverse est centrée sur
la réutilisation des données.
21. 21
Notre solution
centrée sur les données
Cela lui confère des caractéristiques uniques :
Elle facilite la déclaration des données .
Elle permet d’illustrer par l’exemple la manière
de réutiliser les données.
Elle facilite la recherche des données au
travers d’un référentiel unique.
Elle permet de tester concrètement si les
données sont réellement accessibles.
23. 23
Fonctionnement
Déclaration
Au sein d’un intranet ou d’un extranet, un
utilisateur peut :
Déclarer les sources des données privées ou
publiques
Fabriquer plus facilement les requêtes
d’interrogation à ces sources de données.
Rendre visible ou non aux autres utilisateurs du
service les sources de données et les requêtes qu’il
utilise.
25. 25
Fonctionnement
Illustration par l’exemple
L’utilisateur peut facilement illustrer les
données disponibles à l’aide de :
Requêtes d’interrogation
Graphiques
Cartes
Très simple de générer des exercices ou
des QCM à partir des données accessibles
27. 27
Fonctionnement
Découverte
Les utilisateurs peuvent lier leurs sources de
données entre elles.
Le référentiel utilisé est celui de Wikidata
qui contient déjà des millions de concepts.
L’utilisateur retrouve les données à travers
une interface de recherche ou directement
via Google et un gadget dans Wikipedia.
Faire du Web des données sans s’en rendre
compte (Linked Data)
29. 29
Fonctionnement
Comparaison
L’utilisateur peut facilement
Ecrire des requêtes
Rejouer les requêtes écrites par ses collègues
Améliorer les requêtes pour améliorer la
description des données.
Tester immédiatement les problèmes de
qualité de service et la qualité réelle des
données disponibles.
30. 30
Fonctionnement
Réutilisation
L’utilisateur peut :
Rechercher et télécharger intégralement une source de
données à travers sa description.
Rechercher des requêtes d’accès
Réutiliser ces données dans son application en
recopiant les codes d’exemples. Python, R,
Ruby,SPARQL, HTML, Javascript, PHP, etc.
Être notifié si la requête d’accès aux données change.
Permettre la modification d’ontologies dans le
temps et maintenir la QoS au sein d’un SI.
31. 31
Points forts
1. Pour tous types de données :
Données privées
Données publiques
– Open Data, Linked Open Data
N'importe quel format :
– RDF, JSON, Excel, CSV, PDF, etc.
N'importe quel mode de distribution :
– SPARQL, API, Torrent, site Web, etc.
32. 32
Points forts
2. Pour tous types d’utilisateurs :
Producteurs de données peuvent décrire leurs
données au travers de requêtes.
Administrateurs de bases de données pourront
optimiser leurs requêtes et leurs bases de
données.
Développeurs pourront réutiliser les requêtes
dans leurs applications en 1 click et être notifiés
en cas de changement.
33. 33
Points forts
3. Pour toutes les phases
de la vie des données
Les utilisateurs des données et des requêtes
sont alertés en cas de modification.
4. Respect des standards du Web
des données (Linked Data, W3C)
34. 34
Gains
Améliorer la collaboration
– Entre les producteurs et les consommateurs de données.
Partager plus efficacement les connaissances
– Entre les métiers : chercheurs, développeurs, architectes, etc.
Augmentation de la productivité
– Les analystes n’ont plus à modifier le format des données avant de
pouvoir les utiliser.
35. 35
Mais bon…
et le Big Data ?
Black box du data-scientist
Fichiers
Flux
Requêtes
FTP, Torrent,…
Kafka, Storm…
SPARQL, REST,
SQL…
Interprétation
Résultats
Synthèse
Publication, livre blanc, sondage,…
Graphique, statistique, …
Données pour être traitées par
une autre machine ou pour les
reproduire et ainsi vérifier
l’interprétation ou la synthèse
36. 36
Reproductibilité
& Big Data ?
Black box
RésultatsSources
La reproductibilité est presque
impossible si la configuration
d’exécution de la black-box
n’est pas reproduite.
37. 37
Notre produit V2
permettra (fin 2018) :
De générer un environnement de travail
pour data-scientists pré-connecté aux
données
De mettre à disposition ses résultats en
respectant les standards du Web (partage
des données, des algorithmes et de son ontologie)
La mutualisation des ressources des
calculs pour faciliter la reproductibilité
38. 38
Manuel en
attendant une
IA
Développement
des Interfaces
Du temps perdu
et des étapes négligées
Fichiers
Flux
Requêtes
FTP, Torrent,…
Kafka, Storm…
SPARQL, REST,
SQL…
Interprétation
Résultats
Synthèse
Traitement
ETL
Flux
Archivage
BDD
Partage de
l’ontologie, des
données
Calculs
Clusterdecalcul
39. 39
Stratégie
2017-2020
Découverte de
l’env. de travail
(étudiant, jeune
chercheur)
Evaluation des
besoins
nécessaires et
premiers tests
Transfère des
volumes dans le
cloud ayant
accès au cluster
Mise à
disposition
de résultats
interopérables
Instance de travail temporaire/sécurisée dans le
cloud de l’université ou de l’organisation
Instance de travail sécurisée,
dimensionnée et archivée
Les techniques existent... Ce qu’il manque c’est la volonté de
le mettre en œuvre pour améliorer et accélérer la recherche.
41. 41
Journée Wikidata
pour la science : mars 2016
Fin mars, 30 scientifiques simultanément ont
testés la plateforme alpha V2 :
• Partage, découverte et navigation dans les
données au travers des protocoles du Web des
données (V1)
• Création d’un notebook pour faire du Big Data
au sein du cloud de l’université afin avoir un
environnement sécurisé en étant root avec
Jupyter, SPARQL, SPARK, KAFKA, etc… (V2)
42. 48
Difficultés
Les solutions permettant l’hébergement de
données ne sont jamais à 100%
interopérable
Déception et frustration
Il faut accompagner chaque laboratoire à
produire correctement des données
Méthode à définir et à partager
43. 2. TFT, Tests For Triplestores
Banc de test pour vérifier l’interopérabilité des solutions
avant déploiement
44. Banc de test
pour vérifier
l’interopérabilité
des bases de données
Les scientifiques
sont en mesure de
vérifier les
fonctionnalités des
BDD avant de les
déployer dans le
cloud de l’université.
45. 3. Production des données
au sein des laboratoires par les scientifiques
Description des
connaissances de
manière non
structurée à travers
le wiki public DAAP
Validation et
traduction des
nouvelles
connaissances
Mise à disposition
automatique des
données structurées
à travers du wiki
Partage
de la base de
connaissances officielles
Partage
des protocoles
et des mesures
Sauvegarde des
scripts de traitement,
des données
sélectionnées qui ont
permis d’obtenir les
résultats (artefacts, la
publication)
Sauvegarde des
fichiers de données
au sein du serveur de
stockage en réseau
partagé au sein de
l’Université
Définition de la requête pour
sélectionner les données et
écriture du script de traitement
(MatLab ou R ou Python,...)
Extraction des métadonnées
en respectant la base de
connaissances officielles
Après chaque campagne
de mesure
En fonction des connaissance
acquises définition d’un
nouveau projet
Détection des divergences
entre la base de
connaissances officielles et les
nouvelles contributions
Validation et traduction des
connaissances en RDF
Déploiement de l’ontologie
Conception des infobox
permettant d’afficher la
base de connaissance
directement sur le Wiki
Public
Accès restreint
Hébergement des
connaissances et des
données brutes et
des traitements qui
ont permis de
déduire ces
connaissances
Partage des
nouvelles
connaissances
Publication
des résultats
Contributeur
Description des
protocoles
expérimentales de
manière non
structurée à travers
le wiki privé
DAAP
Groupe d’experts
Chercheurs
46. 52
Processus de production de
données réutilisables au sein du
système d’information
Phase 1 : Formation des chercheurs et ingénieurs aux
technologies du Web des données (Linked Data) et à
Mediawiki qui souhaitent réutiliser des données au
travers de leurs applications
Phase 2 : Collaboration au travers du Wiki pour expliciter
l’ontologie de leurs activités et ainsi décrire les données
et les résultats qu’ils produisent
Phase 3 : Appel à un ingénieur pour formaliser dans le
Wiki les ontologies, définir les règles d’intégrité et
implémenter les infoboxes nécessaires pour alimenter le
système d’information.
Phase 4 : Développer les applications simplifiant la
collecte des données pour facilité la traçabilité des
données dans l’université.
54. 60
Conclusion (1/3)
Le Web des données sert à fluidifier
l’information sur Internet
Le Big Data sert au traitement efficace des
données afin de faciliter la prise de
décisions
Le Web données et le Big Data sont les
faces d’une même pièce qu’on appellera le
Web sémantique.
55. 61
SPARQL
Conclusion (2/3)
Le Linked Data supporte
le fonctionnement des universités
SPARQL
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Data
Laboratoire
Université
Partenaire
SPARQL
httpLa décentralisation des données avec des structures différentes
à travers le Web permet aussi de garder le contrôle des données
par leurs propriétaires.
Le croisement des données peut se faire du côté du client
(respect des données privées) ou des serveurs.
56. Conclusion (3/3) : IODS
1er proposition de mise en œuvre opérationnelle
du Web des données à l’université.