Innover par et pour la donnée, illustrée par l'exemple de data.bnf.fr et les principes du web sémantique.
Présentation de Logilab au #bibcamp15 organisé en juin 2015 par l'ADBU, association des directeurs de bibliothèques universitaires.
L'ABES a pour métier la gestion des métadonnées bibliographiques de l'enseignement supérieur français. Soit elle les récupère auprès de fournisseurs (autres catalogues, éditeurs), soit elle coordonne leur production par le réseau des bibliothèques universitaires.
Depuis 2008 et surtout 2010, l'ABES mise sur le web sémantique. Comme d'autres, elle a d'abord décidé de partager et de lier ses métadonnées sur le web de données. Cela concerne tous ses catalogues : le catalogue général Sudoc, le catalogue des archives et des manuscrits Calames, le catalogue theses.fr et sa base-référentiel de personnes, collectivités, concepts... IdRef. Ce travail d'ouverture est toujours en cours, car le principal format natif à traduire en RDF, appelé MARC, est très riche, et même touffu. Pour l'instant, l'exposition en RDF se fait à la volée, à partir d'une base XML qui stocke du MARC en XML. Passer à un triplestore semble tentant, mais on résiste... tout en cherchant une solution pour devenir interrogeable en SPARQL.
A partir de 2013, l'ABES a commencé à utiliser RDF comme pivot pour agréger et traiter des métadonnées fournies par des des tiers sous des formes très variées. Il s'agit donc de commencer à travailler en RDF, et plus seulement de l'utiliser en sortie.
Aujourd'hui, on commence à réfléchir à l'avenir des outils de production de métadonnées du réseau Sudoc. Là encore, faut-il aller vers du RDF natif ? Tout en retraçant ce cheminement qui touche tous les aspects de nos expertises et applications métier, nous tenterons d'expliciter les contraintes et les principes directeurs qui déterminent nos actions et nos interrogations.
Présentation lors de la matinée "Linked Data et interopérabilité des images sur le Web" (Maison de l’Archéologie et de l’Ethnologie, Nanterre - 08/04/2016), par Régis Robineau (Pool Biblissima)
Présentation faite dans le cadre de l'Innovation Ecosystems Agora le 2/12/2014 par ECDYS : Comment co-innover avec l'écosystème de ses fournisseurs ?
www.innovation-ecosystems-agora.com
Vos clients et salariés sont de vrais experts. Ils sont sur le terrain et au contact quotidien de votre produit. Ils connaissent le marché, les produits, la production, et à eux tous, sont capables de réinventer votre business
Impliquez vos clients pour innover rapidement et en accord avec leurs attentes.
Sollicitez vos salariés pour qu'ils génèrent des idées, de manière confidentielle et créez des groupes de travail innovants.
En savoir plus sur https://www.yoope.fr
L'ABES a pour métier la gestion des métadonnées bibliographiques de l'enseignement supérieur français. Soit elle les récupère auprès de fournisseurs (autres catalogues, éditeurs), soit elle coordonne leur production par le réseau des bibliothèques universitaires.
Depuis 2008 et surtout 2010, l'ABES mise sur le web sémantique. Comme d'autres, elle a d'abord décidé de partager et de lier ses métadonnées sur le web de données. Cela concerne tous ses catalogues : le catalogue général Sudoc, le catalogue des archives et des manuscrits Calames, le catalogue theses.fr et sa base-référentiel de personnes, collectivités, concepts... IdRef. Ce travail d'ouverture est toujours en cours, car le principal format natif à traduire en RDF, appelé MARC, est très riche, et même touffu. Pour l'instant, l'exposition en RDF se fait à la volée, à partir d'une base XML qui stocke du MARC en XML. Passer à un triplestore semble tentant, mais on résiste... tout en cherchant une solution pour devenir interrogeable en SPARQL.
A partir de 2013, l'ABES a commencé à utiliser RDF comme pivot pour agréger et traiter des métadonnées fournies par des des tiers sous des formes très variées. Il s'agit donc de commencer à travailler en RDF, et plus seulement de l'utiliser en sortie.
Aujourd'hui, on commence à réfléchir à l'avenir des outils de production de métadonnées du réseau Sudoc. Là encore, faut-il aller vers du RDF natif ? Tout en retraçant ce cheminement qui touche tous les aspects de nos expertises et applications métier, nous tenterons d'expliciter les contraintes et les principes directeurs qui déterminent nos actions et nos interrogations.
Présentation lors de la matinée "Linked Data et interopérabilité des images sur le Web" (Maison de l’Archéologie et de l’Ethnologie, Nanterre - 08/04/2016), par Régis Robineau (Pool Biblissima)
Présentation faite dans le cadre de l'Innovation Ecosystems Agora le 2/12/2014 par ECDYS : Comment co-innover avec l'écosystème de ses fournisseurs ?
www.innovation-ecosystems-agora.com
Vos clients et salariés sont de vrais experts. Ils sont sur le terrain et au contact quotidien de votre produit. Ils connaissent le marché, les produits, la production, et à eux tous, sont capables de réinventer votre business
Impliquez vos clients pour innover rapidement et en accord avec leurs attentes.
Sollicitez vos salariés pour qu'ils génèrent des idées, de manière confidentielle et créez des groupes de travail innovants.
En savoir plus sur https://www.yoope.fr
Les objectifs de ce workshop sont : Découvrir le concept du design Thinking et appréhender les outils pour développer des produits et des services d’innovation.
Le programme du Workshop :
Jeu artiste muet / Pourquoi le design Thinking / Appréhender le principe du design Thinking / Qui utilisent le Design Thinking ? / Le processus du design Thinking / Les outils du design Thinking.
www.mb-alliance.com
www.mboubekri.com
Filip drapak ppp in financial crises francaisicgfmconference
L’impact de la crise financière sur les partenariats public-privé (PPP)
Filip Drapak, Spécialiste principal des PPP, Banque mondiale
Les partenariats public-privé ont été une technique innovante pour financer des projets publics importants. La discussion se penchera sur la manière dont la crise financière a changé cette approche.
Mise en œuvre d'un système d'information voyageurStephan Simart
Description des moyens et des bénéfices à la mise en œuvre d'un système d'information voyageur multi-modal.
La présentation a été écrite dans le cadre d'une intervention au mastère Urbantic en février 2016
Le Biomimétisme a le vent en poupe, et c'est bien naturel.
S'inspirer du vivant pour innover et trouver des solutions disruptives face à nos enjeux environnementaux, sociaux et technologiques est en train de s'imposer comme une voie d'excellence et d'évidence. Si c'est une nouvelle façon de considérer la nature pour s'en inspirer, c'est également le champ de la pluridisciplinarité pour s'inspirer des autres, rompre avec les schémas préformatés et sortir des silos.
De plus en plus d'organismes de recherche, de groupes industriels, de startups, de chercheurs, d'enseignants, d'étudiants, mais aussi de politiques, de sociologues, d'experts de tous bords s'intéressent à l'approche du biomimétisme, y travaillent, et délivrent !
La Biomim'review, sans prétendre à l'impossible exhaustivité, propose une galerie d'exemples d'applications bio-inspirées. Elle est également accessible en image sur Flickr ou via www.biomimexpo.com. Biomim'expo, c'est le grand rendez-vous annuel des acteurs et parties prenantes du biomimétisme et de la bio-inspiration, qui en seulement deux éditions (2016 et 2017) a su trouver une place et un format atypique et de qualité pour valoriser la recherche et l'innovation, montrer ceux qui font et ce qu'ils font.
Support 4 (web de données) des journées de formation sur l'évolution des catalogues organisées par MédiaLille et le groupe technique sur l'adoption de RDA en France.
Introduction au web des données (Linked Data)BorderCloud
L'Open Data, le Big Data, le Web des données, le Web sémantique, les ontologies, le NoSql et le SPARQL sont autant de notions qu'il faut comprendre pour ne pas rater la prochaine rupture technologique du Web.
Cette présentation est l'introduction de la formation sur le Web sémantique que donne la société BorderCloud pour prendre un peu de recule sur les buzzwords du moment et savoir si vous avez besoin de faire du Big Data ou bien du Linked Data.
Les objectifs de ce workshop sont : Découvrir le concept du design Thinking et appréhender les outils pour développer des produits et des services d’innovation.
Le programme du Workshop :
Jeu artiste muet / Pourquoi le design Thinking / Appréhender le principe du design Thinking / Qui utilisent le Design Thinking ? / Le processus du design Thinking / Les outils du design Thinking.
www.mb-alliance.com
www.mboubekri.com
Filip drapak ppp in financial crises francaisicgfmconference
L’impact de la crise financière sur les partenariats public-privé (PPP)
Filip Drapak, Spécialiste principal des PPP, Banque mondiale
Les partenariats public-privé ont été une technique innovante pour financer des projets publics importants. La discussion se penchera sur la manière dont la crise financière a changé cette approche.
Mise en œuvre d'un système d'information voyageurStephan Simart
Description des moyens et des bénéfices à la mise en œuvre d'un système d'information voyageur multi-modal.
La présentation a été écrite dans le cadre d'une intervention au mastère Urbantic en février 2016
Le Biomimétisme a le vent en poupe, et c'est bien naturel.
S'inspirer du vivant pour innover et trouver des solutions disruptives face à nos enjeux environnementaux, sociaux et technologiques est en train de s'imposer comme une voie d'excellence et d'évidence. Si c'est une nouvelle façon de considérer la nature pour s'en inspirer, c'est également le champ de la pluridisciplinarité pour s'inspirer des autres, rompre avec les schémas préformatés et sortir des silos.
De plus en plus d'organismes de recherche, de groupes industriels, de startups, de chercheurs, d'enseignants, d'étudiants, mais aussi de politiques, de sociologues, d'experts de tous bords s'intéressent à l'approche du biomimétisme, y travaillent, et délivrent !
La Biomim'review, sans prétendre à l'impossible exhaustivité, propose une galerie d'exemples d'applications bio-inspirées. Elle est également accessible en image sur Flickr ou via www.biomimexpo.com. Biomim'expo, c'est le grand rendez-vous annuel des acteurs et parties prenantes du biomimétisme et de la bio-inspiration, qui en seulement deux éditions (2016 et 2017) a su trouver une place et un format atypique et de qualité pour valoriser la recherche et l'innovation, montrer ceux qui font et ce qu'ils font.
Support 4 (web de données) des journées de formation sur l'évolution des catalogues organisées par MédiaLille et le groupe technique sur l'adoption de RDA en France.
Introduction au web des données (Linked Data)BorderCloud
L'Open Data, le Big Data, le Web des données, le Web sémantique, les ontologies, le NoSql et le SPARQL sont autant de notions qu'il faut comprendre pour ne pas rater la prochaine rupture technologique du Web.
Cette présentation est l'introduction de la formation sur le Web sémantique que donne la société BorderCloud pour prendre un peu de recule sur les buzzwords du moment et savoir si vous avez besoin de faire du Big Data ou bien du Linked Data.
Jabes 2011 - Session plénière 17 mai "OCLC - orientations stratégiques", Eric Van Lubeek, directeur général OCLC Europe Moyen-Orient et Afrique, dans le cadre des Journées Abes 2011
Datalift, une plateforme Linked Data, Retour d'expériencesSemWebPro
La production, la consommation et l'échange de données s'intensifient et le besoin d'interopérabilité n'a jamais été aussi prégnant. Mais a-t-on encore le temps de développer des interfaces ou de mettre au point une langue commune entre acteurs ? A-t-on encore besoin de telles interfaces qui ne serviront peut-être qu’une fois ? Ou bien la solution n’est pas plutôt dans une data interopérable ? Le linked data n'est plus un Eldorado incertain, il est devenu une réalité aux dimensions vastes et en expansion mais encore méconnue.
Datalift est une plateforme tout-en-un productrice de linked data qui apporte une solution concrète et aisée. Les données à traiter sont captées dans leurs structures d'origine (fichiers, bases de données, requêtes, données géographiques, etc.). A l'aide de vocabulaires (thesaurus, ontologies), elles sont transformées pour faciliter leurs liaisons. Les fusions obtenues enrichissent mutuellement les sources en même temps qu’elles forment un ensemble de données liées (linked data) exploitables de multiples façons : requêtes, data visualisation, extractions, exports dans de nombreux formats. Ces opérations peuvent être réalisées sans programmation sur un socle open source de façon interactive, elles peuvent aussi être automatisées. La richesse fonctionnelle et technologique de Datalift fait que ses utilisateurs vont des simples utilisateurs aux datascientistes, mais aussi au dialogue machine to machine.
Le développement de la plateforme et son utilisation permettent aujourd'hui de dresser un premier regard rétrospectif que nous nous proposons de présenter en trois temps. Nous commencerons notre exposé par la démonstration d’une interconnexion de jeux de données hétérogènes rendue possible par un alignement d’ontologies. Cette démo visibilisera le caractère « tout-en-un » d’une plateforme qui s’installe en un clic. Nous poursuivrons par un survol de l’architecture de la plateforme. Nous terminerons par un triple retour d’expérience : méthodologique, architectural et usages.
L’émergence de larges répertoires de données sémantiques et interconnectées crée de nouvelles opportunités quant à l’utilisation et au partage d’informations au sein d’applications intelligentes. Cette nouvelle façon de publier des données aide à la découverte d’informations structurées et contextuelles ainsi qu’à la réutilisation de données existantes. Dans ce contexte, il est important pour un individu ou une organisation de distribuer ces informations selon le même principe afin d’assurer la pérennité et le partage de ces données sémantiques.
Pour l’instant, la plupart des publications sur le Web de Données sont le plus souvent soit complètement ouvertes (Open Linked Data), soit complètement fermées (intranets). De plus, la publication de ces données reste restreinte à la publication de larges ensembles de données approuvées et éditées par de larges organisations limitant ainsi la création de base de données individuelles nécessaires au développement d’un Sémantique Web centré autour de ses utilisateurs plutôt que sur ses données (Social Semantic Web).
Avant de mettre à disposition ses informations, un individu ou une organisation a besoin d’être sûr que ses informations sont uniquement accessibles et modifiables par des personnes autorisées. Dans ce contexte, il est impératif d’identifier l’entité qui publie une information particulière ainsi que la personne qui essaie d’y accéder ou de la modifier. Il requiert d’organiser le Web de Données autour de répertoires personnels et décentralisés combinant à la fois la représentation d’un individu, son identification (et authentification) ainsi que ses informations tout en gérant leur accès.
Bien que le web sémantique contienne ses propres modèles identitaires (FOAF and WebID) et protocoles chargés d’identifier et autoriser des communications entre différentes parties (FOAF+SSL), il n’existe pour l’instant aucune plateforme combinant ces différentes technologies.
Asterid est un serveur de données sémantiques qui permet d’organiser et de partager des informations structurées autour de répertoires de données privées et personnelles tout en supportant l’identification et authentification de leur créateur et utilisateur.
Notre présentation sera l’occasion de montrer les différents modèles nécessaires au développement d’une telle architecture : le Web de données, l’ontologie FOAF, le protocole d’identification FOAF+SSL ainsi que la gestion de contrôle d’accès sur le Web Sémantique. Notre présentation alternera entre l’introduction de ces modèles théoriques et leur effective application dans la plateforme Asterid.
Les technologies du Web appliquées aux données structurées (2ème partie : Rel...Gautier Poupeau
Diaporama de la présentation effectuée au séminaire INRIA IST "Le document à l'heure du Web de données" (Carnac 1er-5 octobre 2012) en compagnie d'Emmanuelle Bermès (aka figoblog)
aMS 2021 - De bonnes pratiques pour rendre SharePoint plus ludiqueLaurent Sittler
Les sites Intranet tels qu'on les connaissait n'ont cessé de changer et ont évolués à travers le temps. Quelles sont les règles de gouvernance à appliquer afin d'assurer la meilleure expérience utilisateur possible ? Comment bien gérer et organiser l'accès à votre intranet ? Quelles sont les règles à associer à vos contenus et les limitations associées ? On vous dit tout !
Similaire à Innover par et pour la donnée - Logilab ADBU Bibcamp 2015 (20)
Open Source & Open Data : les bienfaits des communsLogilab
Le monde du logiciel a été précurseur en réintroduisant un mode de production "coopératif" dès le début des années 80.
Avec le mouvement de l'Open Data, cette coopération s'est étendue à la production des données.
On parle ici de biens communs dans le sens d'un "bien partagé par les membres d'une même communauté".
Le 1er salon professionnel de l'open data qui vise à consolider la filière française des données ouvertes. Ce salon valorise les acteurs positionnés sur l'open data et assure l'information des participants à travers des retours d'expériences, conférences stratégiques, ateliers pratiques et mises en relations directe avec les prestataires et ceux qui font l'open data aujourd'hui en France.
Pydata Paris Python for manufacturing musical instrumentsLogilab
Pydata Paris Python for manufacturing musical instruments.
Context: making and repair of musical instruments.
Assets: traditional craftsmanship ; world-famous quality
Challenge: aggressive competition from foreign countries
Olivier Cayrol a présenté la société Logilab et ses services à l'occasion de la Semaine de l'Industrie.
Logilab : un industriel du logiciel
- développement
- conseil
- formation
- expertise
Les archives du département de la Gironde, de la Ville de Bordeaux et de la Métropole de Bordeaux ont mis en place un système d'archivage mutualisé leur permettant de gérer leurs documents tout au long de leur cycle de vie, depuis leur conception initiale jusqu'à leur archivage. Ce système repose sur diverses applications logiciel libre prenant chacune en charge une partie du cycle de vie des documents (Alfresco pour la GED courante, Asalae pour l'archivage, etc.)
Dans le cadre de ce système, lors du passage d'un outil à l'autre, un grand nombre de métadonnées sont perdues et doivent donc être ressaisies. D'où l'idée de mettre en place un référentiel commun qui va constituer un pivot sur lequel s'appuient les autres outils, et qui va conserver et enrichir les métadonnées d'un document tout au long de son cycle de vie, au fil de ses passages d'une application à l'autre. Ces métadonnées sont, par exemple, le rangement dans des
plans de classement, les agents étant intervenus sur le document, les étapes du processus de validation, etc.)
Dans le cadre d'un marché public, Logilab développe le référentiel commun du système d'archivage pour le compte du Conseil Départemental de la Gironde, de la Métropole de Bordeaux et de la Ville de Bordeaux.
La présentation présente l'outil logiciel libre qui a vocation à être partagé avec d'autres institutions rencontrant une problématique similaire, mais également de revenir sur le projet lui-meme qui implique de nombreux acteurs et a été géré avec une méthode agile et divers outils innovants (MVP, UX Design, etc.)
Voir http://saem.e-bordeaux.org/projet-module-r%C3%A9f%C3%A9rentiel pour plus de détails.
Utiliser salt pour tester son infrastructure sur open stack ou dockerLogilab
Vous pouvez accéder à cette présentation sur ce lien : http://slides.logilab.fr/2015/poss2015_salt-docker/#/
Configurer et orchestrer son infrastructure avec un outil de gestion de configuration centralisée tel que Salt comporte de nombreux avantages.
La conservation et l'historisation des fichers de configuration dans un entrepôt de source geré par un DVCS (mercurial ou git) en fait partie.
Salt permet ensuite de faire évoluer son infrastructure en la testant dans des environements isolés. Une fois la description complète, reproduire une partie de son infrastructure de production sur un environnement virtualisé tel qu'un cloud
privé (OpenStack) devient possible et automatisable avec
*salt-cloud*. L'étape suivante est de pouvoir reproduire des portions de son infrastructure dans des conteneurs légers tels que docker ou lxc directement sur son portable. Pour cela, le pilotage de docker par salt et les fonctionnalités d'orchestration de salt permettent une agilité sans précédent.
Il s'agit d'un bon complément pour le TDI : Test Driven Infrastructure. L'infrastructure est testée en mode "intégration continue" et on peut tester et débugger une partie de l'infrastructure en mode "bac à sable".
Ce modèle peut ensuite être décliné avec l'utilisation des branches dans git ou mercurial où certaines branches vont être appliquées à la partie production de l'infrastructure alors que d'autres sont appliqués a la préproduction ou aux environnements docker ou lxc en local.
Salt est un outil de gestion de configuration centralisé généralement utilisé pour configurer et orchestrer son infrastructure système en bénéficiant de la conservation et de l'historisation des fichiers de configuration dans un entrepôt source géré par mercurial ou git. Toutefois, les possibilités offertes par Salt vont beaucoup plus loin. Une fois la description Salt de l'infrastructure de production terminée, il est possible d'en reproduire automatiquement tout ou partie
avec salt-cloud dans un environnement virtualisé (cloud privé OpenStack) et ainsi de pouvoir mener des tests. En allant plus loin, il est possible de reproduire des portions d'infrastructure dans des conteneurs légers (docker, lxc) et de travailler directement sur son ordinateur portable.
Les fonctionnalités d'orchestration de Salt et son pilotage de docker amènent une agilité sans précédent dans ce processus de travail.
Dans le modèle décrit ci-dessus, excellent complément du TDI (Test-Driven Infrastructure), l'infrastructure est testée et déboguée en mode "bac à sable" puis déployée selon un mécanisme automatisé d'intégration continue. Le modèle peut être décliné en utilisant des branches dans l’entrepôt source de Salt et en choisissant quelles branches sont appliquées
à l'infrastructure en production, en pré-production ou en test dans les environnements locaux (docker, lxc). Des mécanismes de relecture et de validation peuvent alors être mis en œuvre.
Importer des données en Python avec CubicWeb 3.21Logilab
Slides en version HTML : http://slides.logilab.fr/2015/pyconfr2015_import_donnees_cubicweb/
Nous introduirons une nouvelle méthode pour importer des données externes (service REST, fichier, etc.) dans une application. Simple et flexible, elle favorise la réutilisation des composants afin de se concentrer sur ce qui est spécifique à chaque cas. Un exemple d'implémentation sera donné avec le framework CubicWeb 3.21 qui introduit une API d'import de données fondée sur cette méthode.
Abstract
Il est courant pour un développeur de devoir implémenter des fonctionnalités d'import de données. Les utilisateurs peuvent en effet avoir besoin de données disponibles par ailleurs, dans un tableur par exemple, dans une autre base, ou accessibles par des services web. Nous introduisons ici une méthode simple pour réaliser cela en favorisant la généricité et la ré-utilisabilité des composants développés.
Un flux personnalisable d'entités
L'idée est de transformer petit à petit les données externes afin de les rendre compatibles avec le schéma de l'application et donc insérables en base.
Le principe est de commencer par stocker les données de la source sur une «[HTML_REMOVED]entité externe[HTML_REMOVED]». Puis on utilise des générateurs Python pour créer un «[HTML_REMOVED]flux[HTML_REMOVED]» d'entités[HTML_REMOVED]: chaque entité passe de fonction en fonction, ce qui va la transformer peu à peu pour la rapprocher du modèle attendu et qu'elle soit finalement prête à être insérée, ou au contraire rejetée si ce n'est pas possible.
L'étape d'insertion est alors identique, quelle que soit la source d'où proviennent les données.
Exemple avec CubicWeb 3.21
Avec sa version 3.21 sortie en 2015, le framework CubicWeb dispose d'une toute nouvelle API fondée sur cette méthode. Elle permet au développeur de se concentrer sur le flux de données provenant des sources qui l'intéressent.
De plus, l'étape d'insertion offre plusieurs composants interchangeables. En fonction du compromis qu'il souhaite faire entre sécurité et rapidité, le développeur peut choisir entre une insertion sûre mais lente, où chaque entité à insérer est préalablement vérifiée quant au type de ses données et la validité de ses relations, et une insertion plus rapide mais pouvant échouer, où les entités sont insérées en masse.
Tout cela sera illustré par le moissonnage des données de portails Open Data. La diversité des formats (RDF (open-data.europa.eu), REST (data.gouv.fr, OpenDataSoft), CSW (geocatalogue.fr), etc.) ainsi que des modèles de données impose de créer des flux différents afin que toutes ces données puissent être importées dans un schéma unique de CubicWeb.
De la même façon, un autre exemple sera l'import de données SKOS où des thesaurus entiers sont importés dans CubicWeb grâce à cette API.
Simulagora, met la simulation numérique à la portée de tous !
Simulagora est un service Web de simulation numérique dans le cloud permettant la réalisation de calculs d'envergure sans investissement :
- pas de matériel dédié : une connexion à Internet suffit,
- pas de connaissances poussées en informatique : les principaux codes de calcul libres sont pré-installés,
- pas d'investissement financier : le paiement se fait à l'usage.
Simulagora donne accès à la puissance quasi-illimitée des nuages publics :
- lancez vos calculs exigeants sur des machines ayant jusqu'à 32 CPU et 120 Go RAM,
- obtenez le résultat de vos études paramétriques en un temps record en utilisant plusieurs centaines de machines simultanément.
Simulagora n'est pas un service d'exécution de calcul comme les autres :
- il s'insère dans vos processus actuels (script, terminal, interface Web),
- il enregistre l'historique de vos calculs pour assurer leur capitalisation et leur traçabilité,
- il garantit la reproductibilité de vos calculs, en conservant une copie de la machine virtuelle sur laquelle ils ont été exécutés,
- son interface Web permet une collaboration entre les différents experts pour mener à bien vos études numériques les plus pointues.
Simulagora est un produit de Logilab qui, depuis 15 ans, met les technologies du Web au service de l'informatique scientifique.
Simulagora, sets numerical simulation available to all!
Simulagora is a cloud-based numerical simulation service which allows computations without any up-front investment:
- No dedicated hardware: only an Internet connection is needed
- No advanced IT knowledge: major free software packages are pre-installed and ready-to-use
- No financial investment: pay only for used resources.
Simulagora provides access to the virtually unlimited power of public clouds:
- Start your complex computations on machines with up to 32 CPUs and 120GB of RAM
- Get the results of your parametric studies in record time using hundreds of machines simultaneously.
Simulagora is a one-of-a-kind computation execution service:
- Easy to fit into your existing processes (scripts, terminal applications, Web interface)
- Saves your computations history to ensure their traceability and maximize their capitalization
- Guarantees the reproducibility of your computations by keeping a copy of the virtual machines on which they ran
- Enables collaboration among experts using the Web interface to carry out your most precise digital studies.
Simulagora is a service built by Logilab, a 15-year veteran of Web technologies for scientific computing.
Study of the dynamic behavior of a pump with Code_ASTER on SimulagoraLogilab
Simulagora is a platform using Web technology to ease grid
computation by leveraging cloud resources.
Public cloud based
– Computation and storage resources
– Enormous power
– Super-fast computation resources ramp-up
Support de présentation lors de notre participation au "Battle" organisé par LibertTIC et DataLab à la ruche numérique du Mans.
Version PDF : http://www.logilab.fr/file/2221/raw/Battle%20Opendata.pdf
Debconf14 : Putting some salt in your Debian systems -- Julien CristauLogilab
Salt allows scalable infrastructure management, including provisioning new systems and managing them over their lifetime. In this talk I'll show how it makes managing Debian systems easier.
L'autre poster présenté par Logilab concerne Simulagora, un service en ligne de simulation numérique collaborative, qui permet de lancer des calculs dans les nuages (donc sans investissement dans du matériel ou d'administration système), qui met l'accent sur la traçabilité et la reproductibilité des calculs, ainsi que sur le travail collaboratif (partage de logiciel, de données et d'études numériques complètes).
Logilab was part of the research project PAFI (Plateforme d'Aide à la Facture Instrumentale) and developed an innovative web app, using CubicWeb, to facilitate the virtual prototyping of musical instruments and collaborative work between makers, users and museum curators.
Presentation by Nicolas Chauvat at "Fabrique de la Loi" 2014 (Open Legislative Data Conference)
Mirror of http://www.logilab.org/file/253393/raw/OLDC2014-chauvat.pdf
Blog entry : http://www.logilab.org/blogentry/253397
BRAINOMICS A management system for exploring and merging heterogeneous brain ...Logilab
"BRAINOMICS A management system for exploring and merging heterogeneous brain mapping data based on CubicWeb" by Vincent Michel - CrEDIBLE 2013 - 3/10/2013
Newsletter SPW Agriculture en province du Luxembourg du 03-06-24BenotGeorges3
Les informations et évènements agricoles en province du Luxembourg et en Wallonie susceptibles de vous intéresser et diffusés par le SPW Agriculture, Direction de la Recherche et du Développement, Service extérieur de Libramont.
https://agriculture.wallonie.be/home/recherche-developpement/acteurs-du-developpement-et-de-la-vulgarisation/les-services-exterieurs-de-la-direction-de-la-recherche-et-du-developpement/newsletters-des-services-exterieurs-de-la-vulgarisation/newsletters-du-se-de-libramont.html
Bonne lecture et bienvenue aux activités proposées.
#Agriculture #Wallonie #Newsletter #Recherche #Développement #Vulgarisation #Evènement #Information #Formation #Innovation #Législation #PAC #SPW #ServicepublicdeWallonie
M2i Webinar - « Participation Financière Obligatoire » et CPF : une opportuni...M2i Formation
Suite à l'entrée en vigueur de la « Participation Financière Obligatoire » le 2 mai dernier, les règles du jeu ont changé !
Pour les entreprises, cette révolution du dispositif est l'occasion de revoir sa stratégie de formation pour co-construire avec ses salariés un plan de formation alliant performance de l'organisation et engagement des équipes.
Au cours de ce webinar de 20 minutes, co-animé avec la Caisse des Dépôts et Consignations, découvrez tous les détails actualisés sur les dotations et les exonérations, les meilleures pratiques, et comment maximiser les avantages pour les entreprises et leurs salariés.
Au programme :
- Principe et détails de la « Participation Financière Obligatoire » entrée en vigueur
- La dotation : une opportunité à saisir pour co-construire sa stratégie de formation
- Mise en pratique : comment doter ?
- Quelles incidences pour les titulaires ?
Webinar exclusif animé à distance en coanimation avec la CDC
3. Vous n'êtes pas du métier ?
ma culture =
recherche en informatique
+ logiciel libre
+ Web
+ agilité
3
4. Comment êtes-vous arrivé là ?
• CubicWeb débuté en 2001
• Linked Open Data pour des musées en 2006
• Rencontré BnF à une conference en 2007
• Gagné marché en 2010 puis 2012
• Depuis de nombreux projets intéressants
4
5. Vous vendez quoi ?
• conseil et formation
(urbanisation des données, web sémantique, agilité, etc.)
• publication web sémantique
(culture = opencat + fevis + biblissima + musées)
• traitement des données
(nettoyage, enrichissement, alignement, etc.)
5
9. Alignements
• Outil Nazca (calcul de similarités)
• notice bibliographique <-> notice d'autorité titre
• regroupe ou crée notices biblio et autorité
• liens avec bases externes
• Réutilisation de données
• règles métiers ou identifiant ARK
• VIAF et autres alignements existants
9
11. Feuille de route data.bnf
• 100% du catalogue
• mise à jour toutes les 2 semaines
• réintégration des alignements dans le catalogue
• ajout de modèles plus simples (?)
• data.bnf.fr/atelier pour avant-premières
11
12. Enjeux data.bnf selon la BnF
• Visibilité et référencement
• Interopérabilité
• Fiabilité grâce à la traçabilité des URLs
• Réutilisation souple par des tiers
12
20. Linked Data et bibliothèques
• http://data.bnf.fr et bibliothèques
• http://data.europeana.eu
• http://datos.bne.es, http://dnb.de, http://libris.kb.se
• Sudoc IdRef
• VIAF (Virtual International Authority File)
• etc
20
21. Provenance des jeux de données
• généré par ?
• utilisé par ?
• date de début / fin ?
• dérivé de ?
• licence ?
21
22. Maturité des données ouvertes
1. Données disponibles sur le Web sous une licence ouverte
2. + format structuré (CSV, XML, Excel, mais pas PDF ou image)
3. + format non-propriétaire (CSV plutôt que Excel)
4. + respect des standards RDF (identification par des URLs, vocabulaire
défini: pas CSV, etc.)
5. + liens vers d'autres données pour fournir du contexte (ontologies) et
enrichir (autres jeux de données)
22
25. Qu'est-ce que le web ?
Réseau mondial de données construit sur la base d'un ensemble de
standards d'interopérabilité (protocoles, formats, vocabulaires, modèles,
interrogation), qui s'appuie sur les URLs pour identifier de manière unique
les données élémentaires et les lier entre elles.
“
25
26. Le Web passe à l'échelle
Liens permettent collaboration à grande échelle
Création d'identifiants est décentralisée
(Domain Name System est délégué)
Incohérence globale ("monde ouvert") permet parallélisation
26
27. Attention à ne pas confondre
• web sémantique :
données utilisables par un programme PAS trait. auto. des langues
• RDF et vocabulaires :
standardiser les échanges de données PAS les outils et le stockage
• Un et un seul Web :
un protocole (HTTP) et plusieurs standards pour l'échange de données
(HTML, RDF, OWL, JSON, DC, FOAF, SKOS, etc.)
27
28. Recentrage sur les données
• rassembler / collecter
• aligner / normaliser
• enrichir / annoter / classer
• définir un pivot métier avec des données de référence
• lier les données entre elles
28