Free download actia multidiag 2017 iii sp4 + hex for picMou Dawei
Voici comment programmer une photo pour qu'elle fonctionne avec Multidiag 2017 III SP4
- Premièrement: vous devez installer Multidiag SANS Internet connecté. Ce n'est pas difficile de le trouver à télécharger.
Série pour l'installer: 033918
Lien de téléchargement:
ACTIA Multidiag 3/2017 sp4 41.41:
https://mega.nz/#!wqIigCbD!PR7xGKJgtC2Ey0do–64gMe3RsaDgoD27Dq68apmBvQ
ActiveEon ProActive Cloud Automation en partenariat avec NumergyOW2
ProActive Cloud Automation permet de définir des Workflows complexes qui se déploient indifféremment sur toutes les principales infrastructures de Cloud laaS et PaaS. Vous pouvez migrer par exemple votre application de VMware à OpenStack et vice-versa, sélectionner l'un pour les développements et les tests, de façon transparente utiliser l'autre pour Ia production. Les plates-formes prises en charge inclues VMware, OpenStack, CloudStack, Hyper-V, Microsoft Azure, Amazon Web Services, et Numergy, où la solution est disponible en SaaS.
La santé de votre environnement Azure, entre Monitor, AppInsights et Log Anal...Marius Zaharia
Après des chemins sinueux, les différents services Azure s’harmonisent enfin leurs stratégies de monitoring. Focus sur Azure Monitor et ses fonctionnalités, ainsi que les modalités d'intégration entre un service, Azure Monitor, et des briques analytiques en aval: Application Insights, ou Log Analytics.
Free download actia multidiag 2017 iii sp4 + hex for picMou Dawei
Voici comment programmer une photo pour qu'elle fonctionne avec Multidiag 2017 III SP4
- Premièrement: vous devez installer Multidiag SANS Internet connecté. Ce n'est pas difficile de le trouver à télécharger.
Série pour l'installer: 033918
Lien de téléchargement:
ACTIA Multidiag 3/2017 sp4 41.41:
https://mega.nz/#!wqIigCbD!PR7xGKJgtC2Ey0do–64gMe3RsaDgoD27Dq68apmBvQ
ActiveEon ProActive Cloud Automation en partenariat avec NumergyOW2
ProActive Cloud Automation permet de définir des Workflows complexes qui se déploient indifféremment sur toutes les principales infrastructures de Cloud laaS et PaaS. Vous pouvez migrer par exemple votre application de VMware à OpenStack et vice-versa, sélectionner l'un pour les développements et les tests, de façon transparente utiliser l'autre pour Ia production. Les plates-formes prises en charge inclues VMware, OpenStack, CloudStack, Hyper-V, Microsoft Azure, Amazon Web Services, et Numergy, où la solution est disponible en SaaS.
La santé de votre environnement Azure, entre Monitor, AppInsights et Log Anal...Marius Zaharia
Après des chemins sinueux, les différents services Azure s’harmonisent enfin leurs stratégies de monitoring. Focus sur Azure Monitor et ses fonctionnalités, ainsi que les modalités d'intégration entre un service, Azure Monitor, et des briques analytiques en aval: Application Insights, ou Log Analytics.
GAB 2017 PARIS - La santé de votre environnement Azure par Manon Pernin et Ma...AZUG FR
Après des chemins sinueux, les différents services Azure s’harmonisent enfin leurs stratégies de monitoring. Focus sur Azure Monitor et ses fonctionnalités, ainsi que les modalités d'intégration entre un service, Azure Monitor, et des briques analytiques en aval: Application Insights, ou Log Analytics
De la multiplicité des sources d’informations à la consolidation : avantages ...Nuxeo
A l’ère du digital, savoir tirer parti de ses données est devenu crucial. Avec l’explosion et la diversité du volume de contenu, les entreprises ont mis en place de nombreux systèmes pour gérer cette complexité. Communiquant difficilement entre eux, ne répondant plus aux besoins actuels, il en résulte un chaos informationnel impactant la productivité, l’efficacité et freinant l’innovation.
Disposer d’une plateforme pouvant se connecter de manière transparente aux différentes sources d’information en place et permettant de disposer d’une vision véritablement centralisée de ses contenus peut faire la différence.
Découvrez:
- les risques liés à la multiplication des systèmes pour gérer l’information
- les bénéfices d’une approche centralisée de la gestion de l’information
- 3 cas d’usages tirés d’expérience terrain : signature électronique, archivage et mobilité
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
Le DevOps, qu'est-ce que c'est ?
Franck Livonnen, Coach DevOps, exposera la vision de Capgemini et Sogeti ainsi que notre savoir-faire.
Docker, retour sur un outil incontournable utilisé dans l'environnement DevOps.
Franck Choplet, Expert Outillage, partagera les avantages et les risques de cet environnement de développement.
DevOps chez nos clients
Sebastien Godier, Engagement Manager, terminera ce premier Talk de l'année par des retours d’expérience clients.
Comment utiliser Python pour votre projet Big Data et Data Sciences ?
Avec Python, langage des Data Ingenieurs et des Data Scientists, découvrez comment mener à bien vos projets dans votre environnement Big Data.
Avec le développement du Big Data, Python devient un outil incontournable pour les Data Ingenieurs et les Data Scientists car il cumule de nombreux avantages :
• Libre de droit,
• Simple d’utilisation,
• De larges capacités pour le traitement des données, les statistiques et le Machine Learning,
• Systématiquement associé à l’installation d’une plate-forme Big Data, il peut être utilisé en local ou en serveur de manière transparente pour l’utilisateur,
• Utilisé par l’ensemble de la communauté internationale des Data Ingenieurs et Data Scientists,
• Accès aux procédures les plus innovantes.
Atelier 1 :
Présentation d’une démarche de projet Data Science dans un environnement Big Data / DataLab.
Atelier 2 :
Zoom sur deux fonctionnalités de Python : le multicore et le Machine Learning avec scikit-learn.
Plateformes et infrastructure infonuagique natif de ville de MontréallCloudOps2005
Morgan Martinet et Marc Khouzam avons discuter la plateforme et infrastructure infonuagique natif de ville de Montréal au Cloud Native Day Montreal 2019.
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3Eo0BU9
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Extr4.0rdinaire cybersécurité : présentation des intervenantsInfopole1
Voici les présentations des intervenants présents lors de l'atelier Extr4.0rdinaire du 19 octobre 2023
Retrouvez tous les conseils de nos experts pour protéger au mieux votre entreprise contre les cyberattaques !
La Data Virtualization par Orano : cas d'usage à la Hague et démo de DenodoDenodo
Watch full webinar here: https://buff.ly/48x0LqY
Pour le salon Big Data Paris qui s'est tenu les 28 et 29 septembre 2021, Christophe Leclerc, Directeur Data Science du Groupe Orano est revenu sur le déploiement de la solution Denodo sur son site de la Hague. Avec notre ingénieure avant-vente Emily Sergent, C. Leclerc a abordé les points-clés suivants :
- Qu’est-ce que la virtualisation des données et pourquoi la solution Denodo ?
- Le positionnement Denodo vs Data Lake
- Les cas d’usage actuels au sein de l’usine de la Hague
Le tout est suivi d'une démonstration technique.
Cycle de vie d'un projet web agile avec TFS 2013, Azure VM et MonacoMicrosoft
Je réalise un projet web en mode agile. TFS 2013 et Visual Studio Online peuvent-ils m'aider ? Comment ? » Venez voir comment l'ensemble des possibilités de TFS 2013 combiné à Visual Studio 2013 supporte la réalisation d'un projet Web en Scrum grâce (entre autre) aux déploiements automatiques dans des VMs Azure et aux nouvelles capacités de Visual Studio Online. Le programme consistera en un jeu de rôle combinant les capacités de Visual Studio 2013, le pilotage projet grâce à TFS (organisation des scénarios et des tâches), comment faire le standup meeting avec l'interface web (planification et décomposition des scénarios / exigences), le code review, la création de tests unitaires, la création d’une infrastructure Azure pour gérer les déploiements automatiques, et enfin l'exécution des tests utilisateurs suite à la demande de revue par le client.
Speakers : Franck Farré (SQLI), Fabrice Hautot (SQLI)
Dans le cadre du projet Stream for Good
MIAGE Sorbonne -- Atelier de Veille technologique
Steeven Alliel, Abdel Benamara, David Ekchajzer, Philippe Fidalgo, Mathieu Ridet, Sophia Yalap
Have a look to my LinkedIn profile for the english version of this resume : https://www.linkedin.com/in/yannickdupuis/
"The best way to predict the future is to invent it." @AlanKay
But without the ability to execute, a vision will always remain a vision.
My ability to pioneer and quickly acquire new skills has helped me to build and manage complex technical environments for startups and big companies on their critical projects. With my proven experience in web technologies, I have at heart to develop things as a team and focus energies to serve common ambitions because "alone we go faster, together, we go further."
Open Source & Open Data : les bienfaits des communsLogilab
Le monde du logiciel a été précurseur en réintroduisant un mode de production "coopératif" dès le début des années 80.
Avec le mouvement de l'Open Data, cette coopération s'est étendue à la production des données.
On parle ici de biens communs dans le sens d'un "bien partagé par les membres d'une même communauté".
Contenu connexe
Similaire à Présentation sur le stand à l'OpenWorldForum 2013
GAB 2017 PARIS - La santé de votre environnement Azure par Manon Pernin et Ma...AZUG FR
Après des chemins sinueux, les différents services Azure s’harmonisent enfin leurs stratégies de monitoring. Focus sur Azure Monitor et ses fonctionnalités, ainsi que les modalités d'intégration entre un service, Azure Monitor, et des briques analytiques en aval: Application Insights, ou Log Analytics
De la multiplicité des sources d’informations à la consolidation : avantages ...Nuxeo
A l’ère du digital, savoir tirer parti de ses données est devenu crucial. Avec l’explosion et la diversité du volume de contenu, les entreprises ont mis en place de nombreux systèmes pour gérer cette complexité. Communiquant difficilement entre eux, ne répondant plus aux besoins actuels, il en résulte un chaos informationnel impactant la productivité, l’efficacité et freinant l’innovation.
Disposer d’une plateforme pouvant se connecter de manière transparente aux différentes sources d’information en place et permettant de disposer d’une vision véritablement centralisée de ses contenus peut faire la différence.
Découvrez:
- les risques liés à la multiplication des systèmes pour gérer l’information
- les bénéfices d’une approche centralisée de la gestion de l’information
- 3 cas d’usages tirés d’expérience terrain : signature électronique, archivage et mobilité
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
Le DevOps, qu'est-ce que c'est ?
Franck Livonnen, Coach DevOps, exposera la vision de Capgemini et Sogeti ainsi que notre savoir-faire.
Docker, retour sur un outil incontournable utilisé dans l'environnement DevOps.
Franck Choplet, Expert Outillage, partagera les avantages et les risques de cet environnement de développement.
DevOps chez nos clients
Sebastien Godier, Engagement Manager, terminera ce premier Talk de l'année par des retours d’expérience clients.
Comment utiliser Python pour votre projet Big Data et Data Sciences ?
Avec Python, langage des Data Ingenieurs et des Data Scientists, découvrez comment mener à bien vos projets dans votre environnement Big Data.
Avec le développement du Big Data, Python devient un outil incontournable pour les Data Ingenieurs et les Data Scientists car il cumule de nombreux avantages :
• Libre de droit,
• Simple d’utilisation,
• De larges capacités pour le traitement des données, les statistiques et le Machine Learning,
• Systématiquement associé à l’installation d’une plate-forme Big Data, il peut être utilisé en local ou en serveur de manière transparente pour l’utilisateur,
• Utilisé par l’ensemble de la communauté internationale des Data Ingenieurs et Data Scientists,
• Accès aux procédures les plus innovantes.
Atelier 1 :
Présentation d’une démarche de projet Data Science dans un environnement Big Data / DataLab.
Atelier 2 :
Zoom sur deux fonctionnalités de Python : le multicore et le Machine Learning avec scikit-learn.
Plateformes et infrastructure infonuagique natif de ville de MontréallCloudOps2005
Morgan Martinet et Marc Khouzam avons discuter la plateforme et infrastructure infonuagique natif de ville de Montréal au Cloud Native Day Montreal 2019.
Session découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3Eo0BU9
Denodo vous propose une session virtuelle pour découvrir la Data Virtualization. Quel que soit votre rôle, responsable IT, architecte, data scientist, analyste ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Extr4.0rdinaire cybersécurité : présentation des intervenantsInfopole1
Voici les présentations des intervenants présents lors de l'atelier Extr4.0rdinaire du 19 octobre 2023
Retrouvez tous les conseils de nos experts pour protéger au mieux votre entreprise contre les cyberattaques !
La Data Virtualization par Orano : cas d'usage à la Hague et démo de DenodoDenodo
Watch full webinar here: https://buff.ly/48x0LqY
Pour le salon Big Data Paris qui s'est tenu les 28 et 29 septembre 2021, Christophe Leclerc, Directeur Data Science du Groupe Orano est revenu sur le déploiement de la solution Denodo sur son site de la Hague. Avec notre ingénieure avant-vente Emily Sergent, C. Leclerc a abordé les points-clés suivants :
- Qu’est-ce que la virtualisation des données et pourquoi la solution Denodo ?
- Le positionnement Denodo vs Data Lake
- Les cas d’usage actuels au sein de l’usine de la Hague
Le tout est suivi d'une démonstration technique.
Cycle de vie d'un projet web agile avec TFS 2013, Azure VM et MonacoMicrosoft
Je réalise un projet web en mode agile. TFS 2013 et Visual Studio Online peuvent-ils m'aider ? Comment ? » Venez voir comment l'ensemble des possibilités de TFS 2013 combiné à Visual Studio 2013 supporte la réalisation d'un projet Web en Scrum grâce (entre autre) aux déploiements automatiques dans des VMs Azure et aux nouvelles capacités de Visual Studio Online. Le programme consistera en un jeu de rôle combinant les capacités de Visual Studio 2013, le pilotage projet grâce à TFS (organisation des scénarios et des tâches), comment faire le standup meeting avec l'interface web (planification et décomposition des scénarios / exigences), le code review, la création de tests unitaires, la création d’une infrastructure Azure pour gérer les déploiements automatiques, et enfin l'exécution des tests utilisateurs suite à la demande de revue par le client.
Speakers : Franck Farré (SQLI), Fabrice Hautot (SQLI)
Dans le cadre du projet Stream for Good
MIAGE Sorbonne -- Atelier de Veille technologique
Steeven Alliel, Abdel Benamara, David Ekchajzer, Philippe Fidalgo, Mathieu Ridet, Sophia Yalap
Have a look to my LinkedIn profile for the english version of this resume : https://www.linkedin.com/in/yannickdupuis/
"The best way to predict the future is to invent it." @AlanKay
But without the ability to execute, a vision will always remain a vision.
My ability to pioneer and quickly acquire new skills has helped me to build and manage complex technical environments for startups and big companies on their critical projects. With my proven experience in web technologies, I have at heart to develop things as a team and focus energies to serve common ambitions because "alone we go faster, together, we go further."
Similaire à Présentation sur le stand à l'OpenWorldForum 2013 (20)
Open Source & Open Data : les bienfaits des communsLogilab
Le monde du logiciel a été précurseur en réintroduisant un mode de production "coopératif" dès le début des années 80.
Avec le mouvement de l'Open Data, cette coopération s'est étendue à la production des données.
On parle ici de biens communs dans le sens d'un "bien partagé par les membres d'une même communauté".
Le 1er salon professionnel de l'open data qui vise à consolider la filière française des données ouvertes. Ce salon valorise les acteurs positionnés sur l'open data et assure l'information des participants à travers des retours d'expériences, conférences stratégiques, ateliers pratiques et mises en relations directe avec les prestataires et ceux qui font l'open data aujourd'hui en France.
Pydata Paris Python for manufacturing musical instrumentsLogilab
Pydata Paris Python for manufacturing musical instruments.
Context: making and repair of musical instruments.
Assets: traditional craftsmanship ; world-famous quality
Challenge: aggressive competition from foreign countries
Olivier Cayrol a présenté la société Logilab et ses services à l'occasion de la Semaine de l'Industrie.
Logilab : un industriel du logiciel
- développement
- conseil
- formation
- expertise
Les archives du département de la Gironde, de la Ville de Bordeaux et de la Métropole de Bordeaux ont mis en place un système d'archivage mutualisé leur permettant de gérer leurs documents tout au long de leur cycle de vie, depuis leur conception initiale jusqu'à leur archivage. Ce système repose sur diverses applications logiciel libre prenant chacune en charge une partie du cycle de vie des documents (Alfresco pour la GED courante, Asalae pour l'archivage, etc.)
Dans le cadre de ce système, lors du passage d'un outil à l'autre, un grand nombre de métadonnées sont perdues et doivent donc être ressaisies. D'où l'idée de mettre en place un référentiel commun qui va constituer un pivot sur lequel s'appuient les autres outils, et qui va conserver et enrichir les métadonnées d'un document tout au long de son cycle de vie, au fil de ses passages d'une application à l'autre. Ces métadonnées sont, par exemple, le rangement dans des
plans de classement, les agents étant intervenus sur le document, les étapes du processus de validation, etc.)
Dans le cadre d'un marché public, Logilab développe le référentiel commun du système d'archivage pour le compte du Conseil Départemental de la Gironde, de la Métropole de Bordeaux et de la Ville de Bordeaux.
La présentation présente l'outil logiciel libre qui a vocation à être partagé avec d'autres institutions rencontrant une problématique similaire, mais également de revenir sur le projet lui-meme qui implique de nombreux acteurs et a été géré avec une méthode agile et divers outils innovants (MVP, UX Design, etc.)
Voir http://saem.e-bordeaux.org/projet-module-r%C3%A9f%C3%A9rentiel pour plus de détails.
Utiliser salt pour tester son infrastructure sur open stack ou dockerLogilab
Vous pouvez accéder à cette présentation sur ce lien : http://slides.logilab.fr/2015/poss2015_salt-docker/#/
Configurer et orchestrer son infrastructure avec un outil de gestion de configuration centralisée tel que Salt comporte de nombreux avantages.
La conservation et l'historisation des fichers de configuration dans un entrepôt de source geré par un DVCS (mercurial ou git) en fait partie.
Salt permet ensuite de faire évoluer son infrastructure en la testant dans des environements isolés. Une fois la description complète, reproduire une partie de son infrastructure de production sur un environnement virtualisé tel qu'un cloud
privé (OpenStack) devient possible et automatisable avec
*salt-cloud*. L'étape suivante est de pouvoir reproduire des portions de son infrastructure dans des conteneurs légers tels que docker ou lxc directement sur son portable. Pour cela, le pilotage de docker par salt et les fonctionnalités d'orchestration de salt permettent une agilité sans précédent.
Il s'agit d'un bon complément pour le TDI : Test Driven Infrastructure. L'infrastructure est testée en mode "intégration continue" et on peut tester et débugger une partie de l'infrastructure en mode "bac à sable".
Ce modèle peut ensuite être décliné avec l'utilisation des branches dans git ou mercurial où certaines branches vont être appliquées à la partie production de l'infrastructure alors que d'autres sont appliqués a la préproduction ou aux environnements docker ou lxc en local.
Salt est un outil de gestion de configuration centralisé généralement utilisé pour configurer et orchestrer son infrastructure système en bénéficiant de la conservation et de l'historisation des fichiers de configuration dans un entrepôt source géré par mercurial ou git. Toutefois, les possibilités offertes par Salt vont beaucoup plus loin. Une fois la description Salt de l'infrastructure de production terminée, il est possible d'en reproduire automatiquement tout ou partie
avec salt-cloud dans un environnement virtualisé (cloud privé OpenStack) et ainsi de pouvoir mener des tests. En allant plus loin, il est possible de reproduire des portions d'infrastructure dans des conteneurs légers (docker, lxc) et de travailler directement sur son ordinateur portable.
Les fonctionnalités d'orchestration de Salt et son pilotage de docker amènent une agilité sans précédent dans ce processus de travail.
Dans le modèle décrit ci-dessus, excellent complément du TDI (Test-Driven Infrastructure), l'infrastructure est testée et déboguée en mode "bac à sable" puis déployée selon un mécanisme automatisé d'intégration continue. Le modèle peut être décliné en utilisant des branches dans l’entrepôt source de Salt et en choisissant quelles branches sont appliquées
à l'infrastructure en production, en pré-production ou en test dans les environnements locaux (docker, lxc). Des mécanismes de relecture et de validation peuvent alors être mis en œuvre.
Importer des données en Python avec CubicWeb 3.21Logilab
Slides en version HTML : http://slides.logilab.fr/2015/pyconfr2015_import_donnees_cubicweb/
Nous introduirons une nouvelle méthode pour importer des données externes (service REST, fichier, etc.) dans une application. Simple et flexible, elle favorise la réutilisation des composants afin de se concentrer sur ce qui est spécifique à chaque cas. Un exemple d'implémentation sera donné avec le framework CubicWeb 3.21 qui introduit une API d'import de données fondée sur cette méthode.
Abstract
Il est courant pour un développeur de devoir implémenter des fonctionnalités d'import de données. Les utilisateurs peuvent en effet avoir besoin de données disponibles par ailleurs, dans un tableur par exemple, dans une autre base, ou accessibles par des services web. Nous introduisons ici une méthode simple pour réaliser cela en favorisant la généricité et la ré-utilisabilité des composants développés.
Un flux personnalisable d'entités
L'idée est de transformer petit à petit les données externes afin de les rendre compatibles avec le schéma de l'application et donc insérables en base.
Le principe est de commencer par stocker les données de la source sur une «[HTML_REMOVED]entité externe[HTML_REMOVED]». Puis on utilise des générateurs Python pour créer un «[HTML_REMOVED]flux[HTML_REMOVED]» d'entités[HTML_REMOVED]: chaque entité passe de fonction en fonction, ce qui va la transformer peu à peu pour la rapprocher du modèle attendu et qu'elle soit finalement prête à être insérée, ou au contraire rejetée si ce n'est pas possible.
L'étape d'insertion est alors identique, quelle que soit la source d'où proviennent les données.
Exemple avec CubicWeb 3.21
Avec sa version 3.21 sortie en 2015, le framework CubicWeb dispose d'une toute nouvelle API fondée sur cette méthode. Elle permet au développeur de se concentrer sur le flux de données provenant des sources qui l'intéressent.
De plus, l'étape d'insertion offre plusieurs composants interchangeables. En fonction du compromis qu'il souhaite faire entre sécurité et rapidité, le développeur peut choisir entre une insertion sûre mais lente, où chaque entité à insérer est préalablement vérifiée quant au type de ses données et la validité de ses relations, et une insertion plus rapide mais pouvant échouer, où les entités sont insérées en masse.
Tout cela sera illustré par le moissonnage des données de portails Open Data. La diversité des formats (RDF (open-data.europa.eu), REST (data.gouv.fr, OpenDataSoft), CSW (geocatalogue.fr), etc.) ainsi que des modèles de données impose de créer des flux différents afin que toutes ces données puissent être importées dans un schéma unique de CubicWeb.
De la même façon, un autre exemple sera l'import de données SKOS où des thesaurus entiers sont importés dans CubicWeb grâce à cette API.
Simulagora, met la simulation numérique à la portée de tous !
Simulagora est un service Web de simulation numérique dans le cloud permettant la réalisation de calculs d'envergure sans investissement :
- pas de matériel dédié : une connexion à Internet suffit,
- pas de connaissances poussées en informatique : les principaux codes de calcul libres sont pré-installés,
- pas d'investissement financier : le paiement se fait à l'usage.
Simulagora donne accès à la puissance quasi-illimitée des nuages publics :
- lancez vos calculs exigeants sur des machines ayant jusqu'à 32 CPU et 120 Go RAM,
- obtenez le résultat de vos études paramétriques en un temps record en utilisant plusieurs centaines de machines simultanément.
Simulagora n'est pas un service d'exécution de calcul comme les autres :
- il s'insère dans vos processus actuels (script, terminal, interface Web),
- il enregistre l'historique de vos calculs pour assurer leur capitalisation et leur traçabilité,
- il garantit la reproductibilité de vos calculs, en conservant une copie de la machine virtuelle sur laquelle ils ont été exécutés,
- son interface Web permet une collaboration entre les différents experts pour mener à bien vos études numériques les plus pointues.
Simulagora est un produit de Logilab qui, depuis 15 ans, met les technologies du Web au service de l'informatique scientifique.
Simulagora, sets numerical simulation available to all!
Simulagora is a cloud-based numerical simulation service which allows computations without any up-front investment:
- No dedicated hardware: only an Internet connection is needed
- No advanced IT knowledge: major free software packages are pre-installed and ready-to-use
- No financial investment: pay only for used resources.
Simulagora provides access to the virtually unlimited power of public clouds:
- Start your complex computations on machines with up to 32 CPUs and 120GB of RAM
- Get the results of your parametric studies in record time using hundreds of machines simultaneously.
Simulagora is a one-of-a-kind computation execution service:
- Easy to fit into your existing processes (scripts, terminal applications, Web interface)
- Saves your computations history to ensure their traceability and maximize their capitalization
- Guarantees the reproducibility of your computations by keeping a copy of the virtual machines on which they ran
- Enables collaboration among experts using the Web interface to carry out your most precise digital studies.
Simulagora is a service built by Logilab, a 15-year veteran of Web technologies for scientific computing.
Innover par et pour la donnée - Logilab ADBU Bibcamp 2015Logilab
Innover par et pour la donnée, illustrée par l'exemple de data.bnf.fr et les principes du web sémantique.
Présentation de Logilab au #bibcamp15 organisé en juin 2015 par l'ADBU, association des directeurs de bibliothèques universitaires.
Study of the dynamic behavior of a pump with Code_ASTER on SimulagoraLogilab
Simulagora is a platform using Web technology to ease grid
computation by leveraging cloud resources.
Public cloud based
– Computation and storage resources
– Enormous power
– Super-fast computation resources ramp-up
Support de présentation lors de notre participation au "Battle" organisé par LibertTIC et DataLab à la ruche numérique du Mans.
Version PDF : http://www.logilab.fr/file/2221/raw/Battle%20Opendata.pdf
Debconf14 : Putting some salt in your Debian systems -- Julien CristauLogilab
Salt allows scalable infrastructure management, including provisioning new systems and managing them over their lifetime. In this talk I'll show how it makes managing Debian systems easier.
L'autre poster présenté par Logilab concerne Simulagora, un service en ligne de simulation numérique collaborative, qui permet de lancer des calculs dans les nuages (donc sans investissement dans du matériel ou d'administration système), qui met l'accent sur la traçabilité et la reproductibilité des calculs, ainsi que sur le travail collaboratif (partage de logiciel, de données et d'études numériques complètes).
Logilab was part of the research project PAFI (Plateforme d'Aide à la Facture Instrumentale) and developed an innovative web app, using CubicWeb, to facilitate the virtual prototyping of musical instruments and collaborative work between makers, users and museum curators.
Presentation by Nicolas Chauvat at "Fabrique de la Loi" 2014 (Open Legislative Data Conference)
Mirror of http://www.logilab.org/file/253393/raw/OLDC2014-chauvat.pdf
Blog entry : http://www.logilab.org/blogentry/253397
BRAINOMICS A management system for exploring and merging heterogeneous brain ...Logilab
"BRAINOMICS A management system for exploring and merging heterogeneous brain mapping data based on CubicWeb" by Vincent Michel - CrEDIBLE 2013 - 3/10/2013
3. ➢ PME de 20 personnes
➢ fort investissement en R&D
➢ implantation à Paris et Toulouse
Source : wikipedia
Licence : CC ShareAlike 3.0
Source : wikipedia
Licence : CC ShareAlike 3.0
4. ➢ Informatique scientifique
➢ refonte de codes
➢ optimisation / parallélisation
➢ simulation conjointe
➢ co-simulation
Source : wikipedia
Licence : CC ShareAlike 3.0
5. ➢ Simulation dans le nuage
➢ plateforme de simulation sur le cloud
➢ 3D dans le
navigateur
6. ➢ Gestion de données de simulation
➢ applications de pilotage de calculs
➢ Simulation Data Management
Modèle Numérique
Modèle Métier
Modèle Physique