A l’heure du big data et des SIG, l’arrivée des requêtes parallélisées dans PostgreSQL 9.6 puis son amélioration dans PostgreSQL 10, permettent dans certains cas de diviser le temps d'exécution des traitements par deux voire plus en fonction des utilisations et des ressources disponibles. Une présentation d'Aurélien Morlé, architecte logiciel chez Atol CD à l'occasion du #PGDAY 2018
Monitoring applicatif : Pourquoi et comment ?Kenny Dits
Vous êtes développeur, chef de projet technique ou même responsable et vous souhaitez avoir de la visibilité sur le fonctionnement de vos applicatifs, ou sur la plateforme sur laquelle ils sont hébergés ?
Nous étudierons comment, grâce à des outils simples (StatD / Graphite / Log BDD) et nos expériences chez M6Web, mettre en place un monitoring applicatif ultra complet.
Ce monitoring vous permettra de retrouver la vue sur vos projets, pour mieux anticiper la charge, detecter la root cause en cas d'incident et connaitre l'état de chacun de vos services ...
Angular n'est pas un simple framework mvc, il va plus loin et change fondamentalement notre manière de concevoir des applications web.
De l'avis de ses auteurs Angular est la plateforme qu'aurait été le couple html et JavaScript si ils avaient été créés aujourd'hui. SignalR quand a lui change aussi radicalement la manière de voir l'interaction avec les utilisateurs grace a sa communication bi-directionnelle simplifiée.
Il est intéressant de réunir les deux pour profiter du meilleur des deux mondes, de voir comment des bindings et des évènements se propagent de bout en bout et ainsi avoir un aperçu des applications de demain.
Agenda :
Les enjeux de la performance d'un site Web
Les différents éléments de performance d'un site Web
Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
L'obsession de la mesure
Les outils
Les quickwins
Caches, upscaling, outscaling, sharding
La démarche de test de charge
Méthodologie, outils, types de test, données de test
La démarche PDCA
Intégrer les tests de charge au cycle de développement
Environnement éphémère
Oxalide MorningTech #2 - Démarche de performance
2ème MorningTech @Oxalide, animé par Adrien Le Priol (@Priolix) et Ludovic Piot (@lpiot), le 28 février 2017.
Une vue d'ensemble sur la démarche et les outils pour aborder et maîtriser la performance de son site Web.
En 2012, Amazon publiait une étude indiquant que chaque seconde de performance perdue sur son site de commerce lui coûtait $1.6 milliards de chiffre d'affaire.
Par delà ce chiffre colossal avancé par le géant du Web, il est une réalité business : plus un site est lent, et moins les utilisateurs sont enclin à naviguer dessus. Les smartphones et le SoLoMo exacerbent cette réalité avec encore plus depuis 10 ans maintenant.
Sur le terrain, l'architecture technique des sites Web, de plus en plus complexe, rendent ses performances impossibles à prédire : complexité des développements applicatifs, multitude des composants impliqués dans l'architecture technique, recours à des services tiers (issus du SI de votre entreprise, ou de services tiers), big data, machine learning…
Une seule façon de prédire les performances : tester… en situation réelle.
A travers les différentes étapes d'une démarche d'optimisation des performances d'un site Web, les enjeux et les écueils d'une telle démarche vous seront détaillés.
Subject: Oxalide's MorningTech talk about an overview of how to deal with performance in a Web site.
Date: 28-feb-2017
Speakers: Adrien Le Priol (@Priolix, @Oxalide) and Ludovic Piot (@lpiot, @Oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morning-tech-number-2-demarche-performance
Lien SlideShare : https://www.slideshare.net/LudovicPiot/morning-tech-2-demarche-performance-slides
YouTube Video capture: https://youtu.be/a8jSbvyBzYU
Main topics:
* Les enjeux de la performance d'un site Web
* Les différents éléments de performance d'un site Web
** Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
* L'obsession de la mesure
* Les outils
* Les quickwins
** Caches, upscaling, outscaling, sharding
* La démarche de test de charge
** Méthodologie, outils, types de test, données de test
* La démarche PDCA
** Intégrer les tests de charge au cycle de développement
** Environnement éphémère
* Questions / Réponses
advizeo est la solution de pilotage énergétique des sites tertiaires et industriels. Les données sont collectées, traitées et centralisées sur la plateforme de gestion de l'énergie advizeo. Les energy managers advizeo, experts de l'efficacité énergétique ainsi que le réseau de partenaires advizeo vous accompagnent dans la mise en oeuvre d'un plan d'action d'amélioration pour améliorer l'efficacité énergétique des bâtiments et répondre aux contraintes réglementaires puis mesurent l'impact sur la performance énergétique des bâtiments.
Monitoring applicatif : Pourquoi et comment ?Kenny Dits
Vous êtes développeur, chef de projet technique ou même responsable et vous souhaitez avoir de la visibilité sur le fonctionnement de vos applicatifs, ou sur la plateforme sur laquelle ils sont hébergés ?
Nous étudierons comment, grâce à des outils simples (StatD / Graphite / Log BDD) et nos expériences chez M6Web, mettre en place un monitoring applicatif ultra complet.
Ce monitoring vous permettra de retrouver la vue sur vos projets, pour mieux anticiper la charge, detecter la root cause en cas d'incident et connaitre l'état de chacun de vos services ...
Angular n'est pas un simple framework mvc, il va plus loin et change fondamentalement notre manière de concevoir des applications web.
De l'avis de ses auteurs Angular est la plateforme qu'aurait été le couple html et JavaScript si ils avaient été créés aujourd'hui. SignalR quand a lui change aussi radicalement la manière de voir l'interaction avec les utilisateurs grace a sa communication bi-directionnelle simplifiée.
Il est intéressant de réunir les deux pour profiter du meilleur des deux mondes, de voir comment des bindings et des évènements se propagent de bout en bout et ainsi avoir un aperçu des applications de demain.
Agenda :
Les enjeux de la performance d'un site Web
Les différents éléments de performance d'un site Web
Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
L'obsession de la mesure
Les outils
Les quickwins
Caches, upscaling, outscaling, sharding
La démarche de test de charge
Méthodologie, outils, types de test, données de test
La démarche PDCA
Intégrer les tests de charge au cycle de développement
Environnement éphémère
Oxalide MorningTech #2 - Démarche de performance
2ème MorningTech @Oxalide, animé par Adrien Le Priol (@Priolix) et Ludovic Piot (@lpiot), le 28 février 2017.
Une vue d'ensemble sur la démarche et les outils pour aborder et maîtriser la performance de son site Web.
En 2012, Amazon publiait une étude indiquant que chaque seconde de performance perdue sur son site de commerce lui coûtait $1.6 milliards de chiffre d'affaire.
Par delà ce chiffre colossal avancé par le géant du Web, il est une réalité business : plus un site est lent, et moins les utilisateurs sont enclin à naviguer dessus. Les smartphones et le SoLoMo exacerbent cette réalité avec encore plus depuis 10 ans maintenant.
Sur le terrain, l'architecture technique des sites Web, de plus en plus complexe, rendent ses performances impossibles à prédire : complexité des développements applicatifs, multitude des composants impliqués dans l'architecture technique, recours à des services tiers (issus du SI de votre entreprise, ou de services tiers), big data, machine learning…
Une seule façon de prédire les performances : tester… en situation réelle.
A travers les différentes étapes d'une démarche d'optimisation des performances d'un site Web, les enjeux et les écueils d'une telle démarche vous seront détaillés.
Subject: Oxalide's MorningTech talk about an overview of how to deal with performance in a Web site.
Date: 28-feb-2017
Speakers: Adrien Le Priol (@Priolix, @Oxalide) and Ludovic Piot (@lpiot, @Oxalide)
Language: french
Lien SpeakerDeck : https://speakerdeck.com/lpiot/oxalide-morning-tech-number-2-demarche-performance
Lien SlideShare : https://www.slideshare.net/LudovicPiot/morning-tech-2-demarche-performance-slides
YouTube Video capture: https://youtu.be/a8jSbvyBzYU
Main topics:
* Les enjeux de la performance d'un site Web
* Les différents éléments de performance d'un site Web
** Infrastructure, architecture technique, tuning, architecture applicative, WebPerf
* L'obsession de la mesure
* Les outils
* Les quickwins
** Caches, upscaling, outscaling, sharding
* La démarche de test de charge
** Méthodologie, outils, types de test, données de test
* La démarche PDCA
** Intégrer les tests de charge au cycle de développement
** Environnement éphémère
* Questions / Réponses
advizeo est la solution de pilotage énergétique des sites tertiaires et industriels. Les données sont collectées, traitées et centralisées sur la plateforme de gestion de l'énergie advizeo. Les energy managers advizeo, experts de l'efficacité énergétique ainsi que le réseau de partenaires advizeo vous accompagnent dans la mise en oeuvre d'un plan d'action d'amélioration pour améliorer l'efficacité énergétique des bâtiments et répondre aux contraintes réglementaires puis mesurent l'impact sur la performance énergétique des bâtiments.
L’atout cartographie en mobilité : implémentation pratique et cas concretsMicrosoft
A travers cette session nous allons aborder les bases de l’exploitation de la cartographie au sein des périphériques Windows Phone 8 et Windows 8 pour comprendre comment exploiter ses capacités de présentation et de visualisation avancées au sein de contrôles interactifs. Nous suivrons un cas concret et pratique que nous implémenterons en scénario de mobilité et que nous étendrons en termes de fonctionnalités à l’aide de traitements serveur spécifiques et répondre ainsi à des cas d’usage réels tels que la gestion de livraison et l’optimisation de tournée, la recherche dans des zones de chalandise, de recherche le long d’un itinéraire. Cas pratiques, architecture et implémentation technique, cette session s’adresse aux développeurs et aux décideurs souhaitant aller beaucoup plus loin et compléter l’expérience locale dans les applications mobiles.
Speakers : Jonathan Antoine (MVP), Nicolas Boonaert (MVP)
Comment utiliser Python pour votre projet Big Data et Data Sciences ?
Avec Python, langage des Data Ingenieurs et des Data Scientists, découvrez comment mener à bien vos projets dans votre environnement Big Data.
Avec le développement du Big Data, Python devient un outil incontournable pour les Data Ingenieurs et les Data Scientists car il cumule de nombreux avantages :
• Libre de droit,
• Simple d’utilisation,
• De larges capacités pour le traitement des données, les statistiques et le Machine Learning,
• Systématiquement associé à l’installation d’une plate-forme Big Data, il peut être utilisé en local ou en serveur de manière transparente pour l’utilisateur,
• Utilisé par l’ensemble de la communauté internationale des Data Ingenieurs et Data Scientists,
• Accès aux procédures les plus innovantes.
Atelier 1 :
Présentation d’une démarche de projet Data Science dans un environnement Big Data / DataLab.
Atelier 2 :
Zoom sur deux fonctionnalités de Python : le multicore et le Machine Learning avec scikit-learn.
Big Data, tout le monde en parle…
Soft Computing le pratique au quotidien : applications marketing, concepts, outils, retours d’expérience.
Big Data s’impose comme une réalité incontournable. Mais qu’en est-il réellement des retours sur investissements ? Quelles en sont les applications concrètes en marketing ? Par où et comment commencer ? Comment s’organiser entre le marketing et la DSI pour tirer profit des big data ? Comment exploiter les données des réseaux sociaux et les logs web ? Quelles sont les données légalement et techniquement exploitables ? Comment choisir entre internalisation et externalisation, entre « first party » et « third party » ? Quelles possibilités pour capter et exploiter les données issues de la mobilité ?
Notre expérience de plusieurs dizaines d’années hommes sur des projets concrets et nos investissements en R&D nous permettent aujourd’hui de vous apporter des réponses à ces multiples questions. Nous nous appuierons en particulier sur 3 cas concrets illustrant :
1. L’augmentation des ventes croisées grâce à un moteur de recommandations en ligne pour un site de e-Commerce ;
2. L’enrichissement de la connaissance et de l’interaction client et marché par une écoute active des réseaux sociaux ;
3. Une amélioration de l’expérience client grâce au monitoring et à l’analyse des parcours client.
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
Si la dimension « AGILITÉ » est bien maîtrisée par les concepteurs – développeurs, ce n’est pas forcément le cas pour les utilisateurs, les MOA et la gouvernance informatique qui sont souvent restés dans une approche Cycle en « V » avec des logiques de planning et de budget forfaitaire …
Comment « Conjuguer une agilité pour tous » et « donner une visibilité à la gouvernance » c’est ce que nous tenterons de traiter ce Mercredi 1er Février 2012 à travers des constats opérationnels et des pistes de progrès mises en oeuvre ou envisagées pour chacune des dimensions …
Ces pistes passent par l’identification du périmètre éligible à l’agilité avec des concepts empruntés ou utilisés dans l’A.E (Architecture d’Entreprise), dans les approches « Lean-Six Sigma » , dans la mesure de la complexité (HALSTEAD), dans les architectures orientées service (SOA), la notion de risque et patrimoine (valeur ajoutée) pour la Gouvernance, etc …
Ingénieur Informaticien-Génie Logiciel, Christophe Battu a 35 ans d’expérience dans le pilotage de projets et le management de service informatique (Développement, Exploitation) dans les métiers de l’industrie, de l’énergie, du fiscal et de la retraite.
Comment integrer les applications de votre Systeme Information entre elles ?Stéphane Traumat
Cette présentation détaille les solutions et les méthodes existantes pour améliorer votre système d'information en intégrant l'ensemble des applications que vous utilisez.
Les trois grands type d'intégration seront abordés :
• Intégration par les données: données stockées et données mobiles: XML et applications aux services.
• Intégration par la présentation: portails et agrégation de contenus.
• Intégration par les processus: modèles de processus, architectures de services (SOA).
Workshop IA : supercalculateur pour booster vos projets par GENCIStéphanie Roger
Simuler le changement climatique, étudier des matériaux, affiner des algorithmes... nécessitent de puissants outils de calcul. C'est ce que propose GENCI, le Grand équipement national de calcul intensif, qui permet aux entreprises, industriels et chercheurs d’accéder à des supercalculateurs pour leurs travaux de pointe exigeant une puissance de calcul intensif.
Intégrateur expérimenté de solutions métiers et
de projets de dématérialisation : capture et
GED, Atol CD développe aujourd'hui une offre
RPA (Robotic Process Automatisation).
L’atout cartographie en mobilité : implémentation pratique et cas concretsMicrosoft
A travers cette session nous allons aborder les bases de l’exploitation de la cartographie au sein des périphériques Windows Phone 8 et Windows 8 pour comprendre comment exploiter ses capacités de présentation et de visualisation avancées au sein de contrôles interactifs. Nous suivrons un cas concret et pratique que nous implémenterons en scénario de mobilité et que nous étendrons en termes de fonctionnalités à l’aide de traitements serveur spécifiques et répondre ainsi à des cas d’usage réels tels que la gestion de livraison et l’optimisation de tournée, la recherche dans des zones de chalandise, de recherche le long d’un itinéraire. Cas pratiques, architecture et implémentation technique, cette session s’adresse aux développeurs et aux décideurs souhaitant aller beaucoup plus loin et compléter l’expérience locale dans les applications mobiles.
Speakers : Jonathan Antoine (MVP), Nicolas Boonaert (MVP)
Comment utiliser Python pour votre projet Big Data et Data Sciences ?
Avec Python, langage des Data Ingenieurs et des Data Scientists, découvrez comment mener à bien vos projets dans votre environnement Big Data.
Avec le développement du Big Data, Python devient un outil incontournable pour les Data Ingenieurs et les Data Scientists car il cumule de nombreux avantages :
• Libre de droit,
• Simple d’utilisation,
• De larges capacités pour le traitement des données, les statistiques et le Machine Learning,
• Systématiquement associé à l’installation d’une plate-forme Big Data, il peut être utilisé en local ou en serveur de manière transparente pour l’utilisateur,
• Utilisé par l’ensemble de la communauté internationale des Data Ingenieurs et Data Scientists,
• Accès aux procédures les plus innovantes.
Atelier 1 :
Présentation d’une démarche de projet Data Science dans un environnement Big Data / DataLab.
Atelier 2 :
Zoom sur deux fonctionnalités de Python : le multicore et le Machine Learning avec scikit-learn.
Big Data, tout le monde en parle…
Soft Computing le pratique au quotidien : applications marketing, concepts, outils, retours d’expérience.
Big Data s’impose comme une réalité incontournable. Mais qu’en est-il réellement des retours sur investissements ? Quelles en sont les applications concrètes en marketing ? Par où et comment commencer ? Comment s’organiser entre le marketing et la DSI pour tirer profit des big data ? Comment exploiter les données des réseaux sociaux et les logs web ? Quelles sont les données légalement et techniquement exploitables ? Comment choisir entre internalisation et externalisation, entre « first party » et « third party » ? Quelles possibilités pour capter et exploiter les données issues de la mobilité ?
Notre expérience de plusieurs dizaines d’années hommes sur des projets concrets et nos investissements en R&D nous permettent aujourd’hui de vous apporter des réponses à ces multiples questions. Nous nous appuierons en particulier sur 3 cas concrets illustrant :
1. L’augmentation des ventes croisées grâce à un moteur de recommandations en ligne pour un site de e-Commerce ;
2. L’enrichissement de la connaissance et de l’interaction client et marché par une écoute active des réseaux sociaux ;
3. Une amélioration de l’expérience client grâce au monitoring et à l’analyse des parcours client.
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
Si la dimension « AGILITÉ » est bien maîtrisée par les concepteurs – développeurs, ce n’est pas forcément le cas pour les utilisateurs, les MOA et la gouvernance informatique qui sont souvent restés dans une approche Cycle en « V » avec des logiques de planning et de budget forfaitaire …
Comment « Conjuguer une agilité pour tous » et « donner une visibilité à la gouvernance » c’est ce que nous tenterons de traiter ce Mercredi 1er Février 2012 à travers des constats opérationnels et des pistes de progrès mises en oeuvre ou envisagées pour chacune des dimensions …
Ces pistes passent par l’identification du périmètre éligible à l’agilité avec des concepts empruntés ou utilisés dans l’A.E (Architecture d’Entreprise), dans les approches « Lean-Six Sigma » , dans la mesure de la complexité (HALSTEAD), dans les architectures orientées service (SOA), la notion de risque et patrimoine (valeur ajoutée) pour la Gouvernance, etc …
Ingénieur Informaticien-Génie Logiciel, Christophe Battu a 35 ans d’expérience dans le pilotage de projets et le management de service informatique (Développement, Exploitation) dans les métiers de l’industrie, de l’énergie, du fiscal et de la retraite.
Comment integrer les applications de votre Systeme Information entre elles ?Stéphane Traumat
Cette présentation détaille les solutions et les méthodes existantes pour améliorer votre système d'information en intégrant l'ensemble des applications que vous utilisez.
Les trois grands type d'intégration seront abordés :
• Intégration par les données: données stockées et données mobiles: XML et applications aux services.
• Intégration par la présentation: portails et agrégation de contenus.
• Intégration par les processus: modèles de processus, architectures de services (SOA).
Workshop IA : supercalculateur pour booster vos projets par GENCIStéphanie Roger
Simuler le changement climatique, étudier des matériaux, affiner des algorithmes... nécessitent de puissants outils de calcul. C'est ce que propose GENCI, le Grand équipement national de calcul intensif, qui permet aux entreprises, industriels et chercheurs d’accéder à des supercalculateurs pour leurs travaux de pointe exigeant une puissance de calcul intensif.
Intégrateur expérimenté de solutions métiers et
de projets de dématérialisation : capture et
GED, Atol CD développe aujourd'hui une offre
RPA (Robotic Process Automatisation).
Créée en 2000, ATOL CD est une entreprise de services numériques (ESN) à la philosophie et aux valeurs fortes :
l’agilité et l’implication métier au service des projets, la mutualisation et l’open-source comme accélérateurs, l’humain, l’expertise technique & fonctionnelle pour un partenariat sur le long terme.
Intégrateur de Drupal 7, nous vous donnons dans cette infographie, 7 bonnes raisons de choisir ce CMS. Nous préconisons en effet cet outil à nos clients pour son core solide, sa flexibilité, la possibilité de personnalisation et l’administration encore une fois flexible et personnalisable.
Habituellement, nous abordons dans nos infographies un sujet technique ou un sujet d’actualité. Nous avons déjà évoqué des thèmes comme le RGPD, la BI open source ou encore l’interopérabilité GED / CMS. Ce mois-ci, nous avions envie de partager nos valeurs, notre culture d’entreprise : engagement, excellence technique, agilité et co-construction.
Dans cet objectif d’excellence technique, Atol CD s’est doté d’un réseau d’experts en interne, le Lead Tech Squad (LTS), relais de la direction technique au cœur de chaque équipe.
Avec 130 collaborateurs et 30 recrutements prévus cette année encore, le LTS a pour mission de favoriser les échanges et l’entraide dans et entre les équipes mais surtout de garantir à nos clients la pérennité et la cohérence des choix technologiques avec comme objectif la qualité logicielle des applications livrées.
Atol Cd a développé un module pour permettre le classement automatisé de documents déposés en GED par des utilisateurs depuis leur poste de travail, depuis des scanners et multifonctions pouvant être étendu à d’autres flux numériques
(applications tierces, email).
Charles-Henry Vagner, architecte logiciel chez Atol CD a animé un webinar en octobre sur le thème "Bien démarrer avec l'API de GeoServer". Au cours de sa conférence, il a abordé les points suivants : rappel rapide de l’organisation de GeoServer : workspaces, datastores, layers, styles, etc., principes de base de l’API REST, les cas d’usages : API REST vs interface web d’administration, quelques exemples d’exploitation de l’API (REMOcRA, STEA, etc.)
Démonstration (usages cURL ou via une interface applicative)
Atol CD a développé un module d'administration déléguée dans Alfresco à destination des administrateurs fonctionnels permettant de déléguer uniquement certaines tâches d’administration fonctionnelle, sans donner un accès à l’interface Alfresco “Outils admin”.
Retrouvez dans cette infographie les nouveautés 2018 concernant la dématérialisation des marchés publics (acheteurs et candidats) et notamment les dispositions qui seront effectives au 1er octobre 2018. En deuxième partie, nous vous présentons les modules Alfresco by Atol CD permettant de répondre aux obligations de dématérialisation.
Un outil de formalisation et de suivi de sa demande d’achat tout au long du processus de validation jusqu’à la signature du bon de commande par les responsables.
Depuis 2017, Atol Conseils et Développements apporte les évolutions nécessaires pour le maintien de WebRSA, la solution complète de gestion du Revenu de Solidarité Active (RSA) développée initialement par Libriciel Scop à destination des conseils départementaux et de leurs partenaires.
Parce que nous maîtrisons parfaitement l'architecture technique des solutions que nous créons, nous proposons à nos clients de gérer l'hébergement de leurs applications.
Atol Conseils et Développements réalise des solutions cartographiques personnalisées en s'appuyant sur des composants open source SIG reconnus : Openlayers, Geoserver, PostGIS, Geotools, JTS, Geosource...
Dans cette infographie, nous rappelons les chiffres-clé importants (les relations administration/entreprises représentent environ 95 millions de factures/an dont 54 millions pour les collectivités), les pays européens déjà engagés dans cette démarche, ... Nous abordons également les enjeux de la facturation électronique sur le plan financier et sur le plan du développement durable notamment. Le Ministère des Finances estime à 31M€ le gain pour les collectivités et 121M€ pour la sphère publique et les entreprises.
L'informatique décisionnelle open source regroupe l'ensemble des solutions et techniques liées au décisionnel et dont le modèle de mise en oeuvre repose sur l'open source. Dans cette infographie nous répondons aux questions : Pourquoi choisir la BI open source et quelle(s) plateforme(s) choisir en fonction de ses usages.
Atol CD a développé le module Suggest Box pour Alfresco pour définir et administrer simplement une liste de valeurs pour certaines métadonnées Alfresco.
SuggestBox permet également l’autocomplétion pour l’usage de la métadonnée dans un formulaire.
Chaîne de dématérialisation des actes : Atol CD a développé des modules qui permettent de traiter automatiquement les actes exportés dans la GED Alfresco pour les stocker et les rendre facilement consultables.
Atol CD a développé un connecteur entre la GED Alfresco et le iParapheur Libriciel permettant notamment d'envoyer un document de la GED en signature, choisir le circuit de signature du iParapheur, suivre le parcours du dossier dans le circuit du iParapheur, réceptionner le document signé dans la GED, ...
Atol CD a développé un module permettant d'offrir une vue globale de l'ensemble des processus mis en oeuvre et d'afficher l'ensemble des tâches pour tous les workflows d'un site collaboratif Alfresco.
Partenaire d'Alfresco, Kofax et Ephesoft, Atol CD vous propose une offre de capture documentaire en parfait complément pour vos projets de dématérialisation. Nous mettons à votre disposition une plateforme unique et complète de capture et de gestion de l'information qui répond aux besoins d'optimisation des traitements quelque soit la nature du flux.
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
2. Gevrey-Chambertin Lyon
Atol C&D
Une Entreprise de Services Numériques aux valeurs fortes
La parallélisation au service de l'optimisation
Paris
3. ● Un soupçon de marketing
● Une requête parallélisée quésaco ?
● Configuration
● Tests et benchmark
● Limitations
● Oui mais demain ?
Plan
4. La mutualisation et l’open-source comme accélérateurs
L’expertise technique & fonctionnelle pour un
partenariat sur le long terme
#notre fierté
Créée en 2000, Atol Conseils et Développements est une
entreprise de services numériques (ESN) à la philosophie et
aux valeurs fortes :
« La fidélité de nos clients et de nos collaborateurs »
L’humain au coeur de notre démarche en prenant le
parti de la confiance, de l’autonomie, de la
collaboration
L’agilité et l’implication métier au service des projets
Notre philosophie
5. Nous travaillons pour améliorer les processus de nos
clients, nos travaux doivent être porteur de valeur
ajoutée.
La digitalisation des processus métiers que nous
proposons est centrée sur l’utilisateur final
#notre différenciation
Pour que la transformation digitale ne soit pas un vain mot :
« la culture d’entreprise au service
des enjeux métiers de nos clients »
Nos réalisations sont guidées par une exigence de
qualité, et l’imbrication des phases Conseils &
Développements
Notre excellence technique est au service des besoins
fonctionnels
Vocation
6. Nos expertises
★ Intégration Alfresco / Kofax
★ Développement de composants et modules Alfresco
★ Accompagnement et réalisation de stratégie de dématérialisation
★ Solutions Big Data, reporting, tableaux de bord, analytics
★ Intégration de solutions Pentaho, Talend, Jaspersoft
★ Projets BI au forfait et développement de modules spécifiques
Informatique décisionnelle BI
Dématérialisation
★ Intégration et échange de données spatialisées
★ Traitement et diffusion d’informations géographiques
★ Extranet cartographique et solutions mobiles
Cartographie et SIG
★ Supervision industrielle
★ Solutions de traçabilité (codes, NFC,...)
★ Smart building (bâtiments intelligents)
Solutions industrielles
#02
#03
#04
#06
★ Intranet / extranet (interactions applications métiers)
★ Ergonomie / design / graphisme
★ Responsive design (terminaux tablettes et mobiles)
Communication digitale et CMS#05
★ Développement d’applications Web et Mobiles clés en main
★ Savoir-faire en termes d’intégration métier, d’ingénierie et d’innovation
★ Forte maîtrise technologique des standards d’architecture et de frameworks de haut niveau
Applications métiers#01
7. 100 collaborateurs
Expertise et Agilité
R&D > 10%
Une volonté de capitaliser sur l’humain et les retours
d’expériences de nos collaborateurs
UX & UI : des applications adaptées à leurs
utilisateurs
L’implication métier, la passion, le plaisir
Des solutions Open Source de référence
Un engagement sur la durée avec nos
collaborateurs, nos clients
La recette d’Atol C&D
9. ● Pourquoi la parallélisation ?
○ Demande importante de la communauté
○ PostgreSQL étant multi-processus
○ Mais le traitement d’une requête ne se faisait que sur un coeur.
○ Machines actuelles multi-processeur, multi-core
○ Optimiser l’usage des CPU pour les traitements volumineux
Gevrey-Chambertin Paris Lyon
Une requête parallélisée quésaco ?
10. ● La possibilité d'utiliser plusieurs processeurs dans une même requête
Gevrey-Chambertin Paris Lyon
Une requête parallélisée quésaco ?
11. ● Introduite à partir de PostgreSQL 9.6
● Étendue dans PostgreSQL 10
● Exemple d’explain :
Finalize GroupAggregate (cost=205500443.23..205653007.95 rows=10120 width=13)
Output: aoc.id, sum(st_area(st_intersection(parcelle_graphique.geom, aoc.geom)))
Group Key: aoc.id
-> Gather Merge (cost=205500443.23..205652603.15 rows=60720 width=13)
Output: aoc.id, (PARTIAL sum(st_area(st_intersection(parcelle_graphique.geom, aoc.geom))))
Workers Planned: 6
-> Partial GroupAggregate (cost=205499443.13..205644223.34 rows=10120 width=13)
Output: aoc.id, PARTIAL sum(st_area(st_intersection(parcelle_graphique.geom, aoc.geom)))
Group Key: aoc.id
-> Sort (cost=205499443.13..205509777.34 rows=4133686 width=37578)
Output: aoc.id, parcelle_graphique.geom, aoc.geom
Sort Key: aoc.id
-> Nested Loop (cost=0.15..5786566.76 rows=4133686 width=37578)
Output: aoc.id, parcelle_graphique.geom, aoc.geom
-> Parallel Seq Scan on public.parcelle_graphique (cost=0.00..585203.59 rows=1555559 width=436)
Output: parcelle_graphique.gid, parcelle_graphique.id_parcel, parcelle_graphique.surf_parc, ...
-> Index Scan using aoc_geom_gist on public.aoc (cost=0.15..3.33 rows=1 width=37142)
Output: aoc.gid, aoc.id, aoc.new_insee, aoc.new_nomcom, aoc.old_insee, aoc.old_nomcom, ...
Index Cond: (parcelle_graphique.geom && aoc.geom)
Filter: _st_intersects(parcelle_graphique.geom, aoc.geom)
Gevrey-Chambertin Paris Lyon
Une requête parallélisée quésaco ?
13. ● Agrégations (>= 9.6)
○ COUNT, SUM, AVG...
● Gather Merge (>= 10)
● Requêtes préparées (>= 10)
● Sous-requêtes non-corrélées (>= 10)
○ pas de lien entre la requête principale et la sous-requête
Gevrey-Chambertin Paris Lyon
Qu’est-ce qui est parallélisable ?
15. Ces paramètres permettent de configurer le nombre de processus lancés pour une
requête.
● max_worker_processes : le nombre maximum de “worker” accepté par le
système. (nécessite redémarrage). (valeur par défaut 8)
● max_parallel_workers_per_gather : le nombre maximum de “worker” utilisable
par une requête unitaire. (valeur par défaut 2)
● max_parallel_workers : le nombre maximum de “worker” que le système peut
supporter pour le besoin des requêtes parallèles. (valeur par défaut 8)
Gevrey-Chambertin Paris Lyon
postgresql.conf
16. Ces paramètres sont utilisés pour affiner le planificateur et l'exécution.
● parallel_setup_cost : le coût estimé par l'optimiseur pour le lancement de
processus de travail parallèle. (1000)
● parallel_tuple_cost : le coût estimé par l'optimiseur pour le transfert d'une ligne
d'un processus de travail parallèle à un autre. (0.1)
● min_parallel_table_scan_size (min_parallel_relation_size < v10): la quantité
minimale de données de la table qui doit être parcourue pour qu'un parcours
parallèle soit envisagé. (8Mo)
● min_parallel_index_scan_size : la quantité minimale de données d'index qui
doit être parcourue pour qu'un parcours parallèle soit envisagé. (512Ko)
Gevrey-Chambertin Paris Lyon
postgresql.conf
17. ● force_parallel_mode : force la parallélisation de toutes les requêtes qui sont
parallélisables même si aucune amélioration des performances n'est attendue.
(valeur par défaut off)
● effective_io_concurrency : certaines plates-formes et configurations
matérielles permettent un nombre d'opérations d'entrées/sorties disque
concurrentes. Valeurs de 1 (pour un disque magnétiques) à ~ 100 (pour un
disque SSD). (valeur par défaut 1)
● dynamic_shared_memory_type : ne doit pas être à none pour pouvoir
bénéficier de la parallélisation (valeur par défaut posix)
Gevrey-Chambertin Paris Lyon
postgresql.conf
18. ● Lors de l'exécution d'un plan parallélisé, vous pouvez utiliser EXPLAIN
(ANALYZE, VERBOSE) qui affichera des statistiques par worker pour chaque
nœud du plan.
● Avant d'exécuter des tests, assurez-vous des paramètres définis
○ show max_worker_processes;
○ show max_parallel_workers;
○ show max_parallel_workers_per_gather;
● Surveiller l’utilisation de la mémoire pour l’augmenter si nécessaire
Gevrey-Chambertin Paris Lyon
Conseils
20. ● Jeu de données
○ parcelle_graphique ≈ 9,3 Millions de polygons
○ ilot_anonyme ≈ 6 Millions de polygons
○ aoc ≈ 10 000 polygons
● en base
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
21. Un exemple simple :
EXPLAIN (ANALYZE, VERBOSE) avec un max_parallel_workers_per_gather à 0 :
Aggregate (cost=623577.00..623577.01 rows=1 width=8) (actual time=5444.837..5444.837 rows=1 loops=1)
Output: sum(st_area(geom))
-> Seq Scan on public.ilot_anonyme (cost=0.00..460821.00 rows=5918400 width=504) (actual time=0.054..1725.377 rows=5917105 loops=1)
Output: gid, id_ilot, geom
Planning time: 0.064 ms
Execution time: 5444.874 ms
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
22. EXPLAIN (ANALYZE, VERBOSE) avec max_parallel_workers_per_gather à 6 :
Finalize Aggregate (cost=439627.62..439627.64 rows=1 width=8) (actual time=1096.213..1096.213 rows=1 loops=1)
Output: sum(st_area(geom))
-> Gather (cost=439627.00..439627.61 rows=6 width=8) (actual time=1096.199..1096.208 rows=7 loops=1)
Output: (PARTIAL sum(st_area(geom)))
Workers Planned: 6
Workers Launched: 6
-> Partial Aggregate (cost=438627.00..438627.01 rows=1 width=8) (actual time=1029.654..1029.654 rows=1 loops=7)
Output: PARTIAL sum(st_area(geom))
Worker 0: actual time=1035.893..1035.893 rows=1 loops=1
Worker 1: actual time=992.789..992.789 rows=1 loops=1
Worker 2: actual time=1022.518..1022.518 rows=1 loops=1
Worker 3: actual time=1035.967..1035.968 rows=1 loops=1
Worker 4: actual time=991.995..991.995 rows=1 loops=1
Worker 5: actual time=1032.541..1032.541 rows=1 loops=1
-> Parallel Seq Scan on public.ilot_anonyme (cost=0.00..411501.00 rows=986400 width=504) (actual time=0.041..378.870 rows=845301 loops=7)
Output: geom
Worker 0: actual time=0.041..379.164 rows=821097 loops=1
Worker 1: actual time=0.040..372.814 rows=929841 loops=1
Worker 2: actual time=0.044..375.300 rows=805536 loops=1
Worker 3: actual time=0.036..374.706 rows=803943 loops=1
Worker 4: actual time=0.044..367.221 rows=680105 loops=1
Worker 5: actual time=0.036..391.315 rows=920618 loops=1
Planning time: 0.075 ms
Execution time: 1100.445 ms
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
24. Un exemple toujours aussi simple mais avec plus de données :
EXPLAIN (ANALYZE, VERBOSE) avec un max_parallel_workers_per_gather à 0 :
Aggregate (cost=919676.79..919676.80 rows=1 width=8) (actual time=8420.606..8420.606 rows=1 loops=1)
Output: sum(st_area(geom))
-> Seq Scan on public.parcelle_graphique (cost=0.00..662989.01 rows=9334101 width=437) (actual time=0.152..2546.782 rows=9334043 loops=1)
Output: gid, id_parcel, surf_parc, code_cultu, code_group, culture_d1, culture_d2, geom
Planning time: 0.075 ms
Execution time: 8420.668 ms
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
25. EXPLAIN (ANALYZE, VERBOSE) avec max_parallel_workers_per_gather à 6 :
Finalize Aggregate (cost=628986.77..628986.78 rows=1 width=8) (actual time=1577.563..1577.563 rows=1 loops=1)
Output: sum(st_area(geom))
-> Gather (cost=628986.15..628986.76 rows=6 width=8) (actual time=1577.527..1577.558 rows=7 loops=1)
Output: (PARTIAL sum(st_area(geom)))
Workers Planned: 6
Workers Launched: 6
-> Partial Aggregate (cost=627986.15..627986.16 rows=1 width=8) (actual time=1514.344..1514.344 rows=1 loops=7)
Output: PARTIAL sum(st_area(geom))
Worker 0: actual time=1474.994..1474.995 rows=1 loops=1
Worker 1: actual time=1514.595..1514.595 rows=1 loops=1
Worker 2: actual time=1498.626..1498.626 rows=1 loops=1
Worker 3: actual time=1510.358..1510.359 rows=1 loops=1
Worker 4: actual time=1510.342..1510.342 rows=1 loops=1
Worker 5: actual time=1514.598..1514.598 rows=1 loops=1
-> Parallel Seq Scan on public.parcelle_graphique (cost=0.00..585204.83 rows=1555684 width=437) (actual time=0.061..602.278 rows=1333435 loops=7)
Output: geom
Worker 0: actual time=0.079..586.473 rows=1307875 loops=1
Worker 1: actual time=0.037..595.167 rows=1283376 loops=1
Worker 2: actual time=0.035..594.982 rows=1319317 loops=1
Worker 3: actual time=0.039..605.230 rows=1396481 loops=1
Worker 4: actual time=0.035..598.716 rows=1284232 loops=1
Worker 5: actual time=0.042..608.295 rows=1328479 loops=1
Planning time: 0.136 ms
Execution time: 1582.120 ms
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
27. Un exemple toujours aussi simple mais avec peu de données :
EXPLAIN (ANALYZE, VERBOSE) avec un max_parallel_workers_per_gather à 0 :
Aggregate (cost=2545.50..2545.51 rows=1 width=8) (actual time=1636.101..1636.101 rows=1 loops=1)
Output: sum(st_area(geom))
-> Seq Scan on public.aoc (cost=0.00..2267.20 rows=10120 width=45163) (actual time=0.008..5.131 rows=10120 loops=1)
Output: gid, id, new_insee, new_nomcom, old_insee, old_nomcom, type_ig, id_app, appellatio, id_denom, denominati, crinao, geom
Planning time: 0.053 ms
Execution time: 1636.137 ms
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
28. EXPLAIN (ANALYZE, VERBOSE) avec max_parallel_workers_per_gather à 6 :
Aggregate (cost=2545.50..2545.51 rows=1 width=8) (actual time=1614.455..1614.455 rows=1 loops=1)
Output: sum(st_area(geom))
-> Seq Scan on public.aoc (cost=0.00..2267.20 rows=10120 width=45163) (actual time=0.009..4.756 rows=10120 loops=1)
Output: gid, id, new_insee, new_nomcom, old_insee, old_nomcom, type_ig, id_app, appellatio, id_denom, denominati, crinao, geom
Planning time: 0.063 ms
Execution time: 1614.493 ms
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
29. Pas de parallélisation ?
● peu de données par rapport au coût de lancer la parallélisation
○ celle-ci n’est donc pas planifiée
● forcer une valeur plus basse dans la configuration ?
(parallel_setup_cost ? min_parallel_table_scan_size)
○ optimiser l’optimisateur en prod ?
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
30. Et enfin un dernier exemple un peu plus complexe :
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
32. ● On n’a pas le temps d’exécution…
○ pourtant le serveur essaye :
● La création d’un index Gist est alors surtout beaucoup plus profitable ;)
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
33. ● La parallélisation apporte dans des cas un vrai gain de performance MAIS
○ Ne pas oublier les bonnes pratiques pour autant !
■ Structurer sa base de données
■ Use The Index, Luke !
■ Exploitez la richesse du SQL (CTE, windows function, LATERAL,...)
Gevrey-Chambertin Paris Lyon
Tests et Benchmark
35. ● pas de parallélisation sur les INSERT/UPDATE/DELETE et CTE en écriture
● pas de parallélisation si la requête est exécutée à l'intérieur d'une autre
requête qui est déjà parallélisée.
● pas de parallélisation sur les opérations de maintenance (CREATE INDEX,
VACUUM, ANALYZE).
● pas de parallélisation si utilisation de DISTINCT, ORDER BY sur les fonctions
d’agrégat
● pas de parallélisation si utilisation de GROUPING SETS
● pas de parallélisation sur l’utilisation de curseur et boucle PL/pgsql
Gevrey-Chambertin Paris Lyon
Limitations
36. ● Si aucun background worker ne peut être obtenu dû à la limite de
max_worker_processes
● Si aucun background worker ne peut être obtenu dû à la limite de
max_parallel_workers
● Si la requête contient quoi que ce soit non sûr à paralléliser
● La parallélisation est restreinte si :
○ Parcours de CTE
○ Parcours de table temporaires
○ Parcours de tables externes (sauf IsForeignScanParallelSafe)
○ Accès à un InitPlan ou à un SubPlan corrélé
Gevrey-Chambertin Paris Lyon
Restrictions
37. Agrégations et fonctions :
définition de PARALLEL { UNSAFE | RESTRICTED | SAFE }
● Parallel Unsafe
○ la fonction ne peut pas être exécutée dans une requête parallèle
● Parallel Restricted
○ l'exécution est restreinte au processus principal d'exécution
● Parallel Safe
○ la fonction s'exécute correctement dans une requête parallèle
Gevrey-Chambertin Paris Lyon
Sécurité sur la parallélisation
39. ● Création d'index B-tree en parallèle
● Parallélisation des UNION ALL
● Parallel hash join (paralléliser le remplissage d’une seule table de hachage,
partagée)
● Parallélisation sur la création de :
○ vue matérialisée
○ table à partir des résultats d'une requête
Gevrey-Chambertin Paris Lyon
Postgres 11
40. A bientôt
Gevrey-Chambertin (siège)
ZAE Les Terres d’Or
Route de St philibert
21 220 Gevrey-Chambertin
Atolcd Paris
32 avenue de la République
75 001 Paris
Atolcd Lyon
11 rue de la République
69 001 Lyon
Contact
Tél : 03 80 68 81 68
Courriel : contact@atolcd.com
Web : www.atolcd.com
suivez-nous @ATOLCD sur Twitter, Linkedin, Youtube