PyConFR 2015 : Utiliser salt pour tester son infrastructure sur open stack ou...Arthur Lutz
Comment utiliser Salt (outil en python pour la gestion d'infrastructure, gestion de conf centralisé mais aussi exécution à distance et orchestrateur) pour tester des bouts de son infrastructure (ses applications n-tiers) dans un environnement "bac-à-sable", en machines virtuelles sur un cloud privé (OpenStack, en python!), soit en conteneurs (LXC ou docker). Le tout versionné avec du mercurial.
Salt conf 2014 - Using SaltStack in high availability environmentsBenjamin Cane
This document discusses best practices for using SaltStack in high availability environments. It recommends automating processes like system builds, configurations, application installations and updates to replace manual human processes that often cause downtime. Specific techniques covered include using pillars to define server configurations, templates to deploy consistent configuration files, scripts to install third-party applications, and automatically running states on a schedule while staggering restarts across servers. It cautions that automatic state runs may not always be appropriate and recommends using test runs to validate changes.
Utiliser salt pour tester son infrastructure sur open stack ou dockerLogilab
Vous pouvez accéder à cette présentation sur ce lien : http://slides.logilab.fr/2015/poss2015_salt-docker/#/
Configurer et orchestrer son infrastructure avec un outil de gestion de configuration centralisée tel que Salt comporte de nombreux avantages.
La conservation et l'historisation des fichers de configuration dans un entrepôt de source geré par un DVCS (mercurial ou git) en fait partie.
Salt permet ensuite de faire évoluer son infrastructure en la testant dans des environements isolés. Une fois la description complète, reproduire une partie de son infrastructure de production sur un environnement virtualisé tel qu'un cloud
privé (OpenStack) devient possible et automatisable avec
*salt-cloud*. L'étape suivante est de pouvoir reproduire des portions de son infrastructure dans des conteneurs légers tels que docker ou lxc directement sur son portable. Pour cela, le pilotage de docker par salt et les fonctionnalités d'orchestration de salt permettent une agilité sans précédent.
Il s'agit d'un bon complément pour le TDI : Test Driven Infrastructure. L'infrastructure est testée en mode "intégration continue" et on peut tester et débugger une partie de l'infrastructure en mode "bac à sable".
Ce modèle peut ensuite être décliné avec l'utilisation des branches dans git ou mercurial où certaines branches vont être appliquées à la partie production de l'infrastructure alors que d'autres sont appliqués a la préproduction ou aux environnements docker ou lxc en local.
Salt est un outil de gestion de configuration centralisé généralement utilisé pour configurer et orchestrer son infrastructure système en bénéficiant de la conservation et de l'historisation des fichiers de configuration dans un entrepôt source géré par mercurial ou git. Toutefois, les possibilités offertes par Salt vont beaucoup plus loin. Une fois la description Salt de l'infrastructure de production terminée, il est possible d'en reproduire automatiquement tout ou partie
avec salt-cloud dans un environnement virtualisé (cloud privé OpenStack) et ainsi de pouvoir mener des tests. En allant plus loin, il est possible de reproduire des portions d'infrastructure dans des conteneurs légers (docker, lxc) et de travailler directement sur son ordinateur portable.
Les fonctionnalités d'orchestration de Salt et son pilotage de docker amènent une agilité sans précédent dans ce processus de travail.
Dans le modèle décrit ci-dessus, excellent complément du TDI (Test-Driven Infrastructure), l'infrastructure est testée et déboguée en mode "bac à sable" puis déployée selon un mécanisme automatisé d'intégration continue. Le modèle peut être décliné en utilisant des branches dans l’entrepôt source de Salt et en choisissant quelles branches sont appliquées
à l'infrastructure en production, en pré-production ou en test dans les environnements locaux (docker, lxc). Des mécanismes de relecture et de validation peuvent alors être mis en œuvre.
PyConFR 2015 : Utiliser salt pour tester son infrastructure sur open stack ou...Arthur Lutz
Comment utiliser Salt (outil en python pour la gestion d'infrastructure, gestion de conf centralisé mais aussi exécution à distance et orchestrateur) pour tester des bouts de son infrastructure (ses applications n-tiers) dans un environnement "bac-à-sable", en machines virtuelles sur un cloud privé (OpenStack, en python!), soit en conteneurs (LXC ou docker). Le tout versionné avec du mercurial.
Salt conf 2014 - Using SaltStack in high availability environmentsBenjamin Cane
This document discusses best practices for using SaltStack in high availability environments. It recommends automating processes like system builds, configurations, application installations and updates to replace manual human processes that often cause downtime. Specific techniques covered include using pillars to define server configurations, templates to deploy consistent configuration files, scripts to install third-party applications, and automatically running states on a schedule while staggering restarts across servers. It cautions that automatic state runs may not always be appropriate and recommends using test runs to validate changes.
Utiliser salt pour tester son infrastructure sur open stack ou dockerLogilab
Vous pouvez accéder à cette présentation sur ce lien : http://slides.logilab.fr/2015/poss2015_salt-docker/#/
Configurer et orchestrer son infrastructure avec un outil de gestion de configuration centralisée tel que Salt comporte de nombreux avantages.
La conservation et l'historisation des fichers de configuration dans un entrepôt de source geré par un DVCS (mercurial ou git) en fait partie.
Salt permet ensuite de faire évoluer son infrastructure en la testant dans des environements isolés. Une fois la description complète, reproduire une partie de son infrastructure de production sur un environnement virtualisé tel qu'un cloud
privé (OpenStack) devient possible et automatisable avec
*salt-cloud*. L'étape suivante est de pouvoir reproduire des portions de son infrastructure dans des conteneurs légers tels que docker ou lxc directement sur son portable. Pour cela, le pilotage de docker par salt et les fonctionnalités d'orchestration de salt permettent une agilité sans précédent.
Il s'agit d'un bon complément pour le TDI : Test Driven Infrastructure. L'infrastructure est testée en mode "intégration continue" et on peut tester et débugger une partie de l'infrastructure en mode "bac à sable".
Ce modèle peut ensuite être décliné avec l'utilisation des branches dans git ou mercurial où certaines branches vont être appliquées à la partie production de l'infrastructure alors que d'autres sont appliqués a la préproduction ou aux environnements docker ou lxc en local.
Salt est un outil de gestion de configuration centralisé généralement utilisé pour configurer et orchestrer son infrastructure système en bénéficiant de la conservation et de l'historisation des fichiers de configuration dans un entrepôt source géré par mercurial ou git. Toutefois, les possibilités offertes par Salt vont beaucoup plus loin. Une fois la description Salt de l'infrastructure de production terminée, il est possible d'en reproduire automatiquement tout ou partie
avec salt-cloud dans un environnement virtualisé (cloud privé OpenStack) et ainsi de pouvoir mener des tests. En allant plus loin, il est possible de reproduire des portions d'infrastructure dans des conteneurs légers (docker, lxc) et de travailler directement sur son ordinateur portable.
Les fonctionnalités d'orchestration de Salt et son pilotage de docker amènent une agilité sans précédent dans ce processus de travail.
Dans le modèle décrit ci-dessus, excellent complément du TDI (Test-Driven Infrastructure), l'infrastructure est testée et déboguée en mode "bac à sable" puis déployée selon un mécanisme automatisé d'intégration continue. Le modèle peut être décliné en utilisant des branches dans l’entrepôt source de Salt et en choisissant quelles branches sont appliquées
à l'infrastructure en production, en pré-production ou en test dans les environnements locaux (docker, lxc). Des mécanismes de relecture et de validation peuvent alors être mis en œuvre.
SaltConf14 - Matthew Williams, Flowroute - Salt Virt for Linux contatiners an...SaltStack
This SaltConf14 talk by Matthew Williams of Flowroute shows the power of Salt Virt and Runner for creating and managing VMs and Linux containers. A demonstration of the Salt lxc module shows the simplicity with which containers and VMs can be created and configured.
Configuration management is the process of standardizing and enforcing resource configurations across IT infrastructure in an automated way. An example is setting a policy that the SNMP service must be installed and running. This can be defined using YAML and specifying that the net-snmp package must be installed and the SNMP daemon service must be enabled and running. Jinja templating allows variables like the location and contact details to be set using pillar data and different configurations to be set based on the operating system grains. States can then be applied to nodes using Salt functions to configure systems according to the defined policies and pillars in an automated and consistent manner.
Salt Air 19 - Intro to SaltStack RAET (reliable asyncronous event transport)SaltStack
Thomas Hatch, SaltStack CTO, and Sam Smith, SaltStack director of product development, introduce SaltStack RAET as a new alternative transport medium developed specifically with SaltStack infrastructure automation and configuration management in mind. SaltStack built RAET for customers needing substantial speed and scale to automate management of massive data center infrastructure environments.
SaltStack RAET is primarily an async communication layer over truly async connections, defaulting to UDP. The SaltStack RAET system uses CurveCP encryption by default. SaltStack users can now leverage substantial flexibility via either Salt SSH, ØMQ, or RAET to best address numerous use cases.
A user's perspective on SaltStack and other configuration management toolsSaltStack
Aurelien Geron uses SaltStack to manage a few VMs running Django web apps based on a sharded mongodb cluster. He had struggled with another configuration management tool for months but then read about Saltstack and decided to try it out. For Aurelien SaltStack just works, it's plain and simple, powerful, configurable and ultra-fast. This is his presentation.
Docker nous permet de déployer nos applications dans des conteneurs. Du coup notre infrastructure se retrouve divisée dans différents conteneurs, un pour la base de données, un pour le front, un pour le backend. Voir même une division en services lorsque l’on est dans une approche micro-services.
Mais comment faire communiquer ces différents conteneurs? Comment orchestrer un cluster de conteneurs? Kubernetes est une réponse à ces questions.
Integration testing for salt states using aws ec2 container serviceSaltStack
A SaltConf16 use case talk by Steven Braverman of Dun & Bradstreet. Testing configuration changes for multiple server roles can be time consuming when real instances or legacy container systems are used. Applying configuration changes to each role in parallel can be difficult. So what's the best way to test configuration changes efficiently, quickly, and securely prior to applying them? See how an integrated test setup using AWS EC2 Container Service (ECS), AWS AutoScaling Group, and SaltStack simplifies the application of configuration changes and allows you to test configuration changes in parallel to reduce the time spent testing.
DevoxxFR 2015 Talk http://cfp.devoxx.fr/2015/talk/WXY-1157/Scaling_Docker_with_Kubernetes
Kubernetes is an open source project to manage a cluster of Linux containers as a single system, managing and running Docker containers across multiple Docker hosts, offering co-location of containers, service discovery and replication control. It was started by Google and now it is supported by Microsoft, RedHat, IBM and Docker Inc amongst others.
Once you are using Docker containers the next question is how to scale and start containers across multiple Docker hosts, balancing the containers across them. Kubernetes also adds a higher level API to define how containers are logically grouped, allowing to define pools of containers, load balancing and affinity.
WSO2Con US 2015 Kubernetes: a platform for automating deployment, scaling, an...Brian Grant
Kubernetes can run application containers on clusters of physical or virtual machines.
It can also do much more than that.
Kubernetes satisfies a number of common needs of applications running in production, such as co-locating helper processes, mounting storage systems, distributing secrets, application health checking, replicating application instances, horizontal auto-scaling, load balancing, rolling updates, and resource monitoring.
However, even though Kubernetes provides a lot of functionality, there are always new scenarios that would benefit from new features. Ad hoc orchestration that is acceptable initially often requires robust automation at scale. Application-specific workflows can be streamlined to accelerate developer velocity.
This is why Kubernetes was also designed to serve as a platform for building an ecosystem of components and tools to make it easier to deploy, scale, and manage applications. The Kubernetes control plane is built upon the same APIs that are available to developers and users, implementing resilient control loops that continuously drive the current state towards the desired state. This design has enabled Apache Stratos and a number of other Platform as a Service and Continuous Integration and Deployment systems to build atop Kubernetes.
This presentation introduces Kubernetes’s core primitives, shows how some of its better known features are built on them, and introduces some of the new capabilities that are being added.
Kubernetes Architecture and Introduction – Paris Kubernetes MeetupStefan Schimanski
The document provides an overview of Kubernetes architecture and introduces how to deploy Kubernetes clusters on different platforms like Mesosphere's DCOS, Google Container Engine, and Mesos/Docker. It discusses the core components of Kubernetes including the API server, scheduler, controller manager and kubelet. It also demonstrates how to interact with Kubernetes using kubectl and view cluster state.
Traditional virtualization technologies have been used by cloud infrastructure providers for many years in providing isolated environments for hosting applications. These technologies make use of full-blown operating system images for creating virtual machines (VMs). According to this architecture, each VM needs its own guest operating system to run application processes. More recently, with the introduction of the Docker project, the Linux Container (LXC) virtualization technology became popular and attracted the attention. Unlike VMs, containers do not need a dedicated guest operating system for providing OS-level isolation, rather they can provide the same level of isolation on top of a single operating system instance.
An enterprise application may need to run a server cluster to handle high request volumes. Running an entire server cluster on Docker containers, on a single Docker host could introduce the risk of single point of failure. Google started a project called Kubernetes to solve this problem. Kubernetes provides a cluster of Docker hosts for managing Docker containers in a clustered environment. It provides an API on top of Docker API for managing docker containers on multiple Docker hosts with many more features.
Este documento describe la historia del concepto de demencia desde la antigua Roma hasta el siglo XIX. Explica cómo el término "demencia" evolucionó de significar locura a referirse a trastornos cognitivos adquiridos, y cómo en el siglo XIX se estableció la distinción entre demencia y retraso mental. También destaca hitos como la atribución de las demencias seniles a lesiones cerebrales y la visión de las demencias como enfermedades neurodegenerativas.
La civilización de la India se desarrolló en el valle del río Indo y Ganges en el sur de Asia entre el 2500 a.C. y 1500 a.C. Los primeros habitantes fueron los dravidas que establecieron una sociedad organizada en castas definidas por el nacimiento. En el 1500 a.C. los arios invadieron la región e impusieron su cultura e idioma, estableciendo el sistema de castas y las religiones del hinduismo y budismo.
Este documento habla sobre la amenaza de los virus informáticos y la necesidad de educar a las personas sobre cómo protegerse y combatirlos. Explica que muchos no saben cómo manejar un virus una vez que ha infectado su computadora o cómo protegerla, y que después de que un virus daña sus archivos se dan cuenta de que no es algo sin importancia. Por eso, el autor creó un manual sencillo pero efectivo para que la gente aprenda sobre virus y antivirus y pueda solucionar problemas sin necesidad de ayuda experta.
Monitoring applicatif : Pourquoi et comment ?Kenny Dits
Vous êtes développeur, chef de projet technique ou même responsable et vous souhaitez avoir de la visibilité sur le fonctionnement de vos applicatifs, ou sur la plateforme sur laquelle ils sont hébergés ?
Nous étudierons comment, grâce à des outils simples (StatD / Graphite / Log BDD) et nos expériences chez M6Web, mettre en place un monitoring applicatif ultra complet.
Ce monitoring vous permettra de retrouver la vue sur vos projets, pour mieux anticiper la charge, detecter la root cause en cas d'incident et connaitre l'état de chacun de vos services ...
SaltConf14 - Matthew Williams, Flowroute - Salt Virt for Linux contatiners an...SaltStack
This SaltConf14 talk by Matthew Williams of Flowroute shows the power of Salt Virt and Runner for creating and managing VMs and Linux containers. A demonstration of the Salt lxc module shows the simplicity with which containers and VMs can be created and configured.
Configuration management is the process of standardizing and enforcing resource configurations across IT infrastructure in an automated way. An example is setting a policy that the SNMP service must be installed and running. This can be defined using YAML and specifying that the net-snmp package must be installed and the SNMP daemon service must be enabled and running. Jinja templating allows variables like the location and contact details to be set using pillar data and different configurations to be set based on the operating system grains. States can then be applied to nodes using Salt functions to configure systems according to the defined policies and pillars in an automated and consistent manner.
Salt Air 19 - Intro to SaltStack RAET (reliable asyncronous event transport)SaltStack
Thomas Hatch, SaltStack CTO, and Sam Smith, SaltStack director of product development, introduce SaltStack RAET as a new alternative transport medium developed specifically with SaltStack infrastructure automation and configuration management in mind. SaltStack built RAET for customers needing substantial speed and scale to automate management of massive data center infrastructure environments.
SaltStack RAET is primarily an async communication layer over truly async connections, defaulting to UDP. The SaltStack RAET system uses CurveCP encryption by default. SaltStack users can now leverage substantial flexibility via either Salt SSH, ØMQ, or RAET to best address numerous use cases.
A user's perspective on SaltStack and other configuration management toolsSaltStack
Aurelien Geron uses SaltStack to manage a few VMs running Django web apps based on a sharded mongodb cluster. He had struggled with another configuration management tool for months but then read about Saltstack and decided to try it out. For Aurelien SaltStack just works, it's plain and simple, powerful, configurable and ultra-fast. This is his presentation.
Docker nous permet de déployer nos applications dans des conteneurs. Du coup notre infrastructure se retrouve divisée dans différents conteneurs, un pour la base de données, un pour le front, un pour le backend. Voir même une division en services lorsque l’on est dans une approche micro-services.
Mais comment faire communiquer ces différents conteneurs? Comment orchestrer un cluster de conteneurs? Kubernetes est une réponse à ces questions.
Integration testing for salt states using aws ec2 container serviceSaltStack
A SaltConf16 use case talk by Steven Braverman of Dun & Bradstreet. Testing configuration changes for multiple server roles can be time consuming when real instances or legacy container systems are used. Applying configuration changes to each role in parallel can be difficult. So what's the best way to test configuration changes efficiently, quickly, and securely prior to applying them? See how an integrated test setup using AWS EC2 Container Service (ECS), AWS AutoScaling Group, and SaltStack simplifies the application of configuration changes and allows you to test configuration changes in parallel to reduce the time spent testing.
DevoxxFR 2015 Talk http://cfp.devoxx.fr/2015/talk/WXY-1157/Scaling_Docker_with_Kubernetes
Kubernetes is an open source project to manage a cluster of Linux containers as a single system, managing and running Docker containers across multiple Docker hosts, offering co-location of containers, service discovery and replication control. It was started by Google and now it is supported by Microsoft, RedHat, IBM and Docker Inc amongst others.
Once you are using Docker containers the next question is how to scale and start containers across multiple Docker hosts, balancing the containers across them. Kubernetes also adds a higher level API to define how containers are logically grouped, allowing to define pools of containers, load balancing and affinity.
WSO2Con US 2015 Kubernetes: a platform for automating deployment, scaling, an...Brian Grant
Kubernetes can run application containers on clusters of physical or virtual machines.
It can also do much more than that.
Kubernetes satisfies a number of common needs of applications running in production, such as co-locating helper processes, mounting storage systems, distributing secrets, application health checking, replicating application instances, horizontal auto-scaling, load balancing, rolling updates, and resource monitoring.
However, even though Kubernetes provides a lot of functionality, there are always new scenarios that would benefit from new features. Ad hoc orchestration that is acceptable initially often requires robust automation at scale. Application-specific workflows can be streamlined to accelerate developer velocity.
This is why Kubernetes was also designed to serve as a platform for building an ecosystem of components and tools to make it easier to deploy, scale, and manage applications. The Kubernetes control plane is built upon the same APIs that are available to developers and users, implementing resilient control loops that continuously drive the current state towards the desired state. This design has enabled Apache Stratos and a number of other Platform as a Service and Continuous Integration and Deployment systems to build atop Kubernetes.
This presentation introduces Kubernetes’s core primitives, shows how some of its better known features are built on them, and introduces some of the new capabilities that are being added.
Kubernetes Architecture and Introduction – Paris Kubernetes MeetupStefan Schimanski
The document provides an overview of Kubernetes architecture and introduces how to deploy Kubernetes clusters on different platforms like Mesosphere's DCOS, Google Container Engine, and Mesos/Docker. It discusses the core components of Kubernetes including the API server, scheduler, controller manager and kubelet. It also demonstrates how to interact with Kubernetes using kubectl and view cluster state.
Traditional virtualization technologies have been used by cloud infrastructure providers for many years in providing isolated environments for hosting applications. These technologies make use of full-blown operating system images for creating virtual machines (VMs). According to this architecture, each VM needs its own guest operating system to run application processes. More recently, with the introduction of the Docker project, the Linux Container (LXC) virtualization technology became popular and attracted the attention. Unlike VMs, containers do not need a dedicated guest operating system for providing OS-level isolation, rather they can provide the same level of isolation on top of a single operating system instance.
An enterprise application may need to run a server cluster to handle high request volumes. Running an entire server cluster on Docker containers, on a single Docker host could introduce the risk of single point of failure. Google started a project called Kubernetes to solve this problem. Kubernetes provides a cluster of Docker hosts for managing Docker containers in a clustered environment. It provides an API on top of Docker API for managing docker containers on multiple Docker hosts with many more features.
Este documento describe la historia del concepto de demencia desde la antigua Roma hasta el siglo XIX. Explica cómo el término "demencia" evolucionó de significar locura a referirse a trastornos cognitivos adquiridos, y cómo en el siglo XIX se estableció la distinción entre demencia y retraso mental. También destaca hitos como la atribución de las demencias seniles a lesiones cerebrales y la visión de las demencias como enfermedades neurodegenerativas.
La civilización de la India se desarrolló en el valle del río Indo y Ganges en el sur de Asia entre el 2500 a.C. y 1500 a.C. Los primeros habitantes fueron los dravidas que establecieron una sociedad organizada en castas definidas por el nacimiento. En el 1500 a.C. los arios invadieron la región e impusieron su cultura e idioma, estableciendo el sistema de castas y las religiones del hinduismo y budismo.
Este documento habla sobre la amenaza de los virus informáticos y la necesidad de educar a las personas sobre cómo protegerse y combatirlos. Explica que muchos no saben cómo manejar un virus una vez que ha infectado su computadora o cómo protegerla, y que después de que un virus daña sus archivos se dan cuenta de que no es algo sin importancia. Por eso, el autor creó un manual sencillo pero efectivo para que la gente aprenda sobre virus y antivirus y pueda solucionar problemas sin necesidad de ayuda experta.
Monitoring applicatif : Pourquoi et comment ?Kenny Dits
Vous êtes développeur, chef de projet technique ou même responsable et vous souhaitez avoir de la visibilité sur le fonctionnement de vos applicatifs, ou sur la plateforme sur laquelle ils sont hébergés ?
Nous étudierons comment, grâce à des outils simples (StatD / Graphite / Log BDD) et nos expériences chez M6Web, mettre en place un monitoring applicatif ultra complet.
Ce monitoring vous permettra de retrouver la vue sur vos projets, pour mieux anticiper la charge, detecter la root cause en cas d'incident et connaitre l'état de chacun de vos services ...
Au cours de cette session, nous plongerons avec vous dans le quotidien d’une startup qui vient de se lancer sur le Net.
Alors que les premiers utilisateurs affluent vers ses serveurs, l’équipe se retrouve confrontée à ses premiers problèmes de performance. Le prix du succès… ! Nous verrons avec eux comment simuler une arrivée massive d’utilisateurs pour “stresser” leur plateforme. Nous utiliserons les outils d’APM pour monitorer les serveurs et applications Java mais aussi évaluer l’expérience utilisateur. Enfin, nous proposerons une démarche et des outils pour tester la performance en continue.
Avec de nombreuses démos en live, cette session en français s’adresse aux développeurs, architectes et décideurs sur les projets IT.
Animé avec Landry DEFO KUATE (OCTO)
Avant d'entamer un chantier de performance Web, il convient de mettre en place du monitoring.
En particulier si vous voulez gérer sur le long terme la qualité, si vous avez beaucoup de sites et de pages à gérer.
Cette présentation est tirée d'un retour d'expérience d'installation de monitoring spécialisé en performance Web, avec des logiciels gratuits, et un serveur peu cher.
Mises à jour logicielles en environnement Linux Embarqué, petit guide et tour...Pierre-jean Texier
Longtemps basées sur des solutions "maison", il existe maintenant grâce à l'évolution du marché de "l'IoT", des solutions open source pour répondre à la complexité qu'est la gestion des mises à jour sur un système Linux Embarqué. Cette conférence commencera par présenter les différentes problématiques liées aux mises à jour dans un tel environnement : - accès physique, - sécurité, - downtime, - les composants à mettre à jour, - les différentes stratégies, - ...
Le Query Store, nouvelle fonctionnalité intégrée à SQL Server 2016, facilite grandement la vie du DBA en stockant des informations historiques sur les exécutions de requêtes. Nous montrerons dans cette session des cas concrets d'usage pour l'analyse et la résolution de problèmes de performance.
Capacity Planning : Pratiques et outils pour regarder la foudre tomber sans p...Normandy JUG
Un petit tour des pratiques et outils de capacity planning. Graphite, JMX Trans, JMeter (sans frein à main), et leurs amis Amazon EC2, jenkins, VisualVM … Et en bonus la basic-web-perf application pour tester votre infrastructure à blanc !
L’université de la performance vous fera découvrir comment concevoir la plus grosse fonctionnalité implicite d’une application: Sa performance.
Pour cela nous vous proposerons une démarche en trois étapes: - Connaître les différents types de tests de charge et savoir quand les utiliser - Mettre en place un test de charge et des outils nécessaires pour le monitoring - Savoir identifier et optimiser les différents goulets d’étranglement de l’application
Le tout mis en pratique sur une application réelle.
Remplacer un SI existant par un nouvel outil basé sur l'état de l'art (Symfony CMF, ElasticSearch, RabbitMQ, Docker, Backbone.js) sans reculer sans cesse la mise en production, c'est une question d'agilité. Concevoir l'architecture, découvrir des stratégies de migration partielle, investir dans des systèmes de synchronisation, partager l'avancée d'un projet avec tous, former les équipes au nouvel outil, accompagner les changements dans l'organisation de l'entreprise, voici quelques recettes de migration continue illustrées par le cas du CMS de 20Minutes.fr.
Analyse de logs SEO : pour qui, pour quoi, comment ?Julien Deneuville
Conférence du 20 février 2016 au SEO Campus de Nantes.
En quoi consiste l'analyse de logs pour le SEO ?
A qui cela s'adresse-t-il ?
Comment s'y prendre ?
Quelles analyses effectuer, et comment réagir ?
Plus d'infos : http://blog.1-clic.info/referencement/analyse-de-logs-seocampus-nantes/
Similaire à Générer des stats sur son infra salt (20)
This document provides tips and recommendations for customizing and improving the terminal environment. It discusses options for terminal emulators, shells, shell improvements like Powerline, tools for viewing files and system information like htop and dstat, version control with Mercurial, email clients like mutt and neomutt, hex viewers like hexyl, and miscellaneous commands. Links are provided for many of the tools mentioned to learn more. The goal is to give "colors to your terminal" and enhance the terminal experience.
Capitole du Libre 2018 - Déployer des applications python dans un cluster Ope...Arthur Lutz
Quelles sont les particularités et les avantages pour pouvoir livrer des application web python dans un cluster OpenShift (qui a du Kubernetes en dessous). Nous verrons le mécanismes suivants : * s2image (source to image) dans openshift : comment construire l'application simplement avec un requirements.txt et du WSGI standard * Comment livrer du django avec Postgresql * Comment livrer une application CubicWeb * Les mécanismes de sécurité associés * Les URL automatiques pour tester des contributions ou des branches nommées * Parallèles avec repo2docker https://github.com/jupyter/repo2docker Nous exposerons aussi les avantages et inconvénients de déployer des applications web python sur un cluster type openshift ou kubernetes. https://www.openshift.org/ https://kubernetes.io/ https://github.com/openshift/source-to-image
PyParis2018 - Python tooling for continuous deploymentArthur Lutz
How we migrated the build and deploy processes to a continuous delivery model, and the implications of such a change in terms of technology
but also team changes and the project management with the client. This talk will focus on the Python tooling that enabled to conduct such a
change, but also on the human changes it requires.
* changes in infrastucture, in particular, the use of python softare : docker-compose and saltstack
* tools for collecting errors as soon as possible : sentry (django based) and raven (its python library on the client-side)
* tools for continous integration and review : jenkins with the python tool "jenkins-job-builder", and the python based version control "mercurial"
* tools for metrics and supervision: graphite-api (python rewrite of graphite which ships with django), and saltstack for collecting custom business-oriented metrics from python script
* integrating the projects with cloud infrastructure, using python-nova, python-openstack and salt-cloud (openstack and AWS)
* change management in the team of developpers and the project management with the final users and project managers
Pyconfr2018 deploy des application python dans un cluster open shiftArthur Lutz
Mirroir de https://hackmd.logilab.org/p/SyvJeHmcX#/
Quelles sont les particularités et les avantages pour pouvoir livrer des applications web python dans un cluster OpenShift (qui a du Kubernetes en dessous).
Nous verrons les mécanismes suivants :
s2image (source to image Docker) dans openshift : comment construire l'application simplement avec un requirements.txt et du WSGI
Comment livrer du django avec Postgresql
Comment livrer une application CubicWeb
Les mécanismes de sécurités associés
Les URL automatiques pour tester des contributions ou des branches nommées
Parallèles avec repo2docker de l’écosystème jupyter https://github.com/jupyter/repo2docker
Nous exposerons aussi les avantages et inconvénients de déployer des applications web python sur un cluster type openshift ou kubernetes.
Une présentation interactive sur :
• netdata pour la collecte et la visualisation de la métrologie https://my-netdata.io/
• sensu pour la supervision https://sensuapp.org/
Le tout en mode "on monte une infra en live/atelier"...
Mirroir de : http://slides.logilab.fr/2018/meetup_monitoring_sensu_netdata.pdf
Meetup Python Nantes - les tests en pythonArthur Lutz
Au programme :
• introduction aux tests unittaires
• lancer les tests : unittest de base, py.test, nose, pytest, etc.
• tox pour lancer les test dans des virtualenvs
• l'intégration continue avec python (jenkins, travis, etc.)
• les tests en prod : healthchecks au cœur de l'application
Python Nantes Meetup - Collecter les erreurs avec SentryArthur Lutz
Mirroir de http://slides.logilab.fr/2016/meetup_python_nantes_sentry/
Python Nantes Meetup mai 2016
Utiliser sentry pour collecter les erreurs / tracebacks python (et autres).
Collecter les erreurs de description d'infrastructure avec Salt et SentryArthur Lutz
Mirroir de la présentation http://slides.logilab.fr/2016/collecte_d_erreurs_salt_avec_sentry/
Collecter les erreurs de "infrastructure as code" avec sentry
cfgmgmtcamp 2016 - Roll out active Supervision with Salt, Graphite and GrafanaArthur Lutz
mirror of self-hosted slides http://slides.logilab.fr/2016/cfgmgmtcamp_salt_active_supervision/
Having difficulties with passively testing your infrastructure with old-school supervision software ? Reverse the trend by doing active checks automated by Salt reusing Nagios checks and Munin plugins, collect them in Graphite and explore them by building graphs in Grafana, finally define alerts with tools like Graphite-beacon or Cabot. Adopt Salt and its flexibility, modularity and event bus that will add software glue between your existing applications and help you scale them. This presentation will be looking at how to solve some scalability issues in monitoring and migrating from traditional tools to newer tools while keeping existing developments.
FOSDEM 2016 - After describing your infrastructure as code, reuse that to mon...Arthur Lutz
This document discusses the architecture of a system that uses SaltStack for configuration management. It includes a Salt master that manages Salt minions on agent-less servers. The master also sends data to Graphite for monitoring via returners like Munin, which collect metrics from applications and services like Apache, Postgres, and system load averages.
Salt Paris meetup - décembre 2015 - La supervision pilotée par Salt avec carb...Arthur Lutz
mirror of self-hosted HTML slides http://slides.logilab.fr/2015/salted_graphite_grafana/
Arthur Lutz a présenté une démo dans des docker (lancés par docker-compose) en montant une architecture frontal+application+base de données et en supervisant le tout avec Salt. Les résultats de la supervision sont stockés dans un graphite (bases temporelles whisper) et des tableaux de bord sont construits en utilisant grafana. La démo est disponible dans un dépôt mercurial sur bitbucket (salt_graphite_grafana).
Debian meetup nantes 2015 : Salt pour gérer de nombreux serveurs debianArthur Lutz
The document discusses a Debian meetup in Nantes, France in October 2015. It introduces Salt, an open source configuration management system. It provides an overview of Salt including its architecture of a Salt master and Salt minions. It then gives examples of using Salt to install Apache2, upgrade systems, configure cron jobs, manage sudo access, orchestrate commands across multiple servers, and act as a reactor to events.
Pyconfr2015 : Marre de faire du C++ sur une Arduino ? Faites du Python avec M...Arthur Lutz
Introduction et démo de MicroPython sur une PyBoard.
MicroPython est une implémentation de Python3.4 pour microcontrôleurs (principalement la PyBoard carte en OpenHardware).
Venez faire clignoter des LEDs et bouger des moteurs directement depuis le prompt python !
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...OCTO Technology
par Claude Camus (Coach agile d'organisation @OCTO Technology) et Gilles Masy (Organizational Coach @OCTO Technology)
Les équipes infrastructure, sécurité, production, ou cloud, doivent consacrer du temps à la modernisation de leurs outils (automatisation, cloud, etc) et de leurs pratiques (DevOps, SRE, etc). Dans le même temps, elles doivent répondre à une avalanche croissante de demandes, tout en maintenant un niveau de qualité de service optimal.
Habitué des environnements développeurs, les transformations agiles négligent les particularités des équipes OPS. Lors de ce comptoir, nous vous partagerons notre proposition de valeur de l'agilité@OPS, qui embarquera vos équipes OPS en Classe Business (Agility), et leur fera dire : "nous ne reviendrons pas en arrière".
OCTO TALKS : 4 Tech Trends du Software Engineering.pdfOCTO Technology
En cette année 2024 qui s’annonce sous le signe de la complexité, avec :
- L’explosion de la Gen AI
-Un contexte socio-économique sous tensions
- De forts enjeux sur le Sustainable et la régulation IT
- Une archipélisation des lieux de travail post-Covid
Découvrez les Tech trends incontournables pour délivrer vos produits stratégiques.
OCTO TALKS : 4 Tech Trends du Software Engineering.pdf
Générer des stats sur son infra salt
1. Générer des stats sur son infra Salt
• Arthur Lutz (Logilab) @arthurlutz
Diapos : http://slides.logilab.fr/salt-meetup-stats/
1
2. Problématique
• Plus de 60 serveurs gérés par Salt
• Plus de 5000 states en production
• Pas de state.highstate automatique
• Des états qui génèrent des states à appliquer
• par exemple, ajouter un minion à notre master nécessite ensuite
d'aller appliquer des highstates sur d'autres minions
2
3. Ce qu'on veut
• Identifier les zones de notre infrastructure qui nécessitent des
modifications
• Garder une distance courte entre l'état souhaité et l'état appliqué
• Intégrer ces métriques dans nos outils
3
4. On va toucher à
• Runners
• Outputters
• Schedulers
• Intégration à un logiciel tiers (munin)
• Returners (pas fini)
4
9. Intégration munin
• 1ere version: le plugin munin lance le salt-runner et utilise le JSON
• 2ème version: scheduler salt + traitement du json produit par le plugin
munin
9
11. Bon points
• Liste de discussion réactive
• Code source facile à lire
• Réactifs sur les rapports de bugs
11
12. Code source
• https://bitbucket.org/arthurlogilab/salt-highstate-stats
• Contributions bienvenues
• Question ouverte : rester un projet tiers ou demander l'intégration dans
salt
12
13. Futur
• Tris
• par nombre d'états à appliquer
• par état qui génère beaucoup
• Meilleure gestion du cache
• Output en couleur
• Progress bar
• Histogrammes curses avec sparkl
• Sonde nagios/shinken
13
14. Fin
• Des questions ?
• Des feature requests ?
• Des patches ?
Arthur Lutz (Logilab) @arthurlutz
14