HUGFR : Une infrastructure Kafka & Storm pour lutter contre les attaques DDoS...Modern Data Stack France
Presentation d'OVH lors du Hadoop User Group du 6 octobre à Paris.
• Talk #4: Une infrastructure Kafka & Storm pour lutter contre les attaques DDoS en temps-réel par Steven Le Roux de la société OVH.
http://hugfrance.fr/hug_paris_6_oct_cloudera/
HUGFR : Une infrastructure Kafka & Storm pour lutter contre les attaques DDoS...Modern Data Stack France
Presentation d'OVH lors du Hadoop User Group du 6 octobre à Paris.
• Talk #4: Une infrastructure Kafka & Storm pour lutter contre les attaques DDoS en temps-réel par Steven Le Roux de la société OVH.
http://hugfrance.fr/hug_paris_6_oct_cloudera/
Kafka Connect allows data ingestion into Kafka from external systems by using connectors. It provides scalability, fault tolerance, and exactly-once semantics. Connectors are run as tasks within workers that can run in either standalone or distributed mode. The Schema Registry works with Kafka Connect to handle schema validation and evolution.
Docker Tours Meetup #1 - Introduction à DockerThibaut Marmin
Slides de l'introduction à Docker présentée par Thibaut Marmin et Antoine Boudot lors du premier Docker Tours Meetup (@DockerTours).
Présentation en trois parties :
- Introduction Docker (classique)
- Cas pratique en DEV
- Cas pratique en PROD
http://www.meetup.com/fr/Docker-Tours
DC/OS: The definitive platform for modern appsDatio Big Data
DC/OS is an open source platform that provides container orchestration and management using Mesos. It allows running applications and services across data center infrastructure including bare metal, VMs, and cloud. DC/OS provides services like Marathon for container orchestration, security, monitoring, load balancing and service discovery. It has features like high resource utilization, mixed workload support, elastic scalability, high availability and zero downtime upgrades.
Cette présentation à pour but d'expliquer à des néophites les avantages du framework PHP Symfony.
Elle m'a servit en entreprise pour expliquer ses concepts complexe à des non-informaticiens.
Hadoop meetup : HUGFR Construire le cluster le plus rapide pour l'analyse des...Modern Data Stack France
Construire le cluster le plus rapide pour l'analyse des datas : benchmarks sur un régresseur par Christopher Bourez (Axa Global Direct)
Les toutes dernières technologies de calcul parallèle permettent de calculer des modèles de prédiction sur des big datas en des temps records. Avec le cloud est facilité l'accès à des configurations hardware modernes avec la possibilité d'une scalabilité éphémère durant les calculs. Des benchmarks sont réalisés sur plusieurs configuration hardware, allant de 1 instance à un cluster de 100 instances.
Christopher Bourez, développeur & manager expert en systèmes d'information modernes chez Axa Global Direct. Alien thinker. Blog : http://christopher5106.github.io/
Paris Spark Meetup (Feb2015) ccarbone : SPARK Streaming vs Storm / MLLib / Ne...Cedric CARBONE
Présentation de la technologie Spark et exemple de nouveaux cas métiers pouvant être traités par du BigData temps réel par Cédric Carbone
-Spark vs Hadoop MapReduce (& Hadoop v2 vs Hadoop v1)
-Spark Streaming vs Storm
-Le Machine Learning avec Spark
-Use case métier : NextProductToBuy
This document discusses the Cassandra Spark Connector. It provides an overview of the connector's architecture, how it handles data locality, and its core API. The connector exposes Cassandra tables as Spark RDDs and supports reading from and writing to Cassandra from Spark. It uses the Java driver underneath and maps Cassandra rows and types to their Scala equivalents. The connector aims to optimize for data locality by matching Spark partitions to Cassandra token ranges.
The document discusses Apache Kafka and provides an introduction to key concepts like consumer groups, producer/consumer APIs, and throughput guarantees. It explains how Kafka can be used for both queuing and publish-subscribe models using consumer groups. Code examples are given for Kafka producers and consumers in Scala and Java along with throughput benchmarks showing Kafka's ability to support millions of messages per second.
Kafka Connect: Real-time Data Integration at Scale with Apache Kafka, Ewen Ch...confluent
Many companies are adopting Apache Kafka to power their data pipelines, including LinkedIn, Netflix, and Airbnb. Kafka’s ability to handle high throughput real-time data makes it a perfect fit for solving the data integration problem, acting as the common buffer for all your data and bridging the gap between streaming and batch systems.
However, building a data pipeline around Kafka today can be challenging because it requires combining a wide variety of tools to collect data from disparate data systems. One tool streams updates from your database to Kafka, another imports logs, and yet another exports to HDFS. As a result, building a data pipeline can take significant engineering effort and has high operational overhead because all these different tools require ongoing monitoring and maintenance. Additionally, some of the tools are simply a poor fit for the job: the fragmented nature of the data integration tools ecosystem lead to creative but misguided solutions such as misusing stream processing frameworks for data integration purposes.
We describe the design and implementation of Kafka Connect, Kafka’s new tool for scalable, fault-tolerant data import and export. First we’ll discuss some existing tools in the space and why they fall short when applied to data integration at large scale. Next, we will explore Kafka Connect’s design and how it compares to systems with similar goals, discussing key design decisions that trade off between ease of use for connector developers, operational complexity, and reuse of existing connectors. Finally, we’ll discuss how standardizing on Kafka Connect can ultimately lead to simplifying your entire data pipeline, making ETL into your data warehouse and enabling stream processing applications as simple as adding another Kafka connector.
eventbrite_kafka_summit_event_logo_v3-035858-edited.png
In this presentation we describe the design and implementation of Kafka Connect, Kafka’s new tool for scalable, fault-tolerant data import and export. First we’ll discuss some existing tools in the space and why they fall short when applied to data integration at large scale. Next, we will explore Kafka Connect’s design and how it compares to systems with similar goals, discussing key design decisions that trade off between ease of use for connector developers, operational complexity, and reuse of existing connectors. Finally, we’ll discuss how standardizing on Kafka Connect can ultimately lead to simplifying your entire data pipeline, making ETL into your data warehouse and enabling stream processing applications as simple as adding another Kafka connector.
It covers a brief introduction to Apache Kafka Connect, giving insights about its benefits,use cases, motivation behind building Kafka Connect.And also a short discussion on its architecture.
Apache Kafka is an open-source message broker project developed by the Apache Software Foundation written in Scala. The project aims to provide a unified, high-throughput, low-latency platform for handling real-time data feeds.
This is the first part of the presentation.
Here is the 2nd part of this presentation:-
http://www.slideshare.net/knoldus/introduction-to-apache-kafka-part-2
Orchestrez vos projets Symfony sans fausses notesXavier Gorse
Retour d'expériences sur tout le processus d'ingénierie logicielle de projets Symfony que nous avons construits au fil du temps depuis nos premiers projets en 2006. Nous aborderons toutes les phases de l'industrialisation nous ayant permis d'accroître la qualité et la réactivité d’intervention sur les projets
Created at the University of Berkeley in California, Apache Spark combines a distributed computing system through computer clusters with a simple and elegant way of writing programs. Spark is considered the first open source software that makes distribution programming really accessible to data scientists. Here you can find an introduction and basic concepts.
Dans un contexte d’entreprise souvent perçu comme rigide, envisager des changements techniques et organisationnels peut sembler impossible. DevOps est un bon contre-exemple car il existe des façons progressives d’introduire une telle méthodologie à plusieurs niveaux de l’entreprise. Cette session revient sur les principes de bases de DevOps (infrastructure-as-code, continuous delivery, culture de collaboration) et leur application pas-à-pas dans différents contextes.
Realtime Web avec Akka, Kafka, Spark et Mesos - Devoxx Paris 2014Ippon
Ce talk est un retour d’expérience sur la mise en œuvre de Spark et Streaming Spark. Nous aborderons :
La collecte des données à la volée dans l’application Web avec Akka
La séparation des producteurs et consommateurs avec Kafka
La transformation des données avec Spark et Streaming Spark
Le déploiement sur un cluster avec Apache Mesos
Elastic search
Moteur de recherche
Crée en 2010 par Shay Banon
Basé sur Apache Lucene (+multi-nodes)
Développé en Java
Open source (Licence Apache)
La société a été crée en 2012
La version courante est 2.0
Site officiel: https://www.elastic.co/
Le cache côté client, le cache côté serveurs et leur impact sur le SEO et l'expérience utilisateur. Conférence effectuée lors du SEOCamp'us Paris 2017 avec Benoit Chevillot de Divioseo
Alphorm.com Support de la Formation PromoxVE 4.xAlphorm
Formation complète ici :
http://www.alphorm.com/tutoriel/formation-en-ligne-proxmox-ve-4-1
Cette formation pratique vous permettra d'acquérir les connaissances et compétences nécessaires pour configurer et gérer un environnement virtualisé OpenSource.
Toutefois, des connaissances sur les OS et des notions sur le réseau, le stockage sont recommandés, mais pas indispensables.
Durant ce cours et en se basant sur ses longues années d'expériences Ludovic Quenec'hdu, vous apprendra comment configurer administrer et également saisir les enjeux de la virtualisation libres, ainsi que de vous fournir des lignes directrices aux bonne pratiques qui vous aideront à optimiser votre déploiement de serveur Proxmox.
Il vous donnera les éléments pour bien démarrer et mettre en œuvre un projet de virtualisation libre.
Kafka Connect allows data ingestion into Kafka from external systems by using connectors. It provides scalability, fault tolerance, and exactly-once semantics. Connectors are run as tasks within workers that can run in either standalone or distributed mode. The Schema Registry works with Kafka Connect to handle schema validation and evolution.
Docker Tours Meetup #1 - Introduction à DockerThibaut Marmin
Slides de l'introduction à Docker présentée par Thibaut Marmin et Antoine Boudot lors du premier Docker Tours Meetup (@DockerTours).
Présentation en trois parties :
- Introduction Docker (classique)
- Cas pratique en DEV
- Cas pratique en PROD
http://www.meetup.com/fr/Docker-Tours
DC/OS: The definitive platform for modern appsDatio Big Data
DC/OS is an open source platform that provides container orchestration and management using Mesos. It allows running applications and services across data center infrastructure including bare metal, VMs, and cloud. DC/OS provides services like Marathon for container orchestration, security, monitoring, load balancing and service discovery. It has features like high resource utilization, mixed workload support, elastic scalability, high availability and zero downtime upgrades.
Cette présentation à pour but d'expliquer à des néophites les avantages du framework PHP Symfony.
Elle m'a servit en entreprise pour expliquer ses concepts complexe à des non-informaticiens.
Hadoop meetup : HUGFR Construire le cluster le plus rapide pour l'analyse des...Modern Data Stack France
Construire le cluster le plus rapide pour l'analyse des datas : benchmarks sur un régresseur par Christopher Bourez (Axa Global Direct)
Les toutes dernières technologies de calcul parallèle permettent de calculer des modèles de prédiction sur des big datas en des temps records. Avec le cloud est facilité l'accès à des configurations hardware modernes avec la possibilité d'une scalabilité éphémère durant les calculs. Des benchmarks sont réalisés sur plusieurs configuration hardware, allant de 1 instance à un cluster de 100 instances.
Christopher Bourez, développeur & manager expert en systèmes d'information modernes chez Axa Global Direct. Alien thinker. Blog : http://christopher5106.github.io/
Paris Spark Meetup (Feb2015) ccarbone : SPARK Streaming vs Storm / MLLib / Ne...Cedric CARBONE
Présentation de la technologie Spark et exemple de nouveaux cas métiers pouvant être traités par du BigData temps réel par Cédric Carbone
-Spark vs Hadoop MapReduce (& Hadoop v2 vs Hadoop v1)
-Spark Streaming vs Storm
-Le Machine Learning avec Spark
-Use case métier : NextProductToBuy
This document discusses the Cassandra Spark Connector. It provides an overview of the connector's architecture, how it handles data locality, and its core API. The connector exposes Cassandra tables as Spark RDDs and supports reading from and writing to Cassandra from Spark. It uses the Java driver underneath and maps Cassandra rows and types to their Scala equivalents. The connector aims to optimize for data locality by matching Spark partitions to Cassandra token ranges.
The document discusses Apache Kafka and provides an introduction to key concepts like consumer groups, producer/consumer APIs, and throughput guarantees. It explains how Kafka can be used for both queuing and publish-subscribe models using consumer groups. Code examples are given for Kafka producers and consumers in Scala and Java along with throughput benchmarks showing Kafka's ability to support millions of messages per second.
Kafka Connect: Real-time Data Integration at Scale with Apache Kafka, Ewen Ch...confluent
Many companies are adopting Apache Kafka to power their data pipelines, including LinkedIn, Netflix, and Airbnb. Kafka’s ability to handle high throughput real-time data makes it a perfect fit for solving the data integration problem, acting as the common buffer for all your data and bridging the gap between streaming and batch systems.
However, building a data pipeline around Kafka today can be challenging because it requires combining a wide variety of tools to collect data from disparate data systems. One tool streams updates from your database to Kafka, another imports logs, and yet another exports to HDFS. As a result, building a data pipeline can take significant engineering effort and has high operational overhead because all these different tools require ongoing monitoring and maintenance. Additionally, some of the tools are simply a poor fit for the job: the fragmented nature of the data integration tools ecosystem lead to creative but misguided solutions such as misusing stream processing frameworks for data integration purposes.
We describe the design and implementation of Kafka Connect, Kafka’s new tool for scalable, fault-tolerant data import and export. First we’ll discuss some existing tools in the space and why they fall short when applied to data integration at large scale. Next, we will explore Kafka Connect’s design and how it compares to systems with similar goals, discussing key design decisions that trade off between ease of use for connector developers, operational complexity, and reuse of existing connectors. Finally, we’ll discuss how standardizing on Kafka Connect can ultimately lead to simplifying your entire data pipeline, making ETL into your data warehouse and enabling stream processing applications as simple as adding another Kafka connector.
eventbrite_kafka_summit_event_logo_v3-035858-edited.png
In this presentation we describe the design and implementation of Kafka Connect, Kafka’s new tool for scalable, fault-tolerant data import and export. First we’ll discuss some existing tools in the space and why they fall short when applied to data integration at large scale. Next, we will explore Kafka Connect’s design and how it compares to systems with similar goals, discussing key design decisions that trade off between ease of use for connector developers, operational complexity, and reuse of existing connectors. Finally, we’ll discuss how standardizing on Kafka Connect can ultimately lead to simplifying your entire data pipeline, making ETL into your data warehouse and enabling stream processing applications as simple as adding another Kafka connector.
It covers a brief introduction to Apache Kafka Connect, giving insights about its benefits,use cases, motivation behind building Kafka Connect.And also a short discussion on its architecture.
Apache Kafka is an open-source message broker project developed by the Apache Software Foundation written in Scala. The project aims to provide a unified, high-throughput, low-latency platform for handling real-time data feeds.
This is the first part of the presentation.
Here is the 2nd part of this presentation:-
http://www.slideshare.net/knoldus/introduction-to-apache-kafka-part-2
Orchestrez vos projets Symfony sans fausses notesXavier Gorse
Retour d'expériences sur tout le processus d'ingénierie logicielle de projets Symfony que nous avons construits au fil du temps depuis nos premiers projets en 2006. Nous aborderons toutes les phases de l'industrialisation nous ayant permis d'accroître la qualité et la réactivité d’intervention sur les projets
Created at the University of Berkeley in California, Apache Spark combines a distributed computing system through computer clusters with a simple and elegant way of writing programs. Spark is considered the first open source software that makes distribution programming really accessible to data scientists. Here you can find an introduction and basic concepts.
Dans un contexte d’entreprise souvent perçu comme rigide, envisager des changements techniques et organisationnels peut sembler impossible. DevOps est un bon contre-exemple car il existe des façons progressives d’introduire une telle méthodologie à plusieurs niveaux de l’entreprise. Cette session revient sur les principes de bases de DevOps (infrastructure-as-code, continuous delivery, culture de collaboration) et leur application pas-à-pas dans différents contextes.
Realtime Web avec Akka, Kafka, Spark et Mesos - Devoxx Paris 2014Ippon
Ce talk est un retour d’expérience sur la mise en œuvre de Spark et Streaming Spark. Nous aborderons :
La collecte des données à la volée dans l’application Web avec Akka
La séparation des producteurs et consommateurs avec Kafka
La transformation des données avec Spark et Streaming Spark
Le déploiement sur un cluster avec Apache Mesos
Elastic search
Moteur de recherche
Crée en 2010 par Shay Banon
Basé sur Apache Lucene (+multi-nodes)
Développé en Java
Open source (Licence Apache)
La société a été crée en 2012
La version courante est 2.0
Site officiel: https://www.elastic.co/
Le cache côté client, le cache côté serveurs et leur impact sur le SEO et l'expérience utilisateur. Conférence effectuée lors du SEOCamp'us Paris 2017 avec Benoit Chevillot de Divioseo
Alphorm.com Support de la Formation PromoxVE 4.xAlphorm
Formation complète ici :
http://www.alphorm.com/tutoriel/formation-en-ligne-proxmox-ve-4-1
Cette formation pratique vous permettra d'acquérir les connaissances et compétences nécessaires pour configurer et gérer un environnement virtualisé OpenSource.
Toutefois, des connaissances sur les OS et des notions sur le réseau, le stockage sont recommandés, mais pas indispensables.
Durant ce cours et en se basant sur ses longues années d'expériences Ludovic Quenec'hdu, vous apprendra comment configurer administrer et également saisir les enjeux de la virtualisation libres, ainsi que de vous fournir des lignes directrices aux bonne pratiques qui vous aideront à optimiser votre déploiement de serveur Proxmox.
Il vous donnera les éléments pour bien démarrer et mettre en œuvre un projet de virtualisation libre.
Les nouveautés de PrestaShop 9 par la team PrestaShop - FoP Day 2023ChristopheVidal15
https://youtu.be/XYoR5kG2gek
Rejoignez l'association pour avoir accès à l'entièreté des conférences du FoP Day 2023 ! : https://friendsofpresta.org/
Dans cette conférence Fabien Vallon (Lead Product Manager Open Source PrestaShop) & Jonathan Lelièvre (Technical Lead Open Source PrestaShop) vous présente les dernières innovations, améliorations et fonctionnalités de PrestaShop.
On vous laisse écouter la conférence présentée en exclusivité par la team Prestashop pour découvrir toutes les nouveautés pour optimiser vos sites e-commerce et rester à la pointe de l'innovation technologique ;)
Retrouvez-nous l'année prochaine pour une 4ème édition du Friends Of Presta Day qui promet d'être encore plus inoubliable ! : https://friendsofpresta.org/
Le ImpressCMS Persistable Framework (IPF) est un framework natif à ImpressCMS 1.1 qui permet le développement facile et rapide de modules pour ajouter des fonctionnalités à ImpressCMS, un système de gestion communauté (Community Management System) libre sous license GPL (http://www.impresscms.org).
Cette présentation démontrera les concepts clés du framemork : L'utilisation du module imBuilding pour créer la base d'un nouveau module en 2 minutes,les fonctionnalités les plus utilisés du IPF soient l'ajout, la suppression et la modification d'objets, l'affichage des objets dans un tableau filtrables et triables, l'exportation des objets en CSV, la gestion des permissions, des notifications et des commentaires, etc...
L'utilisation du ImpressCMS Persistable Framework permet aux développeurs de mettre sur pieds des modules robusteset sécuritaires rapidement. Comme le IPF prend en charge automatiquement 80% des tâches et fonctionnalités répétitives de tous le modules, il permet au développeur de se concentrer sur les spécificités de son module et ainsi développer les fonctionnalités particulières dont il a besoin, sans perdre de temps avec les tâches de bas niveau.
Alphorm.com Support de la Formation Oracle VM AdministrationAlphorm
Formation complète ici :
http://www.alphorm.com/tutoriel/formation-en-ligne-oracle-vm-administration
Cette formation Oracle VM, Administration offre une introduction technique à Oracle VM 3.x, en commençant par les cas d'utilisation et l'expansion pour couvrir la gestion des centres de données entièrement virtualisés utilisant des fonctions de haute disponibilité d'Oracle VM.
Cette formation Oracle VM, Administration vous indique comment construire une plate-forme de virtualisation en utilisant le gestionnaire Oracle VM et Oracle VM Server pour x86 et pour soutenir le déploiement de machines virtuelles hautement configurables, interconnectées.
Grace à cette formation Oracle VM, Administration, la virtualisation Oracle n’aura plus de secret pour vous. Vous apprenez à déployer rapidement les produits Oracle en tant que modèles préconfigurés, prendre des décisions critiques tels que le matériel ou la paravirtualisation, et apprendre à tirer pleinement parti de la gestion, la fiabilité et la disponibilité des outils qui viennent avec Oracle VM.
Durant cette formation Oracle VM, Administration pour les serveurs x86, vous apprendrez les différentes technologies de virtualisation, vous serez capable d’installer, de configurer et d’administrer tous les composants d’un écosystème de virtualisation OracleVM.
Comme à son habitude, Ludovic partagera avec vous toutes les astuces et bonnes pratiques avec plein de travaux pratiques sur l'importation d’une machine virtuelle VMware, la gestion du Server pool à l'aide de Manager Oracle VM, la configuration d’une VM, l’administration et la gestion du cycle de vie.
Alphorm.com Support de la Formation Windows ContainersAlphorm
Formation complète ici :
http://www.alphorm.com/tutoriel/formation-en-ligne-windows-containers-2016-maitrisez-lessentiel
Les conteneurs aujourd’hui tout le monde en parle, mais finalement assez peu de personnes (développeurs, IT) dans l’écosystème Microsoft connaissent, comprennent et utilisent ces nouveaux modes de déploiement.
Les conteneurs constituent l'une des fonctionnalités les plus importantes de Windows Server 2016. Mais elles se classent aussi parmi les plus déconcertantes, et ce pour deux raisons. Tout d'abord, le concept est nouveau pour Windows, même s'il existe depuis longtemps dans le monde de l'OpenSource. Ensuite, Microsoft introduit simultanément deux types différents de conteneurs : les conteneurs Windows Server 2016 et les conteneurs Hyper-V 2016.
Cette formation Windows Container 2016, préparée par votre MVP Seyfallah TAGREROUT, est la première formation en français en ligne qui traite tous les aspects au niveau des containers Windows.
Avec cette formation Windows Container 2016, vous allez commencer de la présentation jusqu’à la mise en œuvre en passant par la création et gestion des Windows Container 2016.
De plus, cette formation Windows Container 2016 permet de se familiariser avec les nouveaux concepts du cloud privé dans lequel on retrouve de l’agilité et rapidité de déploiement de plateforme applicative.
OWASP Québec - Attaques et techniques de défense des sessions Web - par Louis...Patrick Leclerc
Le concept de session est extrêmement important pour permettre aux applications Web de fournir une expérience personnalisée à ses utilisateurs. La session permet à l’utilisateur de ne pas avoir à faire transiger ses informations d’authentification à chaque requête, ce qui serait risqué. Par contre, la (mauvaise) gestion de la session ouvre la porte à plusieurs sortes de menaces. Durant cette présentation, quatre types d’attaques sur les sessions seront présentés ainsi que les bonnes pratiques pour se prémunir de ces problèmes. Entre autres, il sera question de « session hijacking » (différentes variantes), de « session fixation », de « session donation » et de « session puzzling ». D’autres sujets connexes seront aussi abordés comme le temps d’expiration des sessions et les complications liées à l’authentification de type authentification unique.
Alphorm.com Support de la Formation Exchange 2016 Installation et ConfigurationAlphorm
Formation complète ici :
http://www.alphorm.com/tutoriel/formation-en-ligne-exchange-2016-installation-et-configuration
Cette formation Exchange 2016 présente la version la plus récente du serveur de messagerie de Microsoft. Cette version est une évolution d'Exchange 2013 qui avait posé de nouvelles bases solides en termes d'architecture et d'administration.
Les évolutions de Microsoft Exchange Server 2016 visent à rendre accessible sur site les nouveautés déployées au fil des mois sur Office 365. Exchange 2016 offre ainsi de nombreuses nouveautés afin d'en améliorer l'expérience utilisateur, l'interopérabilité avec les autres outils de l'offre de communication unifiée de Microsoft (SharePoint...) tout en offrant plus de flexibilité et en renforçant la protection des messages et la sécurité.
Cette formation Exchange 2016 vous permettra d'acquérir les connaissances et compétences nécessaires pour configurer et gérer un environnement de messagerie sous Microsoft Exchange Server 2016.
Durant cette formation Exchange 2016, Pierre NORMAND vous transmettra un ensemble de base de connaissances, son expérience, ceci dans le but de comprendre et configurer Exchange Server 2016. Il vous transmettra les meilleures pratiques et divers éléments à prendre en compte qui vous aideront à optimiser votre déploiement de serveur Exchange.
En fin de cette formation Exchange 2016, vous obtiendrez également une maquette fonctionnelle d’Exchange 2016.
Cette formation Exchange 2016 apporte une valeur ajoutée à tous ceux qui souhaitent également démarrer leur formation sur l'exploitation et l'administration d'un environnement Exchange 2016 en PowerShell.
Symphonie pour PHP industrialisé en agilité majeureJonathan Bonzy
Présentation pour l'Agile Grenoble 2011
Avoir des millions d'amis, comparer des millions d'offres ou publier des millions de news sont autant d’exemples d’applications écrites en PHP. Ce langage de la “programmation pour les nuls”, qui permet tous les écarts, reste pourtant un choix privilégié pour les solutions web. Avec les bons outils et les bonnes pratiques, ce langage est modulable, testable et facilement livrable. Au travers d’une approche technique montrant par l’exemple quels instruments choisir, découvrez comment jouer la partition d’une symphonie pour PHP industrialisé en agilité majeure.
Au programme:
- Dégager un boilerplate d’un projet PHP ou comment ne pas tout jeter à l’arrivée
- Reprendre la main sur leur projet frontend et avoir une stratégie de refactoring par les tests
“Not only working software, but also well-crafted software” - Manifesto for Software Craftsmanship
4. www.sooyoos.commercredi 27 avril 2016
• Un seul repository pour tout le code
• Split en many repo
• Git subtree split
4
1. changements atomiques de masse facilités
2. Code review
3. Un seul merge
4. Tout est centralisé (pas de gestion des
dépendances)
1. Réutilisable
2. Contrôle d’accès
3. Ci rapide et plus simple
4. Lisibilité
6. www.sooyoos.commercredi 27 avril 2016
• Plus facile d’implémentation que l’authentification précédente
• Moins de dépendances vers des bundles
• Facile à comprendre, à ajouter, à maintenir, à tester
• Documentation Guard sur Symfony : http://symfony.com/doc/current/cookbook/security/guard-
authentication.html
6
8. www.sooyoos.commercredi 27 avril 2016
• Migration de Symfony 2 à Symfony 3 d’une application B2B de LaFourchette
• Durée 1 an
• Modèle de données schema.org
• Pas d’interruption de service
• Pas de doctrine pour l’import de données importantes
• Migration partielle des données : double écriture
• Double API v2 et v3
8
10. www.sooyoos.commercredi 27 avril 2016
• Intro mémoire php : Zval
• Le Garbage collector est déclenché tous les 10k objets pour vider les memory leaks
• Les memory leaks sont générées par les références cycliques (par exemple injection de container
dans un service, car le service appartient au container)
• Extension PHP pour monitorer l’utilisation mémoire MEMINFO
• Démo doctrine import
10
12. www.sooyoos.commercredi 27 avril 2016
• Migration du site CCM d’un framework maison
• Choix de Symfony car plus mature mais plus lent
• La solution : se passer d’ORM (Doctrine)
• Développement de Ting
• CDN type Akamai pour alléger de contenus
• Pas de symlink pour les assets et cache warmup (production)
• ESI pour les fragments HTML récurrents (header/footer)
• Asserts avec blackfire sur les temps de réponse
12
14. www.sooyoos.commercredi 27 avril 2016
• Présentation de l’évolution du Site du zéro vers OpenClassroom
• Gestion en transparence (accès aux données, slack totalement ouvert…)
• Échange de bureaux pour savoir se qui se passe dans le reste de l'entreprise
• Faire les rétrospectives de sprint
• Avoir confiance en ses employés :-)
• 3 piliers de la confiance : Transparence de l’information / Traitement des tensions / Diffusion des
responsabilités.
14
16. www.sooyoos.commercredi 27 avril 2016
• PHP-Fig : groupe de travail garant des PSR
• Peu représentatif (imposés par les grands acteurs)
• Trop bureaucratique
• Mais permet d’éditer des standards ou résoudre des problématiques
• PSR 6 standardise l’utilisation des différents système de cache
• Symfony implémentera son propre cache respectant PSR-6
• Actuellement on utilise le cache Doctrine qui sera abandonné car ne respectant pas le process qualité
de Symfony
16
18. www.sooyoos.commercredi 27 avril 2016
• Pas de mot de passe en clair en BDD, les hasher et les saler
• Utiliser HTMLpurifier pour les WYSIWYG
• Limiter le nombre de clics sur les systèmes de confirmation (SMS …)
• Protéger les pages de login avec un token CSRF, limiter les logins/min
18
19. www.sooyoos.commercredi 27 avril 2016
• Symfony live 2016 très accès sécurité et données, le talk sur memory leaks était très instructif car il est
répond à un problème courant.
• Certains éléments concernant la sécurité peuvent être mis en place à moindre effort, alors pourquoi
s’en priver ?
• Pour l’avenir, le composant workflow est très prometteur.
• Et sur une vision plus large, les conférences sur le Monolith repositories, la confiance et la sécurité
web furent très intéressantes.
19