Webinaire Comment enrichir votre BI avec l’analyse en temps réel des CDR via ...Yassine, LASRI
L'analyse d'une grande masse de EDR en temps réel n’est plus seulement une offre réservée aux opérateurs télécoms aux budgets informatiques de plusieurs millions de $. Propulsé par la technologie open source "Apache Lucene" , la Stack Elastic permet aux opérateurs télécoms de toute taille de collecter, enrichir, stocker et analyser en temps réel toute la masse de données CDR générés par les différents nœuds du réseau.
Au programme de ce webinaire de 60 minutes
1- Introduction
2- Présentation de la Stack Elastic (Logstash, Elasticsearch, Kibana)
3- Collecte, enrichissement, stockage et visualisation en temps réel des CDR
4- Questions / Réponses
Pour plus de détails, visitez notre web site http://www.synapticiel.co
Télécharger la présentation et les réponses aux questions sur notre blog. http://www.synapticiel.co/category/blog
Webinar elastic stack telecom regulation by dataYassine, LASRI
Actuellement, la plupart des régulateurs télécom se contentent des déclarations mensuelles ou trimestrielles fournis par les opérateurs afin de vérifier la conformité fiscale de ces derniers, la fiabilité et l’authenticité de ces informations fournis n’est pas garantie et le processus de vérification demande beaucoup de ressources et de temps. Ainsi les autorités de régulation se retrouvent incapable de répondre aux questions suivantes :
1. Quel montant exact de taxe devra percevoir l’état auprès de chaque opérateur télécoms.
2. Disponibilité des statistiques fiables (Volume Traffic Voix/Sms/Internet, Mobile Money, PARC, ARPU) sur les différents services fournis par chaque opérateur télécom dans le pays.
3. Capacité d’identifier les écarts avec les déclarations de chaque opérateur télécom.
4. Possibilité de régler les différends d’interconnexion entre les opérateurs de téléphonie.
5. Rapidité dans la détection et la lutte contre la fraude (détournement de traffic International, Wangiri/Premium services/IRSF).
6. Quel sont les types d’équipements utilisés sur les réseaux des opérateurs télécoms dans le pays ? ceux qui n’ont pas passés par un processus d’homologation ? quel risque sur la sécurité des utilisateurs et quel impact sur la QoS réseau ?
Découvrez pendant ce webinaire, comment la technologie Open Source (Elastic Stack) procure aux régulateurs une visibilité en temps réel d'une manière non-intrusive, sans aucun impact sur les activités des opérateurs et en totale conformité avec les lois sur la protection des données personnelles.
QlikSense est une plate forme d’analyse Qui permet de créer des visualisations, des tableaux de bord et des applications pour répondre aux questions les plus pertinentes relatives à des entreprises
Cortana Analytics, de nouveaux patterns pour vos plateformes de données Jean-Pierre Riehl
--- Session donnée au Global Azure Bootcamp Paris 2016 ---
Co-speaker : Fabien Adato
Le monde de la donnée est en pleine mutation. Le Data devient Big, le SQL devient NoSQL, la BI devient Analytics, le Data Mining devient Data Science…
Faux buzz ou vrais paradigmes, quoiqu'il en soit, de nouvelles architectures apparaissent pour traiter les challenges d'aujourd'hui. Microsoft propose ses solutions au travers de Cortana Analytics, veritable mashup des briques Data du Cloud Azure : Azure Data Catalog, Azure Stream Analytics, Azure Data Lake, Azure Data Factory, Azure ML, HDInsight, etc.
Que font ces briques ? Lesquelles choisir ? Comment s'interconnectent-elles ? Quelle architecture implémenter ? Ce sont ces questions que nous aborderons lors de cette session.
Les analyses visuelles de Qlik Sense® Cloud vous permettent d'accéder facilement à des informations commerciales précieuses. Découvrez les bases et obtenez immédiatement les réponses que vous recherchez.
Qlik Sense® Cloud ne nécessite pas de téléchargements et ne s'accompagne d'aucune complication ou obligation d'achat. Cette solution, prête instantanément à un prix abordable, permet à votre entreprise de disposer d'informations fiables. Ce SlideShare présente les bases de Qlik Sense Cloud, y compris son modèle associatif unique, la simplicité de collaboration et les visualisations attrayantes et interactives qui vous permettent de raconter des histoires convaincantes. Découvrez comment extraire dès maintenant les réponses nécessaires à votre activité.
SQLSaturday Paris 2014 - Bien choisir sa plate-forme de donnéesGUSS
Cette session, destinée aux débutants de SQL Server ou à toutes personnes qui veulent en connaître plus, présentera les différents composants de SQL Server, à savoir le moteur de bases de données et ses diverses fonctionnalités mais aussi les outils qui peuvent constituer une plate-forme décisionnelle. Session présentée lors du SQLSaturday Paris 2014
Data Stewardship - Retour d'expérience de Sarenza sur la façon de piloter un ...Jean-Pierre Riehl
Le Data Steward devient incontournable dans un système de self-service BI. Mais quel est réellement son travail avec Power BI ?
Dans cette session, nous nous mettrons dans la peau du Data Steward pendant 45 minutes et verrons comment il dompte Power BI. Gestion des sources, du Data Catalog, des questions Q&A, de la sécurité, du Data Refresh, de l'usage... Autant de sujets qui impactent le quotidien du Data Steward. Lors de cette session, vous aurez le témoignage d'un vrai Data Steward avec le retour d'expérience de Sarenza.
Elastic Workplace Search : la recherche ultra performanteElasticsearch
Nous avons repensé la recherche pour les entreprises, afin d'accélérer l'accès aux informations : découvrez une expérience de recherche unifiée, des connecteurs de données immédiatement opérationnels et des interfaces de gestion simplissimes.
Webinaire Comment enrichir votre BI avec l’analyse en temps réel des CDR via ...Yassine, LASRI
L'analyse d'une grande masse de EDR en temps réel n’est plus seulement une offre réservée aux opérateurs télécoms aux budgets informatiques de plusieurs millions de $. Propulsé par la technologie open source "Apache Lucene" , la Stack Elastic permet aux opérateurs télécoms de toute taille de collecter, enrichir, stocker et analyser en temps réel toute la masse de données CDR générés par les différents nœuds du réseau.
Au programme de ce webinaire de 60 minutes
1- Introduction
2- Présentation de la Stack Elastic (Logstash, Elasticsearch, Kibana)
3- Collecte, enrichissement, stockage et visualisation en temps réel des CDR
4- Questions / Réponses
Pour plus de détails, visitez notre web site http://www.synapticiel.co
Télécharger la présentation et les réponses aux questions sur notre blog. http://www.synapticiel.co/category/blog
Webinar elastic stack telecom regulation by dataYassine, LASRI
Actuellement, la plupart des régulateurs télécom se contentent des déclarations mensuelles ou trimestrielles fournis par les opérateurs afin de vérifier la conformité fiscale de ces derniers, la fiabilité et l’authenticité de ces informations fournis n’est pas garantie et le processus de vérification demande beaucoup de ressources et de temps. Ainsi les autorités de régulation se retrouvent incapable de répondre aux questions suivantes :
1. Quel montant exact de taxe devra percevoir l’état auprès de chaque opérateur télécoms.
2. Disponibilité des statistiques fiables (Volume Traffic Voix/Sms/Internet, Mobile Money, PARC, ARPU) sur les différents services fournis par chaque opérateur télécom dans le pays.
3. Capacité d’identifier les écarts avec les déclarations de chaque opérateur télécom.
4. Possibilité de régler les différends d’interconnexion entre les opérateurs de téléphonie.
5. Rapidité dans la détection et la lutte contre la fraude (détournement de traffic International, Wangiri/Premium services/IRSF).
6. Quel sont les types d’équipements utilisés sur les réseaux des opérateurs télécoms dans le pays ? ceux qui n’ont pas passés par un processus d’homologation ? quel risque sur la sécurité des utilisateurs et quel impact sur la QoS réseau ?
Découvrez pendant ce webinaire, comment la technologie Open Source (Elastic Stack) procure aux régulateurs une visibilité en temps réel d'une manière non-intrusive, sans aucun impact sur les activités des opérateurs et en totale conformité avec les lois sur la protection des données personnelles.
QlikSense est une plate forme d’analyse Qui permet de créer des visualisations, des tableaux de bord et des applications pour répondre aux questions les plus pertinentes relatives à des entreprises
Cortana Analytics, de nouveaux patterns pour vos plateformes de données Jean-Pierre Riehl
--- Session donnée au Global Azure Bootcamp Paris 2016 ---
Co-speaker : Fabien Adato
Le monde de la donnée est en pleine mutation. Le Data devient Big, le SQL devient NoSQL, la BI devient Analytics, le Data Mining devient Data Science…
Faux buzz ou vrais paradigmes, quoiqu'il en soit, de nouvelles architectures apparaissent pour traiter les challenges d'aujourd'hui. Microsoft propose ses solutions au travers de Cortana Analytics, veritable mashup des briques Data du Cloud Azure : Azure Data Catalog, Azure Stream Analytics, Azure Data Lake, Azure Data Factory, Azure ML, HDInsight, etc.
Que font ces briques ? Lesquelles choisir ? Comment s'interconnectent-elles ? Quelle architecture implémenter ? Ce sont ces questions que nous aborderons lors de cette session.
Les analyses visuelles de Qlik Sense® Cloud vous permettent d'accéder facilement à des informations commerciales précieuses. Découvrez les bases et obtenez immédiatement les réponses que vous recherchez.
Qlik Sense® Cloud ne nécessite pas de téléchargements et ne s'accompagne d'aucune complication ou obligation d'achat. Cette solution, prête instantanément à un prix abordable, permet à votre entreprise de disposer d'informations fiables. Ce SlideShare présente les bases de Qlik Sense Cloud, y compris son modèle associatif unique, la simplicité de collaboration et les visualisations attrayantes et interactives qui vous permettent de raconter des histoires convaincantes. Découvrez comment extraire dès maintenant les réponses nécessaires à votre activité.
SQLSaturday Paris 2014 - Bien choisir sa plate-forme de donnéesGUSS
Cette session, destinée aux débutants de SQL Server ou à toutes personnes qui veulent en connaître plus, présentera les différents composants de SQL Server, à savoir le moteur de bases de données et ses diverses fonctionnalités mais aussi les outils qui peuvent constituer une plate-forme décisionnelle. Session présentée lors du SQLSaturday Paris 2014
Data Stewardship - Retour d'expérience de Sarenza sur la façon de piloter un ...Jean-Pierre Riehl
Le Data Steward devient incontournable dans un système de self-service BI. Mais quel est réellement son travail avec Power BI ?
Dans cette session, nous nous mettrons dans la peau du Data Steward pendant 45 minutes et verrons comment il dompte Power BI. Gestion des sources, du Data Catalog, des questions Q&A, de la sécurité, du Data Refresh, de l'usage... Autant de sujets qui impactent le quotidien du Data Steward. Lors de cette session, vous aurez le témoignage d'un vrai Data Steward avec le retour d'expérience de Sarenza.
Elastic Workplace Search : la recherche ultra performanteElasticsearch
Nous avons repensé la recherche pour les entreprises, afin d'accélérer l'accès aux informations : découvrez une expérience de recherche unifiée, des connecteurs de données immédiatement opérationnels et des interfaces de gestion simplissimes.
Découvrez comment créer une solution complète de gouvernance des donnéesPrecisely
Les systèmes de gouvernance des données fournissent un cadre pour les politiques, les processus, les règles, les rôles et les responsabilités qui vous aident à gérer vos données. Une excellente stratégie de gouvernance des données, basée sur des outils comme le Collibra Data Governance Center (DGC), est essentielle pour tirer le meilleur parti de vos données.
Trillium Discovery s'intègre de façon transparente à Collibra pour créer une solution complète de gouvernance des données qui fournit des indicateurs sur la santé de vos données pour vous aider à mieux piloter votre organisation, tout en répondant aux contraintes règlementaires.
Participez à ce webinaire et découvrez comment vous pouvez tirer parti de cette intégration dans votre organisation pour construire, appliquer et exécuter facilement des règles de gestion basées sur les politiques de gouvernance des données au sein de Collibra.
Dans les coulisses de Google BigQuery - Meetup Toulouse Data ScienceAurélie Vache
Présentation effectuée le 25 Novembre 2015 au Toulouse Data Science, soirée co-organisée par Duchess France.
Les ingénieurs de Google avaient du mal à suivre le rythme de croissance de leurs données. Le nombre d’utilisateurs de Gmail augmentait constamment et était de l’ordre de centaines de millions; Il y avait plus de 100 milliards de recherches Google effectuées chaque mois.
Essayer de donner un sens à toutes ces données prenait un temps fou et était une expérience très frustrante pour les équipes de Google.
Ce problème de données a conduit l’élaboration en 2008 d’un outil interne appelé Dremel, qui a permis aux employés de Google d’exécuter des requêtes SQL extrêmement rapides sur un grand ensemble de données.
En 2012 lors de la Google I/O, Google à annoncé la sortie de Google BigQuery, l'implémentation externe de Dremel...
Quels services Azure pour mon application Web ?Microsoft
Dans cette session, nous présenterons les critères de choix importants qui vous permettront de déterminer les services Microsoft Azure les plus adaptés pour constituer les différentes briques de vos applications web. Quelle solution pour mes frontaux ? Quel service pour la recherche ? Quelle solution pour mes données ? Comment optimiser mes performances ? Si vous vous posez ce genre de questions, cette session est pour vous.
DataGalaxy et Denodo : le guichet unique de gouvernance et d’accès aux données !Denodo
Watch full webinar here: https://bit.ly/3c6aeuE
Pendant cette session, vous découvrirez comment la virtualisation de données et le Cataloging de la donnée vous permettent de créer un guichet unique de gouvernance et d’accès aux données afin :
- D'intégrer sans réplications toutes les données d’entreprise qu’elles soient en internes ou dans le cloud, ce indifféremment de leur format ou technologies de traitement.
- D’offrir aux utilisateurs métier l’accès à la connaissance de la donnée et à son utilisation.
- D’accélérer l'acculturation de la gouvernance de la donnée au sein de votre entreprise grâce à la virtualisation de données
- De valoriser, les bénéfices d’un guichet unique d’accès à la donnée et à la connaissance.
Ce webinar sera l’occasion de comprendre comment DataStax et Linkurious peuvent permettre de détecter en temps réel des activités frauduleuses telles que la fraude identitaire. Des applications concrètes de ces technologies seront détaillées, de l’affaire des Panama Papers à des cas d’usages quotidiens dans des banques et des institutions financières. Les techniques de lutte antifraude ainsi que les avantages des approches orientées graphe seront également présentés.
Quels bénéfices du Big Data pour les retailer. Quelles sont les trajectoires d'adoption du Big Data ? Pourquoi Spark permet-il de démocratiser la mise en oeuvre de nouvelles applications data driven dans le secteur du retail.
Tenedis: Déployer un socle de Monitoring UnifiéElasticsearch
Au cours de cette présentation Denis LIARD, le CTO de la société Tenedis (partenaire Elastic Advanced spécialisé dans l’Observabilité, leader français avec 30M€ de CA et 80 collaborateurs), présente les enjeux et retours d’expérience de Tenedis autour du déploiement d’un Socle de Monitoring Unifié basé sur Elastic, chez des grandes comptes français. Il y décrit notamment les raisons du choix technologique porté sur Elastic, les constats réalisés au cours des premiers projets et certains points clés qui peuvent contribuer au succès d’un tel projet.
Alex Coqueiro, AWS Public Sector Solutions Architect Manager, takes us on a fascinating demo and show & tell. He uses Amazon Web Services' Artificial Intelligence tools: Alexa, Poly, Rekognition and Machine Learning.He creates in real time a voice enabled truck. He turns the truck on. Monitors it's motions in real time, and finally uses Amazon Machine Learning to identify a potentially dangerous situation, generating a voice alarm, which Amazon Polly delivers through a phone call!
Donnez de l'agilité à votre système d'information avec AzureSamir Arezki ☁
Le Cloud révolutionne la manière de concevoir, de gérer et d'utiliser le système d'information. Il offre des bénéfices déterminants pour répondre aux enjeux des entreprises : accélération des cycles d’innovation, maîtrise du time to market, gestion du risque disruptif, maîtrise des coûts, etc.
Durant ce Webinar, nous évoquerons les scénarios Azure pour répondre aux enjeux du SI.
Nous aborderons par la suite les nouveautés proposées par Azure pour répondre aux différentes problématiques SI.
Le Webinar sera accompagné par des retours d’expérience et des bonnes pratiques pour réussir votre transition vers Azure.
Webinar animé par AREZKI Samir, Architecte Exakis et MVP Azure.
Meetup - Construire des applications serverless avec AzureSamir Arezki ☁
Dans cette session, nous discuterons l'intérêt des architectures serverless. Par la suite, nous aborderons plus concrètement la mise en place avec Azure Functions & Azure Logic Apps.
La session sera accompagnée par une démonstration pratique sur des uses cases : IoT, APIs et Intégration,..et des retours d’expérience.
Exadays cloud – Enjeux et Transformation du SISamir Arezki ☁
Le Cloud révolutionne la manière de concevoir, de gérer et d'utiliser le système d'information. En effet, il offre des bénéfices déterminants pour répondre aux enjeux des entreprises : maîtrise du Time to Market, accélération des cycles d’innovation, gestion du risque disruptif, maîtrise des coûts, ect.
Dans cette session, nous présenterons une démarche globale pour bâtir votre stratégie Coud. Ainsi que les différents modèles (cloud public / hybride) et technologies Microsoft Azure pour faciliter et réussir votre transition vers le Cloud.
Nous aborderons différents scénarios et retours d’expériences.
Plongez dans les architectures hybrides avec un scénario de bout en bout s'appuyant sur des briques disponibles dans le cloud et à demeure: BizTalk , Service Bus, Active Directory, Virtual Machines, .... Nous n'oublierons pas des patterns de résilience, de réversibilité, ...
Speakers : Benjamin Guinebertière (Microsoft), Arnaud Cleret (Digo-IT)
Du Cloud privé au Cloud public, il n'y a qu'un pas ! Comment faire évoluer votre infrastructure pour répondre aux multiples attentes de vos clients ou utilisateurs sans risquer de trébucher ? Le Cloud Hybride est le modèle d'architecture dans lequel peut s'inscrire cette progression. En liant votre Cloud Privé au Cloud Public par l'intermédiaire de différents produits de la gamme System Center, la mise en œuvre d'un Cloud Hybride offre les meilleures garanties pour le bon fonctionnement du Système d'Information. Mais comment tout cela fonctionne ? Quels sont les scénarios cibles ? Comment les mettre en place et les superviser ? Dans cette session vous découvrirez comment construire votre propre Cloud hybride avec l'utilisation conjointe de la plateforme Windows Azure et des produits System Center 2012 R2.
Speaker : Arnaud Cleret (Digo-IT), Stéphane Goudeau (Microsoft), Camille Bertrand (Microsoft)
Gab17 lyon-rex build dev ops sur une infra iaas-paas multisite-by-matthieupetiteAZUG FR
Dans cette session, nous aborderons les différentes actions qui nous ont permis de mener à bien ce projet ainsi que les contraintes et comment nous les avons contourner afin d'arriver à une infrastructure et garantir un PCA sur cette application.
La plateforme Microsoft Experiences repose sur un système en backoffice bâti sur les derniers produits et services Microsoft.
Dans cette session, vous découvrirez au travers d’un cas concret en production, les nouveautés et les bénéfices apportés par ASP.NET Core 1.0, les bonnes pratiques ainsi que les pièges à éviter pour le faire fonctionner de manière optimale dans Azure.
Seront également abordés les différentes possibilités offertes par ASP.NET et Azure pour rendre votre plateforme extensible en ouvrant de manière sécurisée l’accès à vos APIs.
Découvrez comment créer une solution complète de gouvernance des donnéesPrecisely
Les systèmes de gouvernance des données fournissent un cadre pour les politiques, les processus, les règles, les rôles et les responsabilités qui vous aident à gérer vos données. Une excellente stratégie de gouvernance des données, basée sur des outils comme le Collibra Data Governance Center (DGC), est essentielle pour tirer le meilleur parti de vos données.
Trillium Discovery s'intègre de façon transparente à Collibra pour créer une solution complète de gouvernance des données qui fournit des indicateurs sur la santé de vos données pour vous aider à mieux piloter votre organisation, tout en répondant aux contraintes règlementaires.
Participez à ce webinaire et découvrez comment vous pouvez tirer parti de cette intégration dans votre organisation pour construire, appliquer et exécuter facilement des règles de gestion basées sur les politiques de gouvernance des données au sein de Collibra.
Dans les coulisses de Google BigQuery - Meetup Toulouse Data ScienceAurélie Vache
Présentation effectuée le 25 Novembre 2015 au Toulouse Data Science, soirée co-organisée par Duchess France.
Les ingénieurs de Google avaient du mal à suivre le rythme de croissance de leurs données. Le nombre d’utilisateurs de Gmail augmentait constamment et était de l’ordre de centaines de millions; Il y avait plus de 100 milliards de recherches Google effectuées chaque mois.
Essayer de donner un sens à toutes ces données prenait un temps fou et était une expérience très frustrante pour les équipes de Google.
Ce problème de données a conduit l’élaboration en 2008 d’un outil interne appelé Dremel, qui a permis aux employés de Google d’exécuter des requêtes SQL extrêmement rapides sur un grand ensemble de données.
En 2012 lors de la Google I/O, Google à annoncé la sortie de Google BigQuery, l'implémentation externe de Dremel...
Quels services Azure pour mon application Web ?Microsoft
Dans cette session, nous présenterons les critères de choix importants qui vous permettront de déterminer les services Microsoft Azure les plus adaptés pour constituer les différentes briques de vos applications web. Quelle solution pour mes frontaux ? Quel service pour la recherche ? Quelle solution pour mes données ? Comment optimiser mes performances ? Si vous vous posez ce genre de questions, cette session est pour vous.
DataGalaxy et Denodo : le guichet unique de gouvernance et d’accès aux données !Denodo
Watch full webinar here: https://bit.ly/3c6aeuE
Pendant cette session, vous découvrirez comment la virtualisation de données et le Cataloging de la donnée vous permettent de créer un guichet unique de gouvernance et d’accès aux données afin :
- D'intégrer sans réplications toutes les données d’entreprise qu’elles soient en internes ou dans le cloud, ce indifféremment de leur format ou technologies de traitement.
- D’offrir aux utilisateurs métier l’accès à la connaissance de la donnée et à son utilisation.
- D’accélérer l'acculturation de la gouvernance de la donnée au sein de votre entreprise grâce à la virtualisation de données
- De valoriser, les bénéfices d’un guichet unique d’accès à la donnée et à la connaissance.
Ce webinar sera l’occasion de comprendre comment DataStax et Linkurious peuvent permettre de détecter en temps réel des activités frauduleuses telles que la fraude identitaire. Des applications concrètes de ces technologies seront détaillées, de l’affaire des Panama Papers à des cas d’usages quotidiens dans des banques et des institutions financières. Les techniques de lutte antifraude ainsi que les avantages des approches orientées graphe seront également présentés.
Quels bénéfices du Big Data pour les retailer. Quelles sont les trajectoires d'adoption du Big Data ? Pourquoi Spark permet-il de démocratiser la mise en oeuvre de nouvelles applications data driven dans le secteur du retail.
Tenedis: Déployer un socle de Monitoring UnifiéElasticsearch
Au cours de cette présentation Denis LIARD, le CTO de la société Tenedis (partenaire Elastic Advanced spécialisé dans l’Observabilité, leader français avec 30M€ de CA et 80 collaborateurs), présente les enjeux et retours d’expérience de Tenedis autour du déploiement d’un Socle de Monitoring Unifié basé sur Elastic, chez des grandes comptes français. Il y décrit notamment les raisons du choix technologique porté sur Elastic, les constats réalisés au cours des premiers projets et certains points clés qui peuvent contribuer au succès d’un tel projet.
Alex Coqueiro, AWS Public Sector Solutions Architect Manager, takes us on a fascinating demo and show & tell. He uses Amazon Web Services' Artificial Intelligence tools: Alexa, Poly, Rekognition and Machine Learning.He creates in real time a voice enabled truck. He turns the truck on. Monitors it's motions in real time, and finally uses Amazon Machine Learning to identify a potentially dangerous situation, generating a voice alarm, which Amazon Polly delivers through a phone call!
Donnez de l'agilité à votre système d'information avec AzureSamir Arezki ☁
Le Cloud révolutionne la manière de concevoir, de gérer et d'utiliser le système d'information. Il offre des bénéfices déterminants pour répondre aux enjeux des entreprises : accélération des cycles d’innovation, maîtrise du time to market, gestion du risque disruptif, maîtrise des coûts, etc.
Durant ce Webinar, nous évoquerons les scénarios Azure pour répondre aux enjeux du SI.
Nous aborderons par la suite les nouveautés proposées par Azure pour répondre aux différentes problématiques SI.
Le Webinar sera accompagné par des retours d’expérience et des bonnes pratiques pour réussir votre transition vers Azure.
Webinar animé par AREZKI Samir, Architecte Exakis et MVP Azure.
Meetup - Construire des applications serverless avec AzureSamir Arezki ☁
Dans cette session, nous discuterons l'intérêt des architectures serverless. Par la suite, nous aborderons plus concrètement la mise en place avec Azure Functions & Azure Logic Apps.
La session sera accompagnée par une démonstration pratique sur des uses cases : IoT, APIs et Intégration,..et des retours d’expérience.
Exadays cloud – Enjeux et Transformation du SISamir Arezki ☁
Le Cloud révolutionne la manière de concevoir, de gérer et d'utiliser le système d'information. En effet, il offre des bénéfices déterminants pour répondre aux enjeux des entreprises : maîtrise du Time to Market, accélération des cycles d’innovation, gestion du risque disruptif, maîtrise des coûts, ect.
Dans cette session, nous présenterons une démarche globale pour bâtir votre stratégie Coud. Ainsi que les différents modèles (cloud public / hybride) et technologies Microsoft Azure pour faciliter et réussir votre transition vers le Cloud.
Nous aborderons différents scénarios et retours d’expériences.
Plongez dans les architectures hybrides avec un scénario de bout en bout s'appuyant sur des briques disponibles dans le cloud et à demeure: BizTalk , Service Bus, Active Directory, Virtual Machines, .... Nous n'oublierons pas des patterns de résilience, de réversibilité, ...
Speakers : Benjamin Guinebertière (Microsoft), Arnaud Cleret (Digo-IT)
Du Cloud privé au Cloud public, il n'y a qu'un pas ! Comment faire évoluer votre infrastructure pour répondre aux multiples attentes de vos clients ou utilisateurs sans risquer de trébucher ? Le Cloud Hybride est le modèle d'architecture dans lequel peut s'inscrire cette progression. En liant votre Cloud Privé au Cloud Public par l'intermédiaire de différents produits de la gamme System Center, la mise en œuvre d'un Cloud Hybride offre les meilleures garanties pour le bon fonctionnement du Système d'Information. Mais comment tout cela fonctionne ? Quels sont les scénarios cibles ? Comment les mettre en place et les superviser ? Dans cette session vous découvrirez comment construire votre propre Cloud hybride avec l'utilisation conjointe de la plateforme Windows Azure et des produits System Center 2012 R2.
Speaker : Arnaud Cleret (Digo-IT), Stéphane Goudeau (Microsoft), Camille Bertrand (Microsoft)
Gab17 lyon-rex build dev ops sur une infra iaas-paas multisite-by-matthieupetiteAZUG FR
Dans cette session, nous aborderons les différentes actions qui nous ont permis de mener à bien ce projet ainsi que les contraintes et comment nous les avons contourner afin d'arriver à une infrastructure et garantir un PCA sur cette application.
La plateforme Microsoft Experiences repose sur un système en backoffice bâti sur les derniers produits et services Microsoft.
Dans cette session, vous découvrirez au travers d’un cas concret en production, les nouveautés et les bénéfices apportés par ASP.NET Core 1.0, les bonnes pratiques ainsi que les pièges à éviter pour le faire fonctionner de manière optimale dans Azure.
Seront également abordés les différentes possibilités offertes par ASP.NET et Azure pour rendre votre plateforme extensible en ouvrant de manière sécurisée l’accès à vos APIs.
Cycle de vie d'un projet web agile avec TFS 2013, Azure VM et MonacoMicrosoft
Je réalise un projet web en mode agile. TFS 2013 et Visual Studio Online peuvent-ils m'aider ? Comment ? » Venez voir comment l'ensemble des possibilités de TFS 2013 combiné à Visual Studio 2013 supporte la réalisation d'un projet Web en Scrum grâce (entre autre) aux déploiements automatiques dans des VMs Azure et aux nouvelles capacités de Visual Studio Online. Le programme consistera en un jeu de rôle combinant les capacités de Visual Studio 2013, le pilotage projet grâce à TFS (organisation des scénarios et des tâches), comment faire le standup meeting avec l'interface web (planification et décomposition des scénarios / exigences), le code review, la création de tests unitaires, la création d’une infrastructure Azure pour gérer les déploiements automatiques, et enfin l'exécution des tests utilisateurs suite à la demande de revue par le client.
Speakers : Franck Farré (SQLI), Fabrice Hautot (SQLI)
SQLSaturday Paris 2014 - Construire et déployer une application métier Office...GUSS
Fini les développements SharePoint lourds qui demandant une infrastructure complexe. Avec Office 365 et les services Azure, il est enfin possible de développer des applications métier, rapidement et facilement. Venez nombreux à cette session pour comprendre comment construire, à l’aide de Visual Studio 2013, une Apps SharePoint qui utilise pleinement les services Azure (site, base de données SQL Azure, etc …) Du développement au déploiement, de la configuration à la gestion de la montée en charge dans Azure (ressources et SQL Server), l’utilisation des services Azure n’auront plus de secret pour vous. Session présentée lors du SQLSaturday Paris 2014
Cette session est destinée à vous présenter des retours d’expériences de solutions cloud pour rendre votre IT plus agile. Cette session animée et interactive vous permettra de découvrir plusieurs solutions que vous pourrez intégrer progressivement.
Retour d'expérience : rendre votre IT agile grâce au cloud hybrideMicrosoft Décideurs IT
Cette session est destinée à vous présenter des retours d’expériences de solutions cloud pour rendre votre IT plus agile. Cette session animée et interactive vous permettra de découvrir plusieurs solutions que vous pourrez intégrer progressivement.
Etendre les capacités de Dynamics CRM Online avec Microsoft AzureMicrosoft Ideas
Comprendre comment intégrer Dynamics CRM Online à Microsoft Azure, soit pour des besoins de sécurité avec Azure Active Directory, soit pour accéder à des données externes avec Azure SQL Database, soit pour étendre les fonctionnalités avec la plateforme de développement. Voir comment Microsoft Azure peut répondre à un grand nombre de problèmes dans l’intégration d’une application CRM Online avec un système d’information existant. Sécuriser les interactions hybrides avec Azure Service Bus Relay Service, automatiser des actions externes avec Azure Automation.
4. 4
collaborateurs
M€
Chiffre d’affaire
140
155
20172016 2018
C2S est le partenaire digital de ces clients
Depuis sa création, C2S accompagne ses clients dans les grands projets de
transformation digitaux.
Nos clients nous font confiance pour le pragmatisme et les valeurs qui nous
animent.
15
17
20172016 2018
NOUS METTONS LE DIGITAL AU SERVICE DU PROGRÈS HUMAIN
5. 5
NOS DOMAINES D’EXPERTISE
PROJETS DE
TRANSFORMATION
DIGITALE
CYBERSÉCURITÉ
SMART BUILDING,
SMART CITY & IOT
DÉVELOPPEMENT
LOGICIELS INFRASTRUCTURE SI
ET CLOUD
EXPLOITATION ET
SERVICES MANAGÉS
LE SPOT
OPEN INNOVATION
DÉVELOPPEMENT
DE PARTENARIATS
6. DEV LOGICIELS : NOTRE POSITIONNEMENT
• Design / UX
• Web
• Frontend
• Backend
• Mobile
• Natif
• Hybride
• PWA
• VR/AR
APPLICATIONS METIERS
• Cloud
• Architecture Cloud,
Serverless
• API, ESB
• IoT
• Plateformes
• Connecteurs
• Data
• Base de données
• Intégration
• Datalake
• Datavisualisation
BACKEND CLOUD
• Intranet
• Ged
• Sites collaboratifs
• Chatbot
• Migration
• Accompagnement
DIGITAL WORKSPACE
collaborateurs
M€
Chiffre d’affaire
20182017 2019
ACCOMPAGNER AVEC PROXIMITÉ ET AGILITÉ
NOS CLIENTS SUR DES PROJETS DE DÉVELOPPEMENT INNOVANTS
Une équipe de développeurs logiciel, experts, architectes et scrum
master en croissance pour
20182017 2019
29
40
,
2,8
3,5
7. L’architecture Serverless sur Azure
1. Ne nécessite aucune gestion des serveurs hôtes (ou
processus hôtes).
2. Gère automatiquement la mise à l’échelle et le
provisionnement
3. Offre des coûts basés sur une utilisation précise
4. Ses capacités de performances sont définies sur d’autres
termes que la taille ou le nombre d’hôtes
5. Dispose implicitement d’une haute disponibilité
La définition d’un service Serverless
13. Azure Function
• FAAS : Level Elite
• Ecriture du code
- Via un navigateur internet
- Via Visual Studio
• Exécution liée à un plan de Consommation
• Mini-Web App / WebJob SDK
L’architecture Serverless sur Azure
15. Autres briques Serverless
• Service SignalR
• EventHub / Azure Queue / …
• Stream Analytics
• Sql Database Serverless
• Azure Storage
L’architecture Serverless sur Azure
16. Tooling
• Azure Storage Explorer
https://azure.microsoft.com/fr-fr/features/storage-explorer/
• Azure CLI
https://docs.microsoft.com/fr-fr/cli/azure/?view=azure-cli-latest
https://docs.microsoft.com/fr-fr/cli/azure/reference-
index?view=azure-cli-latest
az sql server create --name $name --resource-group $group.name -
-location $location --admin-user $adminUser --admin-password
$adminPwd
az sql db create --subscription $account.id --resource-group
$group.name --server $servername --name $name --service-
objective $sku --collation $collation
• Calculatrice Azure
https://azure.microsoft.com/fr-fr/pricing/calculator/
L’architecture Serverless sur Azure
17. Retour d’expérience : Hyperviseur Urbain
• Elément principal de la Smart City. Connecter la ville à ses
services.
Feux Tricolores
Lampadaires
Alarmes
Géolocalisation Véhicules
Météo
Crues
Chantiers
…
L’architecture Serverless sur Azure
19. Hyperviseur - Métriques
• Quantité messages injectés
853 Millions (Avril)
25.5€
• Temps de traitement d’un message end to end
200ms à 3sec
• Coût total (Avril)
220€ HT
L’architecture Serverless sur Azure
20. Hyperviseur – Tracing / Logging
• Pas de débugage évident des données EventHubs (grosse
quantité)
• Capture dans DataLake possible
• Jaeger : outil de visualisation du flux distribué
L’architecture Serverless sur Azure
23. Problèmes rencontrés
• Logic App : Manque de souplesse
• Function App : C’est du Online
• Intégration dans Legacy
L’architecture Serverless sur Azure
24. Conclusion
• ON AIME BEAUCOUP
• Redonne la main aux développeurs sur la partie infra, plus
de souplesse
• Le métier du développeur évolue, moins de code, plus de
tooling, scripting
TTM plus court
• Effet de dispersion
• Cartographie des éléments plus complexe
• Perd de son intérêt si l’application a besoin d’être
permanente
L’architecture Serverless sur Azure
Petit pitch d’intro. Merci d’être là blabla.
Demander qui bosse sur Azure/Cloud.
Demander qui connait/bosse sur du ServerLess. Profil plus dev ou admin? Etc.. Permet de jauger l’assemblée.
Lecture bête et méchante du Sommaire
Slides institutionnelsPas forcément lire tout le blabla. MAJ à l’oral, 220 collaborateurs actuellement. Montrer qu’on fait un peu de tout.
Slides institutionnels
Slides institutionnels
Et bien sûr parler de Tours !
Microsoft Azure / Amazon Web Services / Google Firebase / IBM Cloud Functions / Oracle Cloud
Entendu parler la première fois en 2011 (avec l’avènement du PaaS).
En 2014, Amazon ajoute AWS Lambda aux Amazon Web Services. Lambda permet de lancer des scripts Python Java ou Node.js, ou encore des exécutables Linux, en fonction d’évènements. C’est le principe de la Fonction en tant que Service (FaaS).
Microsoft Azure / Amazon Web Services / Google Firebase / IBM Cloud Functions / Oracle Cloud
Entendu parler la première fois en 2011 (avec l’avènement du PaaS).
En 2014, Amazon ajoute AWS Lambda aux Amazon Web Services. Lambda permet de lancer des scripts Python Java ou Node.js, ou encore des exécutables Linux, en fonction d’évènements. C’est le principe de la Fonction en tant que Service (FaaS).
…
[SLIDE PRECEDENTE]
Le Serverless a pu voir le jour grâce au Cloud. Ici on ne se soucis plus de l’infrastructure sous-jacente. Nous utilisons des services à la consommation.
Architecture réactive, basée sur des évènements et s’adapte (scaling) selon la demande
Paradigme utilisé par tous les fournisseurs de Cloud actuels
Dans les faits, Microsoft le présente comme tel (pour les Function Apps)
Ici on visualise le schéma en silo des différents modèles de Cloud.
Historiquement, on retrouve le IAAS et le PAAS. Le PaaS est d’ailleurs la première brique du Serverless. C’est grâce à lui que le concept de Serverless c’est démocratisé puisqu’il permet de déployer toute une application sans avoir à se soucier de l’infrastructure sous-jacente (version de Windows, mise à jour, paramétrage réseau/sécurité,…). Grâce à lui on a découvert la joie de déployer rapidement, sans avoir à faire suer l’équipe infra …
Est ensuite apparu le CAAS (Container As A Service) et le FAAS (Function As a Service).
La différence fondamentale entre le PaaS et FaaS se situe sur le Unit of Scale (la capacité de montée en charge).
En PaaS, quand on gère la montée en charge, on fait monter en charge toute l’application, avec toutes ses dépendances, et toutes les fonctionnalités qu’elle contient (même si elle ne sont pas toutes utilisés à la même fréquence),
En FaaS, quand on gère la montée en charge, on fait monter en charge chaque Fonction à son rythme. Du coup si dans ma solution VS j’ai 10 Fonction, je peux très bien m’assurer de n’autoriser le scaling que sur 2 d’entres-elle car je sais qu’elles seront très demandées.
Il faut savoir que même si on les utilise différemment (vous allez le voir après), chez Azure, PaaS et FaaS sont comme cul et chemise. Les offres de FaaS se base sur du PaaS, puisque vous pouvez décider de ne payer qu’à la consommation vos Fonctions (pratique quand elles ne sont lancées qu’une fois tous les X du mois), ou de les associer à un PlanAppService, pour améliorer les temps de réponses ou augmenter la capacité de traitement en cas de besoin (+ de CPU, + de RAM, + d’I/O disque, …).
Note : le schéma ne présente pas le SAAS.
Azure Logic Apps est un premier système permettant de faire du FAAS (Function As A Service). Grâce à un éditeur visuel, il permet de mettre en relation grâce à un workflow que l’on défini différentes briques techniques.
Briques possibles :
- Connecteurs : Yammer, Twitter, SQL SERVER etc… (environs 200)
- Traitement : Parsing JSON, Modification de données
- Transfert : Appel HTTP, Envoi Event Hub, Azure Table
Trigger : Élément déclencheur de la Logic App. Plusieurs possible mais qu’un seul sélectionnable à la fois.
- Timmer
- HTTP : se comporte comme un endpoint
- Action externe : Arrivée d’un mail, d’un tweet, d’un message dans ServiceBus…
On doit définir un Workflow afin d’enchainer les éléments (connecteurs/traitements). On peut y mettre des boucles, des conditions, différentes branches. On peut attendre des résultats avant de lancer d’autres process.
Variables possibles, on peut les définir, les modifier, incrémenter
Divers :
- Un process de retry est intégré bydesign dans chaque brique.
- Editeur graphique dans le portail Azure ou Visual Studio
- Derrière c’est un JSON qui est généré, modifiable à la main mais complexe
- Workflow : Edition/Suppression complexe car dépendance forte
-
On ouvre le portal azure.
On code la LogicApp devant eux.
Une fois codées, on affiche un bitly de l'URL de la FunctionApp (codé auparavant), et un QRCODE (du bitly).
Ici, on leur demande d'aller sur l'URL donnée. Et on affiche à coté le livetweet. #ServerLessC2S .
Demo : BackEnd Function App sera appelé sur son HTTP endpoint dédié
Elle se connecte à la BDD et log l'entrée
Logic App :
Timer Trigger (3sec), va lire les données en BDD et les compter. Enchaine avec la production d'un tweet sur le #ServerLessC2S
Resources :
SQL SERVER / SQL DB
1 LOGIC APP DE SECOURS
1LOGIC APP LIVECODEE
1 FUNCTION APP (BACKEND)
AFFICHE TON PUTAIN DE LIVE TWEET
https://twitter.com/hashtag/prezserverlessc2s?f=tweets&vertical=default&src=hash
Second système permettant de faire du Serverless mais de manière plus évolué, le FAAS (Function As A Service).
Ici on reprend la main sur le code, et on écrit notre Function App :
Soit (en mode à l’arrache) dans le navigateur : C# script / JavaScript / …
Soit (en mode killer) dans Visual Studio : C#, F#, …
Langages possibles : Python, C#, F#, Javascript, TypeScript (Transpiling), Java
Trigger : Moins de possibilités (tout ce qui est webhook), mais HTTP/Timer/Queue/Table
La liste des connecteurs natifs est moins fourni que sur les LogicApp, mais les possibilités de traitement et la facilité d’écriture d’algorithme est bien meilleur. Tout est une question de trade-off : est-ce qu’on veut aller vite ou loin ?
Ici on leur montre Visual Studio et le code existant. Endpoint HTTP connexion SQL
Live Debug (VS + Chrome)
Limité le Serverless aux LogicApp et FunctionApp serait bien trop réducteur. Un très bon exemple de service Serverless disponible sur Azure est l’EventHub.
Service d’ingestion de données en temps réel. S’ajuste au volume de données de manière dynamique.
On peut définir un nombre d’unités de débit (throughput units) par défaut et prévoir un nombre d’unités max pour l’auto-inflate. La notion de consommation de l’eventHub se rapproche dcelle du PaaS, puisque l’on choisi un montant de consommation, que l’on peut faire évoler en fonction du besoin (dynamiquement ou à la main). Le choix de cette approche (montant de consommation) est lié au fait que l’EventHub peux rapidement coûter cher.
Possibilité de Capture vers un Azure BLOB Storage ou Azure DataLake afin de faire de la rétention/traitement à long terme.
Rapidement, SignalR est un outil maintenant proposé en SAAS (avant librairie à embarquer) et qui permet d’ajouter des fonctionnalités temps-réels à des applications Web.
Permet le suivi d’un processus par exemple sans rafraichissement de page. Marche sur un système d’abonnement et de notification client/serveur. Possible de faire du Broadcasting, de créer des groupes d’users ou d’envoi à utilisateur unique.
Stream Analytics :
Service d’analyse en temps réel, à la demande, de flux données. L’outil permet aux développeurs de pousser du code SQL, permettant de consommer des données entrantes et de la transformer (à destination de rapport PowerBI par exemple), avec une capacité de montée en charge dynamique assez impressionnante. L’outil peut notamment se plugger sur du EventHub pour analyser en temps réel des millions d’évènements à la seconde. C’est l’exemple typique du Serverless, où on pousse du code, et on se charge de gérer le curseur de scaling (permet de définir la capacité de traitement autorisé). Tout comme l’EventHub, on défini d’abord un montant max (sur le nombre d’unité de traitement), et l’on fait augmenter cette unité par jalon.
Sql Database :
Vous connaissez Sql Server ? Vous en avez marre de vous palucher les installations/configurations de toutes vos instances de déploiement ? La nuit vous rêvez d’un monde où il vous suffirait de provisionner un serveur, une base de données, de pousser vos SP et vos VIEW dessus puis de l’utiliser, et de pouvoir augmenter sa capacité de traitement au besoin ? … bah voilà, c’est pour vous ! C’est ce qu’on appelle du DBaaS, et c’est juste magique.
QUI :
Azure Storage Explorer (le lancer?), outil qui permet de se connecter via son compte Azure à différents espace de stockage :
Blob Containers / File Share / Queues / Tables
Modification, suppression renommage. Ajout dans Queue etc…
Azure CLI : Outil en Ligne de Commande afin d’exécuter des actions sur un tenant Azure. CRUD sur des resources Azure. Pas spécifique au serverless mais outil indispensable.
Calculatrice Azure : Permet de mesurer le coût d’une solution Azure, regroupe les différentes briques, permet l’export d’un rapport pour un client par exemple.
Un hyperviseur (aussi appelé hyperviseur urbain) est un élément principal de la « Smart City ».
Smart City par ByES (https://www.bouygues-es.fr/villes-et-territoires/smart-city)
Valorisons le patrimoine d’équipements publics et optimisons sa gestion
Améliorons l’efficacité et la coordination des services
Diminuons les consommations énergétiques, notamment de l’éclairage et des bâtiments publics
Développons de nouveaux services : information, transport, wifi, videoprotection, mobilité électrique, éclairage, stationnement intelligent.
Stimulons le développement du territoire par l’open data pour les start up et les PME.
Voilà à grosse maille la gueule du bordel !
Les FA de récupération timé
Le combo EventHub/Storage
Le TPS Processor
L’EventHub de sortie
L’hyperviseur
Le TPS Processor (again!)
Qui :
A extraire de Jaeger
Vu la quantité de données Liste de messages et récurrence des appels, le débogage est loin d’être évident. On va pas stocker chaque donnée entrantes dans un SQL Server au cas où.
Azure propose la mise en place d’un outil, « Capture », celui-ci permet de stocker en masse les données dans un DataLake. Cette option coûte 60€/mois/eventHub mais impacte donc la facturation cliente.
Le choix s’est porté sur Jaeger sur les environnements de DEV/INT/RECETTE et de GRAYLOG sur PROD (historique client), agrégateur de Log.
QUI :
QUI :
Suite à une recommandation de Microsoft, notre première approche de notre projet fut d’utiliser des LogicApps pour se brancher aux connecteurs (TPS). Cela marchait très bien, mais nous avons rencontré des soucis lors de la partie configuration/déploiement. Pour mettre en place du multi-environnement, il faut pouvoir cibler des éléments précis de chaque environnement. Pour ne pas mélanger le DEV avec l’INTEGRATION, PROD etc… Et cela le designer de Logic Apps ne le permet pas de manière native, il couple fortement une Logic App avec une autre brique Azure (EventHub par ex) avec l’ID unique de cette brique. On pourrait « hacker » le système en modifiant le JSON généré mais dès réouverture du designer celui-ci overwrite pour réappliquer son ancien modèle. Bref, on se bat contre le système. Nous avons donc décidé de tout réécrire en Function Apps afin d’avoir plus de souplesse.
Function App : Un paradigme qu’il faut comprendre est qu’une Function App est FAITE pour être en ligne. Récupérer de la donnée en mode PULL, être présent en tant que Endpoint (API), participer à une chaîne de traitement etc.. Tout ça est fait pour répondre efficacement et de manière concurrente. L’un des désavantages est donc du coup son ouverture permanente sur internet. Il faut donc prévoir un filtrage IP par exemple afin de sécuriser l’accès à notre fonction. ASE coûte cher.
Function Premium : https://azure.microsoft.com/en-us/blog/announcing-the-azure-functions-premium-plan-for-enterprise-serverless-workloads/
Legacy : En relation avec le point précédent, et selon la complexité de l’historique, mettre en relation de manière évidente les ressources que l’on a besoin (ex VM offline derrière NSG/Firewall) et nos propres ressources (dans un autre resources group) peut s’avérer complexe (Virtual Network Peering)
Globalement le serverless est un modèle d’architecture très intéressant. Il permet aux développeurs de reprendre la main sur la partie infra, de s’astreindre de ces équipes et de gagner en vélocité dans la phase de développement projet.
Attention cela n’est pas la solution ultime à tous les problèmes, il faut bien étudier notre projet avant de démarrer.
A noter qu’au final le métier du développeur évolue, on met en place plus d’outils tiers, on réalise des scripts de déploiement. Tout cela permet de réduire les temps d’intégration/déploiement. Avec 2 actions manuelles, le Packaging/Déploiement complet de notre solution prend 30min max.
Par contre cela induit un effet de dispersion des connaissances, il faut savoir maitriser plus d’outils. Un peu comme avec le phénomène Full-Stack à un moment. Où le dev front s’est mis à faire du back (et/ou) inversement. En plus de gérer le/les front/s ET le back, maintenant on gère en plus la partie « infra ».
Cartographie plus complexe, de manière évidente, on crée plusieurs petits sous-logiciels plutôt qu’une très grosse brique.
Le fonctionnement même du Serverless se base sur l’évènementiel (récurrent, call HTTP etc..) et donc il perd de son intérêt si nous sommes dans un système qui a besoin de tourner de manière permanente, il faut peut être plus s’orienter sur un Site Web standard ou une VM par exemple.
Voilà c’est fini, nous vous remercions pour votre attention durant cette session, nous allons prendre quelques questions (s’il y en a) et ensuite on va pouvoir échanger autour de petits fours et un peu de boisson.