Dans un format intimiste, Tech4Exec démystifie, le temps d’une matinée, les sujets et technologies stratégiques du moment, pour en comprendre les implications, les déclinaisons opérationnelles concrètes et leur intérêt pour l’entreprise.
Le format est simple et efficace : 15 mn de vulgarisation, 25 mn de mise en oeuvre et 1h de retours d’expérience client.
La vidéo est disponible ici : https://youtu.be/U79Dp7xiF4E
https://tech4exec.fr/
Comment l’architecture événementielle révolutionne la communication dans le S...Vincent Lepot
Les slides de notre talk au Meetup "Les Frenchies du web #1" présentation l'archictecture événementielle mise en place chez Meetic autour d'Apache Kafka
Cassandra s'impose chez Chronopost comme base NoSQL de choix pour remplacer les RDBMS traditionnels.
Pourquoi choisir Cassandra dans la jungle du Big Data, pour quels usages et quels gains en tirer.
Dans un format intimiste, Tech4Exec démystifie, le temps d’une matinée, les sujets et technologies stratégiques du moment, pour en comprendre les implications, les déclinaisons opérationnelles concrètes et leur intérêt pour l’entreprise.
Le format est simple et efficace : 15 mn de vulgarisation, 25 mn de mise en oeuvre et 1h de retours d’expérience client.
La vidéo est disponible ici : https://youtu.be/U79Dp7xiF4E
https://tech4exec.fr/
Comment l’architecture événementielle révolutionne la communication dans le S...Vincent Lepot
Les slides de notre talk au Meetup "Les Frenchies du web #1" présentation l'archictecture événementielle mise en place chez Meetic autour d'Apache Kafka
Cassandra s'impose chez Chronopost comme base NoSQL de choix pour remplacer les RDBMS traditionnels.
Pourquoi choisir Cassandra dans la jungle du Big Data, pour quels usages et quels gains en tirer.
4D Summit Europe 2016 - Conférence d'A&C Consulting : "Stocker des données su...Nathalie Richomme
Le « cloud » est le nouveau mot-clé pour créer le buzz dans l’IT. Grâce aux nouvelles apps, accessoires, etc., nous utilisons ou stockons tous des données dans le cloud parfois sans parfois s’en rendre compte. Amazon, au-delà de son si populaire site marchand, dispose d’un vaste catalogue de web services (AWS). Au sein de ces services, l’un d’entre eux dipose d’un grand potentiel pour les développeurs 4D. Il s’agit d’Amazon Simple Storage Service (S3). S3 constitue la solution Amazon de stockage sur le Cloud.
Ce webinar dévoile les dernières nouveautés produits de notre plateforme au travers notamment des améliorations de notre service d’Intelligence Artificielle, Nuxeo Insight, de nos fonctionnalités de Retention Management, Nuxeo Drive, Nuxeo Enhanced Viewer et bien d’autres.
Nous présenterons également les résultats de notre dernier test de performance.
Enfin, découvrez en avant-première notre prochaine release incluant notamment les connecteurs Salesforce et Outlook et futures améliorations.
Le webinar inclut :
- Les dernières nouveautés de la plateforme Nuxeo
- Notre dernier test de performance
- Les améliorations à venir
Une analyse de la sécurité d'Amazon Web services selon la norme ISO 27002 faite à l'occasion du séminaire cloud computing organisé par le centre de compétence technique (CCT) du CNES
http://cct.cnes.fr/cct05/public/2010/index.htm#seminaires
Introduction à Apache Cassandra — IppEvent chez OVH 2017-03-02Jérôme Mainaud
Découvrez au cours de cette présentation le fonctionnement de la base de données Cassandra.
- Qu'est-ce que Cassandra ?
- Pourquoi l'utiliser ?
- Comment l'utiliser ?
- Comment la mettre en œuvre ?
Cette présentation a été jouée lors de l'IppEvent qui a eu lieu le 2017-03-02 dans les locaux d'OVH Lyon. Elle fait partir du temps fort Big Data 2017 https://blog.ippon.fr/2017/03/01/un-mois-de-mars-100-big-data/.
Merci à l'équipe d'OVH pour son accueil chaleureux.
Morning with MongoDB Paris 2012 - Cas d'usages courant en entreprise. Présent...MongoDB
Cas d'usages courant en entreprise. Présentations des Clients et des Integrateurs Partner (fr)
Criteo, Le Figaro, Fast Connect, OCTO, Xebia, Zenika, eNovance
Le Cloud, une réponse à nos besoins - Apéro Digital avril 2019 - Pascal MartinPascal MARTIN
Les slides que j'ai utilisés comme support de ma présentation « Le Cloud, une réponse à nos besoins », lors de l'Apéro Digital le 3 avril 2019 à Lyon.
Cette session sera consacrée à la présentation d’Amazon Redshift, qui est un service d’entrepôt de données entièrement géré dont la taille va de quelques centaines de giga-octets à un ou plusieurs péta-octets, coûtant moins de 1 000 USD par téra-octet et par an, soit un dixième du coût de la plupart des solutions classiques d'entrepôt de données. Vous découvrirez la simplicité avec laquelle vous pouvez démarrer avec Amazon RedShift et analyser et lancer des rapports sur plusieurs millions de lignes d’enregistrements en quelques secondes.
Big Data: Hadoop Map / Reduce sur Windows et Windows AzureMicrosoft
L'algorithme Map/Reduce et sa mise en oeuvre avec Apache Hadoop permettent de gérer de très grands volumes de données non structurées. Microsoft adopte Haddop sur Windows et Windows Azure. Venez voir comment.
Quand utiliser MongoDB … Et quand vous en passer…MongoDB
> Qu'est-ce que MongoDB ?
> À quoi sert MongoDB ?
> Les points forts de MongoDB... Les points à améliorer
> Ce que les clients peuvent faire et ne pas faire avec MongoDB
> Cas d'utilisation inhabituels
> Quand utiliser MongoDB
Cette session débutera par la présentation de la stratégie Software Defined Storage (SDN) de Microsoft en balayant les aspects privés, hybrides et publiques. Nous continuerons tout le long de la session par des cas d’usage fonctionnel s’appuyant sur les services de stockage Azure. Vous appréhenderez ainsi les critères de choix à prendre en compte pour concevoir une architecture cible. C’est dans cette démarche que nous clôturerons la session par un retour d’expérience client sur la traçabilité de production et packaging industriel s’appuyant sur les services Azure Tables & Blobs
Présentation et démos techniques des principaux services Google Cloud et leurs relations
(Compute Engine, Cloud Storage, Bigquery, Cloud SQL, Dataflow, Pub/Sub, Cloud Function)
Ce support explique les concepts de base de Big Data Processing. Elle aborde les parties suivantes :
Série de vidéos : https://www.youtube.com/watch?v=1JAljjxpm-Q
- Introduction au Big Data
- Système de stockage en Big Data
- Batch Processing et Stream Processing en Big Data
- Aperçu bref de l’écosystème de Hadoop
- Aperçu de l’écosystème des outils du Bid Gata
- Big data stream processing avec Kafka écosystème
- Architecture de Kafka (Brokers, Zookeeper, Procuder, Consumer, Kafka Streams, Connecteurs)
- Comment démarrer un cluster de brokers KAFKA
- Création et configuration des Topics
- Création d’un Java Kafka consumer
- Création d’un Java Kafka Produder
- Kafka Producer et Kafka Consumer dans une application basée sur Spring
- Kafka Streams
- Intégration de Kafka dans Spring Cloud.
Mot clés : Big data, Big Data Processing, Stream Processing, Kafka, Kafka Streams, Java, Spring
Bon apprentissage
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataMarc Bojoly
Big Data, MapReduce, calculs distribués, sont autant de buzz words et de concepts cantonnés jusqu’à maintenant à quelques acteurs spécifiques. Pourtant, il est un état de fait : nous sommes assis sur une quantité gigantesque de données dont il est difficile d’extraire l’information… D’autre part MapReduce est une solution éprouvée pour analyser d’énormes quantités de données (ou Big Data). Elle a, par exemple, été mise en œuvre par Google pour indexer le web, par LinkedIn pour calculer ses campagnes d’email… Dans ces conditions, ces concepts ont-ils un intérêt dans nos SI ? Quel est le niveau de maturité de ces solutions ? Cet atelier, co-organisé par OCTO Technology (www.octo.com) et Plaform (www.platform.com), démontrera que de telles solutions font sens dans nos projets SI. - See more at: http://blog.octo.com/petit-dejeuner-mapreduce-la-revolution-dans-lanalyse-des-bigdata-le-27-septembre/#sthash.GvRo8gOQ.dpuf
4D Summit Europe 2016 - Conférence d'A&C Consulting : "Stocker des données su...Nathalie Richomme
Le « cloud » est le nouveau mot-clé pour créer le buzz dans l’IT. Grâce aux nouvelles apps, accessoires, etc., nous utilisons ou stockons tous des données dans le cloud parfois sans parfois s’en rendre compte. Amazon, au-delà de son si populaire site marchand, dispose d’un vaste catalogue de web services (AWS). Au sein de ces services, l’un d’entre eux dipose d’un grand potentiel pour les développeurs 4D. Il s’agit d’Amazon Simple Storage Service (S3). S3 constitue la solution Amazon de stockage sur le Cloud.
Ce webinar dévoile les dernières nouveautés produits de notre plateforme au travers notamment des améliorations de notre service d’Intelligence Artificielle, Nuxeo Insight, de nos fonctionnalités de Retention Management, Nuxeo Drive, Nuxeo Enhanced Viewer et bien d’autres.
Nous présenterons également les résultats de notre dernier test de performance.
Enfin, découvrez en avant-première notre prochaine release incluant notamment les connecteurs Salesforce et Outlook et futures améliorations.
Le webinar inclut :
- Les dernières nouveautés de la plateforme Nuxeo
- Notre dernier test de performance
- Les améliorations à venir
Une analyse de la sécurité d'Amazon Web services selon la norme ISO 27002 faite à l'occasion du séminaire cloud computing organisé par le centre de compétence technique (CCT) du CNES
http://cct.cnes.fr/cct05/public/2010/index.htm#seminaires
Introduction à Apache Cassandra — IppEvent chez OVH 2017-03-02Jérôme Mainaud
Découvrez au cours de cette présentation le fonctionnement de la base de données Cassandra.
- Qu'est-ce que Cassandra ?
- Pourquoi l'utiliser ?
- Comment l'utiliser ?
- Comment la mettre en œuvre ?
Cette présentation a été jouée lors de l'IppEvent qui a eu lieu le 2017-03-02 dans les locaux d'OVH Lyon. Elle fait partir du temps fort Big Data 2017 https://blog.ippon.fr/2017/03/01/un-mois-de-mars-100-big-data/.
Merci à l'équipe d'OVH pour son accueil chaleureux.
Morning with MongoDB Paris 2012 - Cas d'usages courant en entreprise. Présent...MongoDB
Cas d'usages courant en entreprise. Présentations des Clients et des Integrateurs Partner (fr)
Criteo, Le Figaro, Fast Connect, OCTO, Xebia, Zenika, eNovance
Le Cloud, une réponse à nos besoins - Apéro Digital avril 2019 - Pascal MartinPascal MARTIN
Les slides que j'ai utilisés comme support de ma présentation « Le Cloud, une réponse à nos besoins », lors de l'Apéro Digital le 3 avril 2019 à Lyon.
Cette session sera consacrée à la présentation d’Amazon Redshift, qui est un service d’entrepôt de données entièrement géré dont la taille va de quelques centaines de giga-octets à un ou plusieurs péta-octets, coûtant moins de 1 000 USD par téra-octet et par an, soit un dixième du coût de la plupart des solutions classiques d'entrepôt de données. Vous découvrirez la simplicité avec laquelle vous pouvez démarrer avec Amazon RedShift et analyser et lancer des rapports sur plusieurs millions de lignes d’enregistrements en quelques secondes.
Big Data: Hadoop Map / Reduce sur Windows et Windows AzureMicrosoft
L'algorithme Map/Reduce et sa mise en oeuvre avec Apache Hadoop permettent de gérer de très grands volumes de données non structurées. Microsoft adopte Haddop sur Windows et Windows Azure. Venez voir comment.
Quand utiliser MongoDB … Et quand vous en passer…MongoDB
> Qu'est-ce que MongoDB ?
> À quoi sert MongoDB ?
> Les points forts de MongoDB... Les points à améliorer
> Ce que les clients peuvent faire et ne pas faire avec MongoDB
> Cas d'utilisation inhabituels
> Quand utiliser MongoDB
Cette session débutera par la présentation de la stratégie Software Defined Storage (SDN) de Microsoft en balayant les aspects privés, hybrides et publiques. Nous continuerons tout le long de la session par des cas d’usage fonctionnel s’appuyant sur les services de stockage Azure. Vous appréhenderez ainsi les critères de choix à prendre en compte pour concevoir une architecture cible. C’est dans cette démarche que nous clôturerons la session par un retour d’expérience client sur la traçabilité de production et packaging industriel s’appuyant sur les services Azure Tables & Blobs
Présentation et démos techniques des principaux services Google Cloud et leurs relations
(Compute Engine, Cloud Storage, Bigquery, Cloud SQL, Dataflow, Pub/Sub, Cloud Function)
Ce support explique les concepts de base de Big Data Processing. Elle aborde les parties suivantes :
Série de vidéos : https://www.youtube.com/watch?v=1JAljjxpm-Q
- Introduction au Big Data
- Système de stockage en Big Data
- Batch Processing et Stream Processing en Big Data
- Aperçu bref de l’écosystème de Hadoop
- Aperçu de l’écosystème des outils du Bid Gata
- Big data stream processing avec Kafka écosystème
- Architecture de Kafka (Brokers, Zookeeper, Procuder, Consumer, Kafka Streams, Connecteurs)
- Comment démarrer un cluster de brokers KAFKA
- Création et configuration des Topics
- Création d’un Java Kafka consumer
- Création d’un Java Kafka Produder
- Kafka Producer et Kafka Consumer dans une application basée sur Spring
- Kafka Streams
- Intégration de Kafka dans Spring Cloud.
Mot clés : Big data, Big Data Processing, Stream Processing, Kafka, Kafka Streams, Java, Spring
Bon apprentissage
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataMarc Bojoly
Big Data, MapReduce, calculs distribués, sont autant de buzz words et de concepts cantonnés jusqu’à maintenant à quelques acteurs spécifiques. Pourtant, il est un état de fait : nous sommes assis sur une quantité gigantesque de données dont il est difficile d’extraire l’information… D’autre part MapReduce est une solution éprouvée pour analyser d’énormes quantités de données (ou Big Data). Elle a, par exemple, été mise en œuvre par Google pour indexer le web, par LinkedIn pour calculer ses campagnes d’email… Dans ces conditions, ces concepts ont-ils un intérêt dans nos SI ? Quel est le niveau de maturité de ces solutions ? Cet atelier, co-organisé par OCTO Technology (www.octo.com) et Plaform (www.platform.com), démontrera que de telles solutions font sens dans nos projets SI. - See more at: http://blog.octo.com/petit-dejeuner-mapreduce-la-revolution-dans-lanalyse-des-bigdata-le-27-septembre/#sthash.GvRo8gOQ.dpuf
AWS Summit Paris - Track 2 - Session 2 - Préparez-vous à l'imprévuAmazon Web Services
Le Cloud Computing offre de nombreux avantages, tels que la possibilité de passer vos applications à l'échelle en fonction de vos besoins. Si vous avez une nouvelle application et que vous souhaitez utiliser le Cloud AWS, vous serez amené à vous poser la question suivante : "Par où dois-je commencer ?". Rejoignez-nous sur cette session pour comprendre les bonnes pratiques qui vous permettront de passer de 0 à plusieurs millions d'utilisateurs. Nous vous montrerons comment combiner au mieux les services AWS, prendre les bonnes décisions pour architecturer vos applications et déployer des infrastructure scalables dans le Cloud.
Slides du meetup Google Cloud présentant les différents services Google Cloud
- Compute Engine
- Gigquery
- Cloud Storage
- Cloud Function
- Google Dataflow / Apache Beam
- Google Spanner etc...
Gab17 lyon - La BI traditionnelle est une histoire du passée. Impacts de la r...AZUG FR
Global Azure Bootcam Lyon, France 2017 - La BI traditionnelle est une histoire du passée. Impacts de la révolution Cloud Azure sur la BI data en général, by Ihor Leontiev et Loris Andaloro
OSA02 - Pas de transactionnel haute performance sans un couple machine logici...Nicolas Desachy
Ressources cloisonnées et dépourvues de flexibilité ? Goulots d\’étranglement au niveau des performances ? Temps d\’arrêt inacceptables ? Coûts et complexité liés à l\’évolutivité ? Tâches de gestion manuelles très longues ? L’explosion des données et la croissance des transactions augmente la demande de systèmes éprouvés et capables de garantir l\’intégrité, les performances et la flexibilité tout en permettant de réaliser des économies. Si ces questions vous interpellent, cet atelier est pour vous. Vous y découvrirez les dernières nouveautés en terme de systèmes transactionnels IBM et les raisons pour lesquelles de nombreux clients migrent vers ces systèmes.
En prime : les premiers retours d’expérience de portage vers IBM DB2 9.7
Monter en charge, tester et surveiller avec une application Windows Azure : l...Microsoft Technet France
La plateforme Windows Azure dispose d’une offre de services riche qui s’étend rapidement. En fonction des projets, vous devez faire des choix d’architecture sur les services à utiliser et leur mise en œuvre. Quelles sont les bonnes pratiques, mais également les mauvaises pratiques à éviter. Les experts Azure MCS partagent leurs retours d’expérience issus de leurs engagements terrain parmi les sujets suivants : connaître les limites de charge (Scalability) de Windows Azure incluant SQL Database, comment monter en charge pour un certain nombre de services, tester en charge une application, puis surveiller et exploiter une application ou une VM Windows Azure.
J1 T1 3 - Azure Data Lake store & analytics 101 - Kenneth M. NielsenMS Cloud Summit
This document provides an overview and demonstration of Azure Data Lake Store and Azure Data Lake Analytics. The presenter discusses how Azure Data Lake can store and analyze large amounts of data in its native format. Key capabilities of Azure Data Lake Store like unlimited storage, security features, and support for any data type are highlighted. Azure Data Lake Analytics is presented as an elastic analytics service built on Apache YARN that can process large amounts of data. The U-SQL language for big data analytics is demonstrated, along with using Visual Studio and PowerShell for interacting with Azure Data Lake. The presentation concludes with a question and answer section.
J1 T1 4 - Azure Data Factory vs SSIS - Regis BaccaroMS Cloud Summit
This document compares Azure Data Factory (ADF) and SQL Server Integration Services (SSIS) for data integration tasks. It outlines the core concepts and architecture of ADF, including datasets, pipelines, activities, scheduling and execution. It then provides an overview of what SSIS is used for and its benefits. The document proceeds to compare ADF and SSIS in terms of development, administration, deployment, monitoring, supported sources and destinations, security, and pricing. It concludes that while both tools are not meant for the same purposes, organizations can benefit from using them together in a hybrid approach for different tasks.
This document discusses a community conference focused on cloud computing. It promotes connecting, sharing, and learning at the event. Several speakers are highlighted including Rohan Kumar from Microsoft who will give a keynote on data platforms. The document discusses major trends converging around intelligence, cloud, big data and IoT. It promotes Microsoft solutions for optimizing IT and business transformation through an intelligent platform, self-managed services, a modern data platform, and integrated intelligence.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
J1 T1 2 - Azure DocumentDB, une base de données extrêmement rapide à l’échelle de la planète - Arnaud Comet
1. MS Cloud Summit
DocumentDB, une base de donnée extrêmement
rapide à l’échelle de la planète
Arnaud Comet
Program Manager, Microsoft
acomet@microsoft.com
3. Accélérationdel’innovation
3
Support Upsert
Order By
Géospatial
Connecteur Power BI
Stream Analytics
Support
Geo-replication globale
Collection Partitionnée
Protocole MongoDB
Connecteur Hadoop
TTL (Time To Leave)
Support SDK pour “Retry”
automatique
Transaction multi-
document
Planificateur des ressources
mis à jour
Emulateur local
(DocumentDB gratuit)
Support Change
Feed/Streams
Expansion Globale (Ring 0)
Support géospatial
amélioré: indexation
automatique polygone et
objets LineString
Amélioration des métriques
Compliance
5. Pasuneseulesolutionpourtous
Azure PaaS
Evolution verticale
Co-located compute & storage
Index Mgmt
/QP
Persistence
locale
Local compute
& storage
• Base de donnée
1TB (futur, 4TB)
Azure SQL DB
Optimisée pour
lecture
Relational
…
Index Mgmt
/QP
Persistence
locale
Local compute &
storage on each
shard
Evolution horizontale
Co-located compute & storage
• Une seule collection de1PB &
100s of millions of req/sec
• Plusieurs collections par base
de donnée
Azure DocumentDB
Optimisée pour lecture/écriture
NoSQL
6. Compromis 2x2 des bases de données
Microsoft Confidential (under NDA)
8. Demos
• Extensibilité instantanée
• Distribution des données à l’échelle de la planète
• Interface de requête
• Migration de données + DocumentDB avec Power
BI
9. Gestiondesdonnées • Les ressources sont gérées en tant
qu'éléments (documents JSON
contenant des métadonnées) et en
tant que flux (collections d'éléments)
• Chaque base de données contient
plusieurs collections qui comportent:
Documents
Procédures stockées, des
déclencheurs, des fonctions
définies par l’utilisateur
Pièces jointes associées
• Une base de donnée est aussi associée
à:
Utilisateurs possédant un
ensemble d'autorisations d’accés
12. Elasticité extensible du
stockage
• Système conçu pour une extensibilité
indépendante du stockage et des
transactions
• Serveur transparent pour le management
des partitions et routage
• Indexage automatique en stockage SSD
• Distribution globale automatique des
données au sein de plusieurs régions
• Possibilité d’effacer les données usagées
automatiquement (TTL support)
13. Plus de transactions
Moins de transactions
9PM PST
Elasticité extensible
des transactions
• Changement élastique des débits
approvisionnés de 100 à 10
millions de transactions par
seconde
• Le provisionnement de
DocumentDB a un coût horaire
• Gratuit: émulateur
• Minimum: 400 RU/sec
Moins de
transactions
Plus de transactions
11PM PST
9PM PST
14. Demos
• Extensibilité instantanée
• Distribution des données à l’échelle de la planète
• Interface de requête
• Migration de données + DocumentDB avec Power
BI
15. Faible latence
garantie
“Je veux mes données au plus proche de
mes clients”
Lecture <10ms @ P99, <1ms @ P50
Ecriture <15ms @ P99, <6ms at P50
• Distribution mondiale des
écriture/lecture au niveau local
• Optimisé pour l’écriture rapide et
multiple sur un stockage SSD
• Indexage automatique et synchrone à
des taux d’ingestion élevés
18. Présence
TBD
En tant que service Ring 0, Document sera disponible par défaut dans toute nouvelle région
19. Demos
• Extensibilité instantanée
• Distribution des données à l’échelle de la planète
• Interface de requête
• Migration de données + DocumentDB avec Power
BI
20. Disponibilité de 99,99 %
en cas de défaillance
• Tous les clusters sont
configurés avec 10-20
domaines d’erreur
• Chaque partition a 3 réplicas
locaux
99.99%
22. Riches requêtes langage SQL, JavaScript et MongoDB
• Requêtes utilisant SQL ou/et JavaScript
• Exprimez la logique d’application en tant
que procédures stockées, déclencheurs et
fonctions définies par l’utilisateur à l’aide du
code JavaScript standard
• Toute la logique JavaScript est exécutée
dans une transaction ACID ambiante avec
isolement de capture instantanée
• MongoDB API bientôt en GA
23. Demos
• Extensibilité instantanée
• Distribution des données à l’échelle de la planète
• Interface de requête
• Migration de données + DocumentDB avec Power
BI
24. Niveaux de
cohérence ajustable
• Quatre niveaux de cohérence
ajustables
• Etre une base de donnée a réplication
mondiale nous force à naviguer le
CAP théorème
• Ces niveaux de cohérence sont plus
en phase avec les compromis PACELC
Strong consistency,
High latency
Eventual consistency,
Low latency
27%
3%
54%
16%
Observed Distribution
BoundedStaleness
Eventual
Session
Strong
Unique à DocumentDB
25. Indexage sans schema
• A grande échelle, ALTER TABLE et le management du
schéma/index sont difficiles à manager
• Indexation automatique et synchrone de toutes le données
ingérées – hash, range, géospatial, time-series (+Columnar en
2017 H1)
• Aucun index secondaire nécessaire!
• Base de donnée optimisée pour de nombreuses écritures
• Gouvernance de ressource complètement managée
• Transformation de l‘index en ligne et sur place (in-situ)
No Problem
No Schema
26. Change Feed • Modèle Lambda avec TCO bien inférieur
• Unique base de donnée pour l’ingestion et l’analyse de
données
29. Compliance(certified)
29
Certification Details Compliance
Status
Strong Privacy and Security Commitments
· No mining of customer data for advertising
· No voluntary disclosure to law enforcement agencies
Achieved
Strong Privacy and Security Commitments Achieved
ISO 27001 Achieved
ISO 27018 Achieved
EU Model Clauses (EUMC) Achieved
Strong Privacy and Security Commitments Achieved
ISO 27001 Achieved
ISO 27018 Achieved
EU Model Clauses (EUMC) Achieved
HIPAA Business Associate Agreement Achieved
Strong Privacy and Security Commitments Achieved
ISO 27001 Achieved
ISO 27018 Achieved
EU Model Clauses (EUMC) Achieved
HIPAA Business Associate Agreement Achieved
Contractual commitment to meet US and EU data residency requirements Achieved
30. Demos
• Extensibilité infinie et instantanée
• Distribution des données à l’échelle de la planète
• Interface de requête
• Migration de données + DocumentDB avec Power
BI