Le Deep Learning est la nouvelle révolution dans le monde de l’Intelligence Artificielle. Les systèmes de reconnaissance vocale et d’image fleurissent de toutes parts. Le Deep Learning est-il aussi utile pour votre entreprise ?
Si vous ne traitez pas que des images, quels Use Cases vous reste-t-il ? Quelles sont les solutions à votre disposition si vous ne possédez pas une grande quantité de données ? En quoi cette approche est-elle différente du Machine Learning classique ? Peut-on facilement interpréter les résultats fournis par ces “black-boxes” ? Est-il d’ores et déjà possible d’aller au-delà du POC ? Est-ce que votre SI va être impacté ? Comment confronter vos résultats à la réalité ?
Au cours de cette présentation, nous passerons en revue ces différentes questions et apporterons des solutions exploitables afin de mettre en application le Deep Learning en entreprise. Même si tout le monde ne s’appelle pas Google ou Facebook ou que vous n’avez pas des To de données à analyser, nous verrons qu’il est possible d’exploiter au mieux la puissance de ces algorithmes et d’en tirer bénéfice rapidement.
1 hour to browse the algos stars of machine learning. No code, big concepts with a little math. Linear regression, classification (logistic regression / svm / tree), neural network, deep learning...
La surcharge cognitive d'un utilisateur due à une trop grande quantité d'information est un problème majeur des systèmes hypermédia. Les systèmes de recommandation ont été introduits pour résoudre ce problème et sont maintenant utilisés couramment pour améliorer l'expérience utilisateur sur le Web. Cet exposé présente le fonctionnement des systèmes de recommandations, les différentes approches de la littérature, et l'évaluation des recommandations. Quelques unes de mes contributions sont abordées et des perspectives du domaine concluent cette présentation.
Les réseaux de neurones convolutifs CNNSALMARACHIDI1
La présentation a débuté par une introduction aux Réseaux de Neurones Convolutifs (CNN), en soulignant leur importance croissante dans le domaine de l'intelligence artificielle et du traitement d'images. Les CNN sont particulièrement adaptés à la reconnaissance d'images, à la classification d'objets et à d'autres tâches liées à la vision par ordinateur.
La première partie de la présentation a abordé les fondements des CNN. Les participants ont été familiarisés avec les concepts de base des réseaux de neurones et ont pu comprendre les différences entre les réseaux de neurones classiques et les CNN. Un accent particulier a été mis sur l'architecture spécifique des CNN, comprenant des couches de convolution, des couches de pooling et des couches entièrement connectées. Les participants ont compris comment les opérations de convolution permettent d'extraire des caractéristiques importantes des images, tandis que les opérations de pooling réduisent la dimensionnalité et conservent les informations essentielles.
Dans la deuxième partie de la présentation, l'accent a été mis sur l'implémentation pratique des CNN en utilisant le langage de programmation Python. Les participants ont été guidés à travers les étapes de construction d'un modèle CNN en utilisant des bibliothèques populaires telles que TensorFlow ou PyTorch. Ils ont appris à définir les couches de convolution, les couches de pooling et les couches entièrement connectées, ainsi qu'à configurer les hyperparamètres du modèle.
La présentation a également abordé des sujets connexes tels que l'entraînement et l'évaluation des modèles CNN, l'application de la technique de transfert d'apprentissage pour des tâches spécifiques, et les défis liés à la mise à l'échelle des CNN pour des ensembles de données plus volumineux.
En résumé, la présentation sur les Réseaux de Neurones Convolutifs (CNN) a permis aux participants de comprendre les principes fondamentaux de cette architecture, ainsi que d'acquérir les connaissances nécessaires pour mettre en œuvre un modèle CNN en utilisant Python. Ils ont également été sensibilisés aux applications et aux perspectives futures des CNN dans le domaine de la vision par ordinateur.
C'est une branche du Machine Learning très prometteuse. Que ce soit pour reconnaître des visages sur des images, analyser des textes et les interpréter automatiquement ou encore avoir des voitures qui conduisent toutes seules, les applications du Deep Learning sont nombreuses. Aujourd'hui, nous vous proposons un workshop qui va vous permettre de comprendre ce domaine et voir en quoi nous pourrions concretement l'utiliser.
1 hour to browse the algos stars of machine learning. No code, big concepts with a little math. Linear regression, classification (logistic regression / svm / tree), neural network, deep learning...
La surcharge cognitive d'un utilisateur due à une trop grande quantité d'information est un problème majeur des systèmes hypermédia. Les systèmes de recommandation ont été introduits pour résoudre ce problème et sont maintenant utilisés couramment pour améliorer l'expérience utilisateur sur le Web. Cet exposé présente le fonctionnement des systèmes de recommandations, les différentes approches de la littérature, et l'évaluation des recommandations. Quelques unes de mes contributions sont abordées et des perspectives du domaine concluent cette présentation.
Les réseaux de neurones convolutifs CNNSALMARACHIDI1
La présentation a débuté par une introduction aux Réseaux de Neurones Convolutifs (CNN), en soulignant leur importance croissante dans le domaine de l'intelligence artificielle et du traitement d'images. Les CNN sont particulièrement adaptés à la reconnaissance d'images, à la classification d'objets et à d'autres tâches liées à la vision par ordinateur.
La première partie de la présentation a abordé les fondements des CNN. Les participants ont été familiarisés avec les concepts de base des réseaux de neurones et ont pu comprendre les différences entre les réseaux de neurones classiques et les CNN. Un accent particulier a été mis sur l'architecture spécifique des CNN, comprenant des couches de convolution, des couches de pooling et des couches entièrement connectées. Les participants ont compris comment les opérations de convolution permettent d'extraire des caractéristiques importantes des images, tandis que les opérations de pooling réduisent la dimensionnalité et conservent les informations essentielles.
Dans la deuxième partie de la présentation, l'accent a été mis sur l'implémentation pratique des CNN en utilisant le langage de programmation Python. Les participants ont été guidés à travers les étapes de construction d'un modèle CNN en utilisant des bibliothèques populaires telles que TensorFlow ou PyTorch. Ils ont appris à définir les couches de convolution, les couches de pooling et les couches entièrement connectées, ainsi qu'à configurer les hyperparamètres du modèle.
La présentation a également abordé des sujets connexes tels que l'entraînement et l'évaluation des modèles CNN, l'application de la technique de transfert d'apprentissage pour des tâches spécifiques, et les défis liés à la mise à l'échelle des CNN pour des ensembles de données plus volumineux.
En résumé, la présentation sur les Réseaux de Neurones Convolutifs (CNN) a permis aux participants de comprendre les principes fondamentaux de cette architecture, ainsi que d'acquérir les connaissances nécessaires pour mettre en œuvre un modèle CNN en utilisant Python. Ils ont également été sensibilisés aux applications et aux perspectives futures des CNN dans le domaine de la vision par ordinateur.
C'est une branche du Machine Learning très prometteuse. Que ce soit pour reconnaître des visages sur des images, analyser des textes et les interpréter automatiquement ou encore avoir des voitures qui conduisent toutes seules, les applications du Deep Learning sont nombreuses. Aujourd'hui, nous vous proposons un workshop qui va vous permettre de comprendre ce domaine et voir en quoi nous pourrions concretement l'utiliser.
ARCHITECTURE MICROSERVICE : TOUR D’HORIZON DU CONCEPT ET BONNES PRATIQUESSOAT
Les systèmes distribués ont largement évolués ces 10 dernières années, passant d’énormes applications monolithiques à de petits containers de services, apportant plus de souplesse et d’agilité au sein des systèmes d’information.
Le terme « Architecture microservice » a vu le jour pour décrire cette manière particulière de concevoir des applications logicielles.
Bien qu’il n’y ait pas de définition précise de ce style d’architecture, elles ont un certain nombre de caractéristiques communes basées autour de l’organisation de l’entreprise, du déploiement automatisé et de la décentralisation du contrôle du langage et des données.
Seulement, développer ces systèmes peut tourner au véritable casse-tête. Je vous propose donc un tour des concepts et différentes caractéristiques de ce type d’architecture, des bonnes et mauvaises pratiques, de la création jusqu’au déploiement des applications.
Introduction to Deep Learning, Keras, and TensorFlowSri Ambati
This meetup was recorded in San Francisco on Jan 9, 2019.
Video recording of the session can be viewed here: https://youtu.be/yG1UJEzpJ64
Description:
This fast-paced session starts with a simple yet complete neural network (no frameworks), followed by an overview of activation functions, cost functions, backpropagation, and then a quick dive into CNNs. Next, we'll create a neural network using Keras, followed by an introduction to TensorFlow and TensorBoard. For best results, familiarity with basic vectors and matrices, inner (aka "dot") products of vectors, and rudimentary Python is definitely helpful. If time permits, we'll look at the UAT, CLT, and the Fixed Point Theorem. (Bonus points if you know Zorn's Lemma, the Well-Ordering Theorem, and the Axiom of Choice.)
Oswald's Bio:
Oswald Campesato is an education junkie: a former Ph.D. Candidate in Mathematics (ABD), with multiple Master's and 2 Bachelor's degrees. In a previous career, he worked in South America, Italy, and the French Riviera, which enabled him to travel to 70 countries throughout the world.
He has worked in American and Japanese corporations and start-ups, as C/C++ and Java developer to CTO. He works in the web and mobile space, conducts training sessions in Android, Java, Angular 2, and ReactJS, and he writes graphics code for fun. He's comfortable in four languages and aspires to become proficient in Japanese, ideally sometime in the next two decades. He enjoys collaborating with people who share his passion for learning the latest cool stuff, and he's currently working on his 15th book, which is about Angular 2.
Support Complet sur la technologie EJB 3.1. Ce cours Traite l'architecture JEE. Les différents types EJB (Session, Entity, MDB). Des exemple complets sont aussi présentés.
Formation JPA Avancé / Hibernate gratuite par Ippon 2014Ippon
Les ORM, c’est pratique. Mais cela peut rapidement devenir complexe ou subtile. JPA permet de rapidement modéliser la couche d’accès aux données avec une facilité indiscutable. Cependant, il est préférable de bien en comprendre le fonctionnement pour éviter quelques anti patterns fâcheux.
La formation JPA Avancé proposée par Ippon détaille les aspects techniques et permet d’aller plus loin dans la compréhension et la maîtrise. Enrichie par des TP très fournis lorsqu’elle est dispensée par les formateurs Ippon, elle permet d’assimiler en 3 jours les subtilités et offre les outils pour réaliser une couche d’accès aux données de qualité, performante et maintenable.
Techniques de modélisation, gestion et subtilités du cache (L1, L2), mécanismes transactionnels, langage de requêtage… Tous ces aspects et bien d’autres sont détaillés et illustrés afin de vous apporter les clefs pour vos prochains projets.
Découvrez dès aujourd’hui les slides de cette formation, mis à disposition dans le cadre de l’OpenFormation.
ARCHITECTURE MICROSERVICE : TOUR D’HORIZON DU CONCEPT ET BONNES PRATIQUESSOAT
Les systèmes distribués ont largement évolués ces 10 dernières années, passant d’énormes applications monolithiques à de petits containers de services, apportant plus de souplesse et d’agilité au sein des systèmes d’information.
Le terme « Architecture microservice » a vu le jour pour décrire cette manière particulière de concevoir des applications logicielles.
Bien qu’il n’y ait pas de définition précise de ce style d’architecture, elles ont un certain nombre de caractéristiques communes basées autour de l’organisation de l’entreprise, du déploiement automatisé et de la décentralisation du contrôle du langage et des données.
Seulement, développer ces systèmes peut tourner au véritable casse-tête. Je vous propose donc un tour des concepts et différentes caractéristiques de ce type d’architecture, des bonnes et mauvaises pratiques, de la création jusqu’au déploiement des applications.
Introduction to Deep Learning, Keras, and TensorFlowSri Ambati
This meetup was recorded in San Francisco on Jan 9, 2019.
Video recording of the session can be viewed here: https://youtu.be/yG1UJEzpJ64
Description:
This fast-paced session starts with a simple yet complete neural network (no frameworks), followed by an overview of activation functions, cost functions, backpropagation, and then a quick dive into CNNs. Next, we'll create a neural network using Keras, followed by an introduction to TensorFlow and TensorBoard. For best results, familiarity with basic vectors and matrices, inner (aka "dot") products of vectors, and rudimentary Python is definitely helpful. If time permits, we'll look at the UAT, CLT, and the Fixed Point Theorem. (Bonus points if you know Zorn's Lemma, the Well-Ordering Theorem, and the Axiom of Choice.)
Oswald's Bio:
Oswald Campesato is an education junkie: a former Ph.D. Candidate in Mathematics (ABD), with multiple Master's and 2 Bachelor's degrees. In a previous career, he worked in South America, Italy, and the French Riviera, which enabled him to travel to 70 countries throughout the world.
He has worked in American and Japanese corporations and start-ups, as C/C++ and Java developer to CTO. He works in the web and mobile space, conducts training sessions in Android, Java, Angular 2, and ReactJS, and he writes graphics code for fun. He's comfortable in four languages and aspires to become proficient in Japanese, ideally sometime in the next two decades. He enjoys collaborating with people who share his passion for learning the latest cool stuff, and he's currently working on his 15th book, which is about Angular 2.
Support Complet sur la technologie EJB 3.1. Ce cours Traite l'architecture JEE. Les différents types EJB (Session, Entity, MDB). Des exemple complets sont aussi présentés.
Formation JPA Avancé / Hibernate gratuite par Ippon 2014Ippon
Les ORM, c’est pratique. Mais cela peut rapidement devenir complexe ou subtile. JPA permet de rapidement modéliser la couche d’accès aux données avec une facilité indiscutable. Cependant, il est préférable de bien en comprendre le fonctionnement pour éviter quelques anti patterns fâcheux.
La formation JPA Avancé proposée par Ippon détaille les aspects techniques et permet d’aller plus loin dans la compréhension et la maîtrise. Enrichie par des TP très fournis lorsqu’elle est dispensée par les formateurs Ippon, elle permet d’assimiler en 3 jours les subtilités et offre les outils pour réaliser une couche d’accès aux données de qualité, performante et maintenable.
Techniques de modélisation, gestion et subtilités du cache (L1, L2), mécanismes transactionnels, langage de requêtage… Tous ces aspects et bien d’autres sont détaillés et illustrés afin de vous apporter les clefs pour vos prochains projets.
Découvrez dès aujourd’hui les slides de cette formation, mis à disposition dans le cadre de l’OpenFormation.
BIPEA 2023 Yvon Gervaise : L'IA Matrice du Laboratoire du Futur ..YvonGervaise
L’INTELLIGENCE ARTIFICIELLE CHALLENGE POUR LES LABORATOIRES DANS LES PROCHAINES ANNEES ?
L’I.A : Matrice du Laboratoire du Futur …
Voici le support de ma #Conference faite lors des Rencontres Techniques #BIPEA 2023
Il y est aussi question de nouveautés #PhenoMatrix , #IAGenerative #BingGPT4 …
#LaboratoireduFutur #Laboratoires
Via #ExpertScience ( E.S.C. ExpertScience - Consulting
Comment l’intelligence artificielle réinvente la fouille de texteAntidot
La fouille de texte a déjà prouvé son intérêt pour tirer le sens des contenus et les enrichir avec des informations contextuelles, ce qui facilite la navigation, la recherche et aujourd’hui la recommandation automatique d’information. Cependant, les approches conventionnelles sont complexes à mettre en œuvre et coûteuses à exploiter pour une qualité pas toujours au rendez-vous.
Grâce aux nouvelles approches statistiques issues du machine learning, la classification automatique de documents et l’extraction d’entités nommées deviennent très accessibles et bien plus qualitatives.
Antidot vous présentera deux retours d’expérience sur ces nouvelles approches dans des contextes clients opérationnels dans le domaine de l’information juridique avec le CAIJ (Centre d’Accès à l’Information Juridique du Québec) et dans le domaine de la presse avec l’hebdomadaire Le Point.
Conférence du 10 novembre 2O22 par Yvon Gervaise.pdfYvon Gervaise
j'ai mis en ligne ma conférence de ce 10/11/22 faite lors notre colloque "Laboratoire du Futur épisode N°2 , le défi de l'intelligence industrielle"
toutes les vidéos des conférences de cette Journée Scientifique et Professionnelle seront accessibles via Replay Web TV INSA Rouen
CHimie & Inteligence Artificielle cours YG.pdfYvon Gervaise
Cours - conférence de Yvon Gervaise aux Etudiants de Master 2 Chimie de l'université de Rouen le 17 janvier 2023 " Chimie et Intelligence artificielle " systemes experts , Machine Learning , réseau de neurones , deep- Learning : concepts et applications en chimie . Ex DENDRAL & ALPHAFOLD
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdfYvon Gervaise
Cours #Conférence de Yvon Gervaise à destination des étudiants de #Master #Science M2 #Chimie Universite de Rouen donné le 10 Janvier 2024
Thème :
I.A.et Chimie : « l’avènement de l’intelligence Artificielle ( I.A.) , réseaux de neurones , algorithmes d’apprentissage automatique , I.A. Générative au cœur d’une nouvelle révolution pour la Chimie »
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon GervaiseYvon Gervaise
L’INTELLIGENCE ARTIFICIELLE CHALLENGE POUR LES LABORATOIRES DANS LES PROCHAINES ANNEES ?
L’I.A : Matrice du Laboratoire du Futur …
Voici le support de ma #Conference faite lors des Rencontres Techniques #BIPEA 2023
Il y est aussi question de nouveautés #PhenoMatrix , #IAGenerative #BingGPT4 …
#LaboratoireduFutur #Laboratoires
Via #ExpertScience ( E.S.C. ExpertScience - Consulting
L'IA au service des Laboratoire - Conference donnée a Paris le 6 Février 2024YvonGervaise
En Partage Version française de ma Conférence faite à Paris le 6 Fevrier 2024 au 1st Green Analytical Chemistry Workshop avec pour Thème l'intelligence Artificielle au service des laboratoires
L'Intelligence Artificielle I.A. au service des LaboratoiresYvon Gervaise
En partage la version française de ma Conférence faite à Paris le 6 février 2024 au 1st Green Analytical Chemistry Workshop avec pour Thème : "L'Intelligence Artificielle au service des Laboratoires "
Comment le Data et Deep Learning révolutionnent la sciencehabib200
Conférence sur le thème : Intelligence artificielle et Internet des objets. Organisée par : le laboratoire de technologie de l'information et modélisation (TIM) , Faculté des sciences Ben M'Sik, univérsité Hassan II Casablanca
Softshake 2015 - Des small data aux big data - Méthodes et TechnologiesOCTO Technology Suisse
L'importance de la donnée et les informations que nous pouvons en tirer sont en train de révolutionner notre monde. De plus en plus massives et hétérogènes, l'exploitation de ces données induit de faire appel à de nouvelles méthodes et technologies. Ces évolutions récentes en termes de moyens de stockage, de capacités de calcul et de méthodes d'analyse donnent une nouvelle place aux données dans notre quotidien.
Cette présentation offre une découverte du monde du big data en introduisant les différentes méthodes et technologies utilisées et en les illustrant de plusieurs cas pratiques.
Forum Labo Version DEF par Yvon Gervaise.pdfYvon Gervaise
Conférence de Yvon Gervaise
Forum Labo 2023 Paris 30/3/23
L'Intelligence Artificielle une opportunité pour les Laboratoires
" la puissance des algorithmes de Machine Learning ouvre une nouvelle ère pour le Laboratoire du Futur "
L'objectif de cette présentation est de proposer des pistes pour rendre un projet de bioinformatique reproductible.
Durée : 30 + 10 minutes de questions
Lieu : Roscoff, France
Et si le cerveau humain utilisait un algorithme pour la reconnaissance d'images ?
Expliquons et comparons les algorithmes de reconnaissance de formes des ordinateurs et le fonctionnement neurologique du cerveau humain.
Par Sarah Buisson, Craftsman full-stack Java chez Xebia
Toutes les informations et vidéos sur xebicon.fr
Aujourd'hui accessibles partout, les objets connectés suscitent de plus en plus d’intérêt. Malgré cela, l’implémentation d’un projet IoT peut s’avérer compliquée au vu la diversité des dispositifs, protocoles et frameworks. Le nombre d'alternatives qui se présentent à nous est énorme.
En partant de l'embarqué, avec les protocoles applicatifs, jusqu'au déploiement d'une solution sur le cloud, en passant par la délégation des traitements en local via l'IoT Edge, nous rentrerons dans le détail de l'implémentation d'une solution IoT de bout en bout, le tout en comparant deux solutions : AWS et Azure.
Par Diana Ortega, Développeuse Back-End, Yassir Sennoun et Sameh Ben Fredj Data Scientist et IoT, consultants chez Xebia
Toutes les informations et vidéos sur xebicon.fr
Terminé l'adminstration de cluster Hadoop !
Depuis l'arrivée de la version 2.3 de Spark, il est maintenant possible de lancer des jobs sur un cluster Manager Kubernetes. Ce slot se propose de vous faire découvrir Spark sur un cluster manager Kubernetes mais pas seulement.
Il se propose également de montrer les nouvelles façons de faire du Spark sans être dépendant d'une distribution Hadoop tout en interagissant de manière sécurisée avec un stockage de masse.
Toutes ces solutions seront présentées à l'aide d'un provider de Cloud. Vous découvrirez lequel durant la présentation.
Par Bruno Bouchahoua, Architect Data chez Xebia
Toutes les informations et vidéos sur xebicon.fr
Vous avez beau avoir modernisé vos applications, les avoir rendu stateless, 12factor-compliant, etc., si vous n'avez pas l'infrastructure pour les déployer proprement et les gérer, votre bénéfice final sera fortement amoindri.
Cette conférence a pour but de vous faire ressortir avec une définition et une vision claires des principaux concepts qui caractérisent une infrastructure moderne. Nous y parlerons Configuration Management, infrastructure immuable, infra-as-Code, orchestration, self-healing, systèmes distribués, applications Cloud Native, Serverless ... et ce n'est qu'un avant goût !
Par Alexis "Horgix" Chotard, SRE & Automation addict chez Xebia
Toutes les informations et vidéo sur xebicon.fr
The document discusses modern web application architectures like single-page applications (SPAs), progressive web apps (PWAs), server-side rendering (SSR), code splitting, precaching, and service workers. It provides an overview of each technique including benefits, examples, and how they can work together. Specific topics covered include using SSR to improve SEO for SPAs, code splitting to reduce bundle size, precaching to enable offline use, and how service workers can cache assets to improve performance.
Depuis quelques années, les notebook ont gagné en popularité. Apache Zeppelin, avec son architecture modulaire, offre une solution de notebook et de dashboarding, le tout sans mettre de côté la sécurité. Cette présentation vous fera découvrir cet outil merveilleux dont vous ne pourrez bientôt plus vous passer.
Par Romain Sagean, Data Engineer chez Xebia
Toutes les informations sur xebicon.fr
Le RGPD est entré en vigueur le 25 mai 2018 avec les implications que nous connaissons tous (droit à l'oubli, consentement explicite, sécurité par défaut, etc.)
En parallèle, nous développons de plus en plus d'architectures autour de l'Event Sourcing, qui par définition sauvegarde les données de manière immutable.
Mais alors, comment faire pour concilier une architecture autour de l'Event Sourcing, immutable, avec les restrictions imposées par le RGPD ?
C'est ce que nous allons explorer durant cette session !
Par Charles Dufour, Développeur Back-End chez Xebia
Toutes les informations sur xebicon.fr
Le créateur de NodeJS, Ryan Dahl, a décidé de créer un nouveau runtime pour Javascript : Deno. Son but ? Eliminer les erreurs et maladresses de son grand frère. Découvrez ce qui se cache derrière ainsi que la vision de son créateur.
Par Maxime Pichou, développeur Back/Cloud chez Xebia
Toutes les informations sur xebicon.fr
Lorsque la quantité de données est très grande et que l'architecture de votre réseau de neurones est complexe, la question du temps d'entraînement et de la capacité de votre machine deviennent primordiales. Un entraînement de modèle peut vite prendre plusieurs heures voire jours, ou même ne pas tenir en mémoire. Il est alors temps de parler de Deep Learning distribué !
Au cours de cette présentation, nous allons voir différentes solutions et bonnes pratiques pour accélérer l'entraînement de modèles de Deep Learning en les distribuant sur un cluster ou sur des plateformes multi-GPUs.
Par Yoann Benoit, Data Scientist et Technical Officer chez Xebia
Toutes les informations sur xebicon.fr
Par curiosité, puis par passion, j'ai développé un jeu vidéo à l'aide des outils et frameworks habituellement utilisés dans des applications web.
Pas commun dites-vous ? Revenons ensemble sur la manière dont je m'y suis pris, les choix techniques et ce qui les a faits évoluer, les challenges et les compétences développées au cours de cette aventure.
Par Alexandre Dergham, Développeurs full-stack chez Xebia
Toutes les informations sur xebicon.fr
Depuis quelques années, vous entendez parler de transformation d’entreprises permettant la diminution du Time-To-Market, le rapprochement des développeurs et opérationnels et la synchronisation des backlogs ou encore favorisant le plaisir au travail. Pourtant nous oublions l’essentiel, réaliser le bon produit répondant aux réelles problématiques des utilisateurs finaux.
Ce fondement est trop souvent oublié par toutes ces entreprises voulant monter vite sur l’agilité à l’échelle. Vous êtes vous déjà rendu compte à quel point cette clé de succès est oubliée ? Savez-vous pourquoi il faut mettre un point d’honneur à intégrer les utilisateurs finaux dans les projets ?
Par Nelson Dufossé, Agile Delivery Manager chez Xebia
Toutes les informations sur xebicon.fr
Une Data Visualisation permet en un seul coup d’œil de véhiculer des résultats (d'analyse). Au travers de contre-exemples bien choisis, nous allons voir les nombreux pièges qui nuisent à la lisibilité et l'interprétation des données et comment choisir la bonne représentation pour faire passer vos idées.
Par Romain Sagean, Data Engineer chez Xebia
Toutes les informations sur xebicon.fr
"Quand je serai grand je travaillerai chez SEGA". Julien Smadja, 10 ans.
À travers les différents média de la Pop Culture, nous allons étudier l'image des développeurs, entre mythe, réalité, fantasme et exagération.
Quelle est l'image du développeur en 2018 ? Notre métier fait-il réver et donne-t-il envie aux jeunes et moins jeunes ?
Par Julien Smadja, Directeur Conseil chez Xebia
Toutes les informations sur xebicon.fr
Vous avez l’impression que vous devez jeter la moitié de votre code tous les 6 mois ? Plus le temps passe, moins votre application mobile est maintenable ?
Injection de dépendances, routage ou gestion des environnements, venez découvrir nos conseils pour vous aider à réaliser des applications mobiles évolutives conçues pour durer dans le temps.
Par Jean-Christophe Pastant, Mobile Engineer chez Xebia
Toutes les informations sur xebicon.fr
Nous entrons progressivement dans l’ère du temps réel et toutes les technologies nécessaires sont désormais à portée de mains, mais comment s’y prendre ? Quelles technologies choisir ? Nous allons vous montrer aujourd’hui comment créer facilement une application temps-réel qui scale ! Notre Stack ? Kubernetes, Google Container Engine, React, Redux et RethinkDB.
Par Jérémy P. et Damien Baron, consultants chez Xebia
Toutes les informations sur xebicon.fr
Que se passe-t-il dans nos têtes en permanence lorsque nous sommes à plusieurs et pourquoi ces mécanismes psychologiques s'activent ? Pourquoi passe-t-on notre temps, malgré nous, à jouer à des jeux psychologiques ? Que dit-on après avoir dit bonjour ? Comment nait et évolue un groupe dans le temps ? Comment repérer quand il dysfonctionne ? Les individus et leurs interactions plus que les processus et les outils ? Pour toute personne qui ne vit pas seule dans une grotte, ce sujet se veut utile et pourquoi pas intéressant
Par Anne-Sophie Girault, Coach Agile chez Xebia
Toutes les informations sur xebicon.fr
Spark NLP (Natural Language Processing) permet depuis son lancement en open source, il y a un an et quelques mois, d'avoir une solution de traitement du langage directement développé pour Apache Spark et Spark ML (Machine Learning). Apache Spark avec son module ML permet de lancer des tâches de data science, avec du machine learning et du deep learning, tout en profitant de l'aspect distribué de son architecture. Avec Spark NLP, on peut le faire maintenant avec des tâches de NLP spécialisé.
Depuis sa sortie, que peux-t-on faire avec Spark NLP ? Quels cas sont à tester avec Spark NLP, et ceux à éviter ? Est-ce facile pour les équipes d'entraîner un modèle et de l'utiliser dans son pipeline ?
Nous verrons ces questions à travers un exemple rapide d'entraînement de détection d'entités nommées (NER) avec Spark NLP.
Par Aurore De Amaral, Data Engineer chez Xebia
Toutes les informations sur xebicon.fr
La sécurité, cette branche de notre domaine dont le devoir est de protéger le système d'information, revient très souvent comme un point de douleur dans toutes les étapes du cycle de vie d'un projet. Pourtant, malgré une nécessité réelle, un bon nombre des mesures prises sont incomplètes, voire inutiles.
Des politiques de mot de passe aberrantes au proxy ne limitant en pratique que peu de choses, ce slot tentera de démystifier les principes clés de la sécurité et d'expliquer pourquoi un certain nombre des mesures courantes dans les entreprises n'ont en réalité qu'un effet placebo.
Par Jonathan Raffre, Technical Architect chez Xebia
Toutes les informations sur xebicon.fr
La blockchain est la technologie buzzword du moment pour assurer une traçabilité des transactions. Beaucoup de personnes en parlent, mais très peu savent comment cela fonctionne réellement. Pire, de plus d'outils d'implémentations font leur apparition, et il est difficile de s'y retrouver.
The Linux Foundation a créé Hyperledger Fabric, un framework permettant la réalisation d'un réseau de blockchain from scratch très prometteur, que nous allons décortiquer ensemble. Nous allons donc réaliser un tour d'horizon de ce qu'il permet et explorer les tenants et aboutissants de ce qu'est concrètement la réalisation d'un tel réseau.
Cette présentation a pour vocation de vous permettre de comprendre en détail le fonctionnement de cette technologie, et surtout d'être capable de savoir si elle peut répondre à vos besoins.
Par Vincent Segouin, Développeur full-stack JS Java chez Xebia
Toutes les informations sur xebicon.fr
En plus d'un siècle d'existence, la gestion de la circulation et l'organisation du métro parisien ont dû évoluer pour augmenter en permanence le débit tout en tenant compte des contraintes de sécurité. Vous commencez à comprendre où cette présentation veut en venir...
Le temps de cette session, prenons un peu de recul sur notre cœur de métier : la création logicielle. Entre organisation du travail, amélioration d'un produit sur le long terme ou équilibre permanent qu'il faut trouver entre exploitabilité et sécurité, vous serez surpris de retrouver de nombreux parallèles et de voir ce qu'ils peuvent nous apporter.
Par Edouard Siha, Développeur Back-End chez Xebia
Toutes les informations sur xebicon.fr
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...OCTO Technology
par Claude Camus (Coach agile d'organisation @OCTO Technology) et Gilles Masy (Organizational Coach @OCTO Technology)
Les équipes infrastructure, sécurité, production, ou cloud, doivent consacrer du temps à la modernisation de leurs outils (automatisation, cloud, etc) et de leurs pratiques (DevOps, SRE, etc). Dans le même temps, elles doivent répondre à une avalanche croissante de demandes, tout en maintenant un niveau de qualité de service optimal.
Habitué des environnements développeurs, les transformations agiles négligent les particularités des équipes OPS. Lors de ce comptoir, nous vous partagerons notre proposition de valeur de l'agilité@OPS, qui embarquera vos équipes OPS en Classe Business (Agility), et leur fera dire : "nous ne reviendrons pas en arrière".
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
OCTO TALKS : 4 Tech Trends du Software Engineering.pdfOCTO Technology
En cette année 2024 qui s’annonce sous le signe de la complexité, avec :
- L’explosion de la Gen AI
-Un contexte socio-économique sous tensions
- De forts enjeux sur le Sustainable et la régulation IT
- Une archipélisation des lieux de travail post-Covid
Découvrez les Tech trends incontournables pour délivrer vos produits stratégiques.
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
5. Deep Learning
C’est quoi ??
J’en entends parler de partout, mais je
ne sais toujours pas ce qu’il y a derrière
...
5
6. Deep Learning : C’est quoi ?
Une branche du Machine Learning
Avec ses spécificités ➢ Une forme de l’intelligence
artificielle
➢ Dérivé de l’apprentissage
automatique
➢ Représente un ensemble des
méthodes d’apprentissage
automatique
➢ Plusieurs particularités qui
permettent de se différencier des
algorithmes “classiques”
https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ 6
7. Deep Learning : C’est quoi ?
Pourquoi “deep”?
Réseau de neurones
➢ Profondeur de
l’architecture
➢ Transformations
géométriques simples
au sein d’une couche
➢ Apprentissage de
fonction complexes en
superposant les couches
7
10. Différence avec le Machine Learning “traditionnel”
Feature Engineering
Preprocessing vs données brutes
Deep learning
traitement automatique du
texte
Machine learning traditionnel
Nettoyage de données et Feature engineering
Tokenization
Remove
stopwords
Stemming
Part of speech
tagging
ModélisationDonnées brutes
ModélisationDonnées brutes
10
11. Différence avec le Machine Learning “traditionnel”
Extraction de features
Plusieurs différences
Deep learning Machine learning “traditionnel”
extraction des features de manière
automatisée
extraction des features “à la main”
niveau d’abstraction élevé features compréhensibles
composés indépendantes
les photos des animaux
Reconnaissance des chats
les bords, courbes, coins
de la photo
fourrure, yeux, nez
corps, tête, jambes
chat ou chouette? 11
19. Deep Learning : Pourquoi maintenant ?
Des idées présentes depuis des décennies
Pensées par les précurseurs du domaine
Multi-Layer
Perceptron
Back-Propagation
Algorithm
Convolutional Neural
Networks
Long-Short Term Memory
Networks
1960
1975
1989
1995
Source : Deep Learning in Neural Networks: An Overview (https://arxiv.org/pdf/1404.7828.pdf)
19
20. Deep Learning : Pourquoi maintenant ?
Ce qui a changé récemment
Deux ingrédients majeurs
Temps
Quantité de données
Puissance de calcul
CPU GPU
Volume
20
21. Deep Learning
Pourquoi de telles
performances ??
Alors qu’elles étaient inatteignables avec
le Machine Learning classique ...
21
24. Traditional Machine Learning
Deep Neural Network
Comparaison des performances
Quantité de données
Performance
Medium Neural Network
24
25. Traditional Machine Learning
Deep Neural Network
Comparaison des performances
Quantité de données
Performance
Medium Neural Network
Volumétrie moyenne
Focus sur le Feature Engineering
25
26. Traditional Machine Learning
Deep Neural Network
Comparaison des performances
Quantité de données
Performance
Medium Neural Network
Volumétrie importante
Plateau pour les modèles traditionnels
Performances augmentent avec le volume de données
pour les réseaux de neurones
26
29. Quand l’utiliser?
Est-ce que c’est pour moi ?
Difficile de créer des features
Accès à des machines
puissantes
Pas besoin de les interpréter
Beaucoup de données à
disposition
29
mais tout est contestable...
31. Stratégies pour le Deep Learning
Construire sa chaîne de traitement rapidement
Et itérer souvent
Collecte de la
donnée
Split de la
donnée
Entraînement
d’un modèle
Analyse des
erreurs
Feature
Engineering
31
32. Stratégies pour le Deep Learning
Construire sa chaîne de traitement rapidement
Et itérer souvent
Collecte de la
donnée
Split de la
donnée
Entraînement
d’un modèle
Analyse des
erreurs
Feature
Engineering
32
33. Stratégies pour le Deep Learning
Stratégies pour améliorer les performances
Machine Learning “traditionnel”
Changer de modèle
Optimisation des
hyperparamètres
Nouvelles features
Régularisation
Bias / Variance Tradeoff
➢ Difficile d’optimiser à la fois
la performance d’un modèle
et sa capacité de
généralisation
➢ Compromis à trouver
33
34. Stratégies pour le Deep Learning
Stratégies pour améliorer les performances
Des stratégies différentes en fonction de l’emplacement des erreurs
Train Set
Validation Set
Real world
Test Set
34
Les données sur lesquelles je m’entraîne
Les données sur lesquelles je choisis les meilleurs paramètres de mon modèle
Les données sur lesquelles je teste définitivement mon modèle
Les données réelles de production, à l’utilisation en conditions réelles
35. Stratégies pour le Deep Learning
Stratégies pour améliorer les performances
Amélioration des performances sur le train set
Train Set
Validation Set
Real world
Modèle plus
profond
Optimiseur
différentTest Set
Entraînement sur
plus d’itérations
35
36. Stratégies pour le Deep Learning
Stratégies pour améliorer les performances
Amélioration des performances sur les jeux de validation
Train Set
Validation Set
Real world
Plus de données
Régularisation
Test Set
Fonction de coût
différente
Distribution des
données
36
37. Stratégies pour le Deep Learning
Des architectures à foison
S’inspirer des architectures existantes
37
Source : The Neural Network Zoo (http://www.asimovinstitute.org/neural-network-zoo/)
Certaines architectures ont fait
leurs preuves :
➢ Reconnaissance d’images : CNN
➢ Détection d’objets : RCNN, YOLO
➢ Texte, Son, Time Series : RNN
➢ Génération de données : GAN
➢ Détection d’anomalies : Deep
Autoencoders
38. Deep Learning
Peu de données …
Comment faire ??
Est-ce que c’est sans issue ?
38
39. Solutions avec une faible volumétrie de données
Data Augmentation
Augmenter artificiellement la taille de son dataset
➢ Transformations aléatoires sur les données d’origine
➢ Images : Rotations, changement d’échelle, cropping, transposition horizontale, etc.
39
Source : Keras Blog (https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html)
40. Solutions avec une faible volumétrie de données
Données provenant d’autres distributions
Pour faciliter le pouvoir de généralisation
➢ Augmentation de la taille du dataset d’entraînement en incorporant des données similaires mais non
directement liées à notre problème
Train set
Validation set Test set
Initial data + New data Initial data Initial data
Train set
40
41. Solutions avec une faible volumétrie de données
Transfer Learning
Transférer les connaissances d’un sujet similaire à notre sujet spécifique
➢ Modèles par nature hautement réutilisables
➢ Modèle profond entraîné sur un sujet similaire avec beaucoup de données
➢ Spécialisation des dernières couches sur la tâche cible
modèle
transfert de connaissance
41modèle
43. Est-ce que c’est interprétable?
Black box
Non, mais....
Un modèle de Machine Learning “traditionnel” avec plusieurs dizaines de
variables n’est pas interprétable non plus...
43
Arbre de profondeur 5
Arbre de profondeur > 10
44. Est-ce que c’est interprétable?
Interprétations locales des prédictions
Faire parler les black-boxes
Source : LIME package (https://github.com/marcotcr/lime)
44
46. Mesurer l’incertitude
Bayesian Deep Learning
La mesure de l’incertitude au sein même du modèle
Réseaux de Neurones traditionnels
➢ Prédiction d’une valeur fixe
➢ Pas de mesure de l’incertitude
associée à la prédiction
Réseaux de Neurones Bayésiens
➢ Estimation de l’incertitude de la
prédiction via la règles de Bayes
➢ Utilisation de méthodes de
“Variational Inference”
Source : Alpha-i Blog
(https://alpha-i.co/blog/MNIST-for-ML-beginner
s-The-Bayesian-Way.html) 46
47. Mesurer l’incertitude
Mesurer l’incertitude a posteriori
Modèle interprétable pour estimer les erreurs
Source : Ideas on Interpreting Machine Learning
(https://www.oreilly.com/ideas/ideas-on-interpreting-machine-learning?imm_mid=0f4c20&cmp=em-data-na-na-newsltr_20170726)
47
48. Mesurer l’incertitude
Mesurer l’incertitude a posteriori
Utilisation du dropout
Dropout : Principe
➢ Supprimer aléatoirement des
neurones pendant l’inférence
➢ Technique de régularisation
➢ Garder tous les neurones pour
les prédictions finales
Mesure d’incertitude
➢ Garder le dropout dans la
phase de prédiction
➢ Effectuer plusieurs
prédictions
➢ Calculer la distribution des
prédictions comme mesure
d’incertitude
Source : TensorFlow codelab (https://codelabs.developers.google.com/codelabs/cloud-tensorflow-mnist/#9)
48
Entraînement Prédiction
50. Conclusion
Qu’avons-nous appris?
Je voudrais tester le Deep Learning
demain, je fais quoi ?
★ Tester des frameworks existants
★ Mettre rapidement en place une
chaîne de traitement complète
★ Itérer souvent sur le
développement du modèle en
fonction des erreurs
➢ DL = Branche de ML avec ses particularités
➢ Applicable sur les données structurés et non structurés
➢ Performances souvent “state of the art” si grande volumétrie
➢ Plusieurs stratégies pour améliorer des performances en
fonction de la position des erreurs
➢ Solutions si peu de données : Data augmentation, ajout de
données d’autres distributions et transfer learning
➢ Les modèles ne sont pas simplement interprétables (comme la
plupart des modèles ML).
Take Aways
50
51. Frameworks de Deep Learning
Une multitude de frameworks
A choisir en fonction de l’utilisation cible
51