Ce support explique les concepts de base de Big Data Processing. Elle aborde les parties suivantes :
Série de vidéos : https://www.youtube.com/watch?v=1JAljjxpm-Q
- Introduction au Big Data
- Système de stockage en Big Data
- Batch Processing et Stream Processing en Big Data
- Aperçu bref de l’écosystème de Hadoop
- Aperçu de l’écosystème des outils du Bid Gata
- Big data stream processing avec Kafka écosystème
- Architecture de Kafka (Brokers, Zookeeper, Procuder, Consumer, Kafka Streams, Connecteurs)
- Comment démarrer un cluster de brokers KAFKA
- Création et configuration des Topics
- Création d’un Java Kafka consumer
- Création d’un Java Kafka Produder
- Kafka Producer et Kafka Consumer dans une application basée sur Spring
- Kafka Streams
- Intégration de Kafka dans Spring Cloud.
Mot clés : Big data, Big Data Processing, Stream Processing, Kafka, Kafka Streams, Java, Spring
Bon apprentissage
Exemple d'application qui montre comment utiliser les bonnes pratiques de JEE pour développer un site web de commerce électronique en utilisant les outils :
- Eclipse comme environnement de développement
- Maven comme outil d’intégration
- JUnit comme Framework des tsts unitaire
- Spring IOC pour l'inversion de contrôle
- Spring MVC pour la couche web
- Spring Security pour la sécurité
- JPA, Hibernate
- Web Service SOAP
- Web Service REST
- Service RMI
Ce support correspond à une conférence qui s'intéresse à la mise en œuvre des Framework de Machines et Deep learning pour les applications web et mobiles. Principalement les Framwork TensorFlow.JS et DeepLeanring4J.
Je l'ai présentée au début dans mon établissement auquel j’appartiens, l’ENSET Mohammedia puis dans la conférence Carrefour des informaticiens, organisée par les étudiants de l'AIAC :
Académie internationale Mohammed VI de l'aviation civile.
et le code source est publié sur mon compte GitHub. La suite de cette série sera sans doute publiées dans les prochaines conférences :
https://github.com/mohamedYoussfi/angular-tensorflowJS
https://github.com/mohamedYoussfi/angular-ml5.js-mobilenet-feature-extractor
https://github.com/mohamedYoussfi/deeplearning4j-cnn-mnist-app
Les vidéos de la conférence sont publiée dans ma chaîne vidéo : https://www.youtube.com/user/mohamedYoussfi
Le plan de la présentation est suivant :
- Quelques Concepts de base à comprendre :
- Machines er Deep Learning, Les réseaux de neurones artificiels, MLP et CNN
- Les problèmes et les contraintes posées par les algorithmes d’apprentissage basés sur les réseaux de neurones
- Principaux catalyseurs qui ont redynamisé l’intelligence artificielle :
- Calcul de hautes performances à savoir les architectures massivement parallèles et les systèmes distribués
- La Virtualisation et le cloud Computing
- Big Data, IOT et Applications Mobiles
- Framework et Algorithmes de Machines et Deep Learning
- Réseaux et Télécommunications
- Open source
- L’écosystème des Framework de Machines et Deep Learning.
- L’architecture du Framwork TensorFlow
- Comment développer des applications de machines et Deep Learning pour les applications Web et Mobile en utilisant TensorFlow.JS et ML.JS
- Comment développer des applications de machines et Deep Learning pour les applications Java JEE en utilisant le Framework DeepLearning4J
Mot Clés :
Intelligence Artificielle, Machines learning, deep learning, TensorflowJS, Deeplearning4j, java, java script, angular
Support Complet sur la technologie EJB 3.1. Ce cours Traite l'architecture JEE. Les différents types EJB (Session, Entity, MDB). Des exemple complets sont aussi présentés.
Ce support explique les concepts de base de Big Data Processing. Elle aborde les parties suivantes :
Série de vidéos : https://www.youtube.com/watch?v=1JAljjxpm-Q
- Introduction au Big Data
- Système de stockage en Big Data
- Batch Processing et Stream Processing en Big Data
- Aperçu bref de l’écosystème de Hadoop
- Aperçu de l’écosystème des outils du Bid Gata
- Big data stream processing avec Kafka écosystème
- Architecture de Kafka (Brokers, Zookeeper, Procuder, Consumer, Kafka Streams, Connecteurs)
- Comment démarrer un cluster de brokers KAFKA
- Création et configuration des Topics
- Création d’un Java Kafka consumer
- Création d’un Java Kafka Produder
- Kafka Producer et Kafka Consumer dans une application basée sur Spring
- Kafka Streams
- Intégration de Kafka dans Spring Cloud.
Mot clés : Big data, Big Data Processing, Stream Processing, Kafka, Kafka Streams, Java, Spring
Bon apprentissage
Exemple d'application qui montre comment utiliser les bonnes pratiques de JEE pour développer un site web de commerce électronique en utilisant les outils :
- Eclipse comme environnement de développement
- Maven comme outil d’intégration
- JUnit comme Framework des tsts unitaire
- Spring IOC pour l'inversion de contrôle
- Spring MVC pour la couche web
- Spring Security pour la sécurité
- JPA, Hibernate
- Web Service SOAP
- Web Service REST
- Service RMI
Ce support correspond à une conférence qui s'intéresse à la mise en œuvre des Framework de Machines et Deep learning pour les applications web et mobiles. Principalement les Framwork TensorFlow.JS et DeepLeanring4J.
Je l'ai présentée au début dans mon établissement auquel j’appartiens, l’ENSET Mohammedia puis dans la conférence Carrefour des informaticiens, organisée par les étudiants de l'AIAC :
Académie internationale Mohammed VI de l'aviation civile.
et le code source est publié sur mon compte GitHub. La suite de cette série sera sans doute publiées dans les prochaines conférences :
https://github.com/mohamedYoussfi/angular-tensorflowJS
https://github.com/mohamedYoussfi/angular-ml5.js-mobilenet-feature-extractor
https://github.com/mohamedYoussfi/deeplearning4j-cnn-mnist-app
Les vidéos de la conférence sont publiée dans ma chaîne vidéo : https://www.youtube.com/user/mohamedYoussfi
Le plan de la présentation est suivant :
- Quelques Concepts de base à comprendre :
- Machines er Deep Learning, Les réseaux de neurones artificiels, MLP et CNN
- Les problèmes et les contraintes posées par les algorithmes d’apprentissage basés sur les réseaux de neurones
- Principaux catalyseurs qui ont redynamisé l’intelligence artificielle :
- Calcul de hautes performances à savoir les architectures massivement parallèles et les systèmes distribués
- La Virtualisation et le cloud Computing
- Big Data, IOT et Applications Mobiles
- Framework et Algorithmes de Machines et Deep Learning
- Réseaux et Télécommunications
- Open source
- L’écosystème des Framework de Machines et Deep Learning.
- L’architecture du Framwork TensorFlow
- Comment développer des applications de machines et Deep Learning pour les applications Web et Mobile en utilisant TensorFlow.JS et ML.JS
- Comment développer des applications de machines et Deep Learning pour les applications Java JEE en utilisant le Framework DeepLearning4J
Mot Clés :
Intelligence Artificielle, Machines learning, deep learning, TensorflowJS, Deeplearning4j, java, java script, angular
Support Complet sur la technologie EJB 3.1. Ce cours Traite l'architecture JEE. Les différents types EJB (Session, Entity, MDB). Des exemple complets sont aussi présentés.
Alphorm.com Formation Big Data & Hadoop : Le Guide CompletAlphorm
Une bonne analyse et synthèse sur le domaine Big Data
Beaucoup de pratique sur Hadoop avec différentes méthodes : HDFS, Map Reduce, YARN, Spark, Hive, NoSQL, HDFS, HBase, zookeeper, MESOS et plusieurs autres outils
Les points forts de la formation
Une analyse globale sur le domaine Big Data et sur les outils liés à Hadoop avec beaucoup de pratique
Contenu de la formation
• Une bonne analyse de chaque concept illustré par de la pratique
• Les outils à installer sont à disposition
• Toutes les ressources sont à disposition
Résultats attendus
• Découvrir les formidables possibilités du Big Data avec Hadoop
• Comprendre parfaitement le périmètre de chaque outil de l'écosystème Hadoop
• Etre au fait de pouvoir utiliser Azure, AWS, et Google pour faire de l'Hadoop dans le Cloud
• Utiliser directement Hadoop sur de très nombreux exemples
• Découvrir le périmètre des bases NoSQL
• Comprendre comment faire du traitement temps réel avec Spark
Une riche présentation de Mapping Objet Relationnel qui traite le standard JPA et l’implémentation Hibernate en les intégrant avec le frammework IOC spring.
Présentation d'un cours en JAVA/J2EE
Création et manipulations des objets en Java
** Connexion JDBC à la base de données
** Modèle en couches
** FrameworkHibernate
** Framewoek Spring MVC
Construire une application sur l'architecture modèle-vue-contrôleur en PHP à partir d'un exemple simple : une liste de choses à faire, avec deux pages types : liste et détails.
Les primitives java, conditions, boucles..
Object, classes, Carcatéristiques...
Héritage et accessibilité (package, visibilité)
polymorphisme
Tableau et collections
Connexion base de données via JDBC
Séminaire sur Machines, Deep Learning For Web Mobile and Embedded Application with DL4J and TFJS :
Les vidéos de ce séminaire sont publiée sur les adresses suivantes :
- https://www.youtube.com/watch?v=uGSa4NigFKs
- https://www.youtube.com/watch?v=2yRAu78slgc
- https://www.youtube.com/watch?v=1ThjK3xLWII
- https://www.youtube.com/watch?v=N7LCa6aiqFs
Ce séminaire a été animé à l’ENSET de Mohammedia, dans le cadre du Projet Européen H2020 CybSPEED (Cyber Physical Systems for Pedagogical Rehabilitation in Special Education) dans lequel notre laboratoire de recherche SSDIA (Signaux, Systèmes Distribués et Intelligence Artificielle) est partenaire aux cotés des pays partenaires (France, Espagne, Grèce, Bulgarie, Japan et Chillie). Un projet Multi-disciplinaire autour de l'Intelligence Artificielle, visant à créer un robot destiné à assister les personnes à besoins spécifiques, en particulier les personnes atteintes par la maladie de l’autisme. Ce séminaire traite deux thématiques principales Lattice Computing animé par le professeur Vassillis Kaburlasos, EMaTTech, KAVALA, GRECE et Outils de mise en oeuvre de Machines et Deep Learning pour les applications Web Mobiles et embarquées, animé par moi même. Ce séminaire a un caractère de formation, de sensibilisation et de maîtrise des outils de développement des algorithmes de l'IA pour un public hétérogène Multi-disciplinaire (Informatique, Génie Electrique, Génie Mécanique, Ingénierie Pédagogique, Biologie, Chimie, etc..) constitué principalement des doctorants de notre Labo SSDIA, d'autres Labo affiliés au CeDOC de la FST de Mohammedia ainsi que des enseignants chercheurs de l'ENSET, de EMaTTech Kavala, Grèce et d'autres enseignants chercheurs venant de d'autres centres comme CRMF de Marrakech.
Ce séminaire vise particulièrement à expliquer quelques concepts liés à l’intelligence artificielle. Principalement Machines et Deep Learning et comment mettre en œuvre les Frameworks de machines et deep lerning dans des applications Web, Mobile et embarquées en utilisant Principalement Deeplearning4J pour les applications Java coté backend ou coté FrontEnd Desktop, Web ou Mobiles Android, et TensorFlowJS pour les applications Java Scripts coté Browser Web et Coté Applications Mobiles Hybrides ou NodeJS coté Backend.
Cette série de vidéo aborde les éléments suivants :
• Concepes généraux de l’Intelligence Artificielle, L’IA Distribuée et Systèmes Multi Agents
• Concepts fondamentaux de Machines et Deep Learning
• Réseaux de neurones artificiels : MLP, CNN
• Période d’incertitude des réseaux de neurones
• Catalyseur de l’Intelligence Artificielle
o Architectures Parallèles GPU (CUDA, OpenCL)
o Systèmes Distribués
o Application Mobile et IOT
o Algorithmes de MDL
o Framework de MDL
• Machines et Deep Learning avec TensorFlowJS : Architecture
o Architecture et Mise en oeuvre
• Machines et Deep Learning avec le Framework DL4J
o Architecture et Mise en oeuvre
Ce Support explique quelques concepts de base de NodeJS et montre comment mettre en oeuvre la technologie NodeJS pour développer la partie Backend d'une application.
Les vidéos des démonstrations sont publiées sur les adresse suivantes :
- https://www.youtube.com/watch?v=-X_C1tS5-9Y
- https://www.youtube.com/watch?v=rE-xRH28m0s
- https://www.youtube.com/watch?v=tnxjkTvWoKA
Cette série explique les éléments suivants :
- Architecture Web
- Modèles Multi-Threads avec les entrées sorties bloquantes
- Modèles Single Thread avec les entrées sortie non bloquantes
-Technologie Node JS
- Comment créer une simple application Node JS avec java Script
- Architecture du Framwork Express
- Comment créer une application NodeJS avec Type Script
- Comment écrire des tests unitaires avec Jest
- Quelques concepts sur MongoDb
- Comment Créer une API Rest avec NodeJS, Express et MongoDb
- Comment tester l'API Rest
- Comment Créer la partie FrontEnd avec Angular.
Même si la qualité audio n'est pas bonne, ses vidéos peuvent aider ceux qui débutent dans NodeJS en attendant d'autres vidéos avec plus qualité audio et de contenu.
Bonne lecture
Un document pour avoir un plan clair et toutes les questions que vous devez vous poser au moment de rédiger votre cahier des charges !
Ce document a pour objectif de préciser quels éléments doivent être détaillés dans votre cahier des charges pour lancer un appel d'offres et demander une proposition commerciale à un prestataire.
Big Data : Hadoop
- Généralité
- Architecture HDFS
- Algorithme MapRduce
- Architecture YARN
- Hadoop v3.x vs Hadoopv2.x
Cours Big Data - Chap2 - GI3 - ENIS
SQL Server Analysis Services dans sa version 2012 a introduit la notion de BI Semantic Model, BISM, qui se décline soit en modèle Multidimensionnel, soit en modèle Tabulaire. Les besoins adressés par ces deux modes sont pour une grande part communs, mais les prérequis nécessaires à leur implémentation diffèrent sur de nombreux points qu'il est important de connaître avant de se lancer dans un projet. Durant cette session nous comparerons ces deux modes sur de nombreux critères, qu'ils concernent les administrateurs (infrastructures à mettre en place, maintenabilité, sécurité), les architectes (modélisations relationnelles sous-jacentes et frontaux supportés), les développeurs (techniques d'implémentation, performance des requêtes) et les chefs de projet qu'ils soient techniques ou fonctionnels (cas métier adressés, facilité de mise en place).
Alphorm.com Formation Big Data & Hadoop : Le Guide CompletAlphorm
Une bonne analyse et synthèse sur le domaine Big Data
Beaucoup de pratique sur Hadoop avec différentes méthodes : HDFS, Map Reduce, YARN, Spark, Hive, NoSQL, HDFS, HBase, zookeeper, MESOS et plusieurs autres outils
Les points forts de la formation
Une analyse globale sur le domaine Big Data et sur les outils liés à Hadoop avec beaucoup de pratique
Contenu de la formation
• Une bonne analyse de chaque concept illustré par de la pratique
• Les outils à installer sont à disposition
• Toutes les ressources sont à disposition
Résultats attendus
• Découvrir les formidables possibilités du Big Data avec Hadoop
• Comprendre parfaitement le périmètre de chaque outil de l'écosystème Hadoop
• Etre au fait de pouvoir utiliser Azure, AWS, et Google pour faire de l'Hadoop dans le Cloud
• Utiliser directement Hadoop sur de très nombreux exemples
• Découvrir le périmètre des bases NoSQL
• Comprendre comment faire du traitement temps réel avec Spark
Une riche présentation de Mapping Objet Relationnel qui traite le standard JPA et l’implémentation Hibernate en les intégrant avec le frammework IOC spring.
Présentation d'un cours en JAVA/J2EE
Création et manipulations des objets en Java
** Connexion JDBC à la base de données
** Modèle en couches
** FrameworkHibernate
** Framewoek Spring MVC
Construire une application sur l'architecture modèle-vue-contrôleur en PHP à partir d'un exemple simple : une liste de choses à faire, avec deux pages types : liste et détails.
Les primitives java, conditions, boucles..
Object, classes, Carcatéristiques...
Héritage et accessibilité (package, visibilité)
polymorphisme
Tableau et collections
Connexion base de données via JDBC
Séminaire sur Machines, Deep Learning For Web Mobile and Embedded Application with DL4J and TFJS :
Les vidéos de ce séminaire sont publiée sur les adresses suivantes :
- https://www.youtube.com/watch?v=uGSa4NigFKs
- https://www.youtube.com/watch?v=2yRAu78slgc
- https://www.youtube.com/watch?v=1ThjK3xLWII
- https://www.youtube.com/watch?v=N7LCa6aiqFs
Ce séminaire a été animé à l’ENSET de Mohammedia, dans le cadre du Projet Européen H2020 CybSPEED (Cyber Physical Systems for Pedagogical Rehabilitation in Special Education) dans lequel notre laboratoire de recherche SSDIA (Signaux, Systèmes Distribués et Intelligence Artificielle) est partenaire aux cotés des pays partenaires (France, Espagne, Grèce, Bulgarie, Japan et Chillie). Un projet Multi-disciplinaire autour de l'Intelligence Artificielle, visant à créer un robot destiné à assister les personnes à besoins spécifiques, en particulier les personnes atteintes par la maladie de l’autisme. Ce séminaire traite deux thématiques principales Lattice Computing animé par le professeur Vassillis Kaburlasos, EMaTTech, KAVALA, GRECE et Outils de mise en oeuvre de Machines et Deep Learning pour les applications Web Mobiles et embarquées, animé par moi même. Ce séminaire a un caractère de formation, de sensibilisation et de maîtrise des outils de développement des algorithmes de l'IA pour un public hétérogène Multi-disciplinaire (Informatique, Génie Electrique, Génie Mécanique, Ingénierie Pédagogique, Biologie, Chimie, etc..) constitué principalement des doctorants de notre Labo SSDIA, d'autres Labo affiliés au CeDOC de la FST de Mohammedia ainsi que des enseignants chercheurs de l'ENSET, de EMaTTech Kavala, Grèce et d'autres enseignants chercheurs venant de d'autres centres comme CRMF de Marrakech.
Ce séminaire vise particulièrement à expliquer quelques concepts liés à l’intelligence artificielle. Principalement Machines et Deep Learning et comment mettre en œuvre les Frameworks de machines et deep lerning dans des applications Web, Mobile et embarquées en utilisant Principalement Deeplearning4J pour les applications Java coté backend ou coté FrontEnd Desktop, Web ou Mobiles Android, et TensorFlowJS pour les applications Java Scripts coté Browser Web et Coté Applications Mobiles Hybrides ou NodeJS coté Backend.
Cette série de vidéo aborde les éléments suivants :
• Concepes généraux de l’Intelligence Artificielle, L’IA Distribuée et Systèmes Multi Agents
• Concepts fondamentaux de Machines et Deep Learning
• Réseaux de neurones artificiels : MLP, CNN
• Période d’incertitude des réseaux de neurones
• Catalyseur de l’Intelligence Artificielle
o Architectures Parallèles GPU (CUDA, OpenCL)
o Systèmes Distribués
o Application Mobile et IOT
o Algorithmes de MDL
o Framework de MDL
• Machines et Deep Learning avec TensorFlowJS : Architecture
o Architecture et Mise en oeuvre
• Machines et Deep Learning avec le Framework DL4J
o Architecture et Mise en oeuvre
Ce Support explique quelques concepts de base de NodeJS et montre comment mettre en oeuvre la technologie NodeJS pour développer la partie Backend d'une application.
Les vidéos des démonstrations sont publiées sur les adresse suivantes :
- https://www.youtube.com/watch?v=-X_C1tS5-9Y
- https://www.youtube.com/watch?v=rE-xRH28m0s
- https://www.youtube.com/watch?v=tnxjkTvWoKA
Cette série explique les éléments suivants :
- Architecture Web
- Modèles Multi-Threads avec les entrées sorties bloquantes
- Modèles Single Thread avec les entrées sortie non bloquantes
-Technologie Node JS
- Comment créer une simple application Node JS avec java Script
- Architecture du Framwork Express
- Comment créer une application NodeJS avec Type Script
- Comment écrire des tests unitaires avec Jest
- Quelques concepts sur MongoDb
- Comment Créer une API Rest avec NodeJS, Express et MongoDb
- Comment tester l'API Rest
- Comment Créer la partie FrontEnd avec Angular.
Même si la qualité audio n'est pas bonne, ses vidéos peuvent aider ceux qui débutent dans NodeJS en attendant d'autres vidéos avec plus qualité audio et de contenu.
Bonne lecture
Un document pour avoir un plan clair et toutes les questions que vous devez vous poser au moment de rédiger votre cahier des charges !
Ce document a pour objectif de préciser quels éléments doivent être détaillés dans votre cahier des charges pour lancer un appel d'offres et demander une proposition commerciale à un prestataire.
Big Data : Hadoop
- Généralité
- Architecture HDFS
- Algorithme MapRduce
- Architecture YARN
- Hadoop v3.x vs Hadoopv2.x
Cours Big Data - Chap2 - GI3 - ENIS
SQL Server Analysis Services dans sa version 2012 a introduit la notion de BI Semantic Model, BISM, qui se décline soit en modèle Multidimensionnel, soit en modèle Tabulaire. Les besoins adressés par ces deux modes sont pour une grande part communs, mais les prérequis nécessaires à leur implémentation diffèrent sur de nombreux points qu'il est important de connaître avant de se lancer dans un projet. Durant cette session nous comparerons ces deux modes sur de nombreux critères, qu'ils concernent les administrateurs (infrastructures à mettre en place, maintenabilité, sécurité), les architectes (modélisations relationnelles sous-jacentes et frontaux supportés), les développeurs (techniques d'implémentation, performance des requêtes) et les chefs de projet qu'ils soient techniques ou fonctionnels (cas métier adressés, facilité de mise en place).
Restitution des données environnement Microsoft & data visualization : panel ...Microsoft
Reporting, analyse ad-hoc, dashboarding, data crunching… : les besoins en termes de restitution des données sont nombreux, et les outils tout autant ! Vous découvrirez au cours de cette session les différentes solutions de l’offre BI Microsoft à disposition des différentes typologies d’utilisateurs, depuis Excel à SQL Server Reporting Services 2012 & PowerView. Nous vous présenterons également une solution tierce de l’écosystème partenaire Microsoft combinant au sein d’un même outil puissance d’analyse ad-hoc et reporting web : XLCubed.
Une description de X-Analysis Professional, qui contient les fonctionnalités essentielles de l’ensemble d’outils X-Analysis. X-Analysis Professional comporte
des fonctionnalités automatisées et interactives de documentation et d’analyse d’impact pour les applications RPG et COBOL résidant sur la plateforme IBM i.
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
Retour d'expérience Bouygues Telecom : Analyse BI à l'aide d'une appliance SQ...Microsoft Technet France
Nous allons voir durant cette session comment, avec l’aide d’une Appliance Fast track HP, faire une analyse à postériori de données grâce à : - Powerpivot dans Excel 2010 - Powerview dans Sharepoint 2010 Tout ceci branché sur une instance Analysis Services (AS) en mode Tabular grâce aux outils BI de SQL Server 2012. Nous allons pas à pas manipuler des KPIs bruts, en créer grâce à Powerpivot et les publier dans Sharepoint, les réintégrer dans AS, afin de les manipuler grâce à Powerview.
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
2. Ensemble de besoins divers :
• Besoin d’un outil de Reporting pour les
analystes afin de présenter facilement les
données chiffrées de l'entreprise et leurs
évolutions.
• Besoin de fusionner ces données afin de leur
associer des modèles de documents déjà
élaborés.
2
3. Les objectifs de reporting :
• L'extraction sélective des
informations à partir des
tableurs, des bases ou des
Datawarehouses.
• Le tri suivant des critères de
progression judicieux.
• La mise en forme, la plus claire et
la plus agréable possible.
Le reporting est une technique stratégique
qui aide à la prise de décision 3
5. • jasperReport : Présentation/objectifs/fonctionnalites
• IReport
• Historique/ nouveautés
• Cycle vie d’un rapport/ parties d’un rapport
• Sources de données
• Expressions /paramètres/variables
• Langage de scripts
• Représentation des données
• SubReports
• Dépendance
• Subreports
• Business intelligence suite
• Conclusion
5
6. • Librairie open source de reporting, qui permet de
fournir des données sur l'écran, à l'imprimante, ou
en différents formats de fichier.
• Entièrement écrit en Java ,il peut s'utiliser dans
diverses applications comme :
-Une application Java
-Une application Web J2EE
Ou comme un outil indépendant
6
7. Son objectif principal est d'aider à
créer les rapports et des documents prêts à
être imprimés de manière simple et flexible.
Il permet la représentation de données
sous forme textuelle, mais aussi la
génération de graphiques divers (sous forme
de barre, courbe, nuage de point).
7
8. JasperReports offre les fonctionnalités suivantes :
• Une structure de page flexible
• Possibilité de présenter les données de manière
variée (textuel, graphique)
• Export dans une grande variété de formats
• Possibilité de fournir les données sous
différentes formes (paramètres, sources de
données)
• Gestion de sous rapports
8
9. • iReport est un open source report
designer pour JasperReports.
• C’est un outil WYSIWYG pour tous les éléments
graphiques.
• iReport assiste l’utilisateur durant toutes les
phases de l'élaboration du rapport: la
conception jrxml, compilation Jasper,
l'exécution du rapport, et à l'exportation ou
la visualisation de documents.
9
10. • Juin 2001:
-Teodor Danciu commencé à travailler sur JasperReports
• 3 Novembre 2001:
-publication de JasperReports 0.1.5
-Jaspersoft (Panscopic) fondée par Al Campa et Raj Bhargava.
• 2004:
- Panscopic équipe avec Teodor Danciu, a acquis la propriété
intellectuelle de JasperReports
• 21 Juillet 2005:
-Version1.0
10
11. • JasperReport 3.1.2(06 novembre 2008)
-Compilateur basé sur la bibliothèque de soutient Rhino JavaScript
comme la langue d'expression du rapport
• JasperReport 3.5.1(02 juin 2009)
-Personnalisation de l’exportateur PDF en utilisant des éléments
génériques.
• JasperReport 3.7.1(08 février 2010)
-Nouveaux exportateurs: HTML, XHTML
• JasperReport 3.7.2(12 avril 2010)
-Nouveau exportateur PPTX(PPT 2007)
• JasperReport 3.7.5(22 September 2010 )
-trie des ensembles de données en utilisant des variables
-Le support de Custonizer pour Spidercharts
11
12. • JasperReport 3.7.6(28 Septembre 2010)
-Amélioration de l’exportateur XLSX
-Correction dans l’exportateur XLS
• iReport 3.7.6(01 Novembre 2010)
-Mise à jour de SQL Designer
-Support Complet de JasperReport 3.7.6
-Ajout de support JRDataSourceProvider pour
l’utiliser avec le Wizard.
12
13. Phase de design Phase d’exécution
Phase d’export
génère
compile fill
JRXMLLoader JRCompiler JasperFillManager
JasperExportManager
JasperCompileManager 13
15. Zone qui n’est affichée qu’une seule fois Apparaît à la fin de chaque colonne.
en haut de la 1eré page. N’est pas redimensionnable au moment
Contient le nom du rapport, logo de de l'exécution
l'entreprise et d'autres informations
Placée générales. de la section « Title »
au dessous
Son contenu est affiché en haut de chaque Apparaît sur chaque page où il
Partie où on définit les entête des Permet d’insérerune tête de page.
page du rapport. ya des champs concernants
colonnes d’un tableau, elles seront le calcul total, moyen, ou quel que soit
répétées sur chaque page du rapport ou ce qu’on veut ajouter à la fin du rapport
le tableau est présent.
Section principale du rapport :« Corps du rapport »
Contient les données que l’on affiche issues de la
requête SQL.
Cette zone est reproduite pour chaque ligne du résultat
renvoyé par la requête SQL.
15
16. N'est affiché qu'une seule fois en
bas de la dernière page.
Arrière plan de la page ou on peut
mettre un logo ou autre aussi des
éléments dynamiques.
16
17. Paramètres d’entrée
du rapport
Fichier CSV
Accès JDBC-Bases de données:
Oracle, Mysql…. Collection de java Bean Fichier XML
17
19. Pour l’affichage des données calculées, non
statiques dans un rapport. On les appellent aussi des
champs ou Fiels
Ce sont les résultats d’une requête SQL ou
d’une autre source de donnée. Elles changent
dynamiquement tant que JasperReport lit les
enregistrements .
Syntaxe: $F{NOMDUCHAMP}
19
20. Il existe deux types de paramètres :
• les paramètres intégrés : obligatoires pour le bon
fonctionnement du rapport. Comme le paramètre intégré de
connexion à la base de données
•les paramètres utilisateurs : facultatifs et définites par le
programmeur.
Exemple : on désire afficher les utilisauteurs dont le pays=
« Tunisie », « Tunisie » sera entré comme paramètre, la
requête SQL ressemblera à :
SELECT * FROM T_user WHERE pays=$P{PAYS_USER}
Syntaxe: $P{NOMDUPARAMETRE}
20
21. Les variables permettent de
• Simplifier les expressions dans un rapport en éliminant leurs
redondances
• Faire des calculs complexes à faire avec les expressions
(somme, moyenne, maximum, etc.)
Les variables sont des valeurs qui n'existent que dans le rapport.:
• Les variables intégrées: sont par exemple le numéro de la
page,ou le nombre d'enregistrement par page .
• Les variables utilisateurs : simples ou définies comme la
sommes des valeurs de plusieurs champs .
Syntaxe: $V{NOMDELAVARIABLE}
21
23. IReport supporte l’utilisation de langages de scripts :
• JavaScript: langage de scripts principalement utilisé dans
les pages web interactives mais aussi coté serveur .
• Groovy :C'est un langage orienté objet pour la JVM Java
qui s'inspire entre autres de Python, Java, Ruby et
Smalltalk. Ce langage possède une syntaxe proche de
Java et génère directement du bytecode.
23
24. • Représentation des données sous forme :
• Textuelle
• Graphique
Ces représentations permettent d’afficher
des données dynamiques, qui ne seront pas
passées directement au rapport mais calculées à
partir des données fournies.
24
25. La palette de représentation graphique
proposée est large, elle comporte :
• les barres (2D, 3D, en relief, empilées 2D,
empilées 3D)
• Les courbes
• Les nuages de points
• minimum/maximum, cadran, thermomètre.
• Etc.
25
26. Tout rapport peut devenir le sous rapport
d’un autre. Cette technique propose deux
avantages principaux :
• Simplification de la réalisation d’un rapport
en découpant la complexité .
• Possibilité de réutilisation dans plusieurs
rapports différents d’un même sous rapport
présentant un affichage fréquent.
26
27. un rapport enfant, a sa propre requête SQL pour extraire
les enregistrements de la base de données.
27
29. JasperReports s’appuie sur plusieurs librairies
Java open source pour implémenter ses fonctionnalités:
• iText : pour la génération de PDF
• JFreeChart : pour la génération de diagrammes
et graphiques
• Jakarta POI : pour la génération de documents
Microsoft Office
• JAXP : pour le parsing et la transformation de
XML
29
30. JasperReports propose également pour la réalisation
de rapports un lot de fonctions avancées telles que :
• Gestion de l’internationalisation
• Scriptlets
• Tableaux croisés
• Ancres et liens dans les documents
• Gestion des marques pages dans les fichiers PDF
• Gestion des formules dans les documents Excel
• Gestion avancée de la mémoire pour les très gros rapports
(Virtualizer)
30
32. • Les avantages de JasperReports :
-Des fonctionnalités avancées, notamment pour la
représentation de graphique,
-l’outil iReport offre des avancés importantes en matière de
productivité pour des rapports complexes.
• Les inconvénients de JasperReports:
-Certaines limitations telqu’une seule datasource/connexion
par rapport.
- Documentation officielle limtée, ou payante, ce qui implique
un temps de prise en main de l’outil un peu long de prime abord.
32
JasperReports - JasperReports est une vaste bibliothèque de classes Java et des API qui vous permettent de créer par programme des dessins rapport, les faire fonctionner des sources de données, et à rendre leur sortie en HTML, PDF, Excel et autres formats de sortie. Vous pouvez intégrer JasperReports dans vos applications Java.Si vous utilisez le moteur de JasperReports pour générer desJasperReports est un puissant outil de reporting open source qui a la capacité pour fournir des contenus sur l'écran, à l'imprimante, ou en PDF, HTML, XLS, RTF, ODT, CSV, TXT et XML. JasperReports est entièrement écrit en Java et peut être utilisé dans une variété de Java applications pour générer du contenu dynamique. Son objectif principal est d'aider à créer la page orienté, des documents prêts à imprimer de manière simple et flexible.JasperReports est incorporé dans tous types d'applications, allant de celles qui permettent l'interactivité utilisateur de pixel près formulaires imprimés, factures, et d'autres complexes rapports opérationnels. JasperReports est une bibliothèque que vous intégrez dans une autre application. «Installation» signifie simplement JasperReports y compris les JasperReport "jar" fichier dans le classpath de votre application avec les autres fichiers JAR requis.
iReport est gratuit, open source report designer pour JasperReports.Créer sophistiquées mises en page très contenant des diagrammes, des images, des sous-tableaux à double entrée et bien plus encore. Accès à vos données via JDBC, TableModels, JavaBeans, XML, Hibernate, CSV, et les sources personnalisé. Puis, publiez vos rapports au format PDF, RTF, XML, XLS, CSV, HTML, XHTML, texte, DOCX, ou OpenOfficeIReport est un logiciel open source, écrit entièrement en Java, permettant, par l’intermédiaire d’une interfacegraphique riche, de créer des modèles de rapports au format jrxml de JasperReports. L’utilisation de ce logicielpermet de s’abstraire de la complexité de la syntaxe XML de JasperReports, et de gagner du temps lors dudéveloppement de modèles de rapport.IReport permet une prise en main complète de JasperReports via son interface graphique, par son supportcomplet des tags XML de la librairie, une interface WYSIWYG pour tous les éléments graphiques, un éditeurd’expressions, la gestion des sous rapports.Un module intégré d’exportation, associé à un support des connexions JDBC et des datasourcesJasperReports, permet également de tester le rendu des rapports directement depuis le logiciel.IReport apporte à JasperReports un gain de productivité non négligeable, une fois l’outil pris en main, parrapport à d’autres solutions de reporting pour Java non outillées.IReport est néanmoins l’éditeur officiel de JasperReports, réalisé et supporté par la même équipe que la librairiede reporting (iReport était à la base un projet indépendant, avant de voir sa popularité reconnaître parJasperSoft et l’auteur du logiciel embauché par la société).
*Report Designer*report InsperctorElements paletteFormating ToolsPropertysheetStyles libraryReportProblemsLe Concepteur de rapports est l'endroit où vous concevoir visuellement le rapport en faisant glisser, le positionnement, l'alignement et le redimensionnement des éléments du rapport.L' inspecteur rapport montre la structure complète du rapport, qui est composé de nombreux objets (tels que les champs, les paramètres et variables), les bandes (qui sont des sections du document) et des éléments (tels que les champs de texte, des images ou des graphiques).La palette des éléments contient les éléments qui peuvent être glissés à l'intérieur d'une bande pour afficher vos données.La feuille de propriétés est utilisé pour définir les propriétés du composant sélectionné actuellement dans le rapport (par exemple un champ, élément, bande, groupe, ou d'autres).Ci-dessus le concepteur de rapport, il ya le sélecteur de source de données, qui montre le lien actif qui sera utilisé pour exécuter le rapportLa barre d'outils du Concepteur de rapports a trois boutons pour passer facilement de la conception en mode de prévisualisation. Lorsque vous cliquez sur le bouton d'aperçu, iReport exécute le rapport en utilisant la connexion active et affiche le résultat en utilisant un visualiseur interne. iReport peut également être configuré pour exporter le document dans un format particulier et ouvrir la visionneuse appropriée (par exemple un navigateur ou une visionneuse PDF).
Dès éléments graphiques de bases peuvent également
Une autre fonctionnalité de JasperReports est la possibilité d’utiliser des sous rapports, et de créer un rapport àpartir de plusieurs autre r Simplification de la réalisation d’un rapport en découpant la complexité (plusieurs petits rapports simples pour faire un rapport complexe) Possibilité de réutilisation dans plusieurs rapports différents d’un même sous rapport présentant un affichage fréquent (cet affichage n’a donc besoin de n’être développé qu’une fois)apports.
(portions de code Java pouvant être exécuté lors du renseignement du rapport)
Les avantages de JasperReports : -Des fonctionnalités avancées, notamment pour la représentation de graphique, -l’outil iReport qui une fois pris en main offre des avancés importantes en matière de productivité pour des rapports complexes.Les inconvénients de JasperReports: Certaines limitations (une seule datasource/connexion par rapport),mais le concept de sous rapport apporte une réponse à cette limitation). documentation officielle, ou alors celle-ci est payante, ce qui implique un temps de prise en main de l’outil un peu long de prime abord. Mais JasperReports étant largement utilisé dans le monde Java, de nombreux