Analytics & Machine Learning avec la Data VirtualizationDenodo
Watch full webinar here: [https://buff.ly/2ZaQk8S]
La data science avancée, telle que le machine learning, se révèle être un outil extrêmement utile pour tirer des informations et de la valeur des données existantes. Cependant, une grande partie des ressources (comme les data scientists) se voit affectée à la recherche des bonnes données et à leur préparation.
Dans ce nouveau webinar en français, nous vous montrerons comment utiliser la virtualisation des données pour obtenir les informations souhaitées de manière plus efficace et plus agile.
Rejoignez ce webinar le 6 juin pour découvrir:
*Comment la data virtualisation accélère l’acquisition et le traitement des données
*Comment la plateforme Denodo pour la virtualisation des données s'intègre à des outils tels que Spark, Python, Zeppelin, etc.
*Comment la virtualisation des données permet de gérer plus efficacement de gros volumes de données
*Cas client & démo
Une plateforme Data 360 au Ministère des Armements avec la Suite ElasticElasticsearch
https://www.elastic.co/elasticon/tour/2019/paris/data-360-platform-at-the-ministry-of-armaments-with-the-elastic-suite
Le ministère des Armées génère un grand nombre de données dans les domaines administratifs et opérationnels. Afin d’optimiser l’exploitation de ces données pour une prise de décision plus aisée, le LABO BI et Big data a mis en place une plateforme Big Data/IA dénommée Data360 qui permet de croiser des données de diverses sources (financières, ressources humaines, des IoT…) et également d’utiliser l’intelligence artificielle sur ces données. Cette plateforme utilise en partie des composants de la Suite Elastic.
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entre...Antidot
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entreprise
Créez de nouvelles applications qui répondent à des besoins métier, de façon rapide et agile, en réutilisant et valorisant les données déjà existantes dans votre système d’information. Déployez un moteur de recherche d’entreprise vraiment intelligent.
Les systèmes d’information des entreprises se sont construits de façon incrémentale. Chaque nouveau besoin opérationnel a déclenché la mise en œuvre d’une application ad hoc : ERP, CRM, GED, annuaire, messagerie, extranet… Le développement du SI a été pensé en termes d’applications et de processus. Chaque nouvelle application a entrainé la création d’un silo de données si bien que les entreprises sont aujourd’hui confrontées à un nouveau défi : la gestion et la valorisation de ces données par essence hétérogènes et cloisonnées.
Le Linked Enterprise Data repense l’accès à l’information pour atteindre cet objectif. Il crée un espace informationnel unifié qui se nourrit de l’ensemble des données de l’entreprise, structurées ou non, voire de données externes captées sur Internet.
Évolutif et agile par essence, le Linked Enterprise Data permet de créer les données opérationnelles demandées par les métiers sans modification des applications existantes ni perturbation du système d’information. Les bénéfices du Linked Enterprise Data sont nombreux :
- Décloisonner les données en offrant un hub informationnel qui permet à chaque application de s’enrichit des données en provenance de tout le SI.
- Bénéficier d’un cadre technologique ouvert, standardisé, sécurisé, pérenne et performant défini par le W3C (avec les standards XML, RDF, SPARQL, OWL).
- Réduire la complexité par une méthodologie unifiée pour l’échange de données entre applications, que les données soient internes ou externes à l’entreprise.
Le Linked Enterprise Data c’est aussi l’opportunité de créer de nouvelles applications pour répondre à des besoins métier spécifiques, comme des applications mobiles pour les ventes ou le support, de façon rapide et efficace en réutilisant et valorisant les données déjà existantes dans le système d’information.
En apportant à chaque utilisateur les vues métiers dont il a besoin, les solutions Antidot ouvrent une nouvelle voie dans la recherche et l’accès à l’information.
Présentation faite par Pierre Col (Antidot) lors de la conférence T2M Lyon le 13 novembre 2013
24HOP French 2017 - Azure Data Lake, le Big Data 2.0Jean-Pierre Riehl
--session donnée dans le cadre du 24 Hours of PASS en français, édition 2017--
Azure Data Lake est LA technologie « big data » maison de Microsoft. En provenance de MS Research (nom de code Cosmos), elle est utilisée en interne par les équipes X-Box, Bing, O365 depuis quelques années déjà. Cette technologie est disponible depuis l’été dernier dans Azure et s’enrichit mois après mois.
ADL, concrètement, c’est quoi ? C’est la possibilité de stocker et analyser une quantité illimitée de données et de requêter avec un nouveau langage : le U-SQL
Dans cette session, vous découvrirez Azure Data Lake et toutes les possibilités qui s’ouvrent à vous
Analytics & Machine Learning avec la Data VirtualizationDenodo
Watch full webinar here: [https://buff.ly/2ZaQk8S]
La data science avancée, telle que le machine learning, se révèle être un outil extrêmement utile pour tirer des informations et de la valeur des données existantes. Cependant, une grande partie des ressources (comme les data scientists) se voit affectée à la recherche des bonnes données et à leur préparation.
Dans ce nouveau webinar en français, nous vous montrerons comment utiliser la virtualisation des données pour obtenir les informations souhaitées de manière plus efficace et plus agile.
Rejoignez ce webinar le 6 juin pour découvrir:
*Comment la data virtualisation accélère l’acquisition et le traitement des données
*Comment la plateforme Denodo pour la virtualisation des données s'intègre à des outils tels que Spark, Python, Zeppelin, etc.
*Comment la virtualisation des données permet de gérer plus efficacement de gros volumes de données
*Cas client & démo
Une plateforme Data 360 au Ministère des Armements avec la Suite ElasticElasticsearch
https://www.elastic.co/elasticon/tour/2019/paris/data-360-platform-at-the-ministry-of-armaments-with-the-elastic-suite
Le ministère des Armées génère un grand nombre de données dans les domaines administratifs et opérationnels. Afin d’optimiser l’exploitation de ces données pour une prise de décision plus aisée, le LABO BI et Big data a mis en place une plateforme Big Data/IA dénommée Data360 qui permet de croiser des données de diverses sources (financières, ressources humaines, des IoT…) et également d’utiliser l’intelligence artificielle sur ces données. Cette plateforme utilise en partie des composants de la Suite Elastic.
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entre...Antidot
Linked Enterprise Data : disposer d’une vue consolidée des données de l'entreprise
Créez de nouvelles applications qui répondent à des besoins métier, de façon rapide et agile, en réutilisant et valorisant les données déjà existantes dans votre système d’information. Déployez un moteur de recherche d’entreprise vraiment intelligent.
Les systèmes d’information des entreprises se sont construits de façon incrémentale. Chaque nouveau besoin opérationnel a déclenché la mise en œuvre d’une application ad hoc : ERP, CRM, GED, annuaire, messagerie, extranet… Le développement du SI a été pensé en termes d’applications et de processus. Chaque nouvelle application a entrainé la création d’un silo de données si bien que les entreprises sont aujourd’hui confrontées à un nouveau défi : la gestion et la valorisation de ces données par essence hétérogènes et cloisonnées.
Le Linked Enterprise Data repense l’accès à l’information pour atteindre cet objectif. Il crée un espace informationnel unifié qui se nourrit de l’ensemble des données de l’entreprise, structurées ou non, voire de données externes captées sur Internet.
Évolutif et agile par essence, le Linked Enterprise Data permet de créer les données opérationnelles demandées par les métiers sans modification des applications existantes ni perturbation du système d’information. Les bénéfices du Linked Enterprise Data sont nombreux :
- Décloisonner les données en offrant un hub informationnel qui permet à chaque application de s’enrichit des données en provenance de tout le SI.
- Bénéficier d’un cadre technologique ouvert, standardisé, sécurisé, pérenne et performant défini par le W3C (avec les standards XML, RDF, SPARQL, OWL).
- Réduire la complexité par une méthodologie unifiée pour l’échange de données entre applications, que les données soient internes ou externes à l’entreprise.
Le Linked Enterprise Data c’est aussi l’opportunité de créer de nouvelles applications pour répondre à des besoins métier spécifiques, comme des applications mobiles pour les ventes ou le support, de façon rapide et efficace en réutilisant et valorisant les données déjà existantes dans le système d’information.
En apportant à chaque utilisateur les vues métiers dont il a besoin, les solutions Antidot ouvrent une nouvelle voie dans la recherche et l’accès à l’information.
Présentation faite par Pierre Col (Antidot) lors de la conférence T2M Lyon le 13 novembre 2013
24HOP French 2017 - Azure Data Lake, le Big Data 2.0Jean-Pierre Riehl
--session donnée dans le cadre du 24 Hours of PASS en français, édition 2017--
Azure Data Lake est LA technologie « big data » maison de Microsoft. En provenance de MS Research (nom de code Cosmos), elle est utilisée en interne par les équipes X-Box, Bing, O365 depuis quelques années déjà. Cette technologie est disponible depuis l’été dernier dans Azure et s’enrichit mois après mois.
ADL, concrètement, c’est quoi ? C’est la possibilité de stocker et analyser une quantité illimitée de données et de requêter avec un nouveau langage : le U-SQL
Dans cette session, vous découvrirez Azure Data Lake et toutes les possibilités qui s’ouvrent à vous
IODS : Retour d’expériences au sein du Center for Data ScienceBorderCloud
Le Center for Data Science de l’université Paris Saclay met en oeuvre une solution opérationnelle depuis 2016 afin de référencer toutes les sources de données, fichiers ou d’API au sein de l’université. Nous verrons quelles opportunités apportent le respect des standards et bonnes pratiques pour faciliter la réutilisation et la valorisation des données de la recherche.
Version ouverte à tous : http://linkedwiki.com
Version de l’université Paris Saclay : https://io.datascience-paris-saclay.fr
Du Big Data vers le SMART Data : Scénario d'un processusCHAKER ALLAOUI
Du Big Data vers le SMAR Data : Scénario d'un processus
Scénario d'une implémentation d'un processus de transformations des données Big Data vers des données exploitables et représentatives via des traitements des streaming, systèmes distibués, messages, stockage dans un environnement NoSQL, gestion avec un éco-système Big Data et présentation graphique et quantitative des données avec les technologies:
Apache Storm, Apache Zookeeper, Apache Kafka, Apache Cassandra, Apache Spark et Data-Driven Document.
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
Une révolution technologique à nos portes ; nos organisations sont-elles prêtes?IRSST
Présentation au Colloque IRSST 2017 de Geneviève Lefebvre, directrice de projet, Innovation et Transfert au CEFRIO.
http://www.irsst.qc.ca/colloque-2017
Linked Enterprise Data ou comment disposer d'une vue consolidée des donnéesAntidot
Diaporama de la présentation faite le 12 juin 2012 par Gautier Poupeau à l'occasion de la keynote "Web sémantique et Big Data" organisée dans le cadre de l'événement Time2Marketing
Big Data - Un domaine au carrefour de plusieurs disciplines et d'expertises
Vue globale de l'Architecture et des Processus Big Data
Démarche Big Data
Big Data – Paradigm Shift
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Volume - Big Data « data-intensive » Paradigm shift : Data Locality
Volume - Big Data Paradigm shift : Synchronous batch processing
Variété - Big Data : multitude des formats de données
Varieté - Big Data Paradigme shift : Schema on Run/Read (aka ELT)
Vélocité - Big Data paradigm shift : Real Time Analysis Processing (RTAP)
Prévision des évolution des épidémies
Anticiper les pics de la circulation
Prévision Catastrophes naturelles
Sécurité territoriale
Mesure de la Satisfaction du client
Sécurité du citoyen
Mesure de la Perception du citoyen
Traitement des échanges boursiers
Exemple pratique : Calcul de la carte du bonheur par pays
Big Data & visualisation « Dataviz »
Big Data – un écosystème de
nouveaux concepts et technologies
Big Data – Quels Profils et Compétences ?
Big Data – Eldorado pour la R&D et l'Innovation
Nuage des topics liés à 15 conférences sur le Big Data de 2016
Top 20 des topics liées à 10 études d'opportunités Big Data (282 pages, 115.623 mots)
Big Data Opportunité 1 - Services
Big Data Opportunité 2 - Security
Big Data Opportunité 3 - Smart Governement
Big Data Opportunité 4 - Health
Opportunités Big Data – Améliorer le quotidien du citoyen Marocain
Big Data – Sans oublier bien évidemment de Préparer le Maroc de demain
Sido 2017 : Vincent Thavonekham, MVP azure et Regional Director, VISEO, Retou...FactoVia
HagerServices: Comment créer une plateforme générique mondiale avec le Cloud Azure pour traiter des flux temps réels de capteur hétérogènes (SigFox...) ?
Retour d'expérience : IoT, Sigfox, projets très forte volumétrie, DeltaMetric, microservices, framework AKKA et Rx.Net, pattern observable
Fiche pratique IST Agropolis : Les Données de la Recherche : Questions-RéponsesAgropolis International
Foire aux questions - FAQ sur les donnnées de la recherche
Fiche créée en septembre 2015 et révisée en octobre 2016
Qu'est-ce que l'ouverture des données (Open Data) ?
Quelles données préserver ?
Où déposer mes données ?
Comment définir les conditions de réutilisation de mes données ?
Et si mes données sont déjà déposées dans les réseaux sociaux (ResearchGate, Academia...) ?
Qu'est-ce qu'un jeu de données ?
Où rechercher des jeux de données ?
Qu'est-ce qu'un DOI ?
Comment citer un jeu de données ?
Qu'est-ce qu'un PGD ?
A quelles questions répond un PGD ?
De quels outils je dispose pour rédiger un PGD ?
Avec qui interagir pour élaborer un PGD ?
L'éthique du partage et moi ?
Auteurs : Cécile Adamolle, Annabelle Filatre, Hanka Hensens, Isabelle Nault, Chantal Salson, Christine Silvy, Marie-Violaine Tatry
Fiche créée en septembre 2015 et révisée en octobre 2016
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
IODS : Retour d’expériences au sein du Center for Data ScienceBorderCloud
Le Center for Data Science de l’université Paris Saclay met en oeuvre une solution opérationnelle depuis 2016 afin de référencer toutes les sources de données, fichiers ou d’API au sein de l’université. Nous verrons quelles opportunités apportent le respect des standards et bonnes pratiques pour faciliter la réutilisation et la valorisation des données de la recherche.
Version ouverte à tous : http://linkedwiki.com
Version de l’université Paris Saclay : https://io.datascience-paris-saclay.fr
Du Big Data vers le SMART Data : Scénario d'un processusCHAKER ALLAOUI
Du Big Data vers le SMAR Data : Scénario d'un processus
Scénario d'une implémentation d'un processus de transformations des données Big Data vers des données exploitables et représentatives via des traitements des streaming, systèmes distibués, messages, stockage dans un environnement NoSQL, gestion avec un éco-système Big Data et présentation graphique et quantitative des données avec les technologies:
Apache Storm, Apache Zookeeper, Apache Kafka, Apache Cassandra, Apache Spark et Data-Driven Document.
Lors du PaaS Tour de France, j'ai co-organisé et réalisé un talk sous forme de REX sur Hager
Vincent Thavonekham Regional Director
AZUG FR-MUG Lyon
VISEO
Une révolution technologique à nos portes ; nos organisations sont-elles prêtes?IRSST
Présentation au Colloque IRSST 2017 de Geneviève Lefebvre, directrice de projet, Innovation et Transfert au CEFRIO.
http://www.irsst.qc.ca/colloque-2017
Linked Enterprise Data ou comment disposer d'une vue consolidée des donnéesAntidot
Diaporama de la présentation faite le 12 juin 2012 par Gautier Poupeau à l'occasion de la keynote "Web sémantique et Big Data" organisée dans le cadre de l'événement Time2Marketing
Big Data - Un domaine au carrefour de plusieurs disciplines et d'expertises
Vue globale de l'Architecture et des Processus Big Data
Démarche Big Data
Big Data – Paradigm Shift
Big Data – L'univers digital devient de plus en plus large et interconnecté
Big Data – Perception du Volume de l'univers digital
Volume - Big Data « data-intensive » Paradigm shift : Data Locality
Volume - Big Data Paradigm shift : Synchronous batch processing
Variété - Big Data : multitude des formats de données
Varieté - Big Data Paradigme shift : Schema on Run/Read (aka ELT)
Vélocité - Big Data paradigm shift : Real Time Analysis Processing (RTAP)
Prévision des évolution des épidémies
Anticiper les pics de la circulation
Prévision Catastrophes naturelles
Sécurité territoriale
Mesure de la Satisfaction du client
Sécurité du citoyen
Mesure de la Perception du citoyen
Traitement des échanges boursiers
Exemple pratique : Calcul de la carte du bonheur par pays
Big Data & visualisation « Dataviz »
Big Data – un écosystème de
nouveaux concepts et technologies
Big Data – Quels Profils et Compétences ?
Big Data – Eldorado pour la R&D et l'Innovation
Nuage des topics liés à 15 conférences sur le Big Data de 2016
Top 20 des topics liées à 10 études d'opportunités Big Data (282 pages, 115.623 mots)
Big Data Opportunité 1 - Services
Big Data Opportunité 2 - Security
Big Data Opportunité 3 - Smart Governement
Big Data Opportunité 4 - Health
Opportunités Big Data – Améliorer le quotidien du citoyen Marocain
Big Data – Sans oublier bien évidemment de Préparer le Maroc de demain
Sido 2017 : Vincent Thavonekham, MVP azure et Regional Director, VISEO, Retou...FactoVia
HagerServices: Comment créer une plateforme générique mondiale avec le Cloud Azure pour traiter des flux temps réels de capteur hétérogènes (SigFox...) ?
Retour d'expérience : IoT, Sigfox, projets très forte volumétrie, DeltaMetric, microservices, framework AKKA et Rx.Net, pattern observable
Fiche pratique IST Agropolis : Les Données de la Recherche : Questions-RéponsesAgropolis International
Foire aux questions - FAQ sur les donnnées de la recherche
Fiche créée en septembre 2015 et révisée en octobre 2016
Qu'est-ce que l'ouverture des données (Open Data) ?
Quelles données préserver ?
Où déposer mes données ?
Comment définir les conditions de réutilisation de mes données ?
Et si mes données sont déjà déposées dans les réseaux sociaux (ResearchGate, Academia...) ?
Qu'est-ce qu'un jeu de données ?
Où rechercher des jeux de données ?
Qu'est-ce qu'un DOI ?
Comment citer un jeu de données ?
Qu'est-ce qu'un PGD ?
A quelles questions répond un PGD ?
De quels outils je dispose pour rédiger un PGD ?
Avec qui interagir pour élaborer un PGD ?
L'éthique du partage et moi ?
Auteurs : Cécile Adamolle, Annabelle Filatre, Hanka Hensens, Isabelle Nault, Chantal Salson, Christine Silvy, Marie-Violaine Tatry
Fiche créée en septembre 2015 et révisée en octobre 2016
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...
MNIF Ahmed présentation 2018
1. Implémentation d’une architecture Big Data pour
le traitement des données multimédias et
multimodales
Projet de fin d’études
En vue de l’obtention du Diplôme National d’Ingénieur en Informatique
Encadrant entreprise
AGREBI Saïd
Réalisé par
MNIF Ahmed
Encadrant esprit
HAMED Asma
2. Plan
Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
2
3. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
3
5. Introduction
Explosion des données
Chaque 60 secondes :
98,000 comptes Twitter sont crées.
695,000 statuts Facebook.
698,445 recherches sur Google
11 millions messages instantanés
168 millions mails envoyés
5
6. Introduction
Big Data
Explosion du volume des données
Evolution des systèmes d’information des entreprises
variété et complexité des données
La nécessité d’une nouvelle technologie qui peut traiter un grand volume de
données.
6
Big Data
7. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion
7
8. Cadre du projet
Organisme d'accueil
Une startup composé d’une jeune équipe.
Démocratiser la Data science et le Big Data à l’échelle nationale et africaine.
8
9. Cadre du projet
Problématique
Stockage, Traitement et analyse des données distribuées.
Gestion des données en streaming.
Travail en collaboration.
9
Architecture Big Data
12. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
12
13. Extraction et collecte des données
13
Application Web Yobihealth
Destinée pour des utilisateurs (patients, médecin)
Créer et stocker des données de différents
Formats dans le domaine de
santé (texte, vidéos, images, audios..).
14. Extraction et collecte des données
14
Application Web Yobihealth
Technologies utilisées
Utilisateurs
Patients/Médecins
Partie Front-end
Angular
Partie Back-end
Spring boot
Stockage des
données
web Restful Spring Data
16. Extraction et collecte des données
16
Open Data
Produites par les collectivités ou les entreprises.
Diffusées sous licence ouverte.
Accessibles et réutilisables librement sans restriction technique ou juridique.
Web Fichiers CsvFichiers JsonFichiers Xml
17. Intégration et traitement des données
17
Ingestion des données
Processus d’importation des données à partir de la source, vers un système de
stockage ou un système de traitement des données.
Sources des
données
Ingestion des
données
Traitement des données
en temps réel
18. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
18
19. Intégration et traitement des données
19
Stockage des données
Yobihealth
Open Data
Base de données NoSql. Base de données NoSql
Système de fichier distribué (hdfs)
Data Lake
Stockage des données
Stockage des données
Indexation et recherche
des données
20. Intégration et traitement des données
20
Traitement des données
Spark Streaming pour traiter les
données générer par l’application
en temps réel
Des données
Des données traitées
21. Intégration et traitement des données
21
Analyse des données
Ensemble de bibliothèques écrite en python pour
la science des données.
Inclut Jupyter Notebook.
Script data science et charts
22. Intégration et traitement des données
22
Jupyter Hub
Des instances Jupyter Notebook engendré par Jupyter Hub
Jupyter Hub génère et gère des instances du serveur Jupyter Notebook.
On connecte au instances générées à
travers les navigateurs
Navigateur Navigateur Navigateur
23. Intégration et traitement des données
23
Apache Toree
Un noyau pour Jupyter Notebook offrant un accès interactif à Apache Spark.
Développé en utilisant le protocole de messagerie IPython et 0MQ.
24. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
24
25. Visualisation et analyse des données
25
Outil de visualisation de
données pour Elasticsearch
Rapport
Rapport
Rapport
bibliothèques de visualisation interactive écrites
en différents langages ( scala, r, python …)
26. Visualisation et analyse des données
26
Durée du sommeil moyenne pour Cinq
personnes depuis leur utilisation de
l’application
Pourcentage des personnes dans
chaque statu de santé concernant la
maladie de diabète
Application Yobihealth Open Data
27. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
27
30. Introduction
Cadre du projet
Extraction et collecte des données
Intégration et traitement des données
Visualisation et analyse des données
Architectures Globales
Conclusion et perspectives
30
31. Conclusion et perspectives
31
La découverte des nouvelles Technologies et connaissances.
Big Data , Virtualisation , base de données NoSql , développement Web
Vécue une expérience dans la vie professionnelle et vie d’entreprise.
Perspective
Autres cas d’usage que le domaine de la santé.