Google Scholar : un moteur de recherche pour l'information scientifiqueJulien Sicot
Comment retrouver de la littérature académique, universitaire et scientifique sur le Web avec Google Scholar ?
- Présentation de l’outil
- Couverture et fonctionnalités du moteur de recherche
- Démonstration et évaluation de la recherche par Google Scholar
- Conseils d’utilisation
- Outils annexes à Google Scholar (Harzing Publish or Perish, Scholar Index)
Voir également le guide d'utilisation de Google scholar : http://bibli.ec-lyon.fr/documents/Google%20Scholar_support.pdf
Introduction to AI: This covers the history of AI and its development, as well as the definition and scope of AI and its various subfields.
Machine Learning: This covers the basics of machine learning, including supervised and unsupervised learning, regression and classification algorithms, and decision trees.
Neural Networks: This covers the basics of neural networks, including feedforward and recurrent neural networks, activation functions, and backpropagation.
Natural Language Processing: This covers the basics of natural language processing, including text classification, sentiment analysis, and named entity recognition.
Computer Vision: This covers the basics of computer vision, including image classification, object detection, and image segmentation.
Robotics: This covers the basics of robotics, including robot kinematics and dynamics, motion planning, and control.
Ethics and Social Implications of AI: This covers the ethical and social implications of AI, including issues related to privacy, bias, and accountability.
The document discusses different approaches to generating biographies through natural language processing, including information extraction and language modeling. It describes using information extraction patterns learned from Wikipedia to extract fields like date of birth and place of birth, and bouncing between Wikipedia and Google search results to learn patterns for other fields with less structured data. It also proposes selecting and ranking sentences from search results to improve recall when information extraction may miss relevant sentences. The goal is to build biographies by combining these techniques for high precision on structured fields and better recall on more complex fields.
This presentation is based on ranking of web pages, mainly it consist of PageRank algorithm and HITS algorithm. It gives brief knowledge of how to calculate page rank by looking at the links between the pages. It tells you about different techniques of search engine optimization.
The document provides an overview of the Natural Language Toolkit (NLTK). It discusses that NLTK is a Python library for natural language processing that includes corpora, tokenizers, stemmers, part-of-speech taggers, parsers, and other tools. The document outlines the modules in NLTK and their functionality, such as the nltk.corpus module for corpora, nltk.tokenize and nltk.stem for tokenizers and stemmers, and nltk.tag for part-of-speech tagging. It also provides instructions on installing NLTK and downloading its data.
Google Scholar : un moteur de recherche pour l'information scientifiqueJulien Sicot
Comment retrouver de la littérature académique, universitaire et scientifique sur le Web avec Google Scholar ?
- Présentation de l’outil
- Couverture et fonctionnalités du moteur de recherche
- Démonstration et évaluation de la recherche par Google Scholar
- Conseils d’utilisation
- Outils annexes à Google Scholar (Harzing Publish or Perish, Scholar Index)
Voir également le guide d'utilisation de Google scholar : http://bibli.ec-lyon.fr/documents/Google%20Scholar_support.pdf
Introduction to AI: This covers the history of AI and its development, as well as the definition and scope of AI and its various subfields.
Machine Learning: This covers the basics of machine learning, including supervised and unsupervised learning, regression and classification algorithms, and decision trees.
Neural Networks: This covers the basics of neural networks, including feedforward and recurrent neural networks, activation functions, and backpropagation.
Natural Language Processing: This covers the basics of natural language processing, including text classification, sentiment analysis, and named entity recognition.
Computer Vision: This covers the basics of computer vision, including image classification, object detection, and image segmentation.
Robotics: This covers the basics of robotics, including robot kinematics and dynamics, motion planning, and control.
Ethics and Social Implications of AI: This covers the ethical and social implications of AI, including issues related to privacy, bias, and accountability.
The document discusses different approaches to generating biographies through natural language processing, including information extraction and language modeling. It describes using information extraction patterns learned from Wikipedia to extract fields like date of birth and place of birth, and bouncing between Wikipedia and Google search results to learn patterns for other fields with less structured data. It also proposes selecting and ranking sentences from search results to improve recall when information extraction may miss relevant sentences. The goal is to build biographies by combining these techniques for high precision on structured fields and better recall on more complex fields.
This presentation is based on ranking of web pages, mainly it consist of PageRank algorithm and HITS algorithm. It gives brief knowledge of how to calculate page rank by looking at the links between the pages. It tells you about different techniques of search engine optimization.
The document provides an overview of the Natural Language Toolkit (NLTK). It discusses that NLTK is a Python library for natural language processing that includes corpora, tokenizers, stemmers, part-of-speech taggers, parsers, and other tools. The document outlines the modules in NLTK and their functionality, such as the nltk.corpus module for corpora, nltk.tokenize and nltk.stem for tokenizers and stemmers, and nltk.tag for part-of-speech tagging. It also provides instructions on installing NLTK and downloading its data.
Présentation sur les ontologie :
le concept de base, les langages, et les applications dans les différents domaines.
Exposé présenté par Benouini Rachid dans FST Fès 2014-2015.
Les employeurs face à l’Intelligence ArtificielleFrance Travail
Au cours du mois de mai 2023, Pôle emploi a mené une enquête auprès de 3000 établissements de 10 salariés et plus en France métropolitaine au sujet de leurs usages de l’Intelligence Artificielle (IA). Plus d’un tiers (35 %) de ces établissements utilisent l’Intelligence Artificielle ou sont en train de la déployer. A l’inverse, 57% des établissements ne l’envisagent pas à ce jour.
A TELECHARGER ! Schéma d’une plateforme de veille "modulaire" 100% RSS (MAJ l...Serge Courrier
Extraction d'information, filtrage, fusion, agrégation, rediffusion... le RSS est un format idéal pour faire de la veille. Lorsque des contraintes budgétaires rendent compliquées l'investissement dans des plateformes de veilles dites "intégrées" (Ami Software, Keywatch, Digimind, KB Crawl, etc.), il est possible de constituer à moindre frais une plateforme "modualire", au prix d'une multiplication des services à maîtriser et d'un risque certain concernant la pérennité de chaque élément de la chaîne. A y bien regarder néanmoins, Inoreader, à lui seul, intègre de nombreux modules utiles.
Machine Learning et Intelligence Artificielle : quelles applications pour le marketing digital ?
Deep Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de voix, de visages, de sentiments, quelles possibilités d’applications au marketing digital ? Comment commencer ? Avec quels outils et quelles compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle, que ce soit pour conduire des voitures autonomes, identifier les utilisateurs à partir de leur visage, traduire en temps réel des conversations téléphoniques, conseiller le bon produit, mimer le comportement du parfait assistant…
Cette débauche de moyens en recherche et développement génère la diffusion en Open Source des sources de nombreux algorithmes ou le foisonnement de fonctions et d’API de ML et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, les sentiments à partir d’un texte, ou pour anticiper des ruptures dans des comportements… En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitements considérables qui permettent d’appliquer ces algorithmes de ML sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Ce séminaire prospectif vise à démystifier le Deep Machine Learning, à en dessiner les premières applications potentielles pour le Marketing Digital et à en préciser les modalités de mise en œuvre ainsi que les impacts et les risques à identifier.
Standard Datasets in Information Retrieval Jean Brenda
The document discusses standard datasets used for information retrieval (IR) system evaluation and research. It describes several major datasets including the Cranfield collection, which was the first test collection and used aeronautical papers, and the Text REtrieval Conference (TREC) collection, which is a large collection of newswire articles. It also mentions other datasets like Gov2, NTCIR, CLEF, and 20Newsgroups. The datasets provide documents, queries, and relevance judgments and allow comparison of IR systems and algorithms.
Information Retrieval-4(inverted index_&_query handling)Jeet Das
The document describes the process of creating an inverted index to support keyword searching of documents. It discusses storing term postings lists that map terms to the documents that contain them. It also describes techniques like skip pointers, phrase queries, and proximity searches to improve query processing efficiency and support more complex search needs. Precision, recall, and f-score metrics for evaluating information retrieval systems are also summarized.
Savez vous vraiment faire des recherches sur internet?
utilisez vous Google uniquement ? utilisez vous bien google ?
Des trucs et astuces pour faire des recherches sur internet en profondeur et surtout comment stocker les information obtenues.
This document provides an overview of the File Transfer Protocol (FTP) including how it works, the types of connections it uses, common FTP commands, and an example of downloading a file from an FTP server. FTP uses TCP connections on ports 20 and 21, with port 21 for control commands and port 20 for transferring files. Common commands include get to download files, put to upload, cd to change directories, and bye to log off. The example demonstrates connecting to an FTP server and navigating directories to download a specific file.
Introduction to Distributional SemanticsAndre Freitas
This document provides an introduction to distributional semantics. It discusses how distributional semantic models (DSMs) represent word meanings as vectors based on their linguistic contexts in large corpora. This distributional hypothesis states that words that appear in similar contexts tend to have similar meanings. The document outlines how DSMs are built, important parameters like context type and weighting, and examples like latent semantic analysis. It also discusses how DSMs can support applications like semantic search. Finally, it introduces how compositional semantics explores representing the meanings of phrases and sentences compositionally based on the meanings of their parts.
The document provides an overview of the key technologies that enable the World Wide Web. It discusses how the Web is a subset of the Internet that uses HTTP to access interlinked hypertext documents from servers. The TCP/IP protocol handles communication between networks, while technologies like HTML, URLs, domain names, browsers and servers allow people and computers to access and share information over the Internet through the World Wide Web. The document also reviews some common uses of the Internet and factors to consider when selecting technologies for websites.
Connectez Power BI desktop à des centaines de sources de données, analysez-et visualisez vos informations en produisant des tableaux de bords attrayants, interactifs, en temps réel à partager avec vos collègues gestionnaires pour des prises de décisions éclairées.
Objectif général
Prendre en main l’un des framework PHP les plus utilisés
Objectifs opérationnels
Structurer les fonctionnalités grâce aux bundles
Faire correspondre une URL donnée à un traitement précis grâce au routage
Traiter les requêtes grâce aux contrôleurs
Intégrer des données dans des templates grâce à TWIG
Faciliter la communication avec une base de données grâce à Doctrine
Permettre à un utilisateur d’initialiser ou de modifier les attributs d'un objet métier grâce aux formulaires
Ce cours présente comment définir de nouveaux objets en définissant des classes. Un objet est une instance d'une classe qui définit les variables d'instances (attributs) et méthodes (fonctionnalités) que les objets créés à partir de la classe auront.
Présentation sur les ontologie :
le concept de base, les langages, et les applications dans les différents domaines.
Exposé présenté par Benouini Rachid dans FST Fès 2014-2015.
Les employeurs face à l’Intelligence ArtificielleFrance Travail
Au cours du mois de mai 2023, Pôle emploi a mené une enquête auprès de 3000 établissements de 10 salariés et plus en France métropolitaine au sujet de leurs usages de l’Intelligence Artificielle (IA). Plus d’un tiers (35 %) de ces établissements utilisent l’Intelligence Artificielle ou sont en train de la déployer. A l’inverse, 57% des établissements ne l’envisagent pas à ce jour.
A TELECHARGER ! Schéma d’une plateforme de veille "modulaire" 100% RSS (MAJ l...Serge Courrier
Extraction d'information, filtrage, fusion, agrégation, rediffusion... le RSS est un format idéal pour faire de la veille. Lorsque des contraintes budgétaires rendent compliquées l'investissement dans des plateformes de veilles dites "intégrées" (Ami Software, Keywatch, Digimind, KB Crawl, etc.), il est possible de constituer à moindre frais une plateforme "modualire", au prix d'une multiplication des services à maîtriser et d'un risque certain concernant la pérennité de chaque élément de la chaîne. A y bien regarder néanmoins, Inoreader, à lui seul, intègre de nombreux modules utiles.
Machine Learning et Intelligence Artificielle : quelles applications pour le marketing digital ?
Deep Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de voix, de visages, de sentiments, quelles possibilités d’applications au marketing digital ? Comment commencer ? Avec quels outils et quelles compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle, que ce soit pour conduire des voitures autonomes, identifier les utilisateurs à partir de leur visage, traduire en temps réel des conversations téléphoniques, conseiller le bon produit, mimer le comportement du parfait assistant…
Cette débauche de moyens en recherche et développement génère la diffusion en Open Source des sources de nombreux algorithmes ou le foisonnement de fonctions et d’API de ML et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, les sentiments à partir d’un texte, ou pour anticiper des ruptures dans des comportements… En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitements considérables qui permettent d’appliquer ces algorithmes de ML sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Ce séminaire prospectif vise à démystifier le Deep Machine Learning, à en dessiner les premières applications potentielles pour le Marketing Digital et à en préciser les modalités de mise en œuvre ainsi que les impacts et les risques à identifier.
Standard Datasets in Information Retrieval Jean Brenda
The document discusses standard datasets used for information retrieval (IR) system evaluation and research. It describes several major datasets including the Cranfield collection, which was the first test collection and used aeronautical papers, and the Text REtrieval Conference (TREC) collection, which is a large collection of newswire articles. It also mentions other datasets like Gov2, NTCIR, CLEF, and 20Newsgroups. The datasets provide documents, queries, and relevance judgments and allow comparison of IR systems and algorithms.
Information Retrieval-4(inverted index_&_query handling)Jeet Das
The document describes the process of creating an inverted index to support keyword searching of documents. It discusses storing term postings lists that map terms to the documents that contain them. It also describes techniques like skip pointers, phrase queries, and proximity searches to improve query processing efficiency and support more complex search needs. Precision, recall, and f-score metrics for evaluating information retrieval systems are also summarized.
Savez vous vraiment faire des recherches sur internet?
utilisez vous Google uniquement ? utilisez vous bien google ?
Des trucs et astuces pour faire des recherches sur internet en profondeur et surtout comment stocker les information obtenues.
This document provides an overview of the File Transfer Protocol (FTP) including how it works, the types of connections it uses, common FTP commands, and an example of downloading a file from an FTP server. FTP uses TCP connections on ports 20 and 21, with port 21 for control commands and port 20 for transferring files. Common commands include get to download files, put to upload, cd to change directories, and bye to log off. The example demonstrates connecting to an FTP server and navigating directories to download a specific file.
Introduction to Distributional SemanticsAndre Freitas
This document provides an introduction to distributional semantics. It discusses how distributional semantic models (DSMs) represent word meanings as vectors based on their linguistic contexts in large corpora. This distributional hypothesis states that words that appear in similar contexts tend to have similar meanings. The document outlines how DSMs are built, important parameters like context type and weighting, and examples like latent semantic analysis. It also discusses how DSMs can support applications like semantic search. Finally, it introduces how compositional semantics explores representing the meanings of phrases and sentences compositionally based on the meanings of their parts.
The document provides an overview of the key technologies that enable the World Wide Web. It discusses how the Web is a subset of the Internet that uses HTTP to access interlinked hypertext documents from servers. The TCP/IP protocol handles communication between networks, while technologies like HTML, URLs, domain names, browsers and servers allow people and computers to access and share information over the Internet through the World Wide Web. The document also reviews some common uses of the Internet and factors to consider when selecting technologies for websites.
Connectez Power BI desktop à des centaines de sources de données, analysez-et visualisez vos informations en produisant des tableaux de bords attrayants, interactifs, en temps réel à partager avec vos collègues gestionnaires pour des prises de décisions éclairées.
Objectif général
Prendre en main l’un des framework PHP les plus utilisés
Objectifs opérationnels
Structurer les fonctionnalités grâce aux bundles
Faire correspondre une URL donnée à un traitement précis grâce au routage
Traiter les requêtes grâce aux contrôleurs
Intégrer des données dans des templates grâce à TWIG
Faciliter la communication avec une base de données grâce à Doctrine
Permettre à un utilisateur d’initialiser ou de modifier les attributs d'un objet métier grâce aux formulaires
Ce cours présente comment définir de nouveaux objets en définissant des classes. Un objet est une instance d'une classe qui définit les variables d'instances (attributs) et méthodes (fonctionnalités) que les objets créés à partir de la classe auront.
Les professionnels de l'information face aux défis du Web de donnéesGautier Poupeau
Diaporama pour une communication donnée dans le cadre de la journée d'études ADBS-EDB, "Quel Web demain ?", 7 avril 2009, http://www.adbs.fr/quel-web-demain--57415.htm
Web sémantique, Web de données, Web 3.0, Linked Data... Quelques repères pour...Antidot
Diaporama de la présentation faite à l'occasion du Co-lab Semantique organisé par le consortium Scribo. L'enjeu était de présenter en 45-60min les enjeux du Web sémantique.
Web 3_0 - l'évolution vers le web sémantique: l'internet intelligentJohann Lovato
Pour les ingénieurs, informaticiens avancés ou simplement geeks en informatique, voici un mémoire de MBA pour vous apprendre que je ne fais pas que du PPC dans la vie ;) Le web sémantique est pour moi l'avenir!
Atelier JDEV2017 : initiation à SPARQL avec Wikidata
Cet atelier a pour objectif de vous montrer comment dans l’avenir un étudiant et un chercheur (et demain les machines) vont naviguer dans le Linked Data (Web des données) à l’aide du langage SPARQL. Nous utiliserons un outil d'auto-complétion qui facilitera la création de votre première requête. Nous utiliserons le logiciel http://LinkedWiki.com afin d’écrire et partager les requêtes des participants de l’atelier ou bien https://io.datascience-paris-saclay.fr/map.php si le participant est membre de cette université.
Introduction au web des données (Linked Data)BorderCloud
L'Open Data, le Big Data, le Web des données, le Web sémantique, les ontologies, le NoSql et le SPARQL sont autant de notions qu'il faut comprendre pour ne pas rater la prochaine rupture technologique du Web.
Cette présentation est l'introduction de la formation sur le Web sémantique que donne la société BorderCloud pour prendre un peu de recule sur les buzzwords du moment et savoir si vous avez besoin de faire du Big Data ou bien du Linked Data.
Du Big Data vers le SMART Data : Scénario d'un processusCHAKER ALLAOUI
Du Big Data vers le SMAR Data : Scénario d'un processus
Scénario d'une implémentation d'un processus de transformations des données Big Data vers des données exploitables et représentatives via des traitements des streaming, systèmes distibués, messages, stockage dans un environnement NoSQL, gestion avec un éco-système Big Data et présentation graphique et quantitative des données avec les technologies:
Apache Storm, Apache Zookeeper, Apache Kafka, Apache Cassandra, Apache Spark et Data-Driven Document.
OntoCASE à la 5e conférence GeCSO: Gestion des Connaissances dans la Société ...Michel Héon PhD
OntoCASE est un atelier de génie logiciel pour la conception d'ontologies OWL fondée sur une représentation semi-formelle graphique de la connaissance d'entreprise. Cette présentation présente OntoCase dans la perspective de la gestion des connaissances organisationnelles.
Voir:
http://www.cotechnoe.com
http://www.ontocase.com
http://web-semantique-et-modelisation-ontologique-avec-g-owl.com/
Présentation du G-OWL Graphical web ontology language, un langage graphique pour la modélisation d'ontologie OWL nécessaire au développement d'applications pour le web sémantique. G-OWL vise à réduire l'espace cognitif entre la connaissance d'un expert et sa formalisation dans une ontologie en offrant une représentation graphique de la connaissance.
Carrefour perfectionnement & Cotechnoe Formation en transfert des connaissa...Michel Héon PhD
La mutation du personnel, le départ à la retraite des employés ou encore la fusion de départements sont autant d’exemples de situations qui peuvent être résolues par un projet de transfert des connaissances. Cet atelier se veut une initiation aux principes et procédures du transfert des connaissances en milieu de travail.
Transfert des connaissances en milieu de travail: Conférence des traducteurs ...Michel Héon PhD
Le départ massif à la retraite d’une part importante de la main-d’œuvre, la redéfinition des processus organisationnels et bien d’autres situations de changement imposent aux organisations une analyse de la situation face aux connaissances du milieu de travail.
Cet exposé présente les différents aspects qui entourent le mécanisme de transfert des connaissances dans un milieu de travail. La description de processus de transfert de connaissances, la maïeutique appliquée et ses instruments, la description de la technologie des systèmes à base de connaissances sont autant de sujets traités dans cet exposé.
Michel Héon PhD
http://www.cotechnoe.com
De la maïeutique appliquée à la construction d'une mémoire d’entreprise (onto...Michel Héon PhD
En gestion des connaissances (GC), la construction d’une mémoire d’entreprise (ontologie, base de connaissances, etc.) passe par une étape de captation de la connaissance détenue par les personnes en lien avec l’organisation (employé, client ou fournisseur). La captation est une activité stressante car elle se déroule souvent dans un contexte organisationnel en déséquilibre, qu’il s’agisse de restructuration ou parfois de tensions entre employés et l’employeur, etc. Ces situations influencent nécessairement l’état émotionnel du connaissant freinant l’accès à son savoir. Dès lors, la captation de la connaissance devient un enjeu qui nécessite de considérer le connaissant dans son entièreté : intellectuelle et émotionnelle.
Parallèlement au développement du concept d’ontologie (discours portant sur l’essence des choses), les Grecs anciens développèrent le concept de maïeutique (du grec maieutikê) qui, selon Platon, est l’art qu’utilise Socrate pour faire accoucher de son interlocuteur, la connaissance qu’il sait (la connaissance explicite) mais surtout, la connaissance qu’il ne sait pas qu’il sait (la connaissance tacite). Alors que l’élicitation place le modèle de connaissances au centre du processus de captation, la maïeutique, elle, y place le connaissant, permettant ainsi d’en considérer l’état émotionnel.
G-OWL : Vers un langage de modélisation graphique, polymorphique et typé pour...Michel Héon PhD
Le Web Ontology Language (OWL) standardisé par le W3C. a pour objectif’ d’offrir un langage de conception d’ontologies pour le web sémantique. L’ingénierie d’une ontologie est une activité complexe nécessitant une habilité peu accessible à des experts de contenu. En revanche, pour modéliser du contenu métier, la modélisation graphique semi-formelle est une technique souvent employée pour offrir un outil de représentation des connaissances à des experts de contenu peu familier au processus de conception d’une ontologie. Dans cet article, nous présentons de quelle manière l’usage du polymorphisme et le typage des symboles du vocabulaire graphique permettront de concevoir le langage G-OWL, un langage graphique qui vise à permettre la représentation de connaissances métiers dans le formalisme OWL pour des non-experts de l’ingénierie ontologique.
L'IA connaît une croissance rapide et son intégration dans le domaine éducatif soulève de nombreuses questions. Aujourd'hui, nous explorerons comment les étudiants utilisent l'IA, les perceptions des enseignants à ce sujet, et les mesures possibles pour encadrer ces usages.
Constat Actuel
L'IA est de plus en plus présente dans notre quotidien, y compris dans l'éducation. Certaines universités, comme Science Po en janvier 2023, ont interdit l'utilisation de l'IA, tandis que d'autres, comme l'Université de Prague, la considèrent comme du plagiat. Cette diversité de positions souligne la nécessité urgente d'une réponse institutionnelle pour encadrer ces usages et prévenir les risques de triche et de plagiat.
Enquête Nationale
Pour mieux comprendre ces dynamiques, une enquête nationale intitulée "L'IA dans l'enseignement" a été réalisée. Les auteurs de cette enquête sont Le Sphynx (sondage) et Compilatio (fraude académique). Elle a été diffusée dans les universités de Lyon et d'Aix-Marseille entre le 21 juin et le 15 août 2023, touchant 1242 enseignants et 4443 étudiants. Les questionnaires, conçus pour étudier les usages de l'IA et les représentations de ces usages, abordaient des thèmes comme les craintes, les opportunités et l'acceptabilité.
Résultats de l'Enquête
Les résultats montrent que 55 % des étudiants utilisent l'IA de manière occasionnelle ou fréquente, contre 34 % des enseignants. Cependant, 88 % des enseignants pensent que leurs étudiants utilisent l'IA, ce qui pourrait indiquer une surestimation des usages. Les usages identifiés incluent la recherche d'informations et la rédaction de textes, bien que ces réponses ne puissent pas être cumulées dans les choix proposés.
Analyse Critique
Une analyse plus approfondie révèle que les enseignants peinent à percevoir les bénéfices de l'IA pour l'apprentissage, contrairement aux étudiants. La question de savoir si l'IA améliore les notes sans développer les compétences reste débattue. Est-ce un dopage académique ou une opportunité pour un apprentissage plus efficace ?
Acceptabilité et Éthique
L'enquête révèle que beaucoup d'étudiants jugent acceptable d'utiliser l'IA pour rédiger leurs devoirs, et même un quart des enseignants partagent cet avis. Cela pose des questions éthiques cruciales : copier-coller est-il tricher ? Utiliser l'IA sous supervision ou pour des traductions est-il acceptable ? La réponse n'est pas simple et nécessite un débat ouvert.
Propositions et Solutions
Pour encadrer ces usages, plusieurs solutions sont proposées. Plutôt que d'interdire l'IA, il est suggéré de fixer des règles pour une utilisation responsable. Des innovations pédagogiques peuvent également être explorées, comme la création de situations de concurrence professionnelle ou l'utilisation de détecteurs d'IA.
Conclusion
En conclusion, bien que l'étude présente des limites, elle souligne un besoin urgent de régulation. Une charte institutionnelle pourrait fournir un cadre pour une utilisation éthique.
MongoDB in a scale-up: how to get away from a monolithic hell — MongoDB Paris...Horgix
This is the slide deck of a talk by Alexis "Horgix" Chotard and Laurentiu Capatina presented at the MongoDB Paris User Group in June 2024 about the feedback on how PayFit move away from a monolithic hell of a self-hosted MongoDB cluster to managed alternatives. Pitch below.
March 15, 2023, 6:59 AM: a MongoDB cluster collapses. Tough luck, this cluster contains 95% of user data and is absolutely vital for even minimal operation of our application. To worsen matters, this cluster is 7 years behind on versions, is not scalable, and barely observable. Furthermore, even the data model would quickly raise eyebrows: applications communicating with each other by reading/writing in the same MongoDB documents, documents reaching the maximum limit of 16MiB with hundreds of levels of nesting, and so forth. The incident will last several days and result in the loss of many users. We've seen better scenarios.
Let's explore how PayFit found itself in this hellish situation and, more importantly, how we managed to overcome it!
On the agenda: technical stabilization, untangling data models, breaking apart a Single Point of Failure (SPOF) into several elements with a more restricted blast radius, transitioning to managed services, improving internal accesses, regaining control over risky operations, and ultimately, approaching a technical migration when it impacts all development teams.
Le Comptoir OCTO - Équipes infra et prod, ne ratez pas l'embarquement pour l'...OCTO Technology
par Claude Camus (Coach agile d'organisation @OCTO Technology) et Gilles Masy (Organizational Coach @OCTO Technology)
Les équipes infrastructure, sécurité, production, ou cloud, doivent consacrer du temps à la modernisation de leurs outils (automatisation, cloud, etc) et de leurs pratiques (DevOps, SRE, etc). Dans le même temps, elles doivent répondre à une avalanche croissante de demandes, tout en maintenant un niveau de qualité de service optimal.
Habitué des environnements développeurs, les transformations agiles négligent les particularités des équipes OPS. Lors de ce comptoir, nous vous partagerons notre proposition de valeur de l'agilité@OPS, qui embarquera vos équipes OPS en Classe Business (Agility), et leur fera dire : "nous ne reviendrons pas en arrière".
Ouvrez la porte ou prenez un mur (Agile Tour Genève 2024)Laurent Speyser
(Conférence dessinée)
Vous êtes certainement à l’origine, ou impliqué, dans un changement au sein de votre organisation. Et peut être que cela ne se passe pas aussi bien qu’attendu…
Depuis plusieurs années, je fais régulièrement le constat de l’échec de l’adoption de l’Agilité, et plus globalement de grands changements, dans les organisations. Je vais tenter de vous expliquer pourquoi ils suscitent peu d'adhésion, peu d’engagement, et ils ne tiennent pas dans le temps.
Heureusement, il existe un autre chemin. Pour l'emprunter il s'agira de cultiver l'invitation, l'intelligence collective , la mécanique des jeux, les rites de passages, .... afin que l'agilité prenne racine.
Vous repartirez de cette conférence en ayant pris du recul sur le changement tel qu‘il est généralement opéré aujourd’hui, et en ayant découvert (ou redécouvert) le seul guide valable à suivre, à mon sens, pour un changement authentique, durable, et respectueux des individus! Et en bonus, 2 ou 3 trucs pratiques!
Le Comptoir OCTO - Qu’apporte l’analyse de cycle de vie lors d’un audit d’éco...OCTO Technology
Par Nicolas Bordier (Consultant numérique responsable @OCTO Technology) et Alaric Rougnon-Glasson (Sustainable Tech Consultant @OCTO Technology)
Sur un exemple très concret d’audit d’éco-conception de l’outil de bilan carbone C’Bilan développé par ICDC (Caisse des dépôts et consignations) nous allons expliquer en quoi l’ACV (analyse de cycle de vie) a été déterminante pour identifier les pistes d’actions pour réduire jusqu'à 82% de l’empreinte environnementale du service.
Vidéo Youtube : https://www.youtube.com/watch?v=7R8oL2P_DkU
Compte-rendu :
1. Le web sémantique en 10 minutes!
Version 2018
Michel Héon PhD
Informaticien indépendant en web des données
Professeur associé université du Québec à Montréal
Chargé de cours École des Sciences de la Gestion-UQAM
Troisième conférence sur le web sémantique au Québec
http://websemantique.ca
19 juin 2018
2. Michel Héon PhD
http://www.cotechnoe.com
Ce qu'est le web sémantique
aussi appelé web de données
2
1990 - Tim Bernes-Lee invente le World
Wide Web (WWW)
1994 - il fonde le W3C l’organisme à but
non lucratif, appartenant à tous dont la
mission est de définir les normes:
- non-propriétaire
- gratuite
- libres d’accès
qui régiront le web
1998: Tim émet l'idée d'utiliser le web
pour aussi lier des données. Naissait
alors le web sémantique
Pour combler quel besoin ?
"Faciliter l'échange de documents et de données
entre les humains et les machines"
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
3. Michel Héon PhD
http://www.cotechnoe.com
Différence entre Internet et Web
• L'internet c'est la mise en réseau mondial des ordinateurs
• L'internet dispose de plusieurs applications pour le partage de
fichier (ftp), l'échange de courriels (smtp-pop), la connexion inter-
ordinateur
• Le WEB, c'est une application de l'internet qui vise à favoriser
l'échange interopérable des documents et de données
3
ftp: smtp: - pop:
ssh:
http:
Internet
Web
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
4. Michel Héon PhD
http://www.cotechnoe.com
Qu'est-ce que le web?
C'est une grande bibliothèque virtuelle
composée de documents appelés «Ressource»
42018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
5. Michel Héon PhD
http://www.cotechnoe.com
Qu'est-ce que la sémantique?
C'est la fiche bibliographique appelée
«Ontologie» qui décrit chaque ressource
52018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
6. Michel Héon PhD
http://www.cotechnoe.com
Architecture du web
• Adressage des ressources
International/Uniform resource
Identifier (IRI/URI)
• Protocole de communication
HyperText Transfer Protocol (HTTP)
• Langage de représentation
– HyperText Modeling Language (HTML)
pour les documents (le web de
l'information et des documents)
– Resource Description Framework (RDF)
pour les données (le web sémantique)
6
HTML
IRI/URI
HTTP
Communication
Référence Adresse
WEB
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
7. Michel Héon PhD
http://www.cotechnoe.com
Architecture du web et du web
sémantique
• Adressage des ressources
International/Uniform resource
Identifier (IRI/URI)
• Protocole de communication
HyperText Transfer Protocol (HTTP)
• Langage de représentation
– HyperText Modeling Language (HTML)
pour les documents (le web de
l'information et des documents)
– Resource Description Framework (RDF)
pour les données (le web sémantique)
7
HTML
IRI/URI
HTTP
Communication
Référence Adresse
RDF
WEB
SÉMANTIQUE
Le web sémantique s'appuie sur les
technologies du WEB
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
8. Michel Héon PhD
http://www.cotechnoe.com
Le web et le web sémantique se fondent
sur le principe d'«interopérabilité»
8
Serveurs de
protocole HTTP
Clients du
protocole HTTP
Communication indépendante
du fournisseur technologique
Message codé
en HTML/RDF
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
9. Michel Héon PhD
http://www.cotechnoe.com
Les 5 usages du web
sémantique
9
Données liées
2007
2018
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
10. Michel Héon PhD
http://www.cotechnoe.com
Les 5 usages du web
sémantique
10
Données liées
2007
Recherche de données2018
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
11. Michel Héon PhD
http://www.cotechnoe.com
Les 5 usages du web
sémantique
11
Données liées
2007
Normalisation du partage
des vocabulaires
Recherche de données2018
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
12. Michel Héon PhD
http://www.cotechnoe.com
Les 5 usages du web
sémantique
12
Données liées
2007
Normalisation du partage
des vocabulaires
Recherche de données2018
Inférence &
Informatique cognitive
Description
Logic
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
13. Michel Héon PhD
http://www.cotechnoe.com
Les 5 usages du web
sémantique
13
Données liées
2007
Normalisation du partage
des vocabulaires
Recherche de données2018
Inférence &
Informatique cognitive
Description
Logic
Applicable à des solutions
transdisciplinaires
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
14. Michel Héon PhD
http://www.cotechnoe.com
Les requêtes sur le web de données
SPARQL Protocol and RDF Query Language
• Serveur de données web
accessible par une IRI
• Le SPARQL est le langage de
requête normalisé par le W3C,
donc compatible sur toutes les
plates-formes
14
Serveur web de données
Service web de
requêtes SPARQL
(SPARQL endpoint)
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
15. Michel Héon PhD
http://www.cotechnoe.com
L'Ontologie dans le web sémantique
• Point de vue informatique
– fichier interopérable pour
communiquer les données
et leurs structures par le web
• Du point de vue de
l'informatique cognitive
– Elle permet de représenter
par les IRI les ressources du
web et/ou de la réalité
– Elle sert à symboliser les
concepts, propriétés et faits
conceptualisés du domaine
du discours
15
Conceptualisation
du domaine
Ontologie
du domaine
Représente
Domaine du
discours
2018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
16. Michel Héon PhD
http://www.cotechnoe.com
La structure de représentation utilisée
par l'ontologie et le RDF est le Graphe
Le données en tableau vs en graphe
162018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
Caractéristique Tableau Graphe RDF
Structure de données Codés dans la colonne Codé dans le graphe
La donnée Codé dans la cellule Codé dans le graphe
Flexibilité Difficile d'apporter des changements dans
la structure
Fondé sur l'évolutivité
Interopérabilité Faible, encodage propriétaire Encodage non propriétaire
Lisibilité Les humains aiment lire les tableaux Les logiciel aiment lire les graphes
17. Michel Héon PhD
http://www.cotechnoe.com
Architecture web sémantique de données
classique
172018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
Pour interconnecter les
données avec le web de données
Base de données
RDF
18. Michel Héon PhD
http://www.cotechnoe.com
Architecture de données en vogue dans
le monde de l'intelligence artificielle
182018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
Pour faire de l'IA,
de l'apprentissage machine
Pour interconnecter les
données avec le web de données
Gremlin
Base de données
en graphe
19. Michel Héon PhD
http://www.cotechnoe.com
Architecture de données en vogue pour
préserver le patrimoine de données
192018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
Modélisation classique de
donnéesPour interconnecter les
données avec le web de données
Base de données
tableaux
Accès aux données par
requêtes SQL
20. Michel Héon PhD
http://www.cotechnoe.com
La vison de la donnée par le web
Conjuguer performance et interopérabilité
202018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
Web de données liées
Connecter les silos de données
21. Michel Héon PhD
http://www.cotechnoe.com
En résumé
• Le web sémantique permet d'attribuer un sens aux
ressources du web
• L'ontologie est le fichier interopérable qui sert à coder la
donnée et la sémantique des ressources
• Le SPARQL est utilisé pour faire des requêtes sur le web
• Les 5 usages du web sémantique sont:
– Les données liées
(Réutilisabilité mondiale des jeux de données avec
économie de $$$)
– La recherche de données
– La normalisation et le partage de vocabulaire
– La répartition d'agents cognitifs sur le web
– L'applicabilité à des solutions transdisciplinaires
212018-06-193e édition de websemantique.ca: Le web sémantique en 10 Minutes Version 2018
22. Le web sémantique en 10 minutes!
Version 2018
Michel Héon PhD
Informaticien indépendant en web des données
Professeur associé université du Québec à Montréal
Chargé de cours École des Sciences de la Gestion-UQAM
Troisième conférence sur le web sémantique au Québec
http://websemantique.ca
19 juin 2018