Voici un petit guide abordant de manière synthétique une des nombreuses facettes de ce domaine de l'intelligence artificielle : Le prompt Engineering.
Il s'agit uniquement d'une introduction de cette discipline en constante évolution (il est important de le mentionner car cela va très vite et l'amélioration exponentielle des IA génératives rend obsolète au fur et à mesure certaines techniques quand d'autres voient le jour, donc ce qui est présenté est surtout à vocation éducative et présente en quelque sorte l'évolution des techniques de cette discipline qui ont été développées au fur et à mesure par des spécialistes).
Ce guide est surtout à destination des personnes débutantes (mais c'est également ouvert à tout le monde bien-sûr) souhaitant s'informer sur les pratiques de cette discipline.
Vous souhaitez rester informé sur les nouveautés et en particulier sur l'intelligence artificielle et ChatGPT, vous êtes au bon endroit !
Abonnez-vous à www.bigbrainevolution.com !
Un réseau de neurones récurrent (RNN, recurrent neural network) est un type de réseau de neurones artificiels principalement utilisé dans la reconnaissance automatique de la parole, dans l'écriture manuscrite et dans le traitement automatique du langage naturel, en particulier dans la traduction automatique.
Les RNN sont conçus de manière à reconnaître les caractéristiques séquentielles et pour prédire le scénario suivant le plus probable.
Les réseaux LSTM (Long Short Term Memory ou mémoire à long terme et à court terme ) sont un type spécial de RNN, capable d'apprendre les dépendances à long terme. Ils ont été introduits par Hochreiter et Schmidhuber en 1997, et ont été par la suite affinés et popularisés à travers plusieurs travaux. Ils fonctionnent extrêmement bien sur une grande variété de problèmes et sont maintenant largement utilisés.
Lien pour la version vidéo :
https://youtube.com/playlist?list=PLzjg2z2kYUrjcL_UhvQawGGB85UA9rtNO
1. BlenderBot summarizes several papers on chatbot models from Google, OpenAI, and FAIR to provide context on its contributions.
2. It describes its use of large pre-training datasets like Reddit comments, and fine-tuning on datasets for personality, empathy, knowledge, and blended skills.
3. The paper considers retrieval, generative, and retrieve-and-refine models, selecting the Poly-Encoder for retrieval and BART for generation due to their advantages, and exploring techniques like unlikelihood training and decoding strategies.
Artificial Neural Networks Lect7: Neural networks based on competitionMohammed Bennamoun
This document summarizes key concepts about neural networks based on competition. It discusses fixed weight competitive networks including Maxnet, Mexican Hat, and Hamming Net. Maxnet uses winner-take-all competition where only the neuron with the largest activation remains on. The Mexican Hat network enhances contrast through excitatory connections to nearby neurons and inhibitory connections to farther neurons. Iterating the activations over time steps increases the activation of neurons with initially larger signals and decreases others. Kohonen self-organizing maps and their training in Matlab are also mentioned.
[PR12] Inception and Xception - Jaejun YooJaeJun Yoo
This document discusses Inception and Xception models for computer vision tasks. It describes the Inception architecture, which uses 1x1, 3x3 and 5x5 convolutional filters arranged in parallel to capture correlations at different scales more efficiently. It also describes the Xception model, which entirely separates cross-channel correlations and spatial correlations using depthwise separable convolutions. The document compares different approaches for reducing computational costs like pooling and strided convolutions.
Détection communautaire dans des réseaux complexe a l'aide de l'algorithme gé...AHMEDBELGHITH4
Détection communautaire dans des réseaux complexes à l'aide d'un algorithme génétique.
Élaboré par Mursel Tasgin et Haluk Bingol Department of Computer Engineering Bogazici University, Istanbul, Turkey
La génèse est l'étape de la création d'une population aléatoire. C'est le point de départ de notre algorithme
L'évaluation est l'analyse des individus pour analyser si une solution est disponible. Pour ceci, nous utilisons un fonction de coût, ou d'erreur, afin de définir le score d'adaptation des individus lors du processus de sélection. (une solution dispo ou non )
La sélection consiste à choisir les individus les mieux adaptés
Mélange par la reproduction des particularités des individus choisis.
La mutation consiste à altérer un gène dans un chromosome selon un facteur de mutation. (Ce facteur est la probabilité qu'une mutation soit effectuée sur un individu.)
Cryptanalyse : pour obtenir la clef privée sur des clés asymétriques.
Finance : Prédiction de l'évolution d'une action.
Planning : Obtenir le meilleur planning en fonction de dispositions.
Plan de table : Effectuer la meilleure disposition de table en fonction des affinités de chacun.
Robotique : Comportement intuitif et apprentissage.
Data Mining : Création et utilisation de règles pour obtenir de nouvelles informations.
Zachary Karate Club :
Les données du Zachary Karate Club contiennent la structure communautaire d'un club de karaté .
Le réseau est composé de 34 sommets et 78 arêtes. Nous avons exécuté notre algorithme sur ce jeu de données un certain nombre de fois. L'algorithme trouve une structure de communauté correcte à 97% - 100 %.
College Football Network
Le réseau de football universitaire est composé des matchs de football universitaire aux États-Unis, pour la Division I, au cours de l'année 2000. Les noeuds du réseau sont les équipes de football universitaire et il existe un lien entre deux équipes si elles ont joué un match. La véritable structure communautaire est constituée par les conférences auxquelles chaque équipe appartient.
Réseau de courrier électronique d’Enron
Un réseau de neurones récurrent (RNN, recurrent neural network) est un type de réseau de neurones artificiels principalement utilisé dans la reconnaissance automatique de la parole, dans l'écriture manuscrite et dans le traitement automatique du langage naturel, en particulier dans la traduction automatique.
Les RNN sont conçus de manière à reconnaître les caractéristiques séquentielles et pour prédire le scénario suivant le plus probable.
Les réseaux LSTM (Long Short Term Memory ou mémoire à long terme et à court terme ) sont un type spécial de RNN, capable d'apprendre les dépendances à long terme. Ils ont été introduits par Hochreiter et Schmidhuber en 1997, et ont été par la suite affinés et popularisés à travers plusieurs travaux. Ils fonctionnent extrêmement bien sur une grande variété de problèmes et sont maintenant largement utilisés.
Lien pour la version vidéo :
https://youtube.com/playlist?list=PLzjg2z2kYUrjcL_UhvQawGGB85UA9rtNO
1. BlenderBot summarizes several papers on chatbot models from Google, OpenAI, and FAIR to provide context on its contributions.
2. It describes its use of large pre-training datasets like Reddit comments, and fine-tuning on datasets for personality, empathy, knowledge, and blended skills.
3. The paper considers retrieval, generative, and retrieve-and-refine models, selecting the Poly-Encoder for retrieval and BART for generation due to their advantages, and exploring techniques like unlikelihood training and decoding strategies.
Artificial Neural Networks Lect7: Neural networks based on competitionMohammed Bennamoun
This document summarizes key concepts about neural networks based on competition. It discusses fixed weight competitive networks including Maxnet, Mexican Hat, and Hamming Net. Maxnet uses winner-take-all competition where only the neuron with the largest activation remains on. The Mexican Hat network enhances contrast through excitatory connections to nearby neurons and inhibitory connections to farther neurons. Iterating the activations over time steps increases the activation of neurons with initially larger signals and decreases others. Kohonen self-organizing maps and their training in Matlab are also mentioned.
[PR12] Inception and Xception - Jaejun YooJaeJun Yoo
This document discusses Inception and Xception models for computer vision tasks. It describes the Inception architecture, which uses 1x1, 3x3 and 5x5 convolutional filters arranged in parallel to capture correlations at different scales more efficiently. It also describes the Xception model, which entirely separates cross-channel correlations and spatial correlations using depthwise separable convolutions. The document compares different approaches for reducing computational costs like pooling and strided convolutions.
Détection communautaire dans des réseaux complexe a l'aide de l'algorithme gé...AHMEDBELGHITH4
Détection communautaire dans des réseaux complexes à l'aide d'un algorithme génétique.
Élaboré par Mursel Tasgin et Haluk Bingol Department of Computer Engineering Bogazici University, Istanbul, Turkey
La génèse est l'étape de la création d'une population aléatoire. C'est le point de départ de notre algorithme
L'évaluation est l'analyse des individus pour analyser si une solution est disponible. Pour ceci, nous utilisons un fonction de coût, ou d'erreur, afin de définir le score d'adaptation des individus lors du processus de sélection. (une solution dispo ou non )
La sélection consiste à choisir les individus les mieux adaptés
Mélange par la reproduction des particularités des individus choisis.
La mutation consiste à altérer un gène dans un chromosome selon un facteur de mutation. (Ce facteur est la probabilité qu'une mutation soit effectuée sur un individu.)
Cryptanalyse : pour obtenir la clef privée sur des clés asymétriques.
Finance : Prédiction de l'évolution d'une action.
Planning : Obtenir le meilleur planning en fonction de dispositions.
Plan de table : Effectuer la meilleure disposition de table en fonction des affinités de chacun.
Robotique : Comportement intuitif et apprentissage.
Data Mining : Création et utilisation de règles pour obtenir de nouvelles informations.
Zachary Karate Club :
Les données du Zachary Karate Club contiennent la structure communautaire d'un club de karaté .
Le réseau est composé de 34 sommets et 78 arêtes. Nous avons exécuté notre algorithme sur ce jeu de données un certain nombre de fois. L'algorithme trouve une structure de communauté correcte à 97% - 100 %.
College Football Network
Le réseau de football universitaire est composé des matchs de football universitaire aux États-Unis, pour la Division I, au cours de l'année 2000. Les noeuds du réseau sont les équipes de football universitaire et il existe un lien entre deux équipes si elles ont joué un match. La véritable structure communautaire est constituée par les conférences auxquelles chaque équipe appartient.
Réseau de courrier électronique d’Enron
This document discusses decision trees and the ID3 algorithm for generating decision trees. It explains that a decision tree classifies examples based on their attributes through a series of questions or rules. The ID3 algorithm uses information gain to choose the most informative attributes to split on at each node, resulting in a tree that maximizes classification accuracy. Some drawbacks of decision trees are that they can only handle nominal attributes and may not be robust to noisy data.
This presentation discusses about the following topics:
Truth values and tables,
Fuzzy propositions,
Formation of rules decomposition of rules,
Aggregation of fuzzy rules,
Fuzzy reasoning‐fuzzy inference systems
Overview of fuzzy expert system‐
Fuzzy decision making.
Unit 2 discusses knowledge representation, which is important for intelligent systems to achieve useful tasks. It cannot be done without a large amount of domain-specific knowledge. Humans tackle problems using their knowledge resources, so knowledge must be represented inside computers for AI programs to manipulate. The document then defines knowledge representation as the part of AI concerned with how agents think and how thinking enables intelligent behavior. It represents real-world information so computers can understand and utilize knowledge to solve complex problems.
The document discusses knowledge based systems (KBS), including an overview of KBS, their development process, and some famous early expert systems like DENDRAL and MYCIN. Key aspects of developing a KBS include knowledge acquisition, representation, inference, and modeling uncertainty. The KBS lifecycle involves feasibility studies, requirements analysis, system design, coding, testing, and implementation.
Recurrent Neural Networks are popular Deep Learning models that have shown great promise to achieve state-of-the-art results in many tasks like Computer Vision, NLP, Finance and much more. Although being models proposed several years ago, RNN have gained popularity recently. In this talk, we will review how these models evolved over the years, dissection of RNN, current applications and its future.
Présentation sur les ontologie :
le concept de base, les langages, et les applications dans les différents domaines.
Exposé présenté par Benouini Rachid, Adnane Eddariouache dans FST Fès 2013-2014.
Artificial intelligence and knowledge representationSajan Sahu
The document discusses artificial intelligence and knowledge representation. It describes how computers can be made intelligent through speed of computation, filtering responses, using algorithms and neural networks. It also discusses knowledge representation techniques in AI like propositional logic, semantic networks, frames, predicate logic and nonmonotonic reasoning. The document provides examples and applications of AI like pattern recognition, robotics and natural language processing. It also discusses some fundamental problems of AI.
ce document est une communication orale présenté lors des 2èmes journées internationales de pharamcie hospitalière du centre Pierre et Marie curie (Algérie). son objectif principale est de mettre la lumière sur l'état des lieux en matière d'hygiène hospitalière en Algérie
Solving Traveling Salesman problem using genetic algorithms, implementation i...MEJDAOUI Soufiane
Solving Traveling Salesman problem using genetic algorithms, implementation in MATLAB.
You can find source code here : https://github.com/MejdaouiSoufiane/TSP-GA
Multimodal opinion mining from social mediaDiana Maynard
Presentation at the BCS SGAI 2013 conference in Cambridge, December 2013, describing the combination of opinion mining from text and multimedia from social media.
A Heart Disease Prediction Model using Logistic Regressionijtsrd
The early prognosis of cardiovascular diseases can aid in making decisions to lifestyle changes in high risk patients and in turn reduce their complications. Research has attempted to pinpoint the most influential factors of heart disease as well as accurately predict the overall risk using homogenous data mining techniques. Recent research has delved into amalgamating these techniques using approaches such as hybrid data mining algorithms. This paper proposes a rule based model to compare the accuracies of applying rules to the individual results of logistic regression on the Cleveland Heart Disease Database in order to present an accurate model of predicting heart disease. K. Sandhya Rani | M. Sai Manoj | G. Suguna Mani"A Heart Disease Prediction Model using Logistic Regression" Published in International Journal of Trend in Scientific Research and Development (ijtsrd), ISSN: 2456-6470, Volume-2 | Issue-3 , April 2018, URL: http://www.ijtsrd.com/papers/ijtsrd11401.pdf http://www.ijtsrd.com/computer-science/data-miining/11401/a-heart-disease-prediction-model-using-logistic-regression/k-sandhya-rani
ISTQB® (International Software Testing Qualifications Board) a défini le système «ISTQB® Certified Tester» qui est devenu le leader mondial dans la certificationdescompétencesentestsdelogiciels. • Cette formation vous permettra d'acquérir les fondamentaux en test logiciel desystèmed'information. • Vous comprendrez la place des tests dans le cycle de vie du logiciel et verrezlestechniquespour lesconcevoiretlesgérer. • Cette formation vous préparera également à la certification de l'ISTQB "Foundation".
Rédigé en Mars 2013
Comment automatiser les tests ?
Les différents types de tests automatisés : TU, BDD/TDD, GUI, TDC, Test de vie …
Méthodes d’automatisation
Capture/replay
Projet de développement
Techniques d’automatisation
Data driven
Keyword driven
DSTL
Composants technique pour l’automatisation
Oracle
Bouchon
Techniques de comparaison
Reporting
This document discusses decision trees and the ID3 algorithm for generating decision trees. It explains that a decision tree classifies examples based on their attributes through a series of questions or rules. The ID3 algorithm uses information gain to choose the most informative attributes to split on at each node, resulting in a tree that maximizes classification accuracy. Some drawbacks of decision trees are that they can only handle nominal attributes and may not be robust to noisy data.
This presentation discusses about the following topics:
Truth values and tables,
Fuzzy propositions,
Formation of rules decomposition of rules,
Aggregation of fuzzy rules,
Fuzzy reasoning‐fuzzy inference systems
Overview of fuzzy expert system‐
Fuzzy decision making.
Unit 2 discusses knowledge representation, which is important for intelligent systems to achieve useful tasks. It cannot be done without a large amount of domain-specific knowledge. Humans tackle problems using their knowledge resources, so knowledge must be represented inside computers for AI programs to manipulate. The document then defines knowledge representation as the part of AI concerned with how agents think and how thinking enables intelligent behavior. It represents real-world information so computers can understand and utilize knowledge to solve complex problems.
The document discusses knowledge based systems (KBS), including an overview of KBS, their development process, and some famous early expert systems like DENDRAL and MYCIN. Key aspects of developing a KBS include knowledge acquisition, representation, inference, and modeling uncertainty. The KBS lifecycle involves feasibility studies, requirements analysis, system design, coding, testing, and implementation.
Recurrent Neural Networks are popular Deep Learning models that have shown great promise to achieve state-of-the-art results in many tasks like Computer Vision, NLP, Finance and much more. Although being models proposed several years ago, RNN have gained popularity recently. In this talk, we will review how these models evolved over the years, dissection of RNN, current applications and its future.
Présentation sur les ontologie :
le concept de base, les langages, et les applications dans les différents domaines.
Exposé présenté par Benouini Rachid, Adnane Eddariouache dans FST Fès 2013-2014.
Artificial intelligence and knowledge representationSajan Sahu
The document discusses artificial intelligence and knowledge representation. It describes how computers can be made intelligent through speed of computation, filtering responses, using algorithms and neural networks. It also discusses knowledge representation techniques in AI like propositional logic, semantic networks, frames, predicate logic and nonmonotonic reasoning. The document provides examples and applications of AI like pattern recognition, robotics and natural language processing. It also discusses some fundamental problems of AI.
ce document est une communication orale présenté lors des 2èmes journées internationales de pharamcie hospitalière du centre Pierre et Marie curie (Algérie). son objectif principale est de mettre la lumière sur l'état des lieux en matière d'hygiène hospitalière en Algérie
Solving Traveling Salesman problem using genetic algorithms, implementation i...MEJDAOUI Soufiane
Solving Traveling Salesman problem using genetic algorithms, implementation in MATLAB.
You can find source code here : https://github.com/MejdaouiSoufiane/TSP-GA
Multimodal opinion mining from social mediaDiana Maynard
Presentation at the BCS SGAI 2013 conference in Cambridge, December 2013, describing the combination of opinion mining from text and multimedia from social media.
A Heart Disease Prediction Model using Logistic Regressionijtsrd
The early prognosis of cardiovascular diseases can aid in making decisions to lifestyle changes in high risk patients and in turn reduce their complications. Research has attempted to pinpoint the most influential factors of heart disease as well as accurately predict the overall risk using homogenous data mining techniques. Recent research has delved into amalgamating these techniques using approaches such as hybrid data mining algorithms. This paper proposes a rule based model to compare the accuracies of applying rules to the individual results of logistic regression on the Cleveland Heart Disease Database in order to present an accurate model of predicting heart disease. K. Sandhya Rani | M. Sai Manoj | G. Suguna Mani"A Heart Disease Prediction Model using Logistic Regression" Published in International Journal of Trend in Scientific Research and Development (ijtsrd), ISSN: 2456-6470, Volume-2 | Issue-3 , April 2018, URL: http://www.ijtsrd.com/papers/ijtsrd11401.pdf http://www.ijtsrd.com/computer-science/data-miining/11401/a-heart-disease-prediction-model-using-logistic-regression/k-sandhya-rani
ISTQB® (International Software Testing Qualifications Board) a défini le système «ISTQB® Certified Tester» qui est devenu le leader mondial dans la certificationdescompétencesentestsdelogiciels. • Cette formation vous permettra d'acquérir les fondamentaux en test logiciel desystèmed'information. • Vous comprendrez la place des tests dans le cycle de vie du logiciel et verrezlestechniquespour lesconcevoiretlesgérer. • Cette formation vous préparera également à la certification de l'ISTQB "Foundation".
Rédigé en Mars 2013
Comment automatiser les tests ?
Les différents types de tests automatisés : TU, BDD/TDD, GUI, TDC, Test de vie …
Méthodes d’automatisation
Capture/replay
Projet de développement
Techniques d’automatisation
Data driven
Keyword driven
DSTL
Composants technique pour l’automatisation
Oracle
Bouchon
Techniques de comparaison
Reporting
BigText, compréhension et inférence avancées sur les textesPALO IT
Les groupes de travail de l’association EGC – « Fouille de Données Complexes » (GT-FDC), « Fouille de Grands Graphes » (GT-FGG), « Visualisation d’informations, interaction et fouille de données » (GT-VIF, commun avec l’AFIHM) et « Gestion et Analyse de données Spatiales et Temporelles » (GT-GAST, commun avec l’action prospective EXCES, GDR MAGIS) – organisent la 7ème édition des journées thématiques visant d’une part à poursuivre les activités des groupes et d’autre part à développer des axes communs autour de la prise en compte, la gestion, l’analyse, le traitement et la visualisation des données massives (Big Data).
Patrick LAFFITTE, Raja HADDAD et Yassin CHABEB ont présenté la conférence : BigText, compréhension et inférence avancées sur les textes.
Aujourd’hui, le volume des données textuelles échangées par les systèmes numériques est en croissance continue. L’exploitation de ces données offre de nombreuses perspectives de développement de nouveaux services pour les particuliers comme pour les professionnels.
Pour exploiter cette richesse, il est indispensable d’extraire et de produire des connaissances à partir de ce type de données.
conférence sur le thème :
Intelligence artificielle et applications
Organisée par :
Laboratoires MISI, IR2M, IIMSC et AMSAD
UNIVERSITE HASSAN 1er et FST DE SETTAT
Evénement organisé à Mehdia, Kénitra
(Complexe Hotel Kenz Mehdia)
25 et 26 décembre 2019
L'ingénierie pédagogique transforme les données entrant de la formation (cahiers des charges, objectifs de formation, ressources,...) en données sortant pour l'organisation pédagogique (objectif pédagogique, méthode, outils,...). S'il existe de nombreux modèles, le modèle ADDIE est le plus reconnu
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...OCTO Technology
Maîtriser le RAG : connecter les modèles d’IA génératives aux données de l’entreprise
par Nicolas Cavallo (Head of Natural Language Processing @OCTO Technology)
Les chatbots intelligents qui répondent directement aux clients, des tâches accélérées et simplifiées pour les salariés via des services d’assistance helpdesk automatisés, etc. Après plusieurs mois de développement et d’implémentation de projets de génération augmentée de récupération (Retrieval Augmented Generation - RAG),faisons le bilan sur ce principal cas d’usage à base d’IA génératives.
Nous détaillerons le fonctionnement du RAG qui permet de connecter la puissance de l’IA générative au patrimoine informationnel des entreprises. Nous examinerons plus particulièrement les méthodologies pour les évaluer et les améliorer. Grâce à nos retours d’expérience, nous détaillerons des stratégies d’intégration dans un environnement souverain.
Vidéo Youtube : https://www.youtube.com/watch?v=9tmlseutQM8
Compte-rendu : https://blog.octo.com/maitriser-le-rag-retrieval-augmented-generation
Cette session est dédiée à toutes celles et ceux qui interviennent pour enseigner l’Agilité. Les IUT, les écoles d’informatique (mais pas que !) inscrivent désormais l’Agilité dans leur cursus pédagogique. Il s’agit d’une avancée importante pour l’Agilité, mais contrairement à ce que nous pratiquons en entreprise ou en formation, l’enseignement de l’Agilité doit prendre d’autres formes, auprès des étudiants … mais également du corps enseignant.
Entre expérimentations et conceptualisations, l’apprentissage par les jeux est un précieux soutien pour à capter l’attention. Cela suffit-il pour faciliter la compréhension et l’acquisition auprès de populations qui ont un contact très différent avec les notions d’équipe, d’utilisateurs, de projet et de produit. Pour que l’Agilité soit un standard de facto demain dans les organisations, une attention particulière est portée aujourd’hui sur un sujet en pleine exploration. Je vous propose de vous livrer mes expérimentations et mes résultats
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"Fing
Dans le cadre de travaux du groupe de travail NosSystèmes de la Fing, cette présentation montre le travail spéculatif d'étudiants de l'école Boulle sur un kit d'auto-évaluation des algorithmes.
Similaire à Introduction au Prompt engineering : Découvrez cette pratique ! (20)
3. Qu’est ce que le Prompt Engineering ?
1
Les approches par exemples
2
Les principales techniques de Prompt Engineering
3
Dans cette présentation :
4. Le prompt engineering, aussi appelé
ingénierie de prompt, dans le cadre de
l’utilisation associée à l'usage de modèles
d'intelligence artificielle axés sur le
langage, tels que GPT-3 ou GPT-4, est un
domaine qui combine l’art et la science
de formuler des questions ou des
instructions, appelés prompts, de façon à
extraire des réponses ou des résultats
précis et pertinents du modèle d'IA.
Le Prompt Engineering,
c’est quoi ?
www.bigbrainevolution.com
5. Prompt
Réponse
Modèle de langage
L'essence du prompt engineering réside dans la fourniture d'instructions structurées et
l'utilisation de mots choisis avec soin pour guider le modèle d'IA vers des réponses qui
correspondent précisément à l'objectif visé.
www.bigbrainevolution.com
6. Output
Input Output
Input
Problème
à résoudre
Résultat
final
le prompt engineering se base sur la fourniture de contexte, de directives et d'exemples pour diriger le modèle vers un
objectif défini. Ces éléments facilitent la tâche du modèle, garantissant des réponses adéquates et bien pensées. Il s'agit
d'un processus itératif : les prompts sont des points de départ pour un cheminement progressif vers un but final en réponse
à un problème initial. Ils servent de guides pour explorer des domaines nouveaux et inattendus.
www.bigbrainevolution.com
7. Cette discipline englobe de multiples techniques
Self Consistency
Priming
Input-Output
Generated
Knowledge
Chain of Thought
Autres
Least-to-most
Tree of Thought
Skeleton of
Thought
Graph of
Thought
www.bigbrainevolution.com
8. 0 exemple (zero shot) 1 exemple (one shot) +2 exemples (few shots)
Dans la mise en œuvre de ces techniques, il est courant de recourir, ou non, à une
approche avec exemple(s), connue sous le nom de shot(s) prompting.
Cette approche encourage le
modèle à produire des
réponses de manière
autonome. Le choix des
mots et la structuration des
prompts sont essentiels, car
cette méthode favorise un
niveau de "créativité" ou de
"variabilité" significativement
plus élevé comparé aux deux
autres approches.
Cette méthode se focalise
sur l'emploi d'un unique
exemple pour guider les
réponses du modèle. La
sélection et la formulation de
cet exemple sont cruciales,
car la justesse et la
pertinence de la réponse
reposent largement sur la
qualité de ce seul exemple
référentiel.
Cette technique utilise
plusieurs exemples
sélectionnés pour orienter
les réponses du modèle. Le
choix et l'arrangement de
ces exemples sont
déterminants, l'exactitude et
la variété des réponses
dépendent fortement de ces
exemples spécifiques dans
cette approche.
www.bigbrainevolution.com
9. L’amorce - Priming
L’amorce (ou Priming), dans le cadre du prompt
engineering, est une méthode qui structure une
requête ou une instruction initiale pour un modèle
de langage tel que GPT-3 ou GPT-4, dans le but de
diriger sa réponse. Cette technique influence la
pertinence, la précision, et le style des réponses
produites, en apportant des informations
contextuelles ou en établissant des attentes
spécifiques. Elle aide à obtenir des résultats plus
spécifiques et adaptés, utiles dans diverses
applications de traitement automatique du
langage naturel.
www.bigbrainevolution.com
10. l’amorce ou le Priming
Persona
Contexte
Problème
Tâche
Rôle
Format
Limites
Cible
Output
Input
Probing
questions
www.bigbrainevolution.com
11. Question-Réponse /
Input-Output (IO)
L'interaction la plus basique avec un
modèle de langage est l'échange simple
de question (ou requête) et de réponse
(ou Input-Output). Dans cette approche,
les instructions sont soumises au modèle
de manière simple, avec ou sans
exemples concrets. Le modèle répond
alors en générant une sortie basée sur ses
prédictions lexicales.
www.bigbrainevolution.com
12. Le simple échange question-réponse ou Input-Output (IO)
Requête
simple
Input Output
Avec 0, 1 ou +2 exemple(s)
www.bigbrainevolution.com
13. La generation de
connaissances - Generated
knowledge (GK)
La génération de connaissances (ou
Generated Knowledge) consiste à
intégrer des connaissances externes
apportées au cours d'une conversation
avec les connaissances internes du
modèle. Cette méthode vise à enrichir la
substance et la pertinence des réponses
sur un sujet ou problème spécifique, sans
nécessiter un ajustement fin ou fine-
tuning du modèle.
www.bigbrainevolution.com
15. Pour illustrer le concept, imaginez solliciter un expert sur un sujet en lui fournissant quelques articles ou études comme
référence. Bien qu'il ait une expertise approfondie, ces documents l'aideront à mieux saisir vos attentes. Il n'utilisera donc
pas uniquement ses connaissances, mais intégrera également les informations des articles pour enrichir sa réponse. Ces
derniers guident le dialogue, ajoutant des détails pertinents pour une réponse plus complète.
Présentation d’articles
Exploration des connaissances internes sur le sujet des
articles à partir des ressources fournies
Réponse
Question initiale
16. Les chaines de pensées -
Chain of Thought
Prompting
Les chaînes de pensées représentent une
avancée dans le prompt engineering. Elles
connectent logiquement entrées et sorties
pour aborder des problèmes complexes en
plusieurs étapes. Cette approche habilite
les modèles de langage à simuler le
raisonnement humain, en examinant
chaque facette d'un problème de manière
linéaire, conduisant à des réponses plus
exactes et de meilleure qualité.
www.bigbrainevolution.com
17. Chain of
Thought
Least-to-most
Tree of
Thought
Self consistency
Skeleton of
Thought
Graph of
Thought
Les techniques de chaînes de pensées dans le prompt engineering sont en constante évolution, s'adaptant aux découvertes
expérimentales des chercheurs en modèles de langage. Leur complexité s'accroît progressivement, et il n'y a pas de liste
définitive de ces méthodes, mais plutôt un développement continu basé sur l'expérimentation. Cela permet d'explorer les
capacités des modèles et de résoudre des problèmes de plus en plus sophistiqués.
www.bigbrainevolution.com
18. La chaîne de pensées
traditionnelle - Chain of
Thought (CoT)
La technique initiale des chaînes de
pensées, la chaîne de pensées
traditionnelle (ou Chain of Thought),
s'applique lorsque le lien entre l'entrée et la
sortie n'est pas immédiat. Cette méthode
dirige le modèle dans un raisonnement
structuré et séquencé pour traiter des
problèmes complexes, en utilisant des
exemples comme guides. Les réponses
sont donc à la fois séquencées, logiques et
justifiées.
www.bigbrainevolution.com
19. Input Output
ETAPE 1
ETAPE 2
La chaine de pensées traditionnelle ou Chain of Thought
(Cot)
www.bigbrainevolution.com
1 ou +2 exemple(s)
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
20. La chaîne de pensées sans
exemple - ZEro shot Chain
of Thought (Zero-SHot COT)
La chaîne de pensées sans exemples (ou
zero-shot CoT) est une évolution de la
chaîne de pensées traditionnelle, ne
requérant pas d'exemples spécifiques. Elle
stimule le modèle à aborder des problèmes
de manière autonome, en utilisant des
incitations telles que "Procédons étape par
étape". Cette technique tire parti de la
capacité naturelle du modèle à élaborer
son propre raisonnement, relevant ainsi du
zero-shot prompting.
www.bigbrainevolution.com
21. O exemple
Input Output
ETAPE 1
ETAPE 2
La chaine de pensées sans exemples ou zero-shot Chain of
Thought (zero-shot Cot)
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
22. Le facile au difficile -
Least to most (LTM)
La méthode du facile au difficile (ou Least-to-
Most) aborde les limitations des techniques
initiales de chaîne de pensées en
fragmentant les problèmes complexes en
questions plus simples, tout en conservant
une logique cohérente. Le modèle examine
chaque segment individuellement et
fusionne ensuite ses analyses pour former
une réponse unifiée. Cette approche, qui
s'inscrit dans le cadre du few-shots
prompting, s'appuie sur des exemples pour
orienter le modèle.
www.bigbrainevolution.com
23. Le facile au difficile ou Least to most (LTM)
Input Output
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
1 ou +2 exemple(s)
DÉCOMPOSITION DÉVELOPEMENT
24. L’auto-cohérence - Self
Consistency (SC)
L’auto-cohérence (ou self-consistency)
représente une innovation significative dans
le domaine du prompting. Comme la
méthode "Least-to-Most" (LTM), il utilise de
multiples chaînes de pensées (CoT). Cette
technique encourage le modèle à produire
et à comparer divers raisonnements, menant
à une sorte de débat interne pour juger de
leur validité. Ce processus d'auto-évaluation
permet au modèle de sélectionner les
arguments les plus solides et d'écarter les
moins convaincants, conduisant ainsi à une
réponse plus aboutie et affinée.
www.bigbrainevolution.com
25. Input Output
Exlusion
INCOHÉRENCE ET NON CONCORDANCE AVEC
LA MAJORITÉ
l’auto-cohérence ou self consistency (SC)
RÉPÉTITION ET CONCORDANCE DES RÉPONSES
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
1 ou +2 exemple(s)
26. L'arbre de pensées (ou Tree of Thought),
représente une évolution des chaînes de
pensées, examinant plusieurs trajets de
réflexion en parallèle à travers des étapes
prédéfinies. Semblable aux branches d'un
arbre, chaque parcours incarne une phase
de réflexion distincte. Le modèle évalue
chaque chemin pour apprécier sa
pertinence par rapport au problème,
visant ainsi à fournir une solution à la fois
complète et appropriée.
L’arbre de pensées - Tree of
Thought (ToT)
www.bigbrainevolution.com
27. Input Output
0 exemple
l’arbre de pensées ou tree of thought (ToT)
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
28. Le squelette de pensées (ou Skeleton of
Thought) est une méthode qui dirige le
raisonnement du modèle en créant d'abord
un plan établissant les fondations et les
points clés. Cette structure sert ensuite à
orienter le modèle dans l'élaboration de
chaque aspect du sujet. En s'appuyant sur
ce "squelette", le modèle organise et
détaille chaque composant, menant à une
réponse cohérente et structurée où chaque
élément du plan est soigneusement
développé.
Le squelette de pensées -
Skeleton of Thought (SoT)
www.bigbrainevolution.com
29. Le squelette de pensées ou Skeleton of thought (SOT)
Input Output
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
1 ou +2 exemple(s)
SQUELETTE DÉVELOPEMENT
30. Le graphe de pensées (ou Graph of
Thought) est une technique qui sonde des
solutions en tissant un réseau
interconnecté de logiques, semblable à un
plan de métro. Dans ce réseau, chaque
pensée ou idée peut se lier à d'autres,
mettant en évidence la complexité et
l'interconnexion des raisonnements. Les
questions et sous-questions sont
symbolisées par des nœuds, reliés entre eux
en fonction de leur corrélation ou
dépendance. Ainsi, ce réseau crée un
ensemble cohérent de déductions.
Le graphe de pensées - Graph of
Thought (GoT)
www.bigbrainevolution.com
31. Le Graphe de pensées ou Graph of thought (GoT)
UNITÉ DE PENSÉE
Input Output
www.bigbrainevolution.com
1 ou +2 exemple(s)
32. En résumé, le prompt engineering se base sur la fourniture de contexte, de directives et d'exemples pour diriger le modèle
vers un objectif défini. Ces éléments facilitent la tâche du modèle, garantissant des réponses adéquates et bien pensées. Il
s'agit d'un processus itératif : les prompts sont des points de départ pour un cheminement progressif vers un but, et non
des fins en soi. Ils servent de guides pour explorer des domaines nouveaux et inattendus.
Output
Input Output
Input
Problème
à résoudre
Résultat
final
www.bigbrainevolution.com
33. Pour en savoir plus : visitez notre
formation phare ChatGPT - Devenez
PROFESSIONNEL du PROMPT
ENGINEERING !
Pour aller plus loin