SlideShare une entreprise Scribd logo
1  sur  34
Télécharger pour lire hors ligne
INTRODUCTION AU
PROMPT
ENGINEERING
BIGBRAIN EVOLUTION
Le prestataire de formations en ligne de
référence !
www.bigbrainevolution.com
Qu’est ce que le Prompt Engineering ?
1
Les approches par exemples
2
Les principales techniques de Prompt Engineering
3
Dans cette présentation :
Le prompt engineering, aussi appelé
ingénierie de prompt, dans le cadre de
l’utilisation associée à l'usage de modèles
d'intelligence artificielle axés sur le
langage, tels que GPT-3 ou GPT-4, est un
domaine qui combine l’art et la science
de formuler des questions ou des
instructions, appelés prompts, de façon à
extraire des réponses ou des résultats
précis et pertinents du modèle d'IA.
Le Prompt Engineering,
c’est quoi ?
www.bigbrainevolution.com
Prompt
Réponse
Modèle de langage
L'essence du prompt engineering réside dans la fourniture d'instructions structurées et
l'utilisation de mots choisis avec soin pour guider le modèle d'IA vers des réponses qui
correspondent précisément à l'objectif visé.
www.bigbrainevolution.com
Output
Input Output
Input
Problème
à résoudre
Résultat
final
le prompt engineering se base sur la fourniture de contexte, de directives et d'exemples pour diriger le modèle vers un
objectif défini. Ces éléments facilitent la tâche du modèle, garantissant des réponses adéquates et bien pensées. Il s'agit
d'un processus itératif : les prompts sont des points de départ pour un cheminement progressif vers un but final en réponse
à un problème initial. Ils servent de guides pour explorer des domaines nouveaux et inattendus.
www.bigbrainevolution.com
Cette discipline englobe de multiples techniques
Self Consistency
Priming
Input-Output
Generated
Knowledge
Chain of Thought
Autres
Least-to-most
Tree of Thought
Skeleton of
Thought
Graph of
Thought
www.bigbrainevolution.com
0 exemple (zero shot) 1 exemple (one shot) +2 exemples (few shots)
Dans la mise en œuvre de ces techniques, il est courant de recourir, ou non, à une
approche avec exemple(s), connue sous le nom de shot(s) prompting.
Cette approche encourage le
modèle à produire des
réponses de manière
autonome. Le choix des
mots et la structuration des
prompts sont essentiels, car
cette méthode favorise un
niveau de "créativité" ou de
"variabilité" significativement
plus élevé comparé aux deux
autres approches.
Cette méthode se focalise
sur l'emploi d'un unique
exemple pour guider les
réponses du modèle. La
sélection et la formulation de
cet exemple sont cruciales,
car la justesse et la
pertinence de la réponse
reposent largement sur la
qualité de ce seul exemple
référentiel.
Cette technique utilise
plusieurs exemples
sélectionnés pour orienter
les réponses du modèle. Le
choix et l'arrangement de
ces exemples sont
déterminants, l'exactitude et
la variété des réponses
dépendent fortement de ces
exemples spécifiques dans
cette approche.
www.bigbrainevolution.com
L’amorce - Priming
L’amorce (ou Priming), dans le cadre du prompt
engineering, est une méthode qui structure une
requête ou une instruction initiale pour un modèle
de langage tel que GPT-3 ou GPT-4, dans le but de
diriger sa réponse. Cette technique influence la
pertinence, la précision, et le style des réponses
produites, en apportant des informations
contextuelles ou en établissant des attentes
spécifiques. Elle aide à obtenir des résultats plus
spécifiques et adaptés, utiles dans diverses
applications de traitement automatique du
langage naturel.
www.bigbrainevolution.com
l’amorce ou le Priming
Persona
Contexte
Problème
Tâche
Rôle
Format
Limites
Cible
Output
Input
Probing
questions
www.bigbrainevolution.com
Question-Réponse /
Input-Output (IO)
L'interaction la plus basique avec un
modèle de langage est l'échange simple
de question (ou requête) et de réponse
(ou Input-Output). Dans cette approche,
les instructions sont soumises au modèle
de manière simple, avec ou sans
exemples concrets. Le modèle répond
alors en générant une sortie basée sur ses
prédictions lexicales.
www.bigbrainevolution.com
Le simple échange question-réponse ou Input-Output (IO)
Requête
simple
Input Output
Avec 0, 1 ou +2 exemple(s)
www.bigbrainevolution.com
La generation de
connaissances - Generated
knowledge (GK)
La génération de connaissances (ou
Generated Knowledge) consiste à
intégrer des connaissances externes
apportées au cours d'une conversation
avec les connaissances internes du
modèle. Cette méthode vise à enrichir la
substance et la pertinence des réponses
sur un sujet ou problème spécifique, sans
nécessiter un ajustement fin ou fine-
tuning du modèle.
www.bigbrainevolution.com
Connaissances
internes du
modèle
La génération de connaissances ou generated knowledge
(GK)
Apports
externes de
l’utilisateur
www.bigbrainevolution.com
Pour illustrer le concept, imaginez solliciter un expert sur un sujet en lui fournissant quelques articles ou études comme
référence. Bien qu'il ait une expertise approfondie, ces documents l'aideront à mieux saisir vos attentes. Il n'utilisera donc
pas uniquement ses connaissances, mais intégrera également les informations des articles pour enrichir sa réponse. Ces
derniers guident le dialogue, ajoutant des détails pertinents pour une réponse plus complète.
Présentation d’articles
Exploration des connaissances internes sur le sujet des
articles à partir des ressources fournies
Réponse
Question initiale
Les chaines de pensées -
Chain of Thought
Prompting
Les chaînes de pensées représentent une
avancée dans le prompt engineering. Elles
connectent logiquement entrées et sorties
pour aborder des problèmes complexes en
plusieurs étapes. Cette approche habilite
les modèles de langage à simuler le
raisonnement humain, en examinant
chaque facette d'un problème de manière
linéaire, conduisant à des réponses plus
exactes et de meilleure qualité.
www.bigbrainevolution.com
Chain of
Thought
Least-to-most
Tree of
Thought
Self consistency
Skeleton of
Thought
Graph of
Thought
Les techniques de chaînes de pensées dans le prompt engineering sont en constante évolution, s'adaptant aux découvertes
expérimentales des chercheurs en modèles de langage. Leur complexité s'accroît progressivement, et il n'y a pas de liste
définitive de ces méthodes, mais plutôt un développement continu basé sur l'expérimentation. Cela permet d'explorer les
capacités des modèles et de résoudre des problèmes de plus en plus sophistiqués.
www.bigbrainevolution.com
La chaîne de pensées
traditionnelle - Chain of
Thought (CoT)
La technique initiale des chaînes de
pensées, la chaîne de pensées
traditionnelle (ou Chain of Thought),
s'applique lorsque le lien entre l'entrée et la
sortie n'est pas immédiat. Cette méthode
dirige le modèle dans un raisonnement
structuré et séquencé pour traiter des
problèmes complexes, en utilisant des
exemples comme guides. Les réponses
sont donc à la fois séquencées, logiques et
justifiées.
www.bigbrainevolution.com
Input Output
ETAPE 1
ETAPE 2
La chaine de pensées traditionnelle ou Chain of Thought
(Cot)
www.bigbrainevolution.com
1 ou +2 exemple(s)
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
La chaîne de pensées sans
exemple - ZEro shot Chain
of Thought (Zero-SHot COT)
La chaîne de pensées sans exemples (ou
zero-shot CoT) est une évolution de la
chaîne de pensées traditionnelle, ne
requérant pas d'exemples spécifiques. Elle
stimule le modèle à aborder des problèmes
de manière autonome, en utilisant des
incitations telles que "Procédons étape par
étape". Cette technique tire parti de la
capacité naturelle du modèle à élaborer
son propre raisonnement, relevant ainsi du
zero-shot prompting.
www.bigbrainevolution.com
O exemple
Input Output
ETAPE 1
ETAPE 2
La chaine de pensées sans exemples ou zero-shot Chain of
Thought (zero-shot Cot)
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
Le facile au difficile -
Least to most (LTM)
La méthode du facile au difficile (ou Least-to-
Most) aborde les limitations des techniques
initiales de chaîne de pensées en
fragmentant les problèmes complexes en
questions plus simples, tout en conservant
une logique cohérente. Le modèle examine
chaque segment individuellement et
fusionne ensuite ses analyses pour former
une réponse unifiée. Cette approche, qui
s'inscrit dans le cadre du few-shots
prompting, s'appuie sur des exemples pour
orienter le modèle.
www.bigbrainevolution.com
Le facile au difficile ou Least to most (LTM)
Input Output
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
1 ou +2 exemple(s)
DÉCOMPOSITION DÉVELOPEMENT
L’auto-cohérence - Self
Consistency (SC)
L’auto-cohérence (ou self-consistency)
représente une innovation significative dans
le domaine du prompting. Comme la
méthode "Least-to-Most" (LTM), il utilise de
multiples chaînes de pensées (CoT). Cette
technique encourage le modèle à produire
et à comparer divers raisonnements, menant
à une sorte de débat interne pour juger de
leur validité. Ce processus d'auto-évaluation
permet au modèle de sélectionner les
arguments les plus solides et d'écarter les
moins convaincants, conduisant ainsi à une
réponse plus aboutie et affinée.
www.bigbrainevolution.com
Input Output
Exlusion
INCOHÉRENCE ET NON CONCORDANCE AVEC
LA MAJORITÉ
l’auto-cohérence ou self consistency (SC)
RÉPÉTITION ET CONCORDANCE DES RÉPONSES
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
1 ou +2 exemple(s)
L'arbre de pensées (ou Tree of Thought),
représente une évolution des chaînes de
pensées, examinant plusieurs trajets de
réflexion en parallèle à travers des étapes
prédéfinies. Semblable aux branches d'un
arbre, chaque parcours incarne une phase
de réflexion distincte. Le modèle évalue
chaque chemin pour apprécier sa
pertinence par rapport au problème,
visant ainsi à fournir une solution à la fois
complète et appropriée.
L’arbre de pensées - Tree of
Thought (ToT)
www.bigbrainevolution.com
Input Output
0 exemple
l’arbre de pensées ou tree of thought (ToT)
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
Le squelette de pensées (ou Skeleton of
Thought) est une méthode qui dirige le
raisonnement du modèle en créant d'abord
un plan établissant les fondations et les
points clés. Cette structure sert ensuite à
orienter le modèle dans l'élaboration de
chaque aspect du sujet. En s'appuyant sur
ce "squelette", le modèle organise et
détaille chaque composant, menant à une
réponse cohérente et structurée où chaque
élément du plan est soigneusement
développé.
Le squelette de pensées -
Skeleton of Thought (SoT)
www.bigbrainevolution.com
Le squelette de pensées ou Skeleton of thought (SOT)
Input Output
www.bigbrainevolution.com
UNITÉ DE PENSÉE
(ÉTAPE DE RASIONNEMENT)
1 ou +2 exemple(s)
SQUELETTE DÉVELOPEMENT
Le graphe de pensées (ou Graph of
Thought) est une technique qui sonde des
solutions en tissant un réseau
interconnecté de logiques, semblable à un
plan de métro. Dans ce réseau, chaque
pensée ou idée peut se lier à d'autres,
mettant en évidence la complexité et
l'interconnexion des raisonnements. Les
questions et sous-questions sont
symbolisées par des nœuds, reliés entre eux
en fonction de leur corrélation ou
dépendance. Ainsi, ce réseau crée un
ensemble cohérent de déductions.
Le graphe de pensées - Graph of
Thought (GoT)
www.bigbrainevolution.com
Le Graphe de pensées ou Graph of thought (GoT)
UNITÉ DE PENSÉE
Input Output
www.bigbrainevolution.com
1 ou +2 exemple(s)
En résumé, le prompt engineering se base sur la fourniture de contexte, de directives et d'exemples pour diriger le modèle
vers un objectif défini. Ces éléments facilitent la tâche du modèle, garantissant des réponses adéquates et bien pensées. Il
s'agit d'un processus itératif : les prompts sont des points de départ pour un cheminement progressif vers un but, et non
des fins en soi. Ils servent de guides pour explorer des domaines nouveaux et inattendus.
Output
Input Output
Input
Problème
à résoudre
Résultat
final
www.bigbrainevolution.com
Pour en savoir plus : visitez notre
formation phare ChatGPT - Devenez
PROFESSIONNEL du PROMPT
ENGINEERING !
Pour aller plus loin
MERCI!
www.bigbrainevolution.com

Contenu connexe

Similaire à Introduction au Prompt engineering : Découvrez cette pratique !

le NLP à l'ére de l'IA
le NLP à l'ére de l'IAle NLP à l'ére de l'IA
le NLP à l'ére de l'IAhabib200
 
ADDIE : Modèle d'ingénierie pédagogique
 ADDIE : Modèle d'ingénierie pédagogique ADDIE : Modèle d'ingénierie pédagogique
ADDIE : Modèle d'ingénierie pédagogiqueyazbekfarah
 
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...OCTO Technology
 
Modelisation agile 03122011
Modelisation agile  03122011Modelisation agile  03122011
Modelisation agile 03122011agnes_crepet
 
Présentation Agile Testing
Présentation Agile TestingPrésentation Agile Testing
Présentation Agile Testingjubehr
 
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"Fing
 
Patrons de creation
Patrons de creationPatrons de creation
Patrons de creationomri med
 
Travaux Dirigés : Algorithmique et Structure de Données
Travaux Dirigés : Algorithmique et Structure de DonnéesTravaux Dirigés : Algorithmique et Structure de Données
Travaux Dirigés : Algorithmique et Structure de DonnéesAnass41
 
Learning Analytics : entre Promesses et Réalité
Learning Analytics : entre Promesses et RéalitéLearning Analytics : entre Promesses et Réalité
Learning Analytics : entre Promesses et RéalitéSerge Garlatti
 
Diginova - Session sur le machine learning avec ML.NET
Diginova - Session sur le machine learning avec ML.NETDiginova - Session sur le machine learning avec ML.NET
Diginova - Session sur le machine learning avec ML.NETJulien Chable
 
L'agilité à grande échelle au delà des framework
L'agilité à grande échelle au delà des frameworkL'agilité à grande échelle au delà des framework
L'agilité à grande échelle au delà des frameworkGilles Brieux
 
Introduction au Machine Learning
Introduction au Machine Learning Introduction au Machine Learning
Introduction au Machine Learning Novagen Conseil
 
Presentation_PTSI+-+2020-TIPE.pptx
Presentation_PTSI+-+2020-TIPE.pptxPresentation_PTSI+-+2020-TIPE.pptx
Presentation_PTSI+-+2020-TIPE.pptxAmineJanati2
 
Créer des exerciseurs en ligne
Créer des exerciseurs en ligneCréer des exerciseurs en ligne
Créer des exerciseurs en ligneAmaury Daele
 

Similaire à Introduction au Prompt engineering : Découvrez cette pratique ! (20)

Design Patterns
Design PatternsDesign Patterns
Design Patterns
 
6mmx labs
6mmx labs6mmx labs
6mmx labs
 
le NLP à l'ére de l'IA
le NLP à l'ére de l'IAle NLP à l'ére de l'IA
le NLP à l'ére de l'IA
 
ADDIE : Modèle d'ingénierie pédagogique
 ADDIE : Modèle d'ingénierie pédagogique ADDIE : Modèle d'ingénierie pédagogique
ADDIE : Modèle d'ingénierie pédagogique
 
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...
Le Comptoir OCTO - Maîtriser le RAG : connecter les modèles d’IA génératives ...
 
Modelisation agile 03122011
Modelisation agile  03122011Modelisation agile  03122011
Modelisation agile 03122011
 
Lmo02.ppt
Lmo02.pptLmo02.ppt
Lmo02.ppt
 
Projet+com02.ppt
Projet+com02.pptProjet+com02.ppt
Projet+com02.ppt
 
Présentation Agile Testing
Présentation Agile TestingPrésentation Agile Testing
Présentation Agile Testing
 
Enseignement et agilité
Enseignement et agilitéEnseignement et agilité
Enseignement et agilité
 
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"
Nos Systèmes by Fing : "Kit d'auto-évaluation des algorithmes"
 
Patrons de creation
Patrons de creationPatrons de creation
Patrons de creation
 
Travaux Dirigés : Algorithmique et Structure de Données
Travaux Dirigés : Algorithmique et Structure de DonnéesTravaux Dirigés : Algorithmique et Structure de Données
Travaux Dirigés : Algorithmique et Structure de Données
 
Learning Analytics : entre Promesses et Réalité
Learning Analytics : entre Promesses et RéalitéLearning Analytics : entre Promesses et Réalité
Learning Analytics : entre Promesses et Réalité
 
Diginova - Session sur le machine learning avec ML.NET
Diginova - Session sur le machine learning avec ML.NETDiginova - Session sur le machine learning avec ML.NET
Diginova - Session sur le machine learning avec ML.NET
 
L'agilité à grande échelle au delà des framework
L'agilité à grande échelle au delà des frameworkL'agilité à grande échelle au delà des framework
L'agilité à grande échelle au delà des framework
 
Introduction au Machine Learning
Introduction au Machine Learning Introduction au Machine Learning
Introduction au Machine Learning
 
Debuteraveclesmls
DebuteraveclesmlsDebuteraveclesmls
Debuteraveclesmls
 
Presentation_PTSI+-+2020-TIPE.pptx
Presentation_PTSI+-+2020-TIPE.pptxPresentation_PTSI+-+2020-TIPE.pptx
Presentation_PTSI+-+2020-TIPE.pptx
 
Créer des exerciseurs en ligne
Créer des exerciseurs en ligneCréer des exerciseurs en ligne
Créer des exerciseurs en ligne
 

Introduction au Prompt engineering : Découvrez cette pratique !

  • 2. BIGBRAIN EVOLUTION Le prestataire de formations en ligne de référence ! www.bigbrainevolution.com
  • 3. Qu’est ce que le Prompt Engineering ? 1 Les approches par exemples 2 Les principales techniques de Prompt Engineering 3 Dans cette présentation :
  • 4. Le prompt engineering, aussi appelé ingénierie de prompt, dans le cadre de l’utilisation associée à l'usage de modèles d'intelligence artificielle axés sur le langage, tels que GPT-3 ou GPT-4, est un domaine qui combine l’art et la science de formuler des questions ou des instructions, appelés prompts, de façon à extraire des réponses ou des résultats précis et pertinents du modèle d'IA. Le Prompt Engineering, c’est quoi ? www.bigbrainevolution.com
  • 5. Prompt Réponse Modèle de langage L'essence du prompt engineering réside dans la fourniture d'instructions structurées et l'utilisation de mots choisis avec soin pour guider le modèle d'IA vers des réponses qui correspondent précisément à l'objectif visé. www.bigbrainevolution.com
  • 6. Output Input Output Input Problème à résoudre Résultat final le prompt engineering se base sur la fourniture de contexte, de directives et d'exemples pour diriger le modèle vers un objectif défini. Ces éléments facilitent la tâche du modèle, garantissant des réponses adéquates et bien pensées. Il s'agit d'un processus itératif : les prompts sont des points de départ pour un cheminement progressif vers un but final en réponse à un problème initial. Ils servent de guides pour explorer des domaines nouveaux et inattendus. www.bigbrainevolution.com
  • 7. Cette discipline englobe de multiples techniques Self Consistency Priming Input-Output Generated Knowledge Chain of Thought Autres Least-to-most Tree of Thought Skeleton of Thought Graph of Thought www.bigbrainevolution.com
  • 8. 0 exemple (zero shot) 1 exemple (one shot) +2 exemples (few shots) Dans la mise en œuvre de ces techniques, il est courant de recourir, ou non, à une approche avec exemple(s), connue sous le nom de shot(s) prompting. Cette approche encourage le modèle à produire des réponses de manière autonome. Le choix des mots et la structuration des prompts sont essentiels, car cette méthode favorise un niveau de "créativité" ou de "variabilité" significativement plus élevé comparé aux deux autres approches. Cette méthode se focalise sur l'emploi d'un unique exemple pour guider les réponses du modèle. La sélection et la formulation de cet exemple sont cruciales, car la justesse et la pertinence de la réponse reposent largement sur la qualité de ce seul exemple référentiel. Cette technique utilise plusieurs exemples sélectionnés pour orienter les réponses du modèle. Le choix et l'arrangement de ces exemples sont déterminants, l'exactitude et la variété des réponses dépendent fortement de ces exemples spécifiques dans cette approche. www.bigbrainevolution.com
  • 9. L’amorce - Priming L’amorce (ou Priming), dans le cadre du prompt engineering, est une méthode qui structure une requête ou une instruction initiale pour un modèle de langage tel que GPT-3 ou GPT-4, dans le but de diriger sa réponse. Cette technique influence la pertinence, la précision, et le style des réponses produites, en apportant des informations contextuelles ou en établissant des attentes spécifiques. Elle aide à obtenir des résultats plus spécifiques et adaptés, utiles dans diverses applications de traitement automatique du langage naturel. www.bigbrainevolution.com
  • 10. l’amorce ou le Priming Persona Contexte Problème Tâche Rôle Format Limites Cible Output Input Probing questions www.bigbrainevolution.com
  • 11. Question-Réponse / Input-Output (IO) L'interaction la plus basique avec un modèle de langage est l'échange simple de question (ou requête) et de réponse (ou Input-Output). Dans cette approche, les instructions sont soumises au modèle de manière simple, avec ou sans exemples concrets. Le modèle répond alors en générant une sortie basée sur ses prédictions lexicales. www.bigbrainevolution.com
  • 12. Le simple échange question-réponse ou Input-Output (IO) Requête simple Input Output Avec 0, 1 ou +2 exemple(s) www.bigbrainevolution.com
  • 13. La generation de connaissances - Generated knowledge (GK) La génération de connaissances (ou Generated Knowledge) consiste à intégrer des connaissances externes apportées au cours d'une conversation avec les connaissances internes du modèle. Cette méthode vise à enrichir la substance et la pertinence des réponses sur un sujet ou problème spécifique, sans nécessiter un ajustement fin ou fine- tuning du modèle. www.bigbrainevolution.com
  • 14. Connaissances internes du modèle La génération de connaissances ou generated knowledge (GK) Apports externes de l’utilisateur www.bigbrainevolution.com
  • 15. Pour illustrer le concept, imaginez solliciter un expert sur un sujet en lui fournissant quelques articles ou études comme référence. Bien qu'il ait une expertise approfondie, ces documents l'aideront à mieux saisir vos attentes. Il n'utilisera donc pas uniquement ses connaissances, mais intégrera également les informations des articles pour enrichir sa réponse. Ces derniers guident le dialogue, ajoutant des détails pertinents pour une réponse plus complète. Présentation d’articles Exploration des connaissances internes sur le sujet des articles à partir des ressources fournies Réponse Question initiale
  • 16. Les chaines de pensées - Chain of Thought Prompting Les chaînes de pensées représentent une avancée dans le prompt engineering. Elles connectent logiquement entrées et sorties pour aborder des problèmes complexes en plusieurs étapes. Cette approche habilite les modèles de langage à simuler le raisonnement humain, en examinant chaque facette d'un problème de manière linéaire, conduisant à des réponses plus exactes et de meilleure qualité. www.bigbrainevolution.com
  • 17. Chain of Thought Least-to-most Tree of Thought Self consistency Skeleton of Thought Graph of Thought Les techniques de chaînes de pensées dans le prompt engineering sont en constante évolution, s'adaptant aux découvertes expérimentales des chercheurs en modèles de langage. Leur complexité s'accroît progressivement, et il n'y a pas de liste définitive de ces méthodes, mais plutôt un développement continu basé sur l'expérimentation. Cela permet d'explorer les capacités des modèles et de résoudre des problèmes de plus en plus sophistiqués. www.bigbrainevolution.com
  • 18. La chaîne de pensées traditionnelle - Chain of Thought (CoT) La technique initiale des chaînes de pensées, la chaîne de pensées traditionnelle (ou Chain of Thought), s'applique lorsque le lien entre l'entrée et la sortie n'est pas immédiat. Cette méthode dirige le modèle dans un raisonnement structuré et séquencé pour traiter des problèmes complexes, en utilisant des exemples comme guides. Les réponses sont donc à la fois séquencées, logiques et justifiées. www.bigbrainevolution.com
  • 19. Input Output ETAPE 1 ETAPE 2 La chaine de pensées traditionnelle ou Chain of Thought (Cot) www.bigbrainevolution.com 1 ou +2 exemple(s) UNITÉ DE PENSÉE (ÉTAPE DE RASIONNEMENT)
  • 20. La chaîne de pensées sans exemple - ZEro shot Chain of Thought (Zero-SHot COT) La chaîne de pensées sans exemples (ou zero-shot CoT) est une évolution de la chaîne de pensées traditionnelle, ne requérant pas d'exemples spécifiques. Elle stimule le modèle à aborder des problèmes de manière autonome, en utilisant des incitations telles que "Procédons étape par étape". Cette technique tire parti de la capacité naturelle du modèle à élaborer son propre raisonnement, relevant ainsi du zero-shot prompting. www.bigbrainevolution.com
  • 21. O exemple Input Output ETAPE 1 ETAPE 2 La chaine de pensées sans exemples ou zero-shot Chain of Thought (zero-shot Cot) www.bigbrainevolution.com UNITÉ DE PENSÉE (ÉTAPE DE RASIONNEMENT)
  • 22. Le facile au difficile - Least to most (LTM) La méthode du facile au difficile (ou Least-to- Most) aborde les limitations des techniques initiales de chaîne de pensées en fragmentant les problèmes complexes en questions plus simples, tout en conservant une logique cohérente. Le modèle examine chaque segment individuellement et fusionne ensuite ses analyses pour former une réponse unifiée. Cette approche, qui s'inscrit dans le cadre du few-shots prompting, s'appuie sur des exemples pour orienter le modèle. www.bigbrainevolution.com
  • 23. Le facile au difficile ou Least to most (LTM) Input Output www.bigbrainevolution.com UNITÉ DE PENSÉE (ÉTAPE DE RASIONNEMENT) 1 ou +2 exemple(s) DÉCOMPOSITION DÉVELOPEMENT
  • 24. L’auto-cohérence - Self Consistency (SC) L’auto-cohérence (ou self-consistency) représente une innovation significative dans le domaine du prompting. Comme la méthode "Least-to-Most" (LTM), il utilise de multiples chaînes de pensées (CoT). Cette technique encourage le modèle à produire et à comparer divers raisonnements, menant à une sorte de débat interne pour juger de leur validité. Ce processus d'auto-évaluation permet au modèle de sélectionner les arguments les plus solides et d'écarter les moins convaincants, conduisant ainsi à une réponse plus aboutie et affinée. www.bigbrainevolution.com
  • 25. Input Output Exlusion INCOHÉRENCE ET NON CONCORDANCE AVEC LA MAJORITÉ l’auto-cohérence ou self consistency (SC) RÉPÉTITION ET CONCORDANCE DES RÉPONSES www.bigbrainevolution.com UNITÉ DE PENSÉE (ÉTAPE DE RASIONNEMENT) 1 ou +2 exemple(s)
  • 26. L'arbre de pensées (ou Tree of Thought), représente une évolution des chaînes de pensées, examinant plusieurs trajets de réflexion en parallèle à travers des étapes prédéfinies. Semblable aux branches d'un arbre, chaque parcours incarne une phase de réflexion distincte. Le modèle évalue chaque chemin pour apprécier sa pertinence par rapport au problème, visant ainsi à fournir une solution à la fois complète et appropriée. L’arbre de pensées - Tree of Thought (ToT) www.bigbrainevolution.com
  • 27. Input Output 0 exemple l’arbre de pensées ou tree of thought (ToT) www.bigbrainevolution.com UNITÉ DE PENSÉE (ÉTAPE DE RASIONNEMENT)
  • 28. Le squelette de pensées (ou Skeleton of Thought) est une méthode qui dirige le raisonnement du modèle en créant d'abord un plan établissant les fondations et les points clés. Cette structure sert ensuite à orienter le modèle dans l'élaboration de chaque aspect du sujet. En s'appuyant sur ce "squelette", le modèle organise et détaille chaque composant, menant à une réponse cohérente et structurée où chaque élément du plan est soigneusement développé. Le squelette de pensées - Skeleton of Thought (SoT) www.bigbrainevolution.com
  • 29. Le squelette de pensées ou Skeleton of thought (SOT) Input Output www.bigbrainevolution.com UNITÉ DE PENSÉE (ÉTAPE DE RASIONNEMENT) 1 ou +2 exemple(s) SQUELETTE DÉVELOPEMENT
  • 30. Le graphe de pensées (ou Graph of Thought) est une technique qui sonde des solutions en tissant un réseau interconnecté de logiques, semblable à un plan de métro. Dans ce réseau, chaque pensée ou idée peut se lier à d'autres, mettant en évidence la complexité et l'interconnexion des raisonnements. Les questions et sous-questions sont symbolisées par des nœuds, reliés entre eux en fonction de leur corrélation ou dépendance. Ainsi, ce réseau crée un ensemble cohérent de déductions. Le graphe de pensées - Graph of Thought (GoT) www.bigbrainevolution.com
  • 31. Le Graphe de pensées ou Graph of thought (GoT) UNITÉ DE PENSÉE Input Output www.bigbrainevolution.com 1 ou +2 exemple(s)
  • 32. En résumé, le prompt engineering se base sur la fourniture de contexte, de directives et d'exemples pour diriger le modèle vers un objectif défini. Ces éléments facilitent la tâche du modèle, garantissant des réponses adéquates et bien pensées. Il s'agit d'un processus itératif : les prompts sont des points de départ pour un cheminement progressif vers un but, et non des fins en soi. Ils servent de guides pour explorer des domaines nouveaux et inattendus. Output Input Output Input Problème à résoudre Résultat final www.bigbrainevolution.com
  • 33. Pour en savoir plus : visitez notre formation phare ChatGPT - Devenez PROFESSIONNEL du PROMPT ENGINEERING ! Pour aller plus loin