SlideShare une entreprise Scribd logo
1  sur  81
Télécharger pour lire hors ligne
Décryptage des LLMs
au-delà de la hype
HELLO Marie-Alice Blete
Software Architect
& Data engineer
at Labs
Guillaume Coter
Data scientist
LLMs: back to basics
large
language
models
intelligence artificielle
machine learning
deep learning
Mon chat
LLM
mange dort joue … vole explose
Mon chat dort
LLM
dans sur toute … vite loin
Mon chat dort dans
LLM
le la mon … dans sur
Pourquoi un tel succès ?
1.Entrainement sur une très
grande quantité de texte
2.Possibilité de massivement
paralléliser les traitements
3.Prise en compte d’un grand
contexte pour prédire le mot
suivant
4.Mécanisme d’attention
Principe du « mot suivant probable »
( + garde-fou )
Les LLMs ne sont pas conçus
pour générer du texte
vrai mais plausible
Mais concrètement, comment
je l’intègre dans mes projets?
5 concepts pour commencer :
Modèles
via une api
à déployer soi-même
Claude
GPT-3.5 / GPT-4
Gemini / PaLM
Mistral / Mixtral Llama 2
5 concepts pour commencer :
Modèles
Prompt & completion
Contexte
prompt completion
LLM
prompt completion
- Qu'est-ce que la praline lyonnaise? - La praline lyonnaise se réfère
généralement à une spécialité
culinaire de la région de Lyon, en
France, appelée "praline rose".
LLM
prompt completion
- Est-ce que c'est bon pour la santé?
LLM
prompt completion
- Qu'est-ce que la praline lyonnaise?
- La praline lyonnaise se réfère
généralement à une spécialité
culinaire de la région de Lyon, en
France, appelée "praline rose".
- Est-ce que c'est bon pour la santé?
- Les pralines lyonnaises, en
tant que confiserie, sont
généralement riches en sucre
et en calories. De manière
générale, une consommation
excessive de sucre peut
contribuer à des problèmes de
santé.
LLM
prompt completion
- Qu'est-ce que la praline lyonnaise?
- La praline lyonnaise se réfère
généralement à une spécialité
culinaire de la région de Lyon, en
France, appelée "praline rose".
- Est-ce que c'est bon pour la santé?
- Les pralines lyonnaises, en
tant que confiserie, sont
généralement riches en sucre
et en calories. De manière
générale, une consommation
excessive de sucre peut
contribuer à des problèmes de
santé.
contexte
LLM
5 concepts pour commencer :
Modèles
Prompt & completion
Contexte
Tokens
Worldline is a great company to work for.
World line is a great company to work for .
1000 tokens = ~750 mots
Coût avec GPT 3.5 (0,0010 $ / 1K tokens) = 0,000010 $
- Qu'est-ce que la praline lyonnaise?
- La praline lyonnaise se réfère
généralement à une spécialité
culinaire de la région de Lyon, en
France, appelée "praline rose".
- Est-ce que c'est bon pour la santé?
Fournisseur Modèle Taille max de contexte (en
tokens)
OpenAI gpt-3.5-turbo 4k
OpenAI gpt-3.5-turbo-1106 16k
OpenAI gpt-4 8k
OpenAI gpt-4-32k 32k
Anthropic Claude 2,1 200k
Google Gemini 32k
Meta Llama 2 4k
Mistral AI Mistral 8k
contexte
LangChain
“LangChain is a framework for developing applications powered by language models. We believe that the most
powerful and differentiated applications will not only call out to a language model via an API, but will also:
• Be data-aware: connect a language model to other sources of data
• Be agentic: allow a language model to interact with its environment
The LangChain framework is designed with the above principles in mind.”
• MIT License
• Démarré le 23 octobre 2022
gcoter/chatgpt-langchain-demos
Démo!
Comment intégrer un
LLM dans sa solution?
user input
LLM
ai output
use case: chatbot
user input
LLM
ai output
use-case: interface en langage naturel/assistant
user input LLM
ai call
use-case: processing de langage naturel
ai output
user input
LLM
ai output
ai output
use-case: assistant avancé
Par où commencer ?
Use case :
Personnalisation de LLM
1
Le flux d’optimisation
Prompt Engineering
Prompt engineering:
ensemble de techniques de formulation de prompt
pour que LLM fasse ce qu’on veut qu’il fasse
Prompt engineering
Réponds aux questions de
l’utilisateur sur Lyon.
Tu es un assistant de tourisme
pour Lyon. Refuse poliment de
répondre aux questions qui ne
concerne pas Lyon.
Fait référence aux spécialités
culinaires de Lyon le plus
possible.
Ta réponse ne doit pas dépasser
3 phrases.
Prompt engineering
Extrait 3 mot clefs de cette phrase. Donne le résultat selon le
format JSON suivant : { “keywords” : [ …, …, …]}.
Phrase:
Use case :
ChatBot pour répondre en s’appuyant sur
documentation privée
2
Prompt engineering
Réponds aux questions de l’utilisateur sur Lyon, en
utilisant les informations suivantes:
Lyon est […]
Le flux d’optimisation
Prompt Engineering
Le flux d’optimisation
Prompt Engineering
Optimiser
ce que le
modèle sait
Retrieval Augmented
Generation
RAG:
technique qui complète la génération de texte avec des
informations provenant de sources de données extérieure
Retrieval Augmented Generation (RAG)
Compute
embeddings
What is a PSPID password?
A PSPID password is a
password used to access
the Merchant Portal,
which is a platform
provided by Worldline for
merchants to manage their
payment transactions.
Retrieve relevant
extracts
Generate answer
with LLM
Embedded
documents
Input query
Output answer
ChatGPT
Information Retrieval
Use case :
Remplacer formulaire avec champs multiple
par champ unique en langage naturel
3
Formatage de langage naturel à un JSON structuré
Example de OpenAI / Canva
« red gradient profile photo,
instagram post »
{
title: « Bold and
Vibrant »
style: « Red gradient,
modern »,
hero_image: « close up
profile photo »
}
Prompt engineering
Formatte cette phrase en JSON. Le JSON peut contenir les
éléments suivants: « title », « style » […]
Le flux d’optimisation
Prompt Engineering
Optimiser
ce que le
modèle sait
Retrieval Augmented
Generation
Le flux d’optimisation
Prompt Engineering
Optimiser
ce que le
modèle sait
Fine-Tuning
Optimiser le comportement du modèle
Retrieval Augmented
Generation
Fine-Tuning:
Poursuivre le processus d’entrainement
sur un jeu de données spécifique à un domaine plus petit
pour optimiser un modèle pour une tâche spécifique
Formatage de langage naturel à un JSON structuré
Example de OpenAI / Canva
Formatage de langage naturel à un JSON structuré
Example de OpenAI / Canva
Cas d’utilisation + Données = Fine-tuning
Le flux d’optimisation
Prompt Engineering
Optimiser
ce que le
modèle sait
Fine-Tuning
Optimiser le comportement du modèle
Retrieval Augmented
Generation
Le flux d’optimisation
Prompt Engineering
Optimiser
ce que le
modèle sait
Fine-Tuning
Optimiser le comportement du modèle
Combinaison de tout ça
Retrieval Augmented
Generation
Source: A Survey of Techniques for Maximizing LLM Performance (youtube.com) by OpenAI
prompt engineering
✓ Dois-je améliorer ce que le modèle sait ou comment il
agit ?
✓ Est-ce que ce que mon modèle a besoin de savoir
change avec le temps ?
✓ Mon modèle sera-t-il appelé de temps en temps ou très
souvent ?
✓ De combien de données spécifiques à un domaine
dispose-t-on ? De quelle qualité ?
✓ Suis-je dans l’un de ces cas :
- Je veux me concentrer sur les connaissances
spécifiques que le modèle possède déjà
- Je souhaite modifier le format des réponses du modèle
- Mes instructions sont très complexes
Pour aller plus loin…
Prompt sensitivity
1
issue n°
Outils de prompt management
Mesures
1
issue n°
blog.worldline.tech/2024/01/12/metric-driven-rag-development.html
Comment prouver que ma solution
fonctionne à 100 %
…alors qu’elle comprend une composante non
déterministe ?
2
issue n°
ajouter de tests
ajouter des méthodes de
validation
ajouter des boucles de
contrôle
La preuve que « ça devrait
marcher »
(la plupart du temps)
https://github.com/ShreyaR/guardrails
Boucles de contrôle
Assistant Verifier
You are an assistant, your task is… You are an inspector, your task is…
“Chain of verification”
SequentialChain
python.langchain.com/docs/modules/chains/foundational/sequential_chains
2
issue n°
gérez les erreurs
ajouter un « retry »
ajouter une alternative
Mais si ce n’est pas le
cas, prévoir une
solution de repli
microsoft.com/en-us/research/project/guidelines-for-human-ai-interaction/
2
issue n°
Prompt injection
risques
révéler les instructions cachées
changer le comportement
3
issue n°
Universal and Transferable Adversarial Attacks
on Aligned Language Models
Andy Zou et al. Jul 2023
https://arxiv.org/pdf/2307.15043.pdf
3
issue n°
Contrôler input utilisateur (format, intention)
Contrôler l’output du LLM (format)
Logger et auditer
https://platform.openai.com/docs/guides/moderation
3
issue n°
Et qu’en est-il des coûts ?
Limiter le nombre d’échange de la
conversation
Résumez la conversation
Utiliser un cache
4
issue n°
Et qu’en est-il des coûts ?
équilibre
4
issue n°
l’envoi de données personnelles à OpenAI
nous aurions dû commencer par ...
5
issue n°
Conclusion
Principe du « mot suivant probable »
( + garde-fou )
Le flux d’optimisation
Prompt Engineering
Optimiser
ce que le
modèle sait
Fine-Tuning
Optimiser le comportement du modèle
Combinaison de tout ça
Retrieval Augmented
Generation
Source: A Survey of Techniques for Maximizing LLM Performance (youtube.com) by OpenAI
Facile de faire de POCs
Très difficile d’avoir quelque chose au niveau
« production »
Extrêmement puissant et permet plein de possibilités
pour révolutionner vos applications!
Les LLMs c’est comme les pralines:
C’est génial, mais à consommer avec modération
Questions ?
Don’t be a stranger!
Follow & get in touch
blog.worldline.tech
@WorldlineTech
Follow our tech team:
linkedin.com/in/mblete
Follow Marie-Alice:
@mariealice_b
mariealiceblete.com
appswithgpt.com
Follow Guillaume:
linkedin.com/in/gcoter
github.com/gcoter
LYON DATA SCIENCE
recrute !
Se retrouver entre
passionnés de la
Data Science
Envie de se mettre
constamment à
jour
techniquement
Promouvoir la Data
Science dans
notre région
transformers
intelligence artificielle
machine learning
deep learning
N’importe quelle technique qui
permet à un ordinateur d’imiter
un comportement humain
Apprentissage sans
programmation explicite
Capacité d’extraction de
motifs à partir de données,
grâce aux réseaux de
neurones
Les LLMs se basent là-
dessus
1. Reception du prompt
2. Découpage en tokens
3. Traitement des tokens
4. Prediction du token suivant avec probabilités
5. Sélection du mot suivant
Le temps est agréable aujourd'hui, donc j'ai décidé
Le/ temps/ est/ agr/é/able/ aujourd/’hui/,/ donc/
j/’ai/ décidé/
d’ : 0,6
de : 0,4
d’

Contenu connexe

Similaire à Décryptage des LLMs au-delà de la hype - Lyon Data science

Api - mix it 2013
Api - mix it 2013Api - mix it 2013
Api - mix it 2013
Eric D.
 
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...
OCTO Technology
 
Revues de code - Forum PHP 2010
Revues de code - Forum PHP 2010Revues de code - Forum PHP 2010
Revues de code - Forum PHP 2010
Jean-Marc Fontaine
 

Similaire à Décryptage des LLMs au-delà de la hype - Lyon Data science (20)

Intégration Continue et PHP
Intégration Continue et PHPIntégration Continue et PHP
Intégration Continue et PHP
 
Php 100k
Php 100kPhp 100k
Php 100k
 
Softshake 2015 comment tester et optimiser la performance d'un si
Softshake 2015   comment tester et optimiser la performance d'un siSoftshake 2015   comment tester et optimiser la performance d'un si
Softshake 2015 comment tester et optimiser la performance d'un si
 
Lbv Dev Meetup #3
Lbv Dev Meetup #3Lbv Dev Meetup #3
Lbv Dev Meetup #3
 
Machine-learning-FR.pdf
Machine-learning-FR.pdfMachine-learning-FR.pdf
Machine-learning-FR.pdf
 
SEO AnswerBox, une méthode inédite pour interroger vos données et créer vos d...
SEO AnswerBox, une méthode inédite pour interroger vos données et créer vos d...SEO AnswerBox, une méthode inédite pour interroger vos données et créer vos d...
SEO AnswerBox, une méthode inédite pour interroger vos données et créer vos d...
 
Quand on change de code, on prévient !(1)
Quand on change de code, on prévient !(1)Quand on change de code, on prévient !(1)
Quand on change de code, on prévient !(1)
 
En 2016 : Faire du SEO face à une intelligence artificielle
En 2016 : Faire du SEO face à une intelligence artificielleEn 2016 : Faire du SEO face à une intelligence artificielle
En 2016 : Faire du SEO face à une intelligence artificielle
 
Soirée du Test Logiciel - Intelligence Artificielle dans le test - J. VAN QUA...
Soirée du Test Logiciel - Intelligence Artificielle dans le test - J. VAN QUA...Soirée du Test Logiciel - Intelligence Artificielle dans le test - J. VAN QUA...
Soirée du Test Logiciel - Intelligence Artificielle dans le test - J. VAN QUA...
 
Captronic grenoble 01102014 version presentee
Captronic grenoble 01102014 version presenteeCaptronic grenoble 01102014 version presentee
Captronic grenoble 01102014 version presentee
 
Api - mix it 2013
Api - mix it 2013Api - mix it 2013
Api - mix it 2013
 
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...
UN ÉLÉPHANT QUI SE BALANÇAIT … Comment mettre en musique les big data et valo...
 
Du Code & Des Humains - ElsassJUG 2018
Du Code & Des Humains - ElsassJUG 2018Du Code & Des Humains - ElsassJUG 2018
Du Code & Des Humains - ElsassJUG 2018
 
Sonar 2.0 au GenevaJUG par Freddy Mallet
Sonar 2.0 au GenevaJUG par Freddy MalletSonar 2.0 au GenevaJUG par Freddy Mallet
Sonar 2.0 au GenevaJUG par Freddy Mallet
 
Sonar 2.0 au JUG Genève
Sonar 2.0 au JUG GenèveSonar 2.0 au JUG Genève
Sonar 2.0 au JUG Genève
 
PerfUG Comment tester et optimiser la performance d'un SI ?
PerfUG Comment tester et optimiser la performance d'un SI ?PerfUG Comment tester et optimiser la performance d'un SI ?
PerfUG Comment tester et optimiser la performance d'un SI ?
 
Revues de code - Forum PHP 2010
Revues de code - Forum PHP 2010Revues de code - Forum PHP 2010
Revues de code - Forum PHP 2010
 
20081113 - Nantes Jug - Apache Maven
20081113 - Nantes Jug - Apache Maven20081113 - Nantes Jug - Apache Maven
20081113 - Nantes Jug - Apache Maven
 
Iut lyon 1 introduction à l'agilité - 20 juin 2012
Iut lyon 1   introduction à l'agilité - 20 juin 2012Iut lyon 1   introduction à l'agilité - 20 juin 2012
Iut lyon 1 introduction à l'agilité - 20 juin 2012
 
Performance et optimisation de PrestaShop
Performance et optimisation de PrestaShopPerformance et optimisation de PrestaShop
Performance et optimisation de PrestaShop
 

Décryptage des LLMs au-delà de la hype - Lyon Data science

  • 1.
  • 3. HELLO Marie-Alice Blete Software Architect & Data engineer at Labs Guillaume Coter Data scientist
  • 4. LLMs: back to basics
  • 6. Mon chat LLM mange dort joue … vole explose Mon chat dort LLM dans sur toute … vite loin Mon chat dort dans LLM le la mon … dans sur
  • 7. Pourquoi un tel succès ? 1.Entrainement sur une très grande quantité de texte 2.Possibilité de massivement paralléliser les traitements 3.Prise en compte d’un grand contexte pour prédire le mot suivant 4.Mécanisme d’attention
  • 8. Principe du « mot suivant probable » ( + garde-fou )
  • 9. Les LLMs ne sont pas conçus pour générer du texte vrai mais plausible
  • 10.
  • 11.
  • 12.
  • 13. Mais concrètement, comment je l’intègre dans mes projets?
  • 14. 5 concepts pour commencer : Modèles
  • 15. via une api à déployer soi-même Claude GPT-3.5 / GPT-4 Gemini / PaLM Mistral / Mixtral Llama 2
  • 16. 5 concepts pour commencer : Modèles Prompt & completion Contexte
  • 18. prompt completion - Qu'est-ce que la praline lyonnaise? - La praline lyonnaise se réfère généralement à une spécialité culinaire de la région de Lyon, en France, appelée "praline rose". LLM
  • 19. prompt completion - Est-ce que c'est bon pour la santé? LLM
  • 20. prompt completion - Qu'est-ce que la praline lyonnaise? - La praline lyonnaise se réfère généralement à une spécialité culinaire de la région de Lyon, en France, appelée "praline rose". - Est-ce que c'est bon pour la santé? - Les pralines lyonnaises, en tant que confiserie, sont généralement riches en sucre et en calories. De manière générale, une consommation excessive de sucre peut contribuer à des problèmes de santé. LLM
  • 21. prompt completion - Qu'est-ce que la praline lyonnaise? - La praline lyonnaise se réfère généralement à une spécialité culinaire de la région de Lyon, en France, appelée "praline rose". - Est-ce que c'est bon pour la santé? - Les pralines lyonnaises, en tant que confiserie, sont généralement riches en sucre et en calories. De manière générale, une consommation excessive de sucre peut contribuer à des problèmes de santé. contexte LLM
  • 22. 5 concepts pour commencer : Modèles Prompt & completion Contexte Tokens
  • 23. Worldline is a great company to work for. World line is a great company to work for . 1000 tokens = ~750 mots Coût avec GPT 3.5 (0,0010 $ / 1K tokens) = 0,000010 $
  • 24. - Qu'est-ce que la praline lyonnaise? - La praline lyonnaise se réfère généralement à une spécialité culinaire de la région de Lyon, en France, appelée "praline rose". - Est-ce que c'est bon pour la santé? Fournisseur Modèle Taille max de contexte (en tokens) OpenAI gpt-3.5-turbo 4k OpenAI gpt-3.5-turbo-1106 16k OpenAI gpt-4 8k OpenAI gpt-4-32k 32k Anthropic Claude 2,1 200k Google Gemini 32k Meta Llama 2 4k Mistral AI Mistral 8k contexte
  • 25. LangChain “LangChain is a framework for developing applications powered by language models. We believe that the most powerful and differentiated applications will not only call out to a language model via an API, but will also: • Be data-aware: connect a language model to other sources of data • Be agentic: allow a language model to interact with its environment The LangChain framework is designed with the above principles in mind.” • MIT License • Démarré le 23 octobre 2022
  • 27. Comment intégrer un LLM dans sa solution?
  • 29. user input LLM ai output use-case: interface en langage naturel/assistant
  • 30. user input LLM ai call use-case: processing de langage naturel ai output
  • 31. user input LLM ai output ai output use-case: assistant avancé
  • 35. Prompt engineering: ensemble de techniques de formulation de prompt pour que LLM fasse ce qu’on veut qu’il fasse
  • 36. Prompt engineering Réponds aux questions de l’utilisateur sur Lyon. Tu es un assistant de tourisme pour Lyon. Refuse poliment de répondre aux questions qui ne concerne pas Lyon. Fait référence aux spécialités culinaires de Lyon le plus possible. Ta réponse ne doit pas dépasser 3 phrases.
  • 37. Prompt engineering Extrait 3 mot clefs de cette phrase. Donne le résultat selon le format JSON suivant : { “keywords” : [ …, …, …]}. Phrase:
  • 38. Use case : ChatBot pour répondre en s’appuyant sur documentation privée 2
  • 39. Prompt engineering Réponds aux questions de l’utilisateur sur Lyon, en utilisant les informations suivantes: Lyon est […]
  • 41. Le flux d’optimisation Prompt Engineering Optimiser ce que le modèle sait Retrieval Augmented Generation
  • 42. RAG: technique qui complète la génération de texte avec des informations provenant de sources de données extérieure
  • 43. Retrieval Augmented Generation (RAG) Compute embeddings What is a PSPID password? A PSPID password is a password used to access the Merchant Portal, which is a platform provided by Worldline for merchants to manage their payment transactions. Retrieve relevant extracts Generate answer with LLM Embedded documents Input query Output answer ChatGPT Information Retrieval
  • 44. Use case : Remplacer formulaire avec champs multiple par champ unique en langage naturel 3
  • 45. Formatage de langage naturel à un JSON structuré Example de OpenAI / Canva « red gradient profile photo, instagram post » { title: « Bold and Vibrant » style: « Red gradient, modern », hero_image: « close up profile photo » }
  • 46. Prompt engineering Formatte cette phrase en JSON. Le JSON peut contenir les éléments suivants: « title », « style » […]
  • 47. Le flux d’optimisation Prompt Engineering Optimiser ce que le modèle sait Retrieval Augmented Generation
  • 48. Le flux d’optimisation Prompt Engineering Optimiser ce que le modèle sait Fine-Tuning Optimiser le comportement du modèle Retrieval Augmented Generation
  • 49. Fine-Tuning: Poursuivre le processus d’entrainement sur un jeu de données spécifique à un domaine plus petit pour optimiser un modèle pour une tâche spécifique
  • 50. Formatage de langage naturel à un JSON structuré Example de OpenAI / Canva
  • 51. Formatage de langage naturel à un JSON structuré Example de OpenAI / Canva
  • 52. Cas d’utilisation + Données = Fine-tuning
  • 53. Le flux d’optimisation Prompt Engineering Optimiser ce que le modèle sait Fine-Tuning Optimiser le comportement du modèle Retrieval Augmented Generation
  • 54. Le flux d’optimisation Prompt Engineering Optimiser ce que le modèle sait Fine-Tuning Optimiser le comportement du modèle Combinaison de tout ça Retrieval Augmented Generation Source: A Survey of Techniques for Maximizing LLM Performance (youtube.com) by OpenAI
  • 55. prompt engineering ✓ Dois-je améliorer ce que le modèle sait ou comment il agit ? ✓ Est-ce que ce que mon modèle a besoin de savoir change avec le temps ? ✓ Mon modèle sera-t-il appelé de temps en temps ou très souvent ? ✓ De combien de données spécifiques à un domaine dispose-t-on ? De quelle qualité ? ✓ Suis-je dans l’un de ces cas : - Je veux me concentrer sur les connaissances spécifiques que le modèle possède déjà - Je souhaite modifier le format des réponses du modèle - Mes instructions sont très complexes
  • 56. Pour aller plus loin…
  • 58. Outils de prompt management Mesures 1 issue n° blog.worldline.tech/2024/01/12/metric-driven-rag-development.html
  • 59. Comment prouver que ma solution fonctionne à 100 % …alors qu’elle comprend une composante non déterministe ? 2 issue n°
  • 60. ajouter de tests ajouter des méthodes de validation ajouter des boucles de contrôle La preuve que « ça devrait marcher » (la plupart du temps) https://github.com/ShreyaR/guardrails
  • 61. Boucles de contrôle Assistant Verifier You are an assistant, your task is… You are an inspector, your task is… “Chain of verification” SequentialChain python.langchain.com/docs/modules/chains/foundational/sequential_chains 2 issue n°
  • 62. gérez les erreurs ajouter un « retry » ajouter une alternative Mais si ce n’est pas le cas, prévoir une solution de repli microsoft.com/en-us/research/project/guidelines-for-human-ai-interaction/ 2 issue n°
  • 63. Prompt injection risques révéler les instructions cachées changer le comportement 3 issue n°
  • 64.
  • 65. Universal and Transferable Adversarial Attacks on Aligned Language Models Andy Zou et al. Jul 2023 https://arxiv.org/pdf/2307.15043.pdf 3 issue n°
  • 66. Contrôler input utilisateur (format, intention) Contrôler l’output du LLM (format) Logger et auditer https://platform.openai.com/docs/guides/moderation 3 issue n°
  • 67. Et qu’en est-il des coûts ? Limiter le nombre d’échange de la conversation Résumez la conversation Utiliser un cache 4 issue n°
  • 68. Et qu’en est-il des coûts ? équilibre 4 issue n°
  • 69. l’envoi de données personnelles à OpenAI nous aurions dû commencer par ... 5 issue n°
  • 71. Principe du « mot suivant probable » ( + garde-fou )
  • 72.
  • 73. Le flux d’optimisation Prompt Engineering Optimiser ce que le modèle sait Fine-Tuning Optimiser le comportement du modèle Combinaison de tout ça Retrieval Augmented Generation Source: A Survey of Techniques for Maximizing LLM Performance (youtube.com) by OpenAI
  • 74. Facile de faire de POCs Très difficile d’avoir quelque chose au niveau « production » Extrêmement puissant et permet plein de possibilités pour révolutionner vos applications!
  • 75. Les LLMs c’est comme les pralines: C’est génial, mais à consommer avec modération
  • 77. Don’t be a stranger! Follow & get in touch blog.worldline.tech @WorldlineTech Follow our tech team: linkedin.com/in/mblete Follow Marie-Alice: @mariealice_b mariealiceblete.com appswithgpt.com Follow Guillaume: linkedin.com/in/gcoter github.com/gcoter
  • 78. LYON DATA SCIENCE recrute ! Se retrouver entre passionnés de la Data Science Envie de se mettre constamment à jour techniquement Promouvoir la Data Science dans notre région
  • 79.
  • 80. transformers intelligence artificielle machine learning deep learning N’importe quelle technique qui permet à un ordinateur d’imiter un comportement humain Apprentissage sans programmation explicite Capacité d’extraction de motifs à partir de données, grâce aux réseaux de neurones Les LLMs se basent là- dessus
  • 81. 1. Reception du prompt 2. Découpage en tokens 3. Traitement des tokens 4. Prediction du token suivant avec probabilités 5. Sélection du mot suivant Le temps est agréable aujourd'hui, donc j'ai décidé Le/ temps/ est/ agr/é/able/ aujourd/’hui/,/ donc/ j/’ai/ décidé/ d’ : 0,6 de : 0,4 d’