SlideShare une entreprise Scribd logo
1  sur  53
Télécharger pour lire hors ligne
Iguane Solutions ©2024 - ig1.com
GenAI appliquée aux professional services
IG1
Iguane Solutions ©2024 - tous droits réservés - ig1.com
GenAI appliquée aux professional services
2
INTRODUCTION
A LA GEN AI
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
RAG: GEN AI EN ACTION
DANS LE PLATFORM
ENGINEERING
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
QUESTIONS
Séance de questions /
réponses
@IguaneSolutions
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
3
1. Introduction to Gen AI event
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1. Introduction à la Gen AI
Intervenants
4
INTRODUCTION
A LA GEN AI
CEO
Stephane Cohen
CTO
Mohamed Ben Braiek
CRO
Cédric Le Moan
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.1. Introduction à la Gen AI
D'où vient la Gen AI ?
5
INTRODUCTION
A LA GEN AI
D'où vient la Gen AI ?
L'histoire de l'Intelligence Artificielle Générative, souvent
appelée Gen AI, concerne le développement et l'évolution
des technologies d'intelligence artificielle capables de
générer de nouveaux contenus, données ou solutions à
partir de modèles appris et de données saisies.
Cette histoire se déroule sur plusieurs décennies,
marquée par plusieurs jalons significatifs..
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.1. Introduction à la Gen AI
6
INTRODUCTION
A LA GEN AI
1. Fondations Initiales (années 1950-1970): L'histoire commence avec les travaux fondateurs en IA au milieu du
20ème siècle. La recherche en IA de cette époque, influencée par des personnalités comme Alan Turing, se concentrait sur des systèmes basés
sur des règles qui pouvaient imiter certains aspects de l'intelligence humaine.
2. Montée des Réseaux Neuronaux (années 1980-1990): Cette période a vu le développement des
réseaux neuronaux, des systèmes informatiques vaguement inspirés des réseaux neuronaux biologiques du cerveau humain. Cette ère a
jeté les bases de l'apprentissage automatique, où les ordinateurs apprennent à effectuer des tâches sans être explicitement programmés
pour chaque tâche spécifique.
3. Apprentissage Automatique et Données (années 2000): Avec l'avènement du big data et des
ressources informatiques plus puissantes, les algorithmes d'apprentissage automatique, en particulier l'apprentissage profond (un
sous-ensemble de l'apprentissage automatique impliquant des réseaux neuronaux avec de nombreuses couches), ont commencé à avancer
rapidement. Ces développements ont permis des modèles génératifs plus sophistiqués.
4. Modèles Génératifs (années 2010): Des modèles génératifs comme les réseaux antagonistes génératifs (GAN) et
les autoencodeurs variationnels (VAE) ont été développés. Ces modèles peuvent générer de nouveaux échantillons de données (tels que des
images, du texte et du son) qui ressemblent aux données sur lesquelles ils ont été formés. Cette période a également vu des améliorations dans
le traitement du langage naturel avec des modèles comme LSTM et les architectures Transformer.
5. Adoption Grand Public et Considérations Éthiques (Fin des années 2010-2020):
L'IA générative a commencé à être adoptée plus largement avec des applications dans l'art, la musique, la création de contenu, etc. Cette période
a également soulevé des préoccupations éthiques importantes, y compris des questions sur les deepfakes, la désinformation, la confidentialité
des données et le potentiel d'utilisation non éthique du contenu généré par l'IA.
6. Modèles Avancés de Langage (années 2020): Cette ère est marquée par le développement de modèles de
langage sophistiqués comme la série GPT (Generative Pretrained Transformer) d'OpenAI. Ces modèles peuvent générer du texte cohérent
et contextuellement pertinent, permettant une large gamme d'applications allant de l'assistance à l'écriture à l'IA conversationnelle.
D'où vient la Gen AI ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
7
INTRODUCTION
A LA GEN AI
Concrètement la Gen AI c’est quoi ?
“On peut l’imaginer comme un
énorme cerveau numérique
qui apprend en lisant énormément de textes,
un peu comme un étudiant qui passe
tout son temps à la bibliothèque.”
. ChatGPT
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
8
INTRODUCTION
A LA GEN AI
apprentissage : injection de contenus
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
9
INTRODUCTION
A LA GEN AI
LLM
communication : échanges avec Gen AI
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.2. Introduction à la Gen AI
Qu’est-ce que la Gen AI ?
10
INTRODUCTION
A LA GEN AI
La technologie de la Gen AI est basée sur des
Large Language Models
LLM
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
11
INTRODUCTION
A LA GEN AI
Qu’est-ce qu’un
Large Language Model ?
Architecture de Réseau de Neurones:
Les LLM utilisent une architecture spécifique appelée "Transformer",
qui est excellente pour traiter des séquences, comme le texte.
Afin de d'appréhender le fonctionnement d’une GenAI, nous allons
rappeler l’utilisation d’un modèle LLM qui nécessite 6 étapes
Qu’est-ce qu’un Large Language Model (LLMs) ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
12
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
13
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Préparation du Dataset
(collecte, nettoyage et prétraitement)
Dataset
1.
Utilisation d’un LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
14
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
15
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Création des Vecteurs
(Tokenisation, Embedding (EMB))
LLM
Dataset
2.
Utilisation d’un LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
16
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
17
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Utilisation de l’architecture Transformer
(Mécanisme d’Attention, couches du Transformer)
LLM
3.
Utilisation d’un LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
18
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
19
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Entrainement du Modèle
(Apprentissage, Optimisation)
LLM
4.
Utilisation d’un LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
20
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
21
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Fine-Tuning du Modèle
(Spécialisation du Modèle)
LLM
5.
Utilisation d’un LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
22
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
23
INTRODUCTION
A LA GEN AI
Large Language Model
Collecte de Données
Le processus commence par la
collecte d'un large ensemble
de données textuelles. Ce
dataset peut inclure des livres,
des articles, des sites Web, et
d'autres sources textuelles
variées.
Nettoyage et Prétraitement
Les données sont nettoyées et
prétraitées. Cela implique la
suppression des erreurs, la
normalisation du texte
(comme la conversion en
minuscules), et parfois la
segmentation en phrases ou
en tokens (mots ou
sous-unités de mots).
1.
Préparation du Dataset
Spécialisation du modèle
Après l'apprentissage
préliminaire, le modèle peut
être fine-tuné pour des tâches
spécifiques. Cela se fait en
entraînant le modèle sur un
sous-ensemble de données
spécifique à une tâche
(comme la compréhension de
texte ou la réponse aux
questions).
5.
Fine-Tuning
(Ajustement Fin)
Tokenisation
Le texte est découpé en
tokens (généralement des
mots ou des sous-unités de
mots). Chaque token est
ensuite converti en un vecteur
numérique.
Embedding (EMB)
Les tokens sont transformés
en vecteurs denses dans un
espace vectoriel à haute
dimension. Ces vecteurs,
appelés embeddings,
capturent les caractéristiques
sémantiques et contextuelles
des mots. Par exemple, des
mots aux significations
similaires auront des
embeddings proches dans cet
espace vectoriel.
2.
Création de Vecteurs
Mécanisme d’Attention
Au cœur des Transformers se
trouve le mécanisme
d'attention, qui permet au
modèle de se concentrer sur
différentes parties du texte en
fonction du contexte. Cela
aide le modèle à comprendre
les relations entre les mots.
Couches du Transformer
Le Transformer est composé
de couches empilées
contenant des mécanismes
d'attention et des réseaux de
neurones entièrement
connectés. Chaque couche
traite les vecteurs d'input, les
modifie, et les transmet à la
couche suivante.
3.
Utilisation de
l’Architecture Transformer
Apprentissage des
Patterns Linguistiques
Pendant l'entraînement, le
modèle apprend à prédire le
mot suivant dans une
séquence en se basant sur les
mots précédents. Cela
implique de comprendre et
d'imiter les patterns
linguistiques et stylistiques du
dataset.
Optimisation
Le modèle ajuste ses poids
internes (paramètres) pour
minimiser les erreurs dans ses
prédictions, en utilisant des
techniques d'optimisation
comme la descente de
gradient.
4.
Entrainement du Modèle
(Apprentissage Préliminaire)
Utilisation Pratique
Une fois entraîné, le modèle
peut générer du texte,
répondre à des questions,
traduire des langues, etc. Il
utilise sa compréhension
approfondie du langage
acquise pendant
l'entraînement pour produire
des réponses pertinentes et
contextuellement
appropriées.
6.
Génération
de Texte et Application
utilisent
Utilisation
Pratique
LLM
6.
Utilisation d’un LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
24
INTRODUCTION
A LA GEN AI Quels sont les avantages d’un
Large Language Model ?
Qu’est-ce qu’un Large Language Model (LLMs) ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Les LLMs excellent dans l'interprétation
du langage complexe, permettant des
interactions nuancées entre les humains et
les machines. Cette compréhension
avancée facilite les innovations dans des
secteurs tels que le commerce
électronique et la santé, se traduisant par
de meilleurs services et diagnostics.
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
25
INTRODUCTION
A LA GEN AI
L L M : Avantages
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Compréhension Complète
En automatisant la création de contenu et
l'analyse de données, les LLMs permettent
d'économiser un temps précieux et des
ressources, permettant ainsi de se
concentrer davantage sur des tâches
stratégiques et des entreprises créatives.
Rationalisation des
Flux de Travail
Les capacités multilingues des LLMs
démocratisent l'accès à l'information et
favorisent la communication mondiale,
essentielles pour les entreprises et les
communautés dans le monde entier.
Briser les
Barrières Linguistiques
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
26
INTRODUCTION
A LA GEN AI Quels sont les inconvénients d’utiliser un
Large Language Model ?
Qu’est-ce qu’un Large Language Model (LLMs) ?
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
1.3. Introduction à la Gen AI
Qu’est-ce qu’un Large Language Model (LLMs) ?
27
INTRODUCTION
A LA GEN AI
L L M : Inconvénients
Présentation des Intervenants
1.1. D'où vient la Gen AI ?
1.2. Qu'est-ce que la Gen AI ?
1.3. Qu’est qu’un LLM ?
Pas de clarté de source Pas de restriction d'accès Coût d’hosting d’un LLM
Répétition des ajustements
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
28
2. RAG: Gen AI en Action dans le Platform Engineering
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
29
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.1. Gen AI in action in Platform Engineering
RAG : Élever les LLMs avec précision et perspicacité
En quoi consiste le RAG ?
Retrieval .
Augmented .
Generation ?
2.1. RAG : Élever les LLMs
avec précision et
perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
30
2.1. Gen AI in action in Platform Engineering
RAG : Élever les LLMs avec précision et perspicacité
En quoi consiste le RAG ?
Retrieval Augmented Generation
La génération augmentée par récupération (RAG) est une
méthode de Gen IA avancée qui combine la capacité créative
des Modèles de Langage à Grande Échelle (LLMs) avec la
précision des bases de données vectorielles. Elle utilise des
données externes pour fournir des informations précises et
à jour dans ses réponses.
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.1. RAG : Élever les LLMs
avec précision et
perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
31
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.2. Gen AI in action in Platform Engineering
RAG : Comment ça marche ?
Comment fonctionne le RAG?
R A G ?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
32
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Composants techniques du RAG
Embedding
model
Chunking
Knowledge base
(KB)
Document
embeddings
Vector DB
Embeddings and Vector Stores
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
33
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
34
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
2.2. Gen AI in action in Platform Engineering
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
35
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.
RAG : Récupération d’information
Embedding
model
Vector DB
Top k
relevant chunks
User
Query Query
embedding
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
36
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. Les avantages du RAG
2.3. RAG : Comment ça
marche ?
2.2. Gen AI in action in Platform Engineering
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
37
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
38
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.3. Gen AI in action in Platform Engineering
RAG : Comment ça marche ?
Composants techniques
du RAG
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
4.
RAG : Génération de réponse
Prompt w/
query + context
Top k
relevant chunks
Response
LLM
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
39
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
2.2. Gen AI in action in Platform Engineering
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
40
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Orchestration Layer
Composants techniques du RAG
Embedding
model
Chunking
Knowledge base
(KB)
Document
embeddings
Vector DB
Embeddings and Vector Stores
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
Ce composant gère le flux de
travail, en coordonnant entre
la requête de l'utilisateur, le
système de récupération et le
LLM. Il assure une intégration
transparente des données
récupérées dans le processus
de génération de réponse du
LLM.
Une pierre angulaire de la
fonctionnalité du RAG, les
embeddings convertissent le
texte en vecteurs, permettant
une recherche de similarité
efficace dans les magasins de
vecteurs. Ce processus
permet la récupération rapide
d'informations en mesurant la
proximité du vecteur de
requête avec les vecteurs de
documents dans la base de
données.
Embeddings and
Vector Stores
Traitement des requêtes :
Lorsqu'une requête est reçue,
le RAG commence par
analyser l'entrée pour
comprendre le contexte et les
informations spécifiques
demandées. Cette première
étape détermine l'orientation
de la récupération
d'informations subséquente.
1.
Step 1
41
Récupération
d'informations :
En utilisant des bases de
données externes ou des
bases de connaissances, le
RAG recherche des
informations pertinentes liées
à la requête. Ceci est réalisé
grâce à des techniques de
recherche avancées,
impliquant souvent des
recherches de similarité
vectorielle où la requête et les
documents sont convertis en
vecteurs (représentations
numériques) pour
comparaison.
2.
Step 2
Intégration des données :
Les informations récupérées,
souvent issues de multiples
sources, sont ensuite
synthétisées. Le RAG utilise
ce réservoir d'informations
pour informer le processus de
génération, garantissant que
la réponse est non seulement
pertinente, mais également
enrichie avec les données les
plus récentes et les plus
précises disponibles.
3.
Step 3
Génération de réponse :
Avec les bases contextuelles
posées par les données
récupérées, le LLM élabore
une réponse. Le modèle
génératif prend en compte à la
fois la requête originale et les
informations
complémentaires, produisant
une réponse qui est informée,
précise et adaptée aux
besoins de l'utilisateur.
4.
Step 4
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
RAG : Comment ça marche ?
Composants techniques
du RAG
Orchestration Layer
2.2. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
42
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.3. Gen AI in action in Platform Engineering
Les avantages du RAG
Quels sont les avantages du RAG ?
Retrieval .
Augmented .
Generation ?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
43
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
Avantages et limites du RAG
RAG : Avantages
Efficacité des coûts et
avantages
environnementaux
Informations
personnalisable et
contrôlée
Rester à jour avec les
infos qui évoluent
Précision factuelle
améliorée
2.3. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
44
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.3. Gen AI in action in Platform Engineering
Avantages et limites du RAG
Quels sont les challenges du RAG ?
Retrieval .
Augmented .
Generation ?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
45
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
Avantages et limites du RAG
RAG : les challenges
Potentielle surcharge
d'informations
Garanti la fiabilité des
informations récupérées
Complexités et
exigences
computationnelles
2.3. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
46
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
Amélioration du RAG @IG1
RAG : les axes d'amélioration
Dépasser les limites de
la fenêtre de contexte
grâce au
réordonnancement
Sélection stratégique
d'embeddings et de
réordonnanceurs
Avantages de la mise en
œuvre d'un système
multi-agents dans RAG
2.4. Gen AI in action in Platform Engineering
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
47
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
Maintenant que nous avons échangé sur
le fonctionnement technique de la Gen AI,
comment comptons-nous utiliser la Gen AI
au sein d’Iguane Solutions?
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
48
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
49
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
Mise en application de la Gen AI : Documentation clients
Création du RAG avec les données nécessaires
Customers Knowledge
bases (KB)
Vector DB
Iguane Knowledge bases
(KB)
Embedding
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
50
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
Mise en application de la Gen AI : Documentation clients
Utilisation de cette Gen AI à plusieurs fins
RAG
Permet au personnel
d'astreinte de consulter la
Gen AI pour obtenir des
conseils sur les plateformes
des clients avant de réaliser
une opération.
Permet aux clients
d'interroger la Gen AI pour
obtenir des informations
sur leurs plateformes.
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
51
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1
DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES
Les 2 premiers sujets que nous avons identifiés :
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
IG1
52
GEN AI EN ACTION IN DANS
LE PLATFORM ENGINEERING
2.5. Gen AI in action in Platform Engineering
Mise en application de la GEN AI @IG1 : plateformes LLM managées disponibles dès Q1 2024 @IG1
2.1. RAG : Élever les LLMs
avec précision et perspicacité
2.2. RAG : Comment ça
marche ?
2.3. Avantages et limites du
RAG
2.4. Amélioration du RAG
2.5. Mise en application de la
GEN AI
Nous mettons en place des
infrastructures managées pour l’IA
des Q1 2024 disponibles
pour l’ensemble de nos clients!
GEN AI
Iguane Solutions ©2024 - tous droits réservés - ig1.com
53

Contenu connexe

Similaire à GenAI dans les professional services - LLM vs RAG

PROGRAMMATION 2e GENIE PARTIE THEORIE.ppt
PROGRAMMATION 2e GENIE PARTIE THEORIE.pptPROGRAMMATION 2e GENIE PARTIE THEORIE.ppt
PROGRAMMATION 2e GENIE PARTIE THEORIE.pptEddySHANGA
 
2011 01 27 Opportunités des logiciels libres ou open source by competitic
2011 01 27 Opportunités des logiciels libres ou open source by competitic2011 01 27 Opportunités des logiciels libres ou open source by competitic
2011 01 27 Opportunités des logiciels libres ou open source by competiticCOMPETITIC
 
Décryptage des LLMs au-delà de la hype - Lyon Data science
Décryptage des LLMs au-delà de la hype - Lyon Data scienceDécryptage des LLMs au-delà de la hype - Lyon Data science
Décryptage des LLMs au-delà de la hype - Lyon Data scienceMarie-Alice Blete
 
Priows présentation des résultats
Priows présentation des résultats Priows présentation des résultats
Priows présentation des résultats Gilbert Paquette
 
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdf
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdfconference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdf
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdfYvon Gervaise
 
COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...
COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...
COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...Faga1939
 
280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux
280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux
280219 Webinar Reprenez le Contrôle de Vos Disques RéseauxEverteam
 
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon Gervaise
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon GervaiseBIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon Gervaise
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon GervaiseYvon Gervaise
 
Kit De Survie Techno et Web à l'usage des Entrepreneurs
Kit De Survie Techno et Web à l'usage des EntrepreneursKit De Survie Techno et Web à l'usage des Entrepreneurs
Kit De Survie Techno et Web à l'usage des EntrepreneursStéphanie Hertrich
 
POO Java Introduction
POO Java IntroductionPOO Java Introduction
POO Java IntroductionMouna Torjmen
 
Captronic grenoble 01102014 version presentee
Captronic grenoble 01102014 version presenteeCaptronic grenoble 01102014 version presentee
Captronic grenoble 01102014 version presenteePatrick MOREAU
 
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...Aref Jdey
 
Rapport-du-projet CNN.docx
Rapport-du-projet CNN.docxRapport-du-projet CNN.docx
Rapport-du-projet CNN.docxkhalil Ismail
 
DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant
 DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant
DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisantcluelessjoe
 
Ergonomie et modélisation des utilisateurs d'une ihm 2014
Ergonomie et modélisation des utilisateurs d'une ihm 2014Ergonomie et modélisation des utilisateurs d'une ihm 2014
Ergonomie et modélisation des utilisateurs d'une ihm 2014Atelier IHM Polytech Nice Sophia
 

Similaire à GenAI dans les professional services - LLM vs RAG (20)

Ecm Open Source
Ecm Open SourceEcm Open Source
Ecm Open Source
 
Deep learning
Deep learningDeep learning
Deep learning
 
PROGRAMMATION 2e GENIE PARTIE THEORIE.ppt
PROGRAMMATION 2e GENIE PARTIE THEORIE.pptPROGRAMMATION 2e GENIE PARTIE THEORIE.ppt
PROGRAMMATION 2e GENIE PARTIE THEORIE.ppt
 
2011 01 27 Opportunités des logiciels libres ou open source by competitic
2011 01 27 Opportunités des logiciels libres ou open source by competitic2011 01 27 Opportunités des logiciels libres ou open source by competitic
2011 01 27 Opportunités des logiciels libres ou open source by competitic
 
Lmo02.ppt
Lmo02.pptLmo02.ppt
Lmo02.ppt
 
Décryptage des LLMs au-delà de la hype - Lyon Data science
Décryptage des LLMs au-delà de la hype - Lyon Data scienceDécryptage des LLMs au-delà de la hype - Lyon Data science
Décryptage des LLMs au-delà de la hype - Lyon Data science
 
Priows présentation des résultats
Priows présentation des résultats Priows présentation des résultats
Priows présentation des résultats
 
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdf
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdfconference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdf
conference Y. Gervaise à Université M2 Chimie Rouen 10-1-24.pdf
 
COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...
COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...
COMMENT FONCTIONNENT L'INTELLIGENCE ARTIFICIELLE ET SES LOGICIELS ET ALGORITH...
 
280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux
280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux
280219 Webinar Reprenez le Contrôle de Vos Disques Réseaux
 
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon Gervaise
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon GervaiseBIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon Gervaise
BIPEA 2023 L'IA Matrice du Laboratoire du Futur par Yvon Gervaise
 
Intro ihm
Intro ihmIntro ihm
Intro ihm
 
Projet+com02.ppt
Projet+com02.pptProjet+com02.ppt
Projet+com02.ppt
 
Kit De Survie Techno et Web à l'usage des Entrepreneurs
Kit De Survie Techno et Web à l'usage des EntrepreneursKit De Survie Techno et Web à l'usage des Entrepreneurs
Kit De Survie Techno et Web à l'usage des Entrepreneurs
 
POO Java Introduction
POO Java IntroductionPOO Java Introduction
POO Java Introduction
 
Captronic grenoble 01102014 version presentee
Captronic grenoble 01102014 version presenteeCaptronic grenoble 01102014 version presentee
Captronic grenoble 01102014 version presentee
 
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
Structures hybrides : l'apport des infrastructures libres aux moteurs de rech...
 
Rapport-du-projet CNN.docx
Rapport-du-projet CNN.docxRapport-du-projet CNN.docx
Rapport-du-projet CNN.docx
 
DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant
 DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant
DDD, CQRS et Event Sourcing : quand coder propre n'est plus suffisant
 
Ergonomie et modélisation des utilisateurs d'une ihm 2014
Ergonomie et modélisation des utilisateurs d'une ihm 2014Ergonomie et modélisation des utilisateurs d'une ihm 2014
Ergonomie et modélisation des utilisateurs d'une ihm 2014
 

GenAI dans les professional services - LLM vs RAG

  • 1. Iguane Solutions ©2024 - ig1.com GenAI appliquée aux professional services
  • 2. IG1 Iguane Solutions ©2024 - tous droits réservés - ig1.com GenAI appliquée aux professional services 2 INTRODUCTION A LA GEN AI Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? RAG: GEN AI EN ACTION DANS LE PLATFORM ENGINEERING 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI QUESTIONS Séance de questions / réponses @IguaneSolutions
  • 3. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 3 1. Introduction to Gen AI event
  • 4. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1. Introduction à la Gen AI Intervenants 4 INTRODUCTION A LA GEN AI CEO Stephane Cohen CTO Mohamed Ben Braiek CRO Cédric Le Moan Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 5. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.1. Introduction à la Gen AI D'où vient la Gen AI ? 5 INTRODUCTION A LA GEN AI D'où vient la Gen AI ? L'histoire de l'Intelligence Artificielle Générative, souvent appelée Gen AI, concerne le développement et l'évolution des technologies d'intelligence artificielle capables de générer de nouveaux contenus, données ou solutions à partir de modèles appris et de données saisies. Cette histoire se déroule sur plusieurs décennies, marquée par plusieurs jalons significatifs.. Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 6. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.1. Introduction à la Gen AI 6 INTRODUCTION A LA GEN AI 1. Fondations Initiales (années 1950-1970): L'histoire commence avec les travaux fondateurs en IA au milieu du 20ème siècle. La recherche en IA de cette époque, influencée par des personnalités comme Alan Turing, se concentrait sur des systèmes basés sur des règles qui pouvaient imiter certains aspects de l'intelligence humaine. 2. Montée des Réseaux Neuronaux (années 1980-1990): Cette période a vu le développement des réseaux neuronaux, des systèmes informatiques vaguement inspirés des réseaux neuronaux biologiques du cerveau humain. Cette ère a jeté les bases de l'apprentissage automatique, où les ordinateurs apprennent à effectuer des tâches sans être explicitement programmés pour chaque tâche spécifique. 3. Apprentissage Automatique et Données (années 2000): Avec l'avènement du big data et des ressources informatiques plus puissantes, les algorithmes d'apprentissage automatique, en particulier l'apprentissage profond (un sous-ensemble de l'apprentissage automatique impliquant des réseaux neuronaux avec de nombreuses couches), ont commencé à avancer rapidement. Ces développements ont permis des modèles génératifs plus sophistiqués. 4. Modèles Génératifs (années 2010): Des modèles génératifs comme les réseaux antagonistes génératifs (GAN) et les autoencodeurs variationnels (VAE) ont été développés. Ces modèles peuvent générer de nouveaux échantillons de données (tels que des images, du texte et du son) qui ressemblent aux données sur lesquelles ils ont été formés. Cette période a également vu des améliorations dans le traitement du langage naturel avec des modèles comme LSTM et les architectures Transformer. 5. Adoption Grand Public et Considérations Éthiques (Fin des années 2010-2020): L'IA générative a commencé à être adoptée plus largement avec des applications dans l'art, la musique, la création de contenu, etc. Cette période a également soulevé des préoccupations éthiques importantes, y compris des questions sur les deepfakes, la désinformation, la confidentialité des données et le potentiel d'utilisation non éthique du contenu généré par l'IA. 6. Modèles Avancés de Langage (années 2020): Cette ère est marquée par le développement de modèles de langage sophistiqués comme la série GPT (Generative Pretrained Transformer) d'OpenAI. Ces modèles peuvent générer du texte cohérent et contextuellement pertinent, permettant une large gamme d'applications allant de l'assistance à l'écriture à l'IA conversationnelle. D'où vient la Gen AI ? Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 7. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.2. Introduction à la Gen AI Qu’est-ce que la Gen AI ? 7 INTRODUCTION A LA GEN AI Concrètement la Gen AI c’est quoi ? “On peut l’imaginer comme un énorme cerveau numérique qui apprend en lisant énormément de textes, un peu comme un étudiant qui passe tout son temps à la bibliothèque.” . ChatGPT Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 8. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.2. Introduction à la Gen AI Qu’est-ce que la Gen AI ? 8 INTRODUCTION A LA GEN AI apprentissage : injection de contenus Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? LLM
  • 9. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.2. Introduction à la Gen AI Qu’est-ce que la Gen AI ? 9 INTRODUCTION A LA GEN AI LLM communication : échanges avec Gen AI Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 10. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.2. Introduction à la Gen AI Qu’est-ce que la Gen AI ? 10 INTRODUCTION A LA GEN AI La technologie de la Gen AI est basée sur des Large Language Models LLM Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 11. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI 11 INTRODUCTION A LA GEN AI Qu’est-ce qu’un Large Language Model ? Architecture de Réseau de Neurones: Les LLM utilisent une architecture spécifique appelée "Transformer", qui est excellente pour traiter des séquences, comme le texte. Afin de d'appréhender le fonctionnement d’une GenAI, nous allons rappeler l’utilisation d’un modèle LLM qui nécessite 6 étapes Qu’est-ce qu’un Large Language Model (LLMs) ? Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 12. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 12 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 13. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 13 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Préparation du Dataset (collecte, nettoyage et prétraitement) Dataset 1. Utilisation d’un LLM
  • 14. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 14 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 15. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 15 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Création des Vecteurs (Tokenisation, Embedding (EMB)) LLM Dataset 2. Utilisation d’un LLM
  • 16. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 16 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 17. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 17 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Utilisation de l’architecture Transformer (Mécanisme d’Attention, couches du Transformer) LLM 3. Utilisation d’un LLM
  • 18. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 18 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 19. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 19 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Entrainement du Modèle (Apprentissage, Optimisation) LLM 4. Utilisation d’un LLM
  • 20. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 20 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 21. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 21 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Fine-Tuning du Modèle (Spécialisation du Modèle) LLM 5. Utilisation d’un LLM
  • 22. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 22 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 23. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 23 INTRODUCTION A LA GEN AI Large Language Model Collecte de Données Le processus commence par la collecte d'un large ensemble de données textuelles. Ce dataset peut inclure des livres, des articles, des sites Web, et d'autres sources textuelles variées. Nettoyage et Prétraitement Les données sont nettoyées et prétraitées. Cela implique la suppression des erreurs, la normalisation du texte (comme la conversion en minuscules), et parfois la segmentation en phrases ou en tokens (mots ou sous-unités de mots). 1. Préparation du Dataset Spécialisation du modèle Après l'apprentissage préliminaire, le modèle peut être fine-tuné pour des tâches spécifiques. Cela se fait en entraînant le modèle sur un sous-ensemble de données spécifique à une tâche (comme la compréhension de texte ou la réponse aux questions). 5. Fine-Tuning (Ajustement Fin) Tokenisation Le texte est découpé en tokens (généralement des mots ou des sous-unités de mots). Chaque token est ensuite converti en un vecteur numérique. Embedding (EMB) Les tokens sont transformés en vecteurs denses dans un espace vectoriel à haute dimension. Ces vecteurs, appelés embeddings, capturent les caractéristiques sémantiques et contextuelles des mots. Par exemple, des mots aux significations similaires auront des embeddings proches dans cet espace vectoriel. 2. Création de Vecteurs Mécanisme d’Attention Au cœur des Transformers se trouve le mécanisme d'attention, qui permet au modèle de se concentrer sur différentes parties du texte en fonction du contexte. Cela aide le modèle à comprendre les relations entre les mots. Couches du Transformer Le Transformer est composé de couches empilées contenant des mécanismes d'attention et des réseaux de neurones entièrement connectés. Chaque couche traite les vecteurs d'input, les modifie, et les transmet à la couche suivante. 3. Utilisation de l’Architecture Transformer Apprentissage des Patterns Linguistiques Pendant l'entraînement, le modèle apprend à prédire le mot suivant dans une séquence en se basant sur les mots précédents. Cela implique de comprendre et d'imiter les patterns linguistiques et stylistiques du dataset. Optimisation Le modèle ajuste ses poids internes (paramètres) pour minimiser les erreurs dans ses prédictions, en utilisant des techniques d'optimisation comme la descente de gradient. 4. Entrainement du Modèle (Apprentissage Préliminaire) Utilisation Pratique Une fois entraîné, le modèle peut générer du texte, répondre à des questions, traduire des langues, etc. Il utilise sa compréhension approfondie du langage acquise pendant l'entraînement pour produire des réponses pertinentes et contextuellement appropriées. 6. Génération de Texte et Application utilisent Utilisation Pratique LLM 6. Utilisation d’un LLM
  • 24. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI 24 INTRODUCTION A LA GEN AI Quels sont les avantages d’un Large Language Model ? Qu’est-ce qu’un Large Language Model (LLMs) ? Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 25. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Les LLMs excellent dans l'interprétation du langage complexe, permettant des interactions nuancées entre les humains et les machines. Cette compréhension avancée facilite les innovations dans des secteurs tels que le commerce électronique et la santé, se traduisant par de meilleurs services et diagnostics. 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 25 INTRODUCTION A LA GEN AI L L M : Avantages Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? Compréhension Complète En automatisant la création de contenu et l'analyse de données, les LLMs permettent d'économiser un temps précieux et des ressources, permettant ainsi de se concentrer davantage sur des tâches stratégiques et des entreprises créatives. Rationalisation des Flux de Travail Les capacités multilingues des LLMs démocratisent l'accès à l'information et favorisent la communication mondiale, essentielles pour les entreprises et les communautés dans le monde entier. Briser les Barrières Linguistiques
  • 26. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI 26 INTRODUCTION A LA GEN AI Quels sont les inconvénients d’utiliser un Large Language Model ? Qu’est-ce qu’un Large Language Model (LLMs) ? Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ?
  • 27. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 1.3. Introduction à la Gen AI Qu’est-ce qu’un Large Language Model (LLMs) ? 27 INTRODUCTION A LA GEN AI L L M : Inconvénients Présentation des Intervenants 1.1. D'où vient la Gen AI ? 1.2. Qu'est-ce que la Gen AI ? 1.3. Qu’est qu’un LLM ? Pas de clarté de source Pas de restriction d'accès Coût d’hosting d’un LLM Répétition des ajustements
  • 28. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 28 2. RAG: Gen AI en Action dans le Platform Engineering
  • 29. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 29 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.1. Gen AI in action in Platform Engineering RAG : Élever les LLMs avec précision et perspicacité En quoi consiste le RAG ? Retrieval . Augmented . Generation ? 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 30. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 30 2.1. Gen AI in action in Platform Engineering RAG : Élever les LLMs avec précision et perspicacité En quoi consiste le RAG ? Retrieval Augmented Generation La génération augmentée par récupération (RAG) est une méthode de Gen IA avancée qui combine la capacité créative des Modèles de Langage à Grande Échelle (LLMs) avec la précision des bases de données vectorielles. Elle utilise des données externes pour fournir des informations précises et à jour dans ses réponses. GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 31. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 31 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.2. Gen AI in action in Platform Engineering RAG : Comment ça marche ? Comment fonctionne le RAG? R A G ? 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 32. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 32 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2.2. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI Composants techniques du RAG Embedding model Chunking Knowledge base (KB) Document embeddings Vector DB Embeddings and Vector Stores
  • 33. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 33 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2.2. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 34. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 34 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2.2. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 35. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI 2.2. Gen AI in action in Platform Engineering Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 35 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2. RAG : Récupération d’information Embedding model Vector DB Top k relevant chunks User Query Query embedding
  • 36. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 36 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. Les avantages du RAG 2.3. RAG : Comment ça marche ? 2.2. Gen AI in action in Platform Engineering
  • 37. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 37 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2.2. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 38. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 38 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.3. Gen AI in action in Platform Engineering RAG : Comment ça marche ? Composants techniques du RAG Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 4. RAG : Génération de réponse Prompt w/ query + context Top k relevant chunks Response LLM
  • 39. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 39 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer 2.2. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 40. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI 2.2. Gen AI in action in Platform Engineering Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 40 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Orchestration Layer Composants techniques du RAG Embedding model Chunking Knowledge base (KB) Document embeddings Vector DB Embeddings and Vector Stores
  • 41. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 Ce composant gère le flux de travail, en coordonnant entre la requête de l'utilisateur, le système de récupération et le LLM. Il assure une intégration transparente des données récupérées dans le processus de génération de réponse du LLM. Une pierre angulaire de la fonctionnalité du RAG, les embeddings convertissent le texte en vecteurs, permettant une recherche de similarité efficace dans les magasins de vecteurs. Ce processus permet la récupération rapide d'informations en mesurant la proximité du vecteur de requête avec les vecteurs de documents dans la base de données. Embeddings and Vector Stores Traitement des requêtes : Lorsqu'une requête est reçue, le RAG commence par analyser l'entrée pour comprendre le contexte et les informations spécifiques demandées. Cette première étape détermine l'orientation de la récupération d'informations subséquente. 1. Step 1 41 Récupération d'informations : En utilisant des bases de données externes ou des bases de connaissances, le RAG recherche des informations pertinentes liées à la requête. Ceci est réalisé grâce à des techniques de recherche avancées, impliquant souvent des recherches de similarité vectorielle où la requête et les documents sont convertis en vecteurs (représentations numériques) pour comparaison. 2. Step 2 Intégration des données : Les informations récupérées, souvent issues de multiples sources, sont ensuite synthétisées. Le RAG utilise ce réservoir d'informations pour informer le processus de génération, garantissant que la réponse est non seulement pertinente, mais également enrichie avec les données les plus récentes et les plus précises disponibles. 3. Step 3 Génération de réponse : Avec les bases contextuelles posées par les données récupérées, le LLM élabore une réponse. Le modèle génératif prend en compte à la fois la requête originale et les informations complémentaires, produisant une réponse qui est informée, précise et adaptée aux besoins de l'utilisateur. 4. Step 4 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING RAG : Comment ça marche ? Composants techniques du RAG Orchestration Layer 2.2. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 42. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 42 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.3. Gen AI in action in Platform Engineering Les avantages du RAG Quels sont les avantages du RAG ? Retrieval . Augmented . Generation ? 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 43. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 43 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING Avantages et limites du RAG RAG : Avantages Efficacité des coûts et avantages environnementaux Informations personnalisable et contrôlée Rester à jour avec les infos qui évoluent Précision factuelle améliorée 2.3. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 44. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 44 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.3. Gen AI in action in Platform Engineering Avantages et limites du RAG Quels sont les challenges du RAG ? Retrieval . Augmented . Generation ? 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 45. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 45 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING Avantages et limites du RAG RAG : les challenges Potentielle surcharge d'informations Garanti la fiabilité des informations récupérées Complexités et exigences computationnelles 2.3. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 46. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 46 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING Amélioration du RAG @IG1 RAG : les axes d'amélioration Dépasser les limites de la fenêtre de contexte grâce au réordonnancement Sélection stratégique d'embeddings et de réordonnanceurs Avantages de la mise en œuvre d'un système multi-agents dans RAG 2.4. Gen AI in action in Platform Engineering 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 47. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 47 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.5. Gen AI in action in Platform Engineering Mise en application de la GEN AI @IG1 Maintenant que nous avons échangé sur le fonctionnement technique de la Gen AI, comment comptons-nous utiliser la Gen AI au sein d’Iguane Solutions? 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 48. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 48 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.5. Gen AI in action in Platform Engineering Mise en application de la GEN AI @IG1 DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES Les 2 premiers sujets que nous avons identifiés : 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 49. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI 49 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.5. Gen AI in action in Platform Engineering Mise en application de la GEN AI @IG1 DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES Les 2 premiers sujets que nous avons identifiés : Mise en application de la Gen AI : Documentation clients Création du RAG avec les données nécessaires Customers Knowledge bases (KB) Vector DB Iguane Knowledge bases (KB) Embedding
  • 50. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI 50 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.5. Gen AI in action in Platform Engineering Mise en application de la GEN AI @IG1 DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES Les 2 premiers sujets que nous avons identifiés : Mise en application de la Gen AI : Documentation clients Utilisation de cette Gen AI à plusieurs fins RAG Permet au personnel d'astreinte de consulter la Gen AI pour obtenir des conseils sur les plateformes des clients avant de réaliser une opération. Permet aux clients d'interroger la Gen AI pour obtenir des informations sur leurs plateformes.
  • 51. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 51 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.5. Gen AI in action in Platform Engineering Mise en application de la GEN AI @IG1 DOCUMENTATION CLIENTS DÉPLOIEMENT DE PLATEFORMES Les 2 premiers sujets que nous avons identifiés : 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI
  • 52. Iguane Solutions ©2024 - tous droits réservés - ig1.com IG1 52 GEN AI EN ACTION IN DANS LE PLATFORM ENGINEERING 2.5. Gen AI in action in Platform Engineering Mise en application de la GEN AI @IG1 : plateformes LLM managées disponibles dès Q1 2024 @IG1 2.1. RAG : Élever les LLMs avec précision et perspicacité 2.2. RAG : Comment ça marche ? 2.3. Avantages et limites du RAG 2.4. Amélioration du RAG 2.5. Mise en application de la GEN AI Nous mettons en place des infrastructures managées pour l’IA des Q1 2024 disponibles pour l’ensemble de nos clients! GEN AI
  • 53. Iguane Solutions ©2024 - tous droits réservés - ig1.com 53