Colloque IMT - L'IA au cœur des mutations industrielles - Techniques d'apprentissage dans l'optimisation de la consommation d'énergie. Présentation par Hossam Afifi, Professeur (Télécom SudParis).
Colloque IMT -04/04/2019- L'IA au cœur des mutations industrielles - Techniques d'apprentissage dans l'optimisation de la consommation d'énergie
1. A. DRIDI, F. OSSART, J. BADOSA, H. MOUNGLA, M.
MAROT, V. GAUTHIER ET H. AFIFI
LMD, POLYTECHNIQUE
GEEPS, CENTRALESUPELEC
TELECOM SUDPARIS, INSTITUT MINES-TELECOM, SACLAY, FRANCE
APPRENTISSAGE ET
RENFORCEMENT DANS LA
GESTION D’ÉNERGIE
2. INTRODUCTION DE L’INTELLIGENCE ARTIFICIELLE DANS
L’INDUSTRIE?
Un exemple concret: la gestion d’énergie
Deux procédures IA pour résoudre le problème
■Les séries temporelles
■Le renforcement
Généralisation de la solution
SÉMINAIRE IA IMT
2
3. 3DEUX CAS CONCRETS: DRAHIX ET U7 (EVRY)
SOURCE DRAHIX: JORDI BADOSA LMD
SÉMINAIRE IA IMT
4. LES DATASETS?
Log de Consommation (rouge, jaune, vert) des Zones 1 et 2 du Drahi-X (
6 mois)
Résolution d’une seconde
4
Mesure non intrusive
Outil de récolte de données
Cloud/BigData
5. Signaux input
Nb usersDay HourTemperature Zone1_red
Ex: Long-Short Term
Memory
Dense
Output
Zone1_red
5
Labels
APPRENTISSAGE PAR RNN
EX: LSTM-D ET GRU-D
SÉMINAIRE IA IMT
Réseau
de neurones
9. PROBLÈMES À RÉSOUDRE
D’une part :
une production, la journée et we, d’énergie renouvelable
D’autre part,
la consommation
Et enfin,
un ajustement: la batterie
Pour un objectif (ou plusieurs): Economie, écologie, confort….
! Place au renforcement…..
9
SÉMINAIRE IA IMT
12. QU’EST CE QUE LE RENFORCEMENT
Premières évolutions: MDP et Qlearning
On utilise des matrices:
►State Action Reward
►On itère sur la matrice jusqu’à la convergence
►Résout des problèmes déterministes simples:
Cliff Walking, Frozen Lake…
12
SÉMINAIRE IA IMT
13. RENFORCEMENT PROFOND
Lorsque le nombre d’états augmente, Q-learning ne peut plus
fonctionner
On demande à un réseau de neurones de se ‘rappeler’ des
meilleurs couples: état-action
13
conv3D
pooling
Couches denses
sigmoid
Hot
encoding
A0
An
États heuristiques du renforcement
Séquence
Temporelle
d’images
SÉMINAIRE IA IMT
15. RETOUR AU PROBLÈME INITIAL 15
SÉMINAIRE IA IMT
stocker
Consommer
des batteries idle
acheter
états
Méthodes
classiques
P’t+1=(Pt + P’t)θt
16. PROBLÈMES ET VERROUS
Nécessite une connaissance des réseaux de neurones en leur totalité et
un peu de maths
Tensorflow n’est pas simple…
Certaines techniques sont stables,
mais c’est un domaine qui évolue
Manque de standards et anarchie totale
Les algorithmes doivent être adaptés aux problèmes
17. L’apprentissage va apporter une grande évolution dans les
procédures et approches de résolution de problèmes
La prédiction permet de faire des optimisations régulières sans besoin
de gros calculs
L’adaptation de chaque problème nécessite une réflexion
17CONCLUSIONS ET PERSPECTIVES
19. PARAMETERS TO VARY
Shift_steps number of
observation we want to predict
Number of Epoch corresponds
to the moment where the entire
dataset is transmitted to the
Neural Network
Steps_per_epoch number of
iteration of batches before an
Epoch is terminated
Batch_size number of
examples in a batch
Sequence_length number of
observation in a sequence
19
20. QUAND LES CHOSES NE VONT PAS BIEN 20
Et quand on trouve la
raison…
Afterwards we can add zone_yello et zone_green (output Signals)
LSTM outputs a batch of sequences of 5 values. We want to predict 1
we add a fully-connected (or dense) layer which maps 5 values down to only 1 value