Deep learning et donn´ees
d’´energie
Plan
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
2/26jc
Sommaire
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
3/26jc
Donn´ees issues d’objets connect´es
4/26jc
Donn´ees issues de capteurs
5/26jc
Donn´ees issues de machines
6/26jc
Time Series et Geo Time Series
7/26jc
Sommaire
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
8/26jc
Warp 10
Base de donn´ees adapt´ee `a des flux massifs de donn´ees
D´eployable en standalone ou sur une architecture distribu´ee
Hautes performances d’ingestion : de l’ordre de 100 000 `a plus d’1 million de
donn´ees/sec
Langage de requˆetage d´edi´e : Warpscript
Interface de visualisation : Quantum
Protection des donn´ees
9/26jc
Warpscript
10/26jc
Warpscript
Requˆetage : r´ecup´eration des donn´ees
Manipulation `a la vol´ee
Algorithmes ex´ecut´es cˆot´e serveurs
Plus de 600 fonctions adapt´ees aux Geo Time Series
11/26jc
Sommaire
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
12/26jc
Inspiration biologique
13/26jc
Apprentissage
14/26jc
Apprentissage
14/26jc
Apprentissage
14/26jc
Apprentissage
14/26jc
Apprentissage
14/26jc
Apprentissage
14/26jc
Apprentissage
14/26jc
Sommaire
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
15/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
Non-linearit´es
16/26jc
Perceptron Multi-couches (MLP)
Input x Output y
y = f4 (W4 · f3 (W3 · f2 (W2 · f1 (W1 · x))))
Param`etres
16/26jc
R´egression : Performance ´energ´etique
17/26jc
Preprocessing et Feature engineering
18/26jc
Sommaire
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
19/26jc
Recurrent neural network (RNN)
20/26jc
Recurrent neural network (RNN)
20/26jc
Recurrent neural network (RNN)
20/26jc
Long Short Term Memory (LSTM)
21/26jc
Pr´ediction : Consommation d’´energie
22/26jc
Sommaire
1 Type de donn´ees
2 Stockage et Manipulation
3 Deep Learning : principes
4 R´egression de la performance ´energ´etique
5 Pr´ediction de la consommation d’´energie
6 Impl´ementation
23/26jc
Deep Learning avec Warpscript
24/26jc
Autres outils d’analyse avec Warpscript
Gradient Boosted Trees
Sax, bSax, repr´esentations symbolique
Support Vector Machine
t-distributed stochastic neighbor embedding
Bayesian Network
Statistiques
...
25/26jc
Merci pour votre attention
26/26jc

« Les réseaux de neurones peuvent faire l’apprentissage de modèles grâce à une succession de fonctions linéaires et non-linéaires », Cityzen Data / IMT Bretagne