SlideShare une entreprise Scribd logo
1  sur  10
On merging MobileNets for Efficient
Multitask Inference
Zippering Method
Fiche d’identité
2
Genre de publication Article
Auteurs Cheng-EnWu,Yi-Ming Chan,
Chu-Song Chen.
Titre de l’article On Merging MobileNets for
Efficient Multitask Inference
Publisher IEEE
Publié dans The 2nd Workshop on Energy
Efficient Machine Learning
and Cognitive Computing for
Embedded Applications
(EMC²)
Date de conférence 17 Février 2019
Date d’ajout à IEEE
Xplore
9 Mars 2020
Lieu de conférence Washington, DC, USA
Nombre de pages 5
Introduction
3
 Lors du déploiement de deux ou plusieurs modèles
d'apprentissage en profondeur sur un système, on espère les
unifier en un seul modèle, afin que le temps de calcul puisse être
augmenté et la consommation d'énergie peut être économisée.
 Cet article présente une méthode qui a pour but de fusionner
deux réseaux de neurones bien entraînés de la même
architecture en un seul.
 Les auteurs ont évalué cette approche qui s’appelle « Zippering
Method » en utilisant l’architecture de MobileNets.
Travaux liés
4
 Il existe peu d'études portant sur la fusion de modèles
d'apprentissage en profondeur bien entraînés en un
modèle unique et plus condensé.
 une approche systématique est proposée pour
fusionner et compresser plusieurs modèles CNN
multiples, sauf que leurs architectures qui sont
différentes.
Aperçu de l’approche – Zippering MobileNets
5
 Les auteurs introduisent une approche (méthode)
itérative pour fusionner les MobileNets pour une
inférence efficace.
 Au tour L de l'itération, on fusionne les L couches
précédentes.
 Les couches fusionnées servent de réseau fédérateur
commun pour l'extraction de caractéristiques des
deux branches de tâches suivantes, comme illustré à la
figure.
 Au cours de chaque itération, il existe deux type
d’opérations :
1. Shared-weight initialization
2. Model Calibrage
1. Shared-weight initialization
6
 Dans cette première opération, les poids unifiés sont initialisés afin que les poids des
différents réseaux de neurones soient utilisés conjointement,
 Ici, il faut initialiser simplement les poids en prenant la moyenne des poids originaux
comme suit, ce qui se traduit par la plus petite erreur de quantification des poids,
 WAi et WBi sont des vecteurs de l'un des filtres convolutifs par rapport au i-ème canal
de sortie du modèle A et du modèle B respectivement, et µi est la moyenne du vecteur
utilisé comme poids fusionnés.
2. Model Calibrage
7
 Deuxièmement, les poids des modèles fusionnés sont calibrés avec les données
d'apprentissage pour restaurer les performances,
 Une fois que les poids fusionnés sont disponibles, il faut les définir comme valeurs
initiales pour fusionner les modèles pour plusieurs tâches et affiner davantage le
modèle entier à partir de toutes les données d'apprentissage
 Les pertes d'entropie croisée des deux tâches, ainsi que la perte L1 qui reflète la
différence de sortie de chaque couche de convolution pointwise, sont additionnées
pour affiner le mode fusionné.
 Lc : la perte d'entropie croisée individuelle,
 Ld : la différence de norme L1 entre les features maps générées par le modèle fusionné
et les modèles individuels bien entraînés de chaque couche.
Expérience
8
 Les auteurs ont réaliser une expérience pour valider leur approche,
 Cette expérience consiste à fusionner deux modèles issus de la même architecture
MobileNet pour la classification d'images sur 4 Datasets :
 ImageNet : 1,000 classes avec 1,281,144 training samples et 50,000 testing
samples.
 DeepFashion : has 50 classes de categories de vêtement, avec 289,222 training
samples and 40,000 testing samples.
 CUBS Birds : 196 classes des categories des oiseaux, avec 5,994 training samples et
5,794 testing samples
 Flowers : 102 classes des categories des fleurs, avec 2,040 training samples and
6,149 testing samples
Expérience - Résultats
9
Expérience - Résultats
10
Fusion des MobileNets d'ImageNet et de DeepFashion
Fusion des MobileNets de Flowers et de CUBS

Contenu connexe

Similaire à Présentation-Zippering.pptx

TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
SafaeElOmari
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
ENSET, Université Hassan II Casablanca
 
Correction examen-java-avancé-1
Correction examen-java-avancé-1Correction examen-java-avancé-1
Correction examen-java-avancé-1
vangogue
 
Convolutional Neural Networks (CNNs)
Convolutional Neural Networks (CNNs)Convolutional Neural Networks (CNNs)
Convolutional Neural Networks (CNNs)
Hajar Bouchriha
 

Similaire à Présentation-Zippering.pptx (20)

Chap XVI - redaction mémoire
Chap XVI - redaction mémoireChap XVI - redaction mémoire
Chap XVI - redaction mémoire
 
Cours rn 2006
Cours rn 2006Cours rn 2006
Cours rn 2006
 
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdfTP_Réseaux_de_neurones_Safae_ElOmari.pdf
TP_Réseaux_de_neurones_Safae_ElOmari.pdf
 
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
Mise en oeuvre des Frameworks de Machines et Deep Learning pour les Applicati...
 
2 TUP
2 TUP2 TUP
2 TUP
 
Chap XVI-RedactionMemoire.pdf
Chap XVI-RedactionMemoire.pdfChap XVI-RedactionMemoire.pdf
Chap XVI-RedactionMemoire.pdf
 
srep_cours_01.pdf
srep_cours_01.pdfsrep_cours_01.pdf
srep_cours_01.pdf
 
Rapport Mini-Projet Recherche Opérationnelle
Rapport Mini-Projet Recherche OpérationnelleRapport Mini-Projet Recherche Opérationnelle
Rapport Mini-Projet Recherche Opérationnelle
 
L’Econométrie des Données de Panel
L’Econométrie des Données de PanelL’Econométrie des Données de Panel
L’Econométrie des Données de Panel
 
Design patterns
Design patternsDesign patterns
Design patterns
 
Apprentissage du java
Apprentissage du javaApprentissage du java
Apprentissage du java
 
Correction examen-java-avancé-1
Correction examen-java-avancé-1Correction examen-java-avancé-1
Correction examen-java-avancé-1
 
Convolutional Neural Networks (CNNs)
Convolutional Neural Networks (CNNs)Convolutional Neural Networks (CNNs)
Convolutional Neural Networks (CNNs)
 
Réseaux avec NetLogo
Réseaux avec NetLogoRéseaux avec NetLogo
Réseaux avec NetLogo
 
Patrons de creation
Patrons de creationPatrons de creation
Patrons de creation
 
Support de cours Spring M.youssfi
Support de cours Spring  M.youssfiSupport de cours Spring  M.youssfi
Support de cours Spring M.youssfi
 
Entity_framework_db first
Entity_framework_db firstEntity_framework_db first
Entity_framework_db first
 
Présentation pfe
Présentation pfePrésentation pfe
Présentation pfe
 
tp-spring.pdf
tp-spring.pdftp-spring.pdf
tp-spring.pdf
 
tp-spring.pdf
tp-spring.pdftp-spring.pdf
tp-spring.pdf
 

Présentation-Zippering.pptx

  • 1. On merging MobileNets for Efficient Multitask Inference Zippering Method
  • 2. Fiche d’identité 2 Genre de publication Article Auteurs Cheng-EnWu,Yi-Ming Chan, Chu-Song Chen. Titre de l’article On Merging MobileNets for Efficient Multitask Inference Publisher IEEE Publié dans The 2nd Workshop on Energy Efficient Machine Learning and Cognitive Computing for Embedded Applications (EMC²) Date de conférence 17 Février 2019 Date d’ajout à IEEE Xplore 9 Mars 2020 Lieu de conférence Washington, DC, USA Nombre de pages 5
  • 3. Introduction 3  Lors du déploiement de deux ou plusieurs modèles d'apprentissage en profondeur sur un système, on espère les unifier en un seul modèle, afin que le temps de calcul puisse être augmenté et la consommation d'énergie peut être économisée.  Cet article présente une méthode qui a pour but de fusionner deux réseaux de neurones bien entraînés de la même architecture en un seul.  Les auteurs ont évalué cette approche qui s’appelle « Zippering Method » en utilisant l’architecture de MobileNets.
  • 4. Travaux liés 4  Il existe peu d'études portant sur la fusion de modèles d'apprentissage en profondeur bien entraînés en un modèle unique et plus condensé.  une approche systématique est proposée pour fusionner et compresser plusieurs modèles CNN multiples, sauf que leurs architectures qui sont différentes.
  • 5. Aperçu de l’approche – Zippering MobileNets 5  Les auteurs introduisent une approche (méthode) itérative pour fusionner les MobileNets pour une inférence efficace.  Au tour L de l'itération, on fusionne les L couches précédentes.  Les couches fusionnées servent de réseau fédérateur commun pour l'extraction de caractéristiques des deux branches de tâches suivantes, comme illustré à la figure.  Au cours de chaque itération, il existe deux type d’opérations : 1. Shared-weight initialization 2. Model Calibrage
  • 6. 1. Shared-weight initialization 6  Dans cette première opération, les poids unifiés sont initialisés afin que les poids des différents réseaux de neurones soient utilisés conjointement,  Ici, il faut initialiser simplement les poids en prenant la moyenne des poids originaux comme suit, ce qui se traduit par la plus petite erreur de quantification des poids,  WAi et WBi sont des vecteurs de l'un des filtres convolutifs par rapport au i-ème canal de sortie du modèle A et du modèle B respectivement, et µi est la moyenne du vecteur utilisé comme poids fusionnés.
  • 7. 2. Model Calibrage 7  Deuxièmement, les poids des modèles fusionnés sont calibrés avec les données d'apprentissage pour restaurer les performances,  Une fois que les poids fusionnés sont disponibles, il faut les définir comme valeurs initiales pour fusionner les modèles pour plusieurs tâches et affiner davantage le modèle entier à partir de toutes les données d'apprentissage  Les pertes d'entropie croisée des deux tâches, ainsi que la perte L1 qui reflète la différence de sortie de chaque couche de convolution pointwise, sont additionnées pour affiner le mode fusionné.  Lc : la perte d'entropie croisée individuelle,  Ld : la différence de norme L1 entre les features maps générées par le modèle fusionné et les modèles individuels bien entraînés de chaque couche.
  • 8. Expérience 8  Les auteurs ont réaliser une expérience pour valider leur approche,  Cette expérience consiste à fusionner deux modèles issus de la même architecture MobileNet pour la classification d'images sur 4 Datasets :  ImageNet : 1,000 classes avec 1,281,144 training samples et 50,000 testing samples.  DeepFashion : has 50 classes de categories de vêtement, avec 289,222 training samples and 40,000 testing samples.  CUBS Birds : 196 classes des categories des oiseaux, avec 5,994 training samples et 5,794 testing samples  Flowers : 102 classes des categories des fleurs, avec 2,040 training samples and 6,149 testing samples
  • 10. Expérience - Résultats 10 Fusion des MobileNets d'ImageNet et de DeepFashion Fusion des MobileNets de Flowers et de CUBS

Notes de l'éditeur

  1. Are your classroom colors different than what you see in this template? That’s OK! Click on Design -> Variants (the down arrow) -> Pick the color scheme that works for you! Feel free to change any “You will…” and “I will…” statements to ensure they align with your classroom procedures and rules!