2. Fiche d’identité
2
Genre de publication Article
Auteurs Cheng-EnWu,Yi-Ming Chan,
Chu-Song Chen.
Titre de l’article On Merging MobileNets for
Efficient Multitask Inference
Publisher IEEE
Publié dans The 2nd Workshop on Energy
Efficient Machine Learning
and Cognitive Computing for
Embedded Applications
(EMC²)
Date de conférence 17 Février 2019
Date d’ajout à IEEE
Xplore
9 Mars 2020
Lieu de conférence Washington, DC, USA
Nombre de pages 5
3. Introduction
3
Lors du déploiement de deux ou plusieurs modèles
d'apprentissage en profondeur sur un système, on espère les
unifier en un seul modèle, afin que le temps de calcul puisse être
augmenté et la consommation d'énergie peut être économisée.
Cet article présente une méthode qui a pour but de fusionner
deux réseaux de neurones bien entraînés de la même
architecture en un seul.
Les auteurs ont évalué cette approche qui s’appelle « Zippering
Method » en utilisant l’architecture de MobileNets.
4. Travaux liés
4
Il existe peu d'études portant sur la fusion de modèles
d'apprentissage en profondeur bien entraînés en un
modèle unique et plus condensé.
une approche systématique est proposée pour
fusionner et compresser plusieurs modèles CNN
multiples, sauf que leurs architectures qui sont
différentes.
5. Aperçu de l’approche – Zippering MobileNets
5
Les auteurs introduisent une approche (méthode)
itérative pour fusionner les MobileNets pour une
inférence efficace.
Au tour L de l'itération, on fusionne les L couches
précédentes.
Les couches fusionnées servent de réseau fédérateur
commun pour l'extraction de caractéristiques des
deux branches de tâches suivantes, comme illustré à la
figure.
Au cours de chaque itération, il existe deux type
d’opérations :
1. Shared-weight initialization
2. Model Calibrage
6. 1. Shared-weight initialization
6
Dans cette première opération, les poids unifiés sont initialisés afin que les poids des
différents réseaux de neurones soient utilisés conjointement,
Ici, il faut initialiser simplement les poids en prenant la moyenne des poids originaux
comme suit, ce qui se traduit par la plus petite erreur de quantification des poids,
WAi et WBi sont des vecteurs de l'un des filtres convolutifs par rapport au i-ème canal
de sortie du modèle A et du modèle B respectivement, et µi est la moyenne du vecteur
utilisé comme poids fusionnés.
7. 2. Model Calibrage
7
Deuxièmement, les poids des modèles fusionnés sont calibrés avec les données
d'apprentissage pour restaurer les performances,
Une fois que les poids fusionnés sont disponibles, il faut les définir comme valeurs
initiales pour fusionner les modèles pour plusieurs tâches et affiner davantage le
modèle entier à partir de toutes les données d'apprentissage
Les pertes d'entropie croisée des deux tâches, ainsi que la perte L1 qui reflète la
différence de sortie de chaque couche de convolution pointwise, sont additionnées
pour affiner le mode fusionné.
Lc : la perte d'entropie croisée individuelle,
Ld : la différence de norme L1 entre les features maps générées par le modèle fusionné
et les modèles individuels bien entraînés de chaque couche.
8. Expérience
8
Les auteurs ont réaliser une expérience pour valider leur approche,
Cette expérience consiste à fusionner deux modèles issus de la même architecture
MobileNet pour la classification d'images sur 4 Datasets :
ImageNet : 1,000 classes avec 1,281,144 training samples et 50,000 testing
samples.
DeepFashion : has 50 classes de categories de vêtement, avec 289,222 training
samples and 40,000 testing samples.
CUBS Birds : 196 classes des categories des oiseaux, avec 5,994 training samples et
5,794 testing samples
Flowers : 102 classes des categories des fleurs, avec 2,040 training samples and
6,149 testing samples
Are your classroom colors different than what you see in this template? That’s OK! Click on Design -> Variants (the down arrow) -> Pick the color scheme that works for you!
Feel free to change any “You will…” and “I will…” statements to ensure they align with your classroom procedures and rules!