« Classification de graphes 
de connectivité du cerveau » 
Romain Chion 
encadré par: S. Achard, M. Desvignes, F. Forbes
gipsa-lab 
SOMMAIRE 
PRESENTATION DU CONTEXTE 
METHODES USUELLES 
NOUVELLE METHODE 
COMPARAISON DES RESULTATS
CONTEXTE 
METHODES 
3 
gipsa-lab 
CONTEXTE 
• Comment comparer les 
graphes entre eux? 
• Est il possible de modéliser 
le...
CONTEXTE 
METHODES 
4 
gipsa-lab 
MODELES GENERATIFS 
Illustration « Small World », Collective dynamics of 
‘small-world’ ...
COMPARAISON DE GRAPHES 
• Tansformation d’un graphe vers un autre 
ex : Distance d’édition 
CONTEXTE 
METHODES 
5 
gipsa-l...
ETAT DE L’ART : JANSSEN et al. 2012 
Comptage de Graphlets 
Nombre de 
Graphlets 
apprentissage du classifieur entrée du c...
METHODES 
APPORTS 
7 
gipsa-lab 
ETAT DE L’ART : MOTALLEBI et al. 2013 
Classifieur 
de Réseaux Complexes
Intervalle de 
confiance ~25% 
METHODES 
APPORTS 
8 
gipsa-lab 
MODELISATION DES GCC 
Caractérisation des GCC vers 4 modèl...
Précision de la méthode à 50.16%, aléatoire à 50% 
METHODES 
APPORTS 
9 
gipsa-lab 
IDENTIFICATION DES GCC 
true Control t...
METHODES 
APPORTS 
gipsa-lab 
PROBLEMATIQUE 
« Les mesures globales ne sont pas 
représentatives du comportement local » 
...
HISTOGRAMME NORMALISE 
• Clustering Coefficient 
• Characteristic Path Length 
• Degrees Distribution 
• Efficiency 
APPOR...
DISTANCE ENTRE HISTOGRAMMES 
• Mesure de (dis)semblance bin à bin : 
 Battacharyya: 
 Chi² 
 Hellinger : 
• Mesure de d...
Performances 
RESULTATS 
gipsa-lab 
DONNEES DE SYNTHESES 
13 
 graphlets : 78% 
 mesures globales : 88% à 97.3% 6 mesure...
GRAPHES DE CONNECTIVITES 
mesures globales 63% V.S. 83%MAX histogrammes 
RESULTATS 
14 
gipsa-lab 
GLOBALES 
A.N.N. 
C P 
...
RESULTATS 
gipsa-lab 
MODELISATION DES GCC 
15 
7 Clustering Degrés 
ER 0,418 0,133 
FF 0,207 0,074 
KG 0,112 0,211 
RPL 0...
Erdos- 
Renyi 
FF 
RPL 
RESULTATS 
gipsa-lab 
CLASSE MANQUANTE 
16 
Forest 
Fire 
RPL 
SW 
Kronecker 
Graph 
FF 
77%SW 
23...
RESULTATS 
gipsa-lab 
ROBUSTESSE N ET D 
17 
100 200 300 400 500 600 700 800 900 10001100120013001400150016001700180019002...
ROBUSTESSE APPRENTISSAGE 
RESULTATS 
18 
gipsa-lab 
CROSS-VALIDATION en d 
100 200 300 400 500 600 700 800 900 10001100120...
RESULTATS 
gipsa-lab 
RANDOMISATION 
19 
0% 5% 10%15%20%25%30%35%40%45%50%55%60%65%70%75%80%85%90% 
ER 100% 100% 100% 100%...
PC 1 0.415 0.750 0.750 
PC 2 0.170 0.126 0.876 
PC 3 0.132 0.076 0.952 
PC 4 0.101 0.044 0.996 
PC 5 0.028 0.004 0.999 
PC...
AVANT APRES 
CROSS-VALIDATION d : 5 à 16% d’augmentation 
gipsa-lab 
moyenne grimpe de 75 à 84% 
RESULTATS 
PCA : ROBUSTES...
RESULTATS 
gipsa-lab 
PCA : INTERPRETATION 
22 
COMPOSANTE 2 
COMPOSANTE 1 
 Biplot: 
représentation 
visuelle 
K REGULAR...
gipsa-lab 
CONCLUSION 
 De bonnes performances sur les graphes de synthèse 
 Les histogrammes locaux sont importants 
 ...
Prochain SlideShare
Chargement dans…5
×

Presentation Stage Graphe de Connectivité du Cerveau 2014 (FR)

388 vues

Publié le

Publié dans : Santé & Médecine
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
388
Sur SlideShare
0
Issues des intégrations
0
Intégrations
3
Actions
Partages
0
Téléchargements
6
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive
  • Bonjour à tous
    Je vais vous présenter mes travaux sur les graphes, et plus particulièrement sur la classif…erveau issue de mon stage ici au GIPSA lab
  • Après une rapide présentation du contexte je vais vous présenter deux méthodes usuelles issues de la littérature avant d’introduire les concepts de mesures locales et d‘histogrammes et enfin une comparaison des résultats et des performances.
  • Dans cette étude nous cherchons à comparer des graphes entre eux.
    Vous avez ici l’exemples de Graphes de Connectivité du Cerveau avec les nœuds en noirs, et les arêtes en bleu, on les obtient par imagerie IRM sur des personnes saines agissant comme control et sur des patients atteints de troubles psychologiques ou neurologiques comme un comma. On sépare alors le cerveau en différentes régions représentées chacune par un nœud. Une arête montrant un lien fonctionnel entre deux régions.

    Ces GCC constituent nos données réelles, nous allons pouvoir les comparer par la suite à des graphes de synthèses pour en définir un modèle.

    VISUEL GRAPH CONNECTIVITE -> COMMENT CARACTERISER LES GRAPHES LES UNS AU AUTRES / MODELISER ELS DONNEES REELES PAR UNE (DES) METHODES GENERATIVES / CATEGORISER LES DONNEES REELLES ENTRES ELLES.
  • Les modèles génératifs présentent différentes manières de générer des graphes. Tous ces modèles sont simulés d’après plusieurs paramètres comme leur nombre de noeuds et d’arêtes.

    Vous avez ici une autre représentation visuelle des graphes où les noeuds sont répartis sur un cercle.
    Trois modèles peuvent êtres définis comme présentés ici, le modèle régulier ou tous les nœuds sont liés à leurs k plus proches voisins.
    On va pouvoir ensuite reconnecter aléatoirement les arêtes avec une probabilité p jusqu’à atteindre le modèle dit Small-World
    Si on continue encore on va obtenir un modèle complètement aléatoire ou modèle Erdos Renyi.

    Un autre modèle initié par Barabasi est le Préférential Attachment, l’idée représentée ici est qu’il est plus probable de trouver de nouveaux amis chez les amis de mes amis que chez des personnes avec lesquelles je n’ai aucune relation. Le Préférential attachement modèlise parfaitement les réseaux sociaux ou encore le système de citation dans les articles.
  • Maintenant que nous avons plusieurs types de graphes nous allons chercher à les comparer.

    Pour cela il existe plusieurs types de mesures

    heavy tailed degree distribution, high clustering, small path length
  • Nous allons maintenant entrer dans le vif du sujet avec une première méthode de classification de graphes basé sur le comptage de motifs appelés GRAPHLETS
    On peut voir ici les différents motifs pour 3 et 4 nœuds.
    On commence par compter le nombre de graphlets d’un ensemble d’apprentissage composés d’un certain nombre de graphes pour chaque modèle étudié ont on va se servir pour créer un classifieur.

    Pour chaque nouvelle instance de graphe à tester on va
  • Classifieur adapté au graph en entrée et on cherche une indépendance vis-à-vis du nombre de noeud
  • On a donc commencé par essayer de repartir les graphes de connectivites selon differents modeles generatifs pour voir s’il y en a un qui colle.
    Pour cela on a utilisé les mesures globales d’une centaine de graphes pour 4 modeles generatifs comme ensemble d’apprentissage et on a ensuite passé les 37 GCC dans un classifieur SVM.

    Prédiction basée sur le max pas de sens, même données autres classifieurs autres modèles.
    25% partout, ces 4 modèles de synthèses avec les paramètres, ne permettent pas de caractériser les données réelles, pas adéquat, pas discriminant, le graph n’est pas reconnu Patient comme Control
  • Inspiration pour classifier les PATIENT/CONTROL en cross valiation/leave one out avec un classifieur SVM, on voit bien qu’on est incapable de les séparer avec mesures globales.
  • RESULTATS mitigés, en simulation avec graphes de synthèses seuls, comme ce qu’on voit dans la littérature, ça marche bien mais... Faiblesse des méthodes précédentes.

    PBMTK -> Intérêt des mesures locales, un histogramme pour illustrer,
  • FORTEMENT INSPIRE DE LA DEUXIEME METHODE APPRENTISSAGE 7 modèles génératifs
    Un histogramme moyen pour chaque modèle

    Plus petit / apprentissage
    NORMALISE / MOYENS Mesures locales, les histogrammes moyens
  • 2 histogrammes de graphes <>

    5 distances, sens physique (pas de divergence car elles nécessitent un support commun)
  • 1 seule mesure (Clustering)
    Expliquer le process + METHODE DE S. MOTALLEBI
  • Pourquoi pas fitter des lois ? On ne peut pas toujours au vu de la forme des histogrammes.
    Pourquoi pas directement un histogramme dans le classifieur ? Pas vraiment de sens, 30 mesures, un énorme nombre d’échantillons
    Regarder histo Kro/SW
  • Presentation Stage Graphe de Connectivité du Cerveau 2014 (FR)

    1. 1. « Classification de graphes de connectivité du cerveau » Romain Chion encadré par: S. Achard, M. Desvignes, F. Forbes
    2. 2. gipsa-lab SOMMAIRE PRESENTATION DU CONTEXTE METHODES USUELLES NOUVELLE METHODE COMPARAISON DES RESULTATS
    3. 3. CONTEXTE METHODES 3 gipsa-lab CONTEXTE • Comment comparer les graphes entre eux? • Est il possible de modéliser les graphes de connectivité cérébrale (GCC)? • A quel point peut-on catégoriser les GCC?
    4. 4. CONTEXTE METHODES 4 gipsa-lab MODELES GENERATIFS Illustration « Small World », Collective dynamics of ‘small-world’ networks, D. J. Watts & S. H. Strogatz Illustration « Preferential Attachement », Choice-driven phase transition in complex networks, P. L. Krapivsky and S. Redner • Erdos-Renyi • Forest Fire • Kronecker • Preferential Attachment • Random k-regular • Random Power Law • Random Typing • Small-World
    5. 5. COMPARAISON DE GRAPHES • Tansformation d’un graphe vers un autre ex : Distance d’édition CONTEXTE METHODES 5 gipsa-lab MESURES STRUCTURELLES • Tendance des noeuds à se regrouper, distribution des degrés, chemins entre noeuds ex : Clustering, Plus Court Chemin MESURES LOCALES (pour chaque noeud) • Mesures locales moyennées, formation de noyaux et de communautés ex : Assortativité, Centralité, Modularité,Diamètre MESURES GLOBALES
    6. 6. ETAT DE L’ART : JANSSEN et al. 2012 Comptage de Graphlets Nombre de Graphlets apprentissage du classifieur entrée du classifieur METHODES APPORTS 6 gipsa-lab Ensemble d’apprentissage Instance de graphe Nombre de Graphlets Classifieur Modèle de graphe
    7. 7. METHODES APPORTS 7 gipsa-lab ETAT DE L’ART : MOTALLEBI et al. 2013 Classifieur de Réseaux Complexes
    8. 8. Intervalle de confiance ~25% METHODES APPORTS 8 gipsa-lab MODELISATION DES GCC Caractérisation des GCC vers 4 modèles (Erdos-Renyi, Preferential Attachement, Random k-regular, Small-World) Classe Prédiction E-R P A R k-R S-W Control Small-World 0.2502 0.2501 0.2492 0.2505 Patient Small-World 0.2502 0.2501 0.2492 0.2505  Résultat de la caractérisation avec mesures globales et classifieur SVM
    9. 9. Précision de la méthode à 50.16%, aléatoire à 50% METHODES APPORTS 9 gipsa-lab IDENTIFICATION DES GCC true Control true Patient class precision pred. Control 13 11 54.17% pred. Patient 7 6 46.15% class recall 65.00% 35.29% 50.16%  Résultat de l’identification avec mesures globales et classifieur SVM
    10. 10. METHODES APPORTS gipsa-lab PROBLEMATIQUE « Les mesures globales ne sont pas représentatives du comportement local »  Histogrammes du coefficient de clustering local pour 3 modèles 10
    11. 11. HISTOGRAMME NORMALISE • Clustering Coefficient • Characteristic Path Length • Degrees Distribution • Efficiency APPORTS RESULTATS 11 gipsa-lab Ensemble Histogramme des mesures locales d’apprentissage Instance de réseau Histogrammes normalisés moyens Distances entre Histogrammes Modèle de graphe Histogramme normalisé minimum des distances ou un classifieur
    12. 12. DISTANCE ENTRE HISTOGRAMMES • Mesure de (dis)semblance bin à bin :  Battacharyya:  Chi²  Hellinger : • Mesure de dissemblance avec conservation de la silhouette :  EarthMoverDistance : Optimisation du travail minimum qu'un cantonnier doit fournir pour transporter un tas de terre en un autre  Match : Comparaison des histogrammes cumulés APPORTS RESULTATS 12 gipsa-lab
    13. 13. Performances RESULTATS gipsa-lab DONNEES DE SYNTHESES 13  graphlets : 78%  mesures globales : 88% à 97.3% 6 mesures voire plus  mesures locales : 86% ou 100% 1 seule mesure Precision SW 100% RPL 100% RkR 100% PA 100% KG 100% FF 100% ER 100% 100% Precision SW 100% RTG 96% RPL 98% PA 99% KG 96% FF 98% ER 93% 97.2% Résultat de la classification histogrammes mesures globales
    14. 14. GRAPHES DE CONNECTIVITES mesures globales 63% V.S. 83%MAX histogrammes RESULTATS 14 gipsa-lab GLOBALES A.N.N. C P C 11 9 55% P 5 12 71% 69% 57% 63% HISTOGRAMME CLUSTERING ET CHI² C P C 18 2 90% P 4 13 76% 82% 87% 83%  Matrice de confusion de l’identification Control / Patient
    15. 15. RESULTATS gipsa-lab MODELISATION DES GCC 15 7 Clustering Degrés ER 0,418 0,133 FF 0,207 0,074 KG 0,112 0,211 RPL 0,156 0,088 PA 0,437 0,242 RkR 0,459 0,183 SW 0,103 0,238  Distance EMD entre GCC et modèles pour deux mesures locales
    16. 16. Erdos- Renyi FF RPL RESULTATS gipsa-lab CLASSE MANQUANTE 16 Forest Fire RPL SW Kronecker Graph FF 77%SW 23%RPL Preferential Attachment FF RPL Random k-Regular FF RPL Random Power Law FF 92% SW 8% PA Small- World FF RPL Graphes de Connectivités FF RPL PA SW …
    17. 17. RESULTATS gipsa-lab ROBUSTESSE N ET D 17 100 200 300 400 500 600 700 800 900 10001100120013001400150016001700180019002000 0,01 11% 10% 10% 14% 14% 12% 7% 6% 14% 11% 23% 29% 29% 30% 29% 34% 34% 36% 36% 45% 0,02 12% 18% 18% 16% 20% 22% 30% 39% 41% 42% 43% 42% 42% 44% 42% 43% 43% 42% 42% 43% 0,03 10% 19% 20% 27% 28% 41% 41% 45% 43% 43% 43% 42% 41% 40% 44% 43% 44% 43% 43% 43% 0,04 17% 26% 32% 40% 43% 41% 44% 40% 43% 43% 43% 43% 43% 43% 45% 43% 43% 43% 43% 42% 0,05 16% 25% 41% 42% 41% 43% 42% 43% 38% 40% 43% 42% 42% 43% 42% 43% 42% 43% 43% 43% 0,06 33% 41% 43% 44% 43% 42% 42% 46% 41% 43% 43% 43% 42% 43% 43% 43% 49% 43% 44% 43% 0,07 36% 57% 54% 65% 62% 70% 67% 72% 71% 72% 69% 71% 68% 72% 85% 85% 83% 86% 84% 86% 0,08 44% 69% 72% 72% 72% 75% 69% 86% 84% 86% 86% 86% 86% 86% 86% 86% 84% 86% 86% 86% 0,09 41% 81% 85% 93% 96% 93% 90% 97% 94% 90% 86% 86% 84% 85% 71% 71% 70% 72% 71% 71% 0,1 49% 88% 86% 100% 96% 100% 99% 84% 81% 85% 86% 86% 86% 86% 86% 86% 86% 86% 86% 86% 0,11 52% 99% 93% 90% 89% 91% 92% 78% 74% 72% 71% 71% 69% 71% 71% 71% 71% 71% 71% 71% 0,12 62% 83% 85% 72% 71% 68% 72% 68% 74% 73% 72% 71% 71% 71% 72% 71% 71% 72% 71% 71% 0,13 62% 64% 70% 64% 68% 68% 71% 68% 67% 67% 70% 66% 69% 57% 65% 61% 56% 43% 48% 43% 0,14 59% 57% 48% 43% 43% 44% 44% 44% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 0,15 54% 49% 45% 49% 42% 42% 45% 42% 42% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 0,16 45% 44% 43% 43% 44% 45% 42% 44% 43% 43% 43% 43% 43% 43% 43% 43% 43% 42% 43% 43% 0,17 42% 41% 41% 40% 42% 42% 42% 42% 43% 44% 43% 43% 42% 41% 41% 42% 42% 41% 39% 39% 0,18 45% 43% 44% 43% 43% 45% 42% 42% 43% 42% 43% 41% 41% 37% 40% 37% 34% 32% 31% 31% 0,19 44% 45% 43% 39% 43% 42% 41% 42% 42% 40% 36% 33% 30% 32% 29% 29% 29% 29% 29% 29% 0,2 43% 43% 41% 45% 41% 41% 40% 35% 30% 35% 31% 29% 29% 29% 29% 29% 29% 29% 29% 29% nombre de noeuds croissant densité croissante
    18. 18. ROBUSTESSE APPRENTISSAGE RESULTATS 18 gipsa-lab CROSS-VALIDATION en d 100 200 300 400 500 600 700 800 900 10001100120013001400150016001700180019002000 67% 70% 67% 69% 70% 71% 73% 75% 74% 77% 77% 78% 77% 78% 79% 80% 80% 78% 79% 81% nombre de noeuds croissant CROSS-VALIDATION en n d = 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,1 0,11 0,12 0,13 0,14 0,15 0,16 0,17 0,18 0,19 0,2 PREC 76% 82% 95% 97% 97% 97% 99% 99% 99% 99% 97% 99% 98% 99% 99% 99% 99% 99% 99% 99% MIN PREC. 32% 31% 80% 88% 89% 91% 96% 96% 96% 96% 91% 93% 92% 94% 97% 96% 96% 98% 98% 98% MIN CLASS. ER ER FF FF KG KG KG SW SW SW KG SW SW SW SW SW SW SW SW SW densité croissante
    19. 19. RESULTATS gipsa-lab RANDOMISATION 19 0% 5% 10%15%20%25%30%35%40%45%50%55%60%65%70%75%80%85%90% ER 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% FF 100% 100% 97% 97% 100% 97% 100% 100% 100% 100% 100% 97% 100% 100% 100% 100% 100% 100% 100% KG 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% PA 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% RkR 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% RPL 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% SW 100% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% randomisation croissante
    20. 20. PC 1 0.415 0.750 0.750 PC 2 0.170 0.126 0.876 PC 3 0.132 0.076 0.952 PC 4 0.101 0.044 0.996 PC 5 0.028 0.004 0.999 PC 6 0.011 0.000 1.000 PC 7 0.003 0.000 1.000 RESULTATS gipsa-lab PCA : RESULTATS 20 NBR DE COMPOSANTES PRINCIPALES VARIANCE CUMULEE STRD DEV %VAR ΣVAR
    21. 21. AVANT APRES CROSS-VALIDATION d : 5 à 16% d’augmentation gipsa-lab moyenne grimpe de 75 à 84% RESULTATS PCA : ROBUSTESSE 21 14% 14% 14% 2% 0% 20% 11% 5% 14% 15% 14% 15% 15% 15% 15% 17% 17% 20% 23% 1% 14% 25% 15% 20% 28% 25% 24% 19% 36% 36% 37% 37% 40% 40% 55% 43% 42% 43% 6% 26% 31% 30% 35% 43% 46% 63% 62% 64% 63% 58% 60% 61% 67% 61% 66% 63% 61% 27% 34% 42% 45% 53% 55% 60% 66% 67% 67% 66% 68% 66% 64% 63% 51% 55% 57% 55% 31% 43% 48% 57% 59% 60% 63% 70% 66% 69% 71% 70% 70% 71% 71% 58% 70% 78% 70% 32% 51% 56% 69% 70% 66% 68% 72% 71% 74% 72% 86% 86% 85% 84% 71% 85% 86% 83% 34% 62% 68% 71% 70% 71% 83% 86% 87% 86% 86% 85% 84% 85% 86% 79% 84% 86% 86% 36% 67% 67% 79% 85% 86% 86% 86% 84% 86% 86% 86% 86% 86% 86% 86% 85% 86% 86% 40% 76% 94% 99% 100% 100% 98% 99% 99% 100% 100% 100% 99% 100% 94% 96% 96% 83% 82% 46% 96% 99% 100% 98% 100% 99% 98% 98% 98% 100% 100% 100% 100% 88% 88% 87% 88% 86% 52% 100% 96% 100% 99% 100% 100% 95% 94% 92% 93% 96% 92% 91% 86% 86% 86% 86% 86% 57% 98% 100% 99% 100% 98% 87% 73% 74% 77% 75% 72% 72% 73% 72% 71% 71% 72% 71% 58% 80% 85% 68% 73% 67% 70% 57% 55% 59% 57% 57% 57% 58% 58% 57% 57% 57% 57% 61% 64% 69% 64% 66% 61% 63% 59% 58% 58% 57% 57% 58% 57% 57% 57% 57% 58% 57% 65% 57% 67% 62% 59% 60% 58% 56% 58% 57% 57% 58% 57% 57% 58% 58% 58% 58% 57% 68% 59% 61% 53% 56% 57% 57% 58% 58% 57% 57% 57% 57% 57% 57% 57% 58% 57% 57% 66% 56% 56% 42% 45% 52% 57% 57% 57% 58% 57% 58% 57% 57% 57% 57% 57% 57% 57% 62% 57% 61% 43% 43% 47% 54% 58% 58% 55% 57% 57% 57% 57% 58% 58% 58% 57% 57% 60% 58% 57% 43% 43% 43% 44% 49% 54% 47% 46% 56% 57% 57% 57% 57% 57% 56% 57% 57% 59% 52% 46% 43% 42% 43% 42% 41% 43% 44% 43% 43% 43% 43% 43% 43% 43% 43% 11% 10% 10% 14% 14% 12% 7% 6% 14% 11% 23% 29% 29% 30% 29% 34% 34% 36% 36% 12% 18% 18% 16% 20% 22% 30% 39% 41% 42% 43% 42% 42% 44% 42% 43% 43% 42% 42% 10% 19% 20% 27% 28% 41% 41% 45% 43% 43% 43% 42% 41% 40% 44% 43% 44% 43% 43% 17% 26% 32% 40% 43% 41% 44% 40% 43% 43% 43% 43% 43% 43% 45% 43% 43% 43% 43% 16% 25% 41% 42% 41% 43% 42% 43% 38% 40% 43% 42% 42% 43% 42% 43% 42% 43% 43% 33% 41% 43% 44% 43% 42% 42% 46% 41% 43% 43% 43% 42% 43% 43% 43% 49% 43% 44% 36% 57% 54% 65% 62% 70% 67% 72% 71% 72% 69% 71% 68% 72% 85% 85% 83% 86% 84% 44% 69% 72% 72% 72% 75% 69% 86% 84% 86% 86% 86% 86% 86% 86% 86% 84% 86% 86% 41% 81% 85% 93% 96% 93% 90% 97% 94% 90% 86% 86% 84% 85% 71% 71% 70% 72% 71% 49% 88% 86% 100% 96% 100% 99% 84% 81% 85% 86% 86% 86% 86% 86% 86% 86% 86% 86% 52% 99% 93% 90% 89% 91% 92% 78% 74% 72% 71% 71% 69% 71% 71% 71% 71% 71% 71% 62% 83% 85% 72% 71% 68% 72% 68% 74% 73% 72% 71% 71% 71% 72% 71% 71% 72% 71% 62% 64% 70% 64% 68% 68% 71% 68% 67% 67% 70% 66% 69% 57% 65% 61% 56% 43% 48% 59% 57% 48% 43% 43% 44% 44% 44% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 54% 49% 45% 49% 42% 42% 45% 42% 42% 43% 43% 43% 43% 43% 43% 43% 43% 43% 43% 45% 44% 43% 43% 44% 45% 42% 44% 43% 43% 43% 43% 43% 43% 43% 43% 43% 42% 43% 42% 41% 41% 40% 42% 42% 42% 42% 43% 44% 43% 43% 42% 41% 41% 42% 42% 41% 39% 45% 43% 44% 43% 43% 45% 42% 42% 43% 42% 43% 41% 41% 37% 40% 37% 34% 32% 31% 44% 45% 43% 39% 43% 42% 41% 42% 42% 40% 36% 33% 30% 32% 29% 29% 29% 29% 29% 43% 43% 41% 45% 41% 41% 40% 35% 30% 35% 31% 29% 29% 29% 29% 29% 29% 29% 29% CROSS-VALIDATION n : Jusqu’à 5% d’augmentation moyenne grimpe de 96 à 97%
    22. 22. RESULTATS gipsa-lab PCA : INTERPRETATION 22 COMPOSANTE 2 COMPOSANTE 1  Biplot: représentation visuelle K REGULAR ERDOS RENYI RANDOM POWER LAW FOREST FIRE SMALL WORLD COMPONENT 1 PREF ATTACHMENT VECTEURS DES ANCIENNES VARIABLES
    23. 23. gipsa-lab CONCLUSION  De bonnes performances sur les graphes de synthèse  Les histogrammes locaux sont importants  Le clustering local est particulièrement intéressant  Dépendant du nombre et du choix des modèles  Les résultats sur les données réelles sont à approfondir  Une combinaison des modèles est à envisager

    ×