N° d’ordre : 2010telb0164



                     Sous le sceau de l’Université européenne de Bretagne


                                  Télécom Bretagne
                    En habilitation conjointe avec l’Université de Rennes 1

                                     Co-tutelle avec l’Ifremer

                                   Ecole Doctorale – MATISSE




         Apprentissage et classification faiblement supervisée :
                 Application en acoustique halieutique



                                   Thèse de Doctorat
                                 Mention : Traitement du signal



                                  Présentée par Riwal Lefort

                             Département : Signal et Communication

                              Laboratoire :   Labsticc     Pôle : CID




                             Directeur de thèse : Jean-Marc Boucher


                                 Soutenue le 29 novembre 2010


Jury :

M. Frédéric Jurie, professeur, université de Caen (Rapporteur)
Mme Pascale Kuntz, professeur, université de Nantes (Rapporteur)
M. Jean-Marc Boucher, professeur, Telecom Bretagne (Directeur de thèse)
M. Laurent Miclet, professeur, université de Rennes1 (Examinateur)
M. Ronan Fablet, enseignant-chercheur, Telecom Bretagne (Examinateur)
M. Carla Scalabrin, chercheur, Ifemer (Examinateur)
M. Laurent Berger, Ifremer (Invité)
Table des matières



Table des matières                                                                        v

1 Introduction générale                                                                 vii

I Classication automatique et apprentissage faiblement su-
pervisé                                                     xi
2 Les modèles de classication usuels : état de l'art                                   xiii
   PFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xiii
   PFP   gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F F F F F xiv
         PFPFI   wodèle génér—tif F F F F F F F F F F F F F F F F F F F F F F F F F F    xv
         PFPFP   wodèle dis™rimin—nt F F F F F F F F F F F F F F F F F F F F F F F F xvi
         PFPFQ   wodèle hy˜ride X —r˜res de ™l—ssi(™—tion F F F F F F F F F F F F F xix
   PFQ   gl—ssi(™—tion non supervisée F F F F F F F F F F F F F F F F F F F F F F F F xxi
   PFR   gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F F F F F xxii
   PFS   gl—ssi(™—tion semiEsupervisée F F F F F F F F F F F F F F F F F F F F F F F xxiii
   PFT   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvi

3 Classication faiblement supervisée : modèles proposés                             xxvii
   QFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvii
         QFIFI   qénér—lités F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvii
         QFIFP   xot—tions F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii
   QFP   wodèle génér—tif F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii
         QFPFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii
         QFPFP   gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xxviii
         QFPFQ   gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xxx
   QFQ   wodèle dis™rimin—nt F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxxiii
iv                                                                 TABLE DES MATIÈRES




           QFQFI   gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xxxiv
           QFQFP   gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F         xli
     QFR   er˜res de ™l—ssi(™—tion F F F F F F F F F F F F F F F F F F F F F F F F F F F xlii
           QFRFI   gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xlii
           QFRFP   gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xliv
     QFS   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlv

4 Association de classieurs                                                                 xlvii
     RFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlvii
     RFP   insem˜le de ™l—ssi(eurs F F F F F F F F F F F F F F F F F F F F F F F F F F xlvii
           RFPFI   it—t de l9—rt F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlviii
           RFPFP   ‚—ndom forest X —pprentiss—ge supervisé F F F F F F F F F F F F F xlix
           RFPFQ   ‚—ndom forest X —pprentiss—ge f—i˜lement supervisé F F F F F F F               l
     RFQ   gl—ssi(™—tion itér—tive F F F F F F F F F F F F F F F F F F F F F F F F F F F         li
           RFQFI   epprentiss—ge itér—tif simple F F F F F F F F F F F F F F F F F F F F         li
           RFQFP   epprentiss—ge itér—tif —mélioré F F F F F F F F F F F F F F F F F F F        lii
     RFR   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F      liii

5 Evaluations et performances des modèles                                                      lv
     SFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F       lv
     SFP   €ro™édure de simul—tion F F F F F F F F F F F F F F F F F F F F F F F F F F          lv
     SFQ   teux de données F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F       lvi
     SFR   €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lvii
           SFRFI   ghoix des p—r—mètres F F F F F F F F F F F F F F F F F F F F F F F F lvii
           SFRFP   €erform—n™es en fon™tion de l— ™omplexité des données d9—pprenE
                   tiss—ge F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F     lix
           SFRFQ   €erform—n™es en fon™tion du nom˜re de ™l—sses d—ns les mél—nges              lx
     SFS   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxiii



II Classication automatique en acoustique halieutique                                   lxvii
6 Sondeurs acoustiques et logiciels de traitement                                            lxix
     TFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxix
     TFP   ƒondeur monof—is™e—u F F F F F F F F F F F F F F F F F F F F F F F F F F F lxx
     TFQ   ƒondeur multif—is™e—ux F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxii
     TFR   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxiii
TABLE DES MATIÈRES                                                                        v


7 Classication et reconnaissance des structures                                     lxxvii
  UFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxvii
  UFP   it—t de l9—rt F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxviii
  UFQ   gl—ssi(™—tion et re™onn—iss—n™e des ˜—n™s de poissons F F F F F F F F F F lxxix
        UFQFI   hes™ripteurs des ˜—n™s Ph F F F F F F F F F F F F F F F F F F F F F lxxix
        UFQFP   hes™ripteurs des ˜—n™s Qh F F F F F F F F F F F F F F F F F F F F F lxxx
        UFQFQ   €erform—n™es de ™l—ssi(™—tion X f—n™s Ph F F F F F F F F F F F F F lxxxiii
  UFR   gl—ssi(™—tion et re™onn—iss—n™e des ensem˜les de ˜—n™s de poissons F F lxxxiv
        UFRFI   €ré—m˜ule F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxxiv
        UFRFP   hes™ripteur glo˜—l proposé F F F F F F F F F F F F F F F F F F F F F lxxxv
        UFRFQ   €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F     x™
        UFRFR   ƒynthèse F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F    ™i
  UFS   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F   ™ii

8 Application à l'évaluation des biomasses des espèces halieutiques dans
  le Golfe de Gascogne                                                   cv
  VFI   sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F   ™v
  VFP   wéthode de l9expert pour l9év—lu—tion de ˜iom—sses F F F F F F F F F F F         ™vi
  VFQ   wéthodes —lgorithmiques d9év—lu—tion de ˜iom—sses F F F F F F F F F F F          ™ix
  VFR   gl—ssi(™—tion de ˜—n™s de poissons pour l9év—lu—tion de ˜iom—sses F F F          ™x
        VFRFI   gomment év—luer l— ˜iomm—sse F F F F F F F F F F F F F F F F F F         ™x
        VFRFP   …n ™ritère d9optimis—tion des p—r—mètres des ™l—ssi(eurs F F F F ™xii
  VFS   €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xiii
        VFSFI   ƒimul—tion d9un s™én—rio F F F F F F F F F F F F F F F F F F F F F F ™xiii
        VFSFP   g—mp—gne €ivqeƒHH F F F F F F F F F F F F F F F F F F F F F F F ™xiv
        VFSFQ   his™ussion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xxi
  VFT   gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xxvi

9 Conclusion Générale                                                               cxxvii

III Annexes et Bibliographie                                                      cxxxiii
CHAPITRE

                 1            Introduction générale



    gette thèse tr—iteD d9une p—rtD de l— ™l—ssi(™—tion —utom—tique d—ns un ™—dre d9—pE
prentiss—ge f—i˜lement superviséD et d9—utre p—rtD de l9—™oustique h—lieutiqueF ve m—E
nus™rit est s™indé en deux p—rties prin™ip—les X les méthodes d9—pprentiss—ge d9un point
de vue théorique @p—rtie sA et l9—ppli™—tion de ™es méthodes d—ns le ™ontexte de l9—™ousE
tique h—lieutique @p—rtie ssAF h—ns ™e premier ™h—pitre introdu™tifD nous ™ommençons
p—r dé(nir l— pro˜lém—tique de l9intelligen™e —rti(™ielle d—ns son ensem˜leD puisD ™elle de
l9—pprentiss—ge f—i˜lement superviséD ensuiteD nous introduisons le dom—ine de l9—™ousE
tique h—lieutiqueD et en(nD le pl—n de ™ette thèse est présentée su™™in™tementF
    h—ns l9ensem˜le des dom—ines de re™her™heD ™elui de l9intelligen™e —rti(™ielle est
ex™essivement proli(queF v9intelligen™e —rti(™ielle ™onsiste à —n—lyser et tr—iter des siE
gn—ux numériquesD tels que des photogr—phiesD des vidéosD des sonsD des r—diogr—phiesD
des é™hogr—phiesD des im—ges r—d—r @s—tellitesD —éron—utiqueD —utomo˜ileD et™AD des p—ges
we˜D des do™uments m—nus™rits @—n—lyse de l— sém—ntiqueAD ou en™oreD toute entité qui
se dé™rit de m—nière numériqueF
ves méthodes proposées s9inspirent souvent de l9hommeD l9o˜je™tif ét—nt de développer
des outils d9—n—lyse et de tr—itement dont les perform—n™es sont —u moins équiv—lentes
à ™elles du ™erve—u hum—inF v— question fond—ment—le est résumée d—ns l9exemple suiE
v—nt X si l9homme —rrive à di'éren™ier un o˜jet d9un —utre d—ns une im—geD pourquoi un
ordin—teur n9y —rriver—itEil p—s c get —™h—rnement s™ienti(que est prin™ip—lement moE
tivé p—r le très fort potentiel des outils inform—tiquesF einsiD l9import—n™e de p—rvenir
à ™e ˜ut et qui justi(e que l9intelligen™e —rti(™ielle ™on™entre une m—jorité de reg—rds
et d9intérêtsD réside d—ns l9énorme ™—p—™ité de ™—l™uls et de mémoires des ordin—teursF
ve dom—ine de l9intelligen™e —rti(™ielle peut être s™indé en une multitude de ™—tégoriesF
€—rmi les dis™iplines ™ommunesD on peut ™iter le tr—™king @suivi des stru™tures déforE
m—˜les ou indéform—˜les d—ns une vidéoAD l— déte™tion de texture d—ns des im—gesD l—
™l—ssi(™—tion @—ttri˜ution d9une ™l—sse à une im—geD à une portion d9im—geD à un pixelD
et à toute entité qui peut être ™l—ssée d—ns une ™—tégorieAD l— re™onn—iss—n™e de formes
@déte™tion du ™ontour d9un o˜jet d—ns une im—geAD l— rédu™tion de l— dimension des
données @p—r exemple en ™ompression de donnéesAD l— fusion de données @l— réponse à
une question posée se ˜—se sur une o˜serv—tion multiE™—pteur et ™ontextuelleAD et™F
in intelligen™e —rti(™ielleD les ™her™heurs proposent des modélis—tions m—thém—tiques
plus ou moins ™omplexes qui donnent l— solution à une question poséeF ges modèles
peuvent être représentés p—r une ˜oite noire dont l9entrée est le sign—l issu du ™—pteur
et dont l— sortie fournit une réponse à l— question poséeF v— plup—rt des modèles et
viii                                   CHAPITRE 1.      INTRODUCTION GÉNÉRALE




des —ppro™hes proposés sont tr—nsverses X ils sont utilisés d—ns plusieurs dis™iplines en
même tempsF €—r exempleD le même modèle m—thém—tique de suivi d9o˜jet peut être
utilisé pour suivre une ™i˜le d—ns une im—ge r—d—r ou pour suivre un o˜jet d—ns une
vidéoF he l— même m—nièreD un modèle m—thém—tique peut servir à l— foisD de ™l—ssiE
(eur d9o˜jets d—ns des im—gesD de ™l—ssi(eur de types de sonsD de ™l—ssi(eur de p—ges
we˜D de ™l—ssi(eur de do™uments m—nus™ritsD et™F gette rem—rque justi(e le pl—n géE
nér—l de l— thèse X plutôt que de proposer des méthodes de tr—itement du sign—l d—ns
un ™—dre —ppli™—tifD nous nous pl—çons d9—˜ord d—ns le ™—s génér—l qui —utorise toute
tr—nsvers—litéD puis nous étudions une —ppli™—tion possi˜le des méthodes proposéesF
    h—ns ™ette thèseD d—ns l— p—rtie s dédiée à l9—ppro™he théorique et génér—leD nous
nous pl—çons d—ns le ™—s de l— ™l—ssi(™—tion d9o˜jetsD ™euxE™i ét—nt des entités dé(nies
p—r un ensem˜le de des™ripteursD p—r exemple les ™—r—™téristiques des formes des o˜E
jets pré—l—˜lement déte™tés d—ns une im—geF v— question théorique prin™ip—le que nous
nous posons est X gomment r—nger ™es o˜jets d—ns des ™l—sses c yu ™omment —ttri˜uer
un l—˜el à ™h—que o˜jet c xous dé(nissons un l—˜el ™omme ét—nt l— ™l—sse —sso™iée à
un o˜jetF sm—ginonsEnous une ˜oite noire qui prend un o˜jet s—ns l—˜el en entrée et
dont l— sortie renseigne sur les ™l—sses pro˜—˜lesF gette ˜oite noire ™ontient un modèle
de ™l—ssi(™—tionF geuxE™i sont très nom˜reux et les —ppro™hes sont très v—ri—˜lesF ges
modèles de ™l—ssi(™—tions dépendent de p—r—mètres @propres à ™h—que méthodeA qui
sont déterminés lors d9une ph—se d9—pprentiss—geF v9—pprentiss—ge des modèles de ™l—sE
si(™—tion est e'e™tué à p—rtir d9un ensem˜le d9o˜jets @ou de donnéesA d9—pprentiss—ge
qui sont plus ou moins l—˜élisésF in e'etD il existe plusieurs types d9—pprentiss—ge qui
dépendent de l— ™onn—iss—n™e plus ou moins ex—™te des l—˜els des données d9—pprentisE
s—geF ƒi tous les l—˜els sont ™onnusD on p—rle d9—pprentiss—ge superviséF in —pprentiss—ge
semiEsuperviséD seule une p—rtie des données est l—˜éliséeD l9—utre ne l9est p—sF in —pE
prentiss—ge non superviséD les données ne sont p—s l—˜éliséesD l9o˜je™tif est de regrouper
les o˜jets en p—quets de données simil—iresF in(nD l9—pprentiss—ge f—i˜lement supervisé
génér—lise le ™—s supervisé et semiEsupervisé X les données d9—pprentiss—ge sont —sso™iées
à un ve™teur dont ™h—que ™ompos—nte donne l— pro˜—˜ilité — priori d9—ttri˜ution de
l9o˜jet ™onsidéré à ™h—que ™l—sse respe™tivementF v9origin—lité de ™ette p—rtie se situe
d—ns ™e form—lisme d9—pprentiss—ge f—i˜lement supervisé qui ™onsidère un modèle de
™l—ssi(™—tion dont l9—pprentiss—ge —grège d9—utres formes d9—pprentiss—geF
gomme nous l9—vons présenté d—ns le p—r—gr—phe introdu™tifD un gr—nd nom˜re de
modélis—tions m—thém—tiques est envis—gé pour ™h—™un des types d9—pprentiss—geF ges
gr—ndes f—milles de modèles sont tr—nsverses X le plus souventD moyenn—nt quelques reE
formul—tions méthodologiques ou m—thém—tiquesD elles s9—ppliquent pour tous les types
d9—pprentiss—geF h—ns ™ette thèseD nous reprenons trois gr—ndes f—milles de modèles X les
modèles génér—tifsD les modèles dis™rimin—ntsD et des modèles hy˜rides de ™l—ssi(™—tionF
xotre o˜je™tif est de proposerD pour ™h—™une des —ppro™hes m—thém—tiques envis—géesD
un modèle de ™l—ssi(™—tion dont les p—r—mètres sont év—lués d—ns le ™—dre de l9—pprenE
tiss—ge f—i˜lement superviséD et don™D qui génér—lise toutes les formes d9—pprentiss—geF
h—ns le dom—ine de l— ™l—ssi(™—tion d9o˜jetsD d9—utres méthodes ont vu le jourF gellesE
™i exploitent les modèles m—thém—tiques fond—ment—ux pré™édemment dé™rits en les
™om˜in—nt de plusieurs f—çonsF einsiD ils peuvent être ™on™—ténés en ™—s™—de de ™l—ssiE
(eursD les résult—ts de ™l—ssi(™—tion issus de plusieurs ™l—ssi(eurs peuvent être fusionnés
ix


pour prodiguer une seule proposition de ™l—ssi(™—tionD l9estim—tion des p—r—mètres d9un
modèle de ™l—ssi(™—tion peut s9e'e™tuer itér—tivementD et™F …ne multitude d9—ppro™hes
est envis—ge—˜le pour e'e™tuer une ™om˜in—isonF h—ns ™ette thèse nous —˜ordons les
méthodes de ™om˜in—isons les plus ™onnues et nous proposons des solutions pour l9—pE
prentiss—ge f—i˜lement superviséF ves perform—n™es de ™l—ssi(™—tion des modèles et
des méthodes de ™om˜in—ison proposés d—ns l— p—rtie s sont év—luées sur des jeux de
données d9—pprentiss—ge synthétiques dont nous m—itrisons les pro˜—˜ilités — priori de
™l—ssi(™—tionF ge ™ontrôle tot—l des données d9—pprentiss—ge permet de ™omp—rer et
d9—n—lyser les di'érentes —ppro™hes rel—tivement à des ™onditions p—rti™ulièresF
    h—ns l— p—rtie ss de ™ette thèseD nous étudions l9—pprentiss—ge st—tistique d—ns
le ™—dre de l9—™oustique h—lieutiqueF v9—™oustique h—lieutique est l—rgement étudiée
p—r l9snstitut pr—nç—is de ‚e™her™he pour l9ixploit—tion de l— wi‚ @sp‚iwi‚A qui
— (n—n™é en p—rtie ™ette thèseD ™e dom—ine s™ienti(que f—it p—rtie de l— f—mille de
l9—™oustique sousEm—rineF €—rmi l9ensem˜le des énergies possi˜les @éle™triqueD éle™troE
m—gnétiqueD lumineuseD et™AD seule l9énergie —™oustique possède des ™—r—™téristiques de
prop—g—tion —déqu—tes d—ns le milieu sousEm—rinF einsiD d—ns l9environnement —qu—E
tiqueD l9—™oustique est utilisée en télé™ommuni™—tion ™omme support de tr—nsmissionD
en géos™ien™e pour l9étude des fonds m—rins et de leur sousEsols @les —ppli™—tions ét—nt l—
sédimentologieD l— ˜—thymétrie et l— prospe™tion pétrolièreAD en o™é—nogr—phie physique
pour l9étude et l— ™—r—™téris—tion des ™our—nts m—rinsD et en ˜iologie —ve™ l9étude du
™omportement des espè™es sousEm—rinesF ge dernier point est tr—ité d—ns ™ette thèse X
l9o˜serv—tion —™oustique des espè™es h—lieutiques et l9—n—lyse de ™es o˜serv—tionsF
…n sondeur —™oustiqueD pl—™é sous l— ™oque d9un n—vireD est le seul outil qui permet
d9o˜tenir une im—ge de résolution ™orre™teD d—ns l—quelle (gure le fond de l— mer et
tous les o˜jets présents d—ns l— ™olonne d9e—uF heux f—™teurs prin™ip—ux motivent l9utiE
lis—tion des sondeurs —™oustiques en ˜iologie h—lieutiqueF €remièrementD l9exploit—tion
des ressour™es h—lieutiques doit être en™—drée —(n d9éviter tout pro˜lème de surexploiE
t—tion et don™ de disp—rition des espè™esF h—ns ™e ™ontexteD les sondeurs —™oustiques
permettent de dimensionner les sto™ks des espè™es ™on™ernées —(n de (xer des quot—s
de pê™heF xotons qu9il existe d9—utres moyens d9év—lu—tion des sto™ksD ™omme l9é™h—nE
tillonn—ge en ™riéesF heuxièmementD d9un point de vue ˜iologiqueD pour ™omprendre le
fon™tionnement de l9é™osystème sous m—rin d—ns son ensem˜leD et —insi l9étude de l—
vie sur terreD il est né™ess—ire d9étudier le ™omportement des espè™es h—lieutiques et du
pl—n™tonF €—r exempleD on peut se dem—nder ™omment vont se ™omporter les s—rdines
rel—tivement —u ré™h—u'ement ™lim—tique X vontEelles migrer c veur nom˜re v—EtEil évoE
luer c „outes ™es questions né™essitent une o˜serv—tion —™oustique de l— ™olonne d9e—uD
seul moyen de déterminer l— ™omposition des o™é—nsF
ges o˜serv—tions —™oustiques sont e'e™tuées lors de ™—mp—gnes o™é—nogr—phiques dont
le proto™ole in™lut un point ™ru™i—l et ™ritique X l9identi(™—tion des stru™tures de l9im—ge
—™oustiqueF e™tuellementD ™ette ét—pe d9identi(™—tion est e'e™tuée p—r un expert à p—rE
tir des im—ges —™quises p—r un sondeur —™oustique monof—is™e—uD ™epend—ntD il existe
une forte dem—nde d9—utom—tis—tion du pro™essus qui se justi(e p—r le f—it que l9expert
est ™onfronté à une m—sse d9inform—tions de plus en plus import—nteF €remièrementD il
existe plusieurs types de sondeurs monof—is™e—u ™—r—™térisés p—r des fréquen™es d9imE
pulsions —™oustiques di'érentesD ™e qui modi(e les morphologies des stru™tures d—ns les
x                                      CHAPITRE 1.      INTRODUCTION GÉNÉRALE




im—ges et leurs —ttri˜uts énergétiquesF heuxièmementD l9—rrivée du sondeur multif—isE
™e—ux permet l9—™quisition d9une im—ge en trois dimensions de l— ™olonne d9e—u qui est
˜e—u™oup plus pré™ise et plus ri™he en inform—tionsD m—is qui rend l9—n—lyse des données
plus ™omplexeF einsi l9expert est supposé ™onsidérer les inform—tions ™umulées de tous
les types de sondeurs à l— foisF wême si le ™erve—u hum—in est puiss—nt et très perforE
m—ntD il possède ses limitesD et l9—n—lyse ™onjuguée de l9ensem˜le de ™es inform—tions
est ™omplexeF gette —ppli™—tion illustre le tr—nsfert hommeGm—™hine qui — été dé™rit
d—ns le p—r—gr—phe pré™édent et justi(e l9—utom—tis—tion du pro™essus d9identi(™—tion
des stru™tures d—ns les im—ges —™oustiquesF
h—ns ™e ™ontexte de ™l—ssi(™—tion d9im—ges etGou de stru™tures d—ns des im—ges —™ousE
tiquesD nous proposerons des méthodes d9—pprentiss—ge de modèles de ™l—ssi(™—tion
pour l9—™oustique h—lieutiqueD nous proposerons —ussi des des™ripteurs d9—grég—tion de
poissons d—ns les é™hogr—mmesD et une —ppli™—tion à l9év—lu—tion des sto™ks de poissons
du qolfe de q—s™ogne ser— présentéeF
    ge mémoire de thèse est org—nisé en deux gr—ndes p—rties @les p—rties s et ss qui
sont ellesEmêmes s™indées en plusieurs ™h—pitresAF €remièrementD l— p—rtie s tr—ite du
pro˜lème de l— ™l—ssi(™—tion —utom—tique d9o˜jets d—ns le ™—dre de l9—pprentiss—ge f—iE
˜lement superviséF eprès un ét—t de l9—rt génér—l sur les méthodes de ™l—ssi(™—tion
@™h—pitre PAD trois modèles de ™l—ssi(™—tion dont les philosophies sont opposées seront
étudiés d—ns le ™h—pitre QF ve ™h—pitre suiv—nt @™h—pitre RA ™on™entre des méthodes de
™om˜in—isons de ™l—ssi(eurs élément—ires et de fusion de ™l—ssi(eursF in(nD des expéE
rien™es sont menées d—ns le ™h—pitre S —(n d9—n—lyser et de ™omp—rer les perform—n™es
de ™l—ssi(™—tion des modèles et des méthodes proposéesF „outes ™es expérien™es sont
e'e™tuées à p—rtir de jeux de données synthétiques qui nous permettent de m—îtriser
les ™omplexités des ensem˜les d9—pprentiss—geF heuxièmementD l— p—rtie ss tr—ite de
données qui proviennent essentiellement de l9—™oustique h—lieutiqueF h—ns le ™h—pitre
TD les ™—r—™téristiques te™hniques des sondeurs —™oustiques sont présentées ˜rièvementD
—insi que l— te™hnique d9o˜tention des im—ges de l— ™olonne d9e—uF ves des™ripteurs des
—grég—tions sont étudiés d—ns le ™h—pitre UF heux types d9—n—lyses sont envis—gés X une
—n—lyse lo™—le qui ™onsiste en l9emploi des des™ripteurs des ˜—n™s de poissons et une
—n—lyse glo˜—le pour l—quelle nous ™—l™ulons des des™ripteurs glo˜—ux pour une im—ge
de ˜—n™s de poissonsF in(nD une —ppli™—tion à l9év—lu—tion des sto™ks de poissons d—ns
le qolfe de q—s™ogne est e'e™tuée @™h—pitre VAF xous en pro(tons pour —ppliquer les
méthodes d9—pprentiss—ge f—i˜lement supervisé proposées d—ns l— p—rtie s du mémoire
et pour utiliser les des™ripteurs de ˜—n™s de poissons présentés d—ns l— p—rtie ssF …ne
™on™lusion génér—le @™h—pitre WA et une p—rtie qui ™ontient les —nnexes et l— ˜i˜liogr—phie
@p—rtie sssA ™los ™e mémoire de thèseF
Première partie
  Classication automatique et
apprentissage faiblement supervisé
CHAPITRE

                  2           Les modèles de
                              classication usuels : état
                              de l'art



2.1 Introduction
   ve ™h—pitre I est ™ons—™ré à l9ét—t de l9—rt des modèles de ™l—ssi(™—tion usuelsF
ves méthodes exist—ntes sont présentées su™™in™tementD l9o˜je™tif n9ét—nt p—s de tout
expli™iter en dét—il m—is de f—ire ét—t des ™onn—iss—n™es exist—ntes en ™l—ssi(™—tion
d9o˜jets —(n de situer les —pports méthodologiquesF
    v— pro˜lém—tique porte sur l9—pprentiss—ge st—tistique et l— ™l—ssi(™—tion —utom—E
tique pro˜—˜iliste d9un ensem˜le d9o˜jetsF …n modèle de ™l—ssi(™—tion est un outil
m—thém—tique qui permet d9—'e™ter une ™l—sse à une entité en fon™tion de ses proE
priétés intrinsèquesF v9—ppro™he étudiée d—ns ™e mémoire est purement pro˜—˜iliste X
™h—que o˜jet —pp—rtient à une ™l—sse et nous m—nipulons des ve™teurs qui tr—duisent
les pro˜—˜ilités d9—'e™t—tion à ™h—que ™l—sseF xotons queD ™omme notre —ppro™he est
pro˜—˜ilisteD etD ™omme nos ™onn—iss—n™es initi—les sur les données d9—pprentiss—ge sont
des pro˜—˜ilités de ™l—ssi(™—tion — prioriD nous n9étudierons p—s des méthodes plus géE
nér—les ™omme l— théorie de hempsterEƒh—fer ‘I“ qui ™om˜ine des ™onn—iss—n™es — priori
distin™tes sur les données d9—pprentiss—geF
    in ™l—ssi(™—tion —utom—tiqueD on distingue les données d9—pprentiss—ge qui ét—E
˜lissent le modèle de ™l—ssi(™—tionD et les données de test qui sont ™l—ssées à l9—ide
du modèleF €our —pprendre un modèle de ™l—ssi(™—tionD il existe plusieurs types d9—pE
pro™hes qui dépendent de l— n—ture des données d9—pprentiss—geF ƒi les ™l—sses d9origine
des données d9—pprentiss—ge sont ™onnuesD nous p—rlons d9—pprentiss—ge 4 supervisé 4F
xous p—rlons d9—pprentiss—ge 4 non supervisé 4 @ou de p—rtitionnement de donnéesA
d—ns le ™—s où les ™l—sses d9origine ne sont p—s ™onnuesF …n troisième groupe r—ssem˜le
les ™—s pour lesquels il existe une in™ertitude sur le l—˜el des données d9—pprentiss—geD
p—r exemplesD le ™—s où seuls les — priori des ™l—sses sont ™onnusD ou le ™—s de l— ™l—ssi(E
™—tion d9o˜jets d—ns des im—ges pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses sont
™onnues ‘P“F h—ns ™e ™—sD nous p—rlons d9—pprentiss—ge 4 f—i˜lement supervisé 4 ou d9—pE
prentiss—ge 4 p—rtiellement supervisé 4F v9—pprentiss—ge 4 semiEsupervisé 4 est utilisé
qu—nd il y — peu de données l—˜élisées ‘Q“F hes exemples s—ns l—˜el sont —lors —joutés
à l9ensem˜le d9—pprentiss—ge qui ne ™ontient que des exemples de ™l—sses ™onnues d—ns
CHAPITRE 2.             LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xiv                                                                                                                            L'ART




le ˜ut d9—™™roître l— qu—ntité d9inform—tionsF
    v9—pprentiss—ge f—i˜lement supervisé génér—lise les ™—s supervisés et semiEsupervisésF
ve prin™ipe de l9—pprentiss—ge f—i˜lement supervisé est d9—ttri˜uerD à ™h—que exemple
d9—pprentiss—geD un ve™teur qui indique les pro˜—˜ilités — priori d9—'e™t—tion à ™h—que
™l—sseF €—r exempleD en ™onsidér—nt IP o˜jets pour l9—pprentiss—ge et Q ™l—sses possi˜lesD
—lors les ve™teurs qui fournissent les pro˜—˜ilités d9—'e™t—tion pourr—ient être X
                0.4       1       0.1            0        0       0.33   0.2        0.4       0          0.2      0.4    0
                0.6
                 0
                          0
                          0
                                  0.1
                                  0.8
                                                0.5
                                                0.5
                                                          1
                                                          0
                                                                  0.33
                                                                  0.33
                                                                         0.5
                                                                         0.3
                                                                                    0.3
                                                                                    0.3
                                                                                              0
                                                                                              1
                                                                                                         0.6
                                                                                                         .2
                                                                                                                  0.5
                                                                                                                  0.1
                                                                                                                         0
                                                                                                                         1
                                                                                                                                 @PFIA

in —pprentiss—ge superviséD les pro˜—˜ilités d9—'e™t—tion pourr—ient être X
                          1       1         1         1       0     0    0      0         0       0       0       0
                          0
                          0
                                  0
                                  0
                                            0
                                            0
                                                      0
                                                      0
                                                              1
                                                              0
                                                                    1
                                                                    0
                                                                         1
                                                                         0
                                                                                1
                                                                                0
                                                                                          0
                                                                                          1
                                                                                                  0
                                                                                                  1
                                                                                                          0
                                                                                                          1
                                                                                                                  0
                                                                                                                  1
                                                                                                                                 @PFPA

in —pprentiss—ge semiEsuperviséD les pro˜—˜ilités d9—'e™t—tion pourr—ient être X
                1     1       0         0        0        0       0.33   0.33       0.33          0.33         0.33     0.33
                0
                0
                      0
                      0
                              1
                              0
                                        1
                                        0
                                                 0
                                                 1
                                                          0
                                                          1
                                                                  0.33
                                                                  0.33
                                                                         0.33
                                                                         0.33
                                                                                    0.33
                                                                                    0.33
                                                                                                  0.33
                                                                                                  0.33
                                                                                                               0.33
                                                                                                               0.33
                                                                                                                        0.33
                                                                                                                        0.33
                                                                                                                                 @PFQA

€our l— ™l—ssi(™—tion semiEsuperviséeD les exemples initi—lement s—ns l—˜el peuvent être
™onsidérés ™omme l—˜élisés à l9—ide d9un ve™teur qui tr—duit le f—it que les ™l—sses sont
équipro˜—˜lesF einsiD les ™ompos—ntes du ve™teurD qui donnent l— pro˜—˜ilité des ™l—ssesD
sont ég—lesF v9—pprentiss—ge semiEsupervisé peut —ussi être vu ™omme un ™—s d9—pprenE
tiss—ge f—i˜lement supervisé pour lequel on —ur—it e'e™tué un seuill—ge sur les — priori
@si les pro˜—˜ilités de ™l—ssi(™—tion — priori sont simil—ires pour un o˜jet d9—pprentisE
s—geD —lors les ™l—sses sont ™onsidérées ™omme équipro˜—˜lesD et si une pro˜—˜ilité de
™l—ssi(™—tion — priori domine d—ns l9ensem˜leD —lors l— ™l—sse ™onsidérée est —ttri˜uée
à l9exemple ™on™ernéAF in(nD en —pprentiss—ge non superviséD le nom˜re de ™l—sse est
in™onnu et —u™un l—˜el n9est disponi˜leF
    sl v— de soit que l— ™omplexité des modèles d9—pprentiss—ge —ugmente —ve™ l9in™erE
titude sur les l—˜elsF gepend—ntD un —lgorithme ™omplexe ou un —pprentiss—ge à p—rtir
d9un jeu de données très in™ert—ins n9engendre p—s né™ess—irement de m—uv—ises perE
form—n™es de ™l—ssi(™—tionF €—r exempleD d—ns ™ert—ins ™—sD on montre que l9—jout de
données s—ns l—˜el —u jeu de donnée d9—pprentiss—ge @—pprentiss—ge semiEsupervisé ‘Q“A
permet d9—méliorer les perform—n™es de ™l—ssi(™—tionF
    €our l9—pprentiss—ge superviséD l9—pprentiss—ge non superviséD l9—pprentiss—ge f—iE
˜lement superviséD et l9—pprentiss—ge semiEsuperviséD respe™tivement étudiés d—ns les
se™tions PFPD PFQD PFRD et PFSD nous expli™itons les modèles de ™l—ssi(™—tion —sso™iés et
™—r—™térisons leurs di'éren™esF gh—que méthode présentée est ™l—ssée d—ns une des
gr—ndes f—milles de modèlesD à s—voir les modèles génér—tifsD les modèles dis™rimin—nts
et les modèles hy˜rides que nous dé(nirons d—ns l— se™tion PFPF


2.2 Classication supervisée
    ‚—ppelons que l9—pprentiss—ge supervisé ™onsiste à ét—˜lir un modèle de ™l—ssi(™—E
tionD à p—rtir d9un ensem˜le d9—pprentiss—ge ™onstitué de données dont les ™l—sses sont
p—rf—itement ™onnuesF
2.2.   CLASSIFICATION SUPERVISÉE                                                       xv


2.2.1 Modèle génératif

    €renons l— dé(nition du mot 4 génér—tif 4 X 4 ui engendreD qui — r—pport à l—
génér—tion 4 @gentre x—tion—l de ‚essour™e „extuelles et vexi™—lesAF h—ns ™e ™—sD le
modèle est pro™he des donnéesF ƒi l— loi ™onsidérée @xorm—leD fêt—D q—mm—D mél—nge
de q—ussienneD exponentielleD €oissonD F F F A pour le modèle de ™l—ssi(™—tion est ™onveE
n—˜lement ™hoisieD l— seule ™onn—iss—n™e du modèle peut permettre de re™onstituer un
ensem˜le d9o˜serv—tions possi˜lesF einsiD pour le modèle génér—tifD le ™l—ssi(eur est
une fon™tion m—thém—tique qui dé™rit —u mieux l9org—nis—tion sp—ti—le des données
d—ns l9esp—™e des des™ripteursF €—r exempleD si un jeu de données forme un ensem˜le
de ˜oules d—ns l9esp—™e des —ttri˜utsD nous pouvons modéliser le nu—ge de points p—r
un mél—nge de q—ussiennesF v9o˜je™tif de l9—pprentiss—ge ét—nt —lors de déterminer les
positions @moyennesA et les t—illes @v—ri—n™esA de ™h—que modeF €lus génér—lementD l9—pE
prentiss—ge ™onsiste à estimer les p—r—mètres d9une loi ™i˜le etD pour l— ™l—ssi(™—tionD
l— pro˜—˜ilité — posteriori donne les pro˜—˜ilités de ™h—que ™l—sseF
    ey—nt ™hoisi une densité de pro˜—˜ilité ™i˜le p—r—métriqueD une te™hnique ™onnue
™onsiste à utiliser le m—ximum de vr—isem˜l—n™e @w†A pour estimer les p—r—mètres ‘R“
‘S“ ‘T“ ‘U“ ‘V“ ‘W“ ‘IH“ ‘II“ ‘IP“ ‘IQ“F ves p—r—mètres optim—ux sont ™eux qui m—ximisent
l— vr—isem˜l—n™eF ve ™—s multimod—l f—it que l— m—ximis—tion est très ™omplexeD d—ns
™e ™—sD on utilise un —utre estim—teur du m—ximum de vr—isem˜l—n™e X l9—lgorithme 4
ixpe™t—tion w—ximiz—tion 4 @iwA ‘IR“ ‘IS“ ‘IT“F gette méthode génér—tive permet de
trouver le m—ximum de vr—isem˜l—n™e des p—r—mètres d9un modèle pro˜—˜iliste lorsque
le modèle dépend de v—ri—˜les l—tentes non o˜serv—˜les @les proportions des modes du
mél—ngeAF €lutôt que de trouver le jeu de p—r—mètres du modèle qui m—ximise l— vr—iE
sem˜l—n™eD l9espér—n™e de l— logEvr—isem˜l—n™e ™omplétée p—r l— v—ri—˜le ™—™hée est
m—ximisée ™onditionnellement à un jeu de p—r—mètres initi—lF gel— ™onduit —u ™—l™ul
itér—tif de ™ette espér—n™e @ét—pe iA et des p—r—mètres qui m—ximisent ™ette espér—n™e
@ét—pe wAF v— pro™édure est dét—illée d—ns l— se™tion QFP du ™h—pitre Q et d—ns le
t—˜le—u QFIF v— version sto™h—stique de l9—lgorithme ‘IU“D —ppelée —lgorithme ƒiwD préE
vient des m—ximums lo™—ux de vr—isem˜l—n™eF h9—utres —mélior—tions de l9—lgorithme
portent sur l— r—pidité de ™onvergen™e de l9—lgorithme ‘IV“ ‘IW“F h—ns l9—lgorithme 4
ixpe™t—tion gondition—l w—ximiz—tion 4 @igwA ‘PH“D l9ét—pe w est rempl—™ée p—r une
ét—pe de m—ximis—tion ™onditionnelle des p—r—mètresF gh—que p—r—mètre est m—ximisé
individuellement ™onditionnellement —ux —utres qui sont (xésF f—sé sur le même prinE
™ipe que l9—lgorithme igwD l9—lgorithme iw 4 génér—lisé 4 @qiwA ‘IR“ ‘IS“ ‘IT“ est
une —ltern—tive employée qu—nd l9ét—pe w est di0™ilement ré—lis—˜leD not—mment si
le ™—l™ul des dérivées premières est di0™ileF h—ns ™e ™—sD les p—r—mètres ne sont p—s
™eux qui m—ximisent l9espér—n™e de l— logEvr—isem˜l—n™eD m—is n9importe quel jeu de
p—r—mètres tel que ™ette espér—n™e soit supérieure à ™elle de l9itér—tion pré™édenteF
    w—lgré des perform—n™es —ssez moyennesD le ™l—ssi(eur ˜—yésien n—ïf ‘PI“ ‘PP“ ‘PQ“ est
souvent utilisé pour ™omp—rer des méthodes de ™l—ssi(™—tion entre ellesD expérimenter
les ensem˜les de ™l—ssi(eurs ‘PR“ ou les pro™essus itér—tifs ‘PS“ @™h—pitre RAF ƒ9—ppuy—nt
sur le théorème de f—yesD les prédi™tions de toutes les hypothèses sont pondérées p—r
les pro˜—˜ilités — prioriF v9—utre p—rti™ul—rité est de supposer l9indépend—n™e entre les
des™ripteursF einsiD l— méthode du w—ximum de †r—isem˜l—n™e peut être employée
CHAPITRE 2.       LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xvi                                                                                L'ART




pour estimer les p—r—mètres d9une loi liée à ™h—que des™ripteur indépend—mment ‘PT“F
gette dépend—n™e est restreinte p—r le ™l—ssi(eur eyhi @4 ever—ge yneEhependen™e
istim—tor 4 en —ngl—isA ‘PU“ qui ™hoisit un seul des™ripteur dont il estime l— dépend—n™e
—ve™ les —utresF ves perform—n™es sont —lors —™™rues p—r r—pport —u ™l—ssi(eur ˜—yésien
n—ïfF
    v9 4 ello™—tion de hiri™hlet v—tente 4 @vheA ‘PV“ est une nouvelle te™hnique issue
de l9 4 en—lyse ƒémentique v—tente €ro˜—˜iliste 4 @€vƒeA ‘PW“F gontr—irement à l— méE
thode vheD l— méthode €vƒe est limitée p—r son impossi˜ilité à générer de nouve—ux
exemplesD ™el— v— à l9en™ontre du prin™ipe des modèles génér—tifsF ges pro™édures sont
utilisées en ™l—ssi(™—tion de do™uments qui sont ™l—ssés p—r 4 ™on™ept 4 @un do™ument
pouv—nt être —sso™ié à plusieurs ™on™eptsAF v— te™hnique est ˜—sée sur l— ™orrél—tion
entre les termes des do™umentsD les do™uments et les ™on™eptsF v— pro˜—˜ilité des do™uE
ments et des termes qui les ™omposent est fon™tion d9un mél—nge de lois @pro˜—˜ilité des
™on™eptsD pro˜—˜ilité de ™h—que terme rel—tivement à ™h—que ™on™eptD et pro˜—˜ilité de
™h—que do™ument rel—tivement à ™h—que ™on™eptAF v9inféren™e ˜—yésienneD qui permet
de déduire ™h—™une des distri˜utions et l— distri˜ution — posterioriD peut être e'e™tuée
p—r —ppro™he v—ri—tionnelle ‘PV“D à l9—ide d9un é™h—ntillonn—ge de qi˜˜s ‘QH“D ou p—r
prop—g—tion de l9espér—n™e @4 ixpe™t—tion €rop—g—tion 4 en —ngl—isA ‘QI“F ve form—E
lisme m—thém—tique se r—ppro™he fortement des modèles de mél—ngeD ™epend—ntD en
™l—ssi(™—tion de do™uments ™ette te™hnique trouve de nom˜reux —deptes ét—nt donnée
que les o˜serv—tions @les do™umentsA sont projetées d—ns une ˜—se p—rti™ulière qui ™orE
respond —u di™tionn—ire des ™on™eptsF …ne —n—logie —ve™ l— ™l—ssi(™—tion d9o˜jets peut
être ré—lisée si les o˜jets sont ™ontenus d—ns des im—ges —sso™iées à plusieurs ™l—ssesF
   ges modèles génér—tifs ont le déf—ut qu9ils né™essitent l— ™onn—iss—n™e de l— loi ™i˜leF
in pr—tiqueD une séle™tion su˜je™tive de lois est e'e™tuéeD puis un ™ritère de séle™tion
permet de retenir l— loi l— mieux —d—ptée ‘QP“F ve ™ritère le plus utilisé est l— v—lid—tion
™roisée ‘QQ“ @év—lu—tions et st—tistiques des erreurs sur plusieurs expérien™esAD m—is
d9—utres ™ritères existent ™omme le 4 gritère d9snform—tion d9ek—ike 4 @esgA ‘QR“ ou le
4 gritère d9snform—tion ˜—yésien 4 @fsgA ‘QS“F


2.2.2 Modèle discriminant
    v9—ppro™he di'ère pour le modèle dis™rimin—ntF v— dé(nition de l9—dje™tif 4 dis™riE
min—nt 4 est X 4 ui ét—˜lit ou permet d9ét—˜lir une distin™tion entre des éléments
4 @gentre x—tion—l de ‚essour™e „extuelles et vexi™—lesAF einsiD d—ns le ™—dre de l—
™l—ssi(™—tion —utom—tique d9o˜jetsD le modèle vise ex™lusivement à l— di'éren™i—tion
des ™l—sses entre ellesF …n tel modèle ne dépend p—s de l9org—nis—tion intrinsèque des
donnéesF ƒeules l— m—nière et l— ™—p—™ité à di'éren™ier les ™l—sses ™omptentF v— m—E
jorité des méthodes dis™rimin—ntes est ˜—sées sur le prin™ipe du ™—l™ul des ™oe0™ients
des hyperpl—ns qui sép—rent les ™l—sses entre ellesF v9esp—™e des —ttri˜uts ét—nt s™indé
p—r les hyperpl—nsD il su0t de déterminer de quelle ™ôté de l9hyperpl—n se situe un
exemple pour ™onn—ître s— ™l—sseF eprès un ˜ref invent—ire de ™es méthodes @4 l9en—E
lyse his™rimin—nte de pisherD les ƒ†wD l— régression logistiqueD F F F AD nous évoquerons
des modèles dis™rimin—nts plus singuliers ™omme les rése—ux de neurones et les 4 k plus
pro™hes voisins 4F
2.2.   CLASSIFICATION SUPERVISÉE                                                       xvii


    v9 4 en—lyse his™rimin—nte de pisher 4 ‘QT“ ‘QU“ ‘QV“ @ou vhe pour 4 vine—r his™riE
min—nt en—lysis 4A f—it p—rtie des méthodes popul—iresF f—sée sur un ™ritère st—tistique
du se™ond ordreD ™ette te™hniqueD optim—le d—ns le ™—s q—ussienD p—rt du prin™ipe que les
moments du se™ond ordre sont identiques d9un groupe à l9—utreF v— pro™édure ™onsiste
à trouver les ™oe0™ients de l9hyperpl—n qui m—ximisent le r—pport entre l— v—ri—n™e
inter ™l—sse et l— v—ri—n™e intr— ™l—sseF v— méthode est dét—illée d—ns l— se™tion QFQFI
du ™h—pitre QF
    …n —utre modèle très ™élè˜re est l— méthode des ƒ†w @4 ƒupport †e™tor w—™hine
4A ‘QW“ ‘RH“ qui est dét—illée d—ns l— se™tion QFQFI du ™h—pitre QF ille résulte de l—
™om˜in—ison de deux —ppro™hes X l9idée de m—ximiser les m—rges @dist—n™e entre l9hyE
perpl—n sép—r—teur et l9exemple le plus pro™heA ‘RI“ ‘RP“ et l9idée des fon™tions noy—ux
‘RQ“ ‘RR“ qui déforment l9esp—™e des des™ripteurs et permettent de p—sser des ™—s non
liné—irement sép—r—˜les —ux ™—s liné—irement sép—r—˜lesF sl existe une méthode dite des
4 m—rges souples 4 qui tolère une ™ert—ine qu—ntité d9erreurs lors de l— re™her™he de
l9hyperpl—n optim—l et qui permet de résoudre les ™—s de re™ouvrement entre ™l—sses
‘RS“ ‘RT“F
    €—rmi les méthodes de régressionD l— 4 régression logistique 4 ‘RU“ ‘RV“ ‘RW“ ‘SH“ se
distingue p—r le f—it que l— v—ri—˜le à prédire est une ™l—sseD iFeF une v—leur dis™rète
et non une v—leur ™ontinue ™omme en régression liné—ireF h—ns le ™—s de deux ™l—ssesD
l9équ—tion de l9hyperpl—n sép—r—teur s9exprime en fon™tion du log—rithme du r—pport des
pro˜—˜ilités — posteriori des o˜serv—tionsF hi'érentes méthodes ™omme l9—lgorithme du
m—ximum de vr—isem˜l—n™e ‘RV“ peuvent —lors être utilisées pour estimer les ™oe0™ients
de l9hyperpl—n sép—r—teurF gette méthode — pour —v—nt—ge de ne p—s être p—r—métrique
et de modéliser dire™tement une pro˜—˜ilitéF in rev—n™heD elle ne s9—pplique qu9—ux
données s—ns v—leur m—nqu—ntes et elle est sensi˜le —ux individus hors normeF
    ges trois méthodes @vheD ƒ†wD régression logistiqueA sont développées d—ns le
™—s ˜in—ireD iFeF seulement deux ™l—sses sont ™onsidéréesF gomment f—ire d—ns le ™—s
de plusieurs ™l—sses c heux prin™ip—les —ppro™hes existentF v— méthode 4 oneEversusE—ll
4 ™onsiste à —ttri˜uer un ™l—ssi(eur à ™h—que ™l—sse @le ™l—ssi(eur dis™rimine l— ™l—sse
™onsidérée de toutes les —utresAF v— ™l—sse —ttri˜uée à un exemple test est l— plus proE
˜—˜le —u sens des ™l—ssi(eursF v9—utre méthodeD —ppelée 4 oneEversusEone 4D ™onsiste
à ét—˜lir un ™l—ssi(eur pour ™h—que ™ouple de ™l—sses possi˜leF v— ph—se de test ét—nt
simil—ire à l— méthode oneEversusE—llF h—ns ‘SI“D le ™—s des ™l—sses non m—jorit—ires
est tr—itéD iFeF le ™—s où —près l— ™l—ssi(™—tion de l9exemple testD plusieurs ™l—sses sont
équipro˜—˜lesF …ne méthode ‘SP“ propose de résoudre le pro˜lème en s9—ppuy—nt sur
les te™hniques employées pour les ™odes ™orre™teurs d9erreursF …ne —utre propose l9utiE
lis—tion des ƒ†w d—ns le ™—s multiE™l—sses en ™h—nge—nt le ™ritère d9optimis—tion en un
™ritère m—tri™iel ‘SQ“F
    …ne m—jorité de méthodes de ™l—ssi(™—tion ˜—sées sur les fon™tions noy—ux est préE
sentée d—ns le livre 4 ve—rning with uernel 4 ‘RT“F v— méthode uEp™— @4 uernel €rin™ip—l
gomponent en—lysis 4A ‘SR“ ‘SS“ y (gure not—mmentF gette te™hnique n9est p—s un moE
dèle de ™l—ssi(™—tion à p—rt entièreD m—is un moyen d9—méliorer les perform—n™es de
™l—ssi(™—tion des modèles liné—ires déjà exist—ntF v9idée est simple X en —sso™i—nt les
fon™tions noy—ux —ve™ une 4 —n—lyse en ™ompos—nte prin™ip—le 4 @€geA ‘ST“D l9esp—™e
des des™ripteurs est tr—nsformé tel que des groupes non liné—irement sép—r—˜les d—ns
CHAPITRE 2.    LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xviii                                                                            L'ART




l9esp—™e de dép—rt puissent le devenir d—ns l9esp—™e d9—rrivéeF hès que l9on dispose d9un
™l—ssi(eur dis™rimin—nt liné—ireD à l9inst—r du modèle vheD de l— régression logistiqueD
ou de n9importe quel ™l—ssi(eur à m—ximum de m—rgeD —lors l— méthode uEp™— peut être
—ppliquée en —mont et permet —insi de p—sser d9un ™l—ssi(eur liné—ire à un ™l—ssi(eur
non liné—ireF ves dét—ils de l— méthode sont donnés d—ns l— se™tion QFQFI du ™h—pitre QF
    ves premiers rése—ux de neurones —™™omplis @on p—rle —lors de rése—ux multi
™ou™hesA ‘SU“ ‘SV“ ‘SW“ sont —pp—rus à p—rtir de IWVS et sont utilisés depuis en ™l—sE
si(™—tion —utom—tique d9o˜jetsF …n neurone prend en entrée les sorties des neurones
pré™édentsF v— sortie est une fon™tionD —ppelée 4 fon™tion d9—™tiv—tion 4D d9une ™om˜iE
n—ison liné—ire des entréesF €lusieurs neurones peuvent être mis en p—r—llèle et plusieurs
™ou™hes de neurones peuvent être ™onsidéréesF …ne ™—r—™téristique import—nte d9un réE
se—u de neurones est le ™ompromis entre l— ™omplexité de son —r™hite™tureD dé(nie p—r
le nom˜re de ™ou™hes et le nom˜re de neurones p—r ™ou™heD et entre s— ™—p—™ité d9—pE
prentiss—ge qui est liée —u sur —pprentiss—geF xotons que les rése—ux de neurones sont
sujets —ux sur —pprentiss—gesD il est —lors né™ess—ire de supprimer des ™onnexions @—lE
gorithme 4 optim—l ˜r—in d—m—ge4 ‘TH“ ou —lgorithme 4 optim—l ˜r—in surgeon 4 ‘TI“AF
…ne fois que l9—r™hite™ture du rése—u est ™hoisieD l9—pprentiss—ge ™onsiste à trouver les
v—leurs des poids de l— ™om˜in—ison liné—ire des entrées de ™h—que neuroneF €our ™el—D
une minimis—tion de l— fon™tion de ™oût @souvent l9erreur qu—dr—tiqueAD qui détermine
l9o˜je™tif à —tteindreD est e'e™tuéeF v— di'éren™e entre les méthodes proposées porte
sur le ™hoix de l— fon™tion ™oûtD sur l— m—nière de minimiser ™ette fon™tionD sur le ™hoix
de l9—r™hite™ture du rése—u ou sur le ™hoix de l— fon™tion d9—™tiv—tionF €—r exempleD
d—ns ‘SV“D une des™ente de gr—dient est e'e™tuéeD l9origin—lité ét—nt l— f—çon de ™—l™uler
le gr—dient de l— fon™tion de ™oûtF xotons que l9—n—lyse dis™rimin—nte de pisher ou les
ƒ†w liné—ires sont des rése—ux de neurones à un seul neurone dont les poids —'e™tés à
™h—que entrée ™orrespondent —ux ™oe0™ients de l9hyperpl—n sép—r—teurF
    v— méthode des 4 K plus pro™hes voisins 4 ‘TP“ di'ère des —utres modèles dis™rimiE
n—nts p—r l9—˜sen™e d9hyperpl—ns sép—r—teursD l9unique idée génér—tri™e reste ™epend—nt
d9—'e™ter une ™l—sse à un individu in™onnuF v— pro™édure est très simple X il f—ut trouE
verD d—ns l9ensem˜le d9—pprentiss—geD l— ™l—sse m—jorit—ire p—rmi les K plus pro™hes
voisins de l9exemple à ™l—sserF gel— p—sse p—r l— dé(nition d9une dist—n™e entre o˜jets
‘TQ“D qui dépend de l— n—ture des des™ripteurs de l9o˜jetF €—r exempleD une dist—n™e euE
™lidienne peut ™onvenir pour des des™ripteurs pren—nt leur v—leur d—ns l9ensem˜le des
réelsD m—is d—ns le ™—s de des™ripteurs formés de densités de pro˜—˜ilité une dist—n™e
de fh—tt—™h—ryy— ‘TR“ ou de uull˜—™kEvei˜ler ‘TS“ est préfér—˜leF v— di0™ulté se trouve
d—ns l— pro™édure de re™her™he des plus pro™hes voisinsD not—mment si l9ensem˜le d9—pE
prentiss—ge est volumineuxD entr—în—nt des longueurs d—ns le temps de ™—l™ulF €our
™el— des —lgorithmes de re™her™he ont été développés ‘TT“ ‘TU“D leur prin™ipe ét—nt de
sto™ker les exemples pro™hes en dist—n™e et de pro™éder p—r regroupement hiér—r™hique
des donnéesF
   €—rmi les méthodes dis™rimin—ntesD l— méthode ƒ†w est ™elle qui remporte le plus
fr—n™ su™™ès d—ns le dom—ine de l— vision p—r ordin—teurF gel— est prin™ip—lement dû
—u f—it que le modèle de ™l—ssi(™—tion est non liné—ireD produis—nt de très ˜onnes perE
form—n™es de ™l—ssi(™—tion pour l— plup—rt des expérien™esF gepend—ntD les ƒ†w sont
dépend—nts d9un gr—nd nom˜re de p—r—mètres liés à l— souplesse des m—rgesD l— dyE
2.2.   CLASSIFICATION SUPERVISÉE                                                     xix


n—mique de pro˜—˜ilis—tionD et le ™hoix du noy—uD p—r ™onséquentD ™ert—ins dom—ines
s™ienti(ques préfèrent l9emploi de modèles plus —utonomes ™omme les régressions loE
gistiques @™9est le ™—s des études st—tistiques d—ns le dom—ine ˜—n™—ireD d—ns ™elui des
—ssur—n™es ou des sond—gesD et en méde™ineAF


2.2.3 Modèle hybride : arbres de classication
    hes modèles hy˜rides existentF veur dém—r™he s9—ppuie à l— fois sur les —ppro™hes
génér—tives et dis™rimin—ntesF €—rmi euxD on trouve les modèles ˜—sés sur les —r˜res
de ™l—ssi(™—tion @ou de dé™isionAF €remièrementD l— méthode est fondée sur un é™h—nE
tillonn—ge de l9esp—™e des —ttri˜uts à l9—ide d9hyper volumes d9é™h—ntillonn—ge de t—ille
di'érente et de dimension (nie ou in(nieF v9é™h—ntillonn—ge dé™rit l9o™™up—tion de l9enE
vironnement et dépend dire™tement de l— forme des nu—ges de points des di'érentes
™l—ssesF ejoutons queD ™omme pour un histogr—mmeD le nom˜re d9individus est ™onnu
d—ns ™h—que volume d9é™h—ntillonn—geD ™e qui —utorise l— génér—tion —lé—toirement des
données d—ns ™es volumes élément—iresF ge™i permet de nous positionner d—ns le ™—s
génér—tifF heuxièmementD les volumes é™h—ntillonnés sont o˜tenus p—r dis™rimin—tions
su™™essives de sous ensem˜les de donnéesD le prin™ipe ét—nt de s™inder un volume de
l9esp—™e en deux p—rties homogènes en ™l—sseF gette s™ission n9— qu9un seul o˜je™tif X
sép—rer les ™l—sses entre ellesF gel— nous positionne d—ns le ™—s dis™rimin—ntF
    …n —r˜re de ™l—ssi(™—tion ™omporte des noeuds qui sont —sso™iés à des règles de
dé™isionF v— tot—lité forme un ensem˜le de ™hemins qui p—rtent du noeud prin™ip—l vers
les noeuds termin—ux —uxquels sont —ttri˜ués des ™l—ssesF …n noeud donné renvoie vers
des noeuds (ls en fon™tion de l— règle de dé™ision (xéeF ge même noeud est engendré
p—r un noeud p—rentF ve prin™ipe de ™onstru™tion d9un —r˜re repose sur l— s™ission
d9un groupe d9exemples pour un des™ripteur donnéF eu noeud ™onsidéréD l— meilleure
—sso™i—tion entre un des™ripteur et une v—leur de ™oupureD est ™elle qui m—ximise le g—in
d9inform—tionF eutrement ditD l— s™ission doit donner des groupes qui sont homogènes
en ™l—ssesF in pr—tiqueD ™h—que v—leur de ™oupure est testée pour ™h—que des™ripteurD
puis le ™ouple formé p—r le des™ripteur et l— v—leur de ™oupure qui m—ximise le g—in
d9inform—tion est retenu et —sso™ié —u noeud ™onsidéréF …n noeud est ™hoisi ™omme
ét—nt un noeud (n—l si son nive—u d9 4 impureté 4 est f—i˜leD iFeF si une ™l—sse domine
l—rgementF …ne fois l9—r˜re ™onstruitD un exemple test p—r™ourt l9—r˜re jusqu9—u noeud
termin—l qui dé(nit l— ™l—sse —ttri˜uéeF ve form—lisme et les dét—ils m—thém—tiques
sont présentés d—ns l— se™tion QFRFI du ™h—pitre Q pour le ™—s usuel de l9—pprentiss—ge
superviséF
    ves méthodes ™onnues di'èrent p—r le ™hoix du ™ritère de g—in d9inform—tionF gerE
t—ins ™her™hent à m—ximiser le ™ritère de qini ‘TV“ @méthode ge‚„ X 4 gl—ssi(™—tion
end ‚egression „rees 4AD d9—utres pré™onisent l9entropie de ƒh—nnon ‘TW“ ‘UH“ @méthode
shQ et gRFSAD et ™ert—ines méthodes proposent d9utiliser un test st—tistique fondé sur
l— loi du χ2 @méthode gresh ‘UI“ X 4 griEsqu—re eutom—ti™ snter—™tion hete™tion 4
et méthode …iƒ„ ‘UP“ X 4 ui™kD …n˜i—sedD i0™ientD ƒt—tisti™—l „ree 4AF v— méthode
…iƒ„ permet de ™onstruire un —r˜re de dé™ision plus r—pidementF h—ns …iƒ„D
le meilleur des™ripteur est d9—˜ord ™hoisi en ™om˜in—nt une —n—lyse de l— v—ri—n™e @4
exy†e 4A —ve™ le test du χ2 ou le test de vevene ‘UQ“ @en fon™tion de l— n—ture disE
CHAPITRE 2.      LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xx                                                                               L'ART




™rète ou ™ontinue du des™ripteurF xotons que gRFS est une évolution dire™te de shQD les
—mélior—tions port—nt sur l— gestion des données numériquesD sur l— prise en ™ompte
des données m—nqu—ntes et sur l— r—pidité d9exé™utionF
   €lutôt que de ™her™her l— v—leur de ™oupure sur ™h—que des™ripteur indépend—mE
mentD des méthodes proposent des ™ritères de 4 sép—r—tion o˜liques 4 ‘UR“ qui s9—ppuient
sur un modèle de ™l—ssi(™—tion à plusieurs des™ripteursF ve modèle ™hoisi peut être de
type ƒ†w ‘US“ ‘UT“ ou s9—ppuyer sur l9—n—lyse dis™rimin—nte liné—ire de pisher ‘UU“F
   uelques p—piers —˜ordent les —r˜res de ™l—ssi(™—tion d—ns le ™—dre de l— logique
4 )oue 4F €—r exempleD un —r˜re est ™onstruit à l9—ide de l— méthode ge‚„D puis des
règles de dé™isions )oues sont él—˜orées à p—rtir des frontières des é™h—ntillons d9hyper
volumes ‘UV“F ve même pro™édé est employé pour l9—lgorithme shQ ‘UW“F €our d9—utres
exemples ‘VH“D l— logique )oue intervient d—ns le ™—l™ul des v—leurs de ™oupureF €lutôt
que d9—voir une s™ission nette et pré™iseD l— frontière est in™ert—ine telle que le degré
d9—pp—rten—n™e à un groupe dépend de l— dist—n™e entre l9exemple ™onsidéré et l— v—leur
de ™oupure ™onsidéréeF ves règles de dé™ision sont —lors dire™tement liées à l9—ppli™—tion
™onsidérée ‘VI“F
    v9un des déf—uts m—jeurs des —r˜res de ™l—ssi(™—tion est leur disposition à ne ™onsiE
dérer que les ™l—sses m—jorit—irement représentées d—ns l9ensem˜le d9—pprentiss—geF €—r
exempleD l— méthode ge‚„ privilégie les ™l—sses domin—ntes d9un jeu de données disE
tri˜uées inég—lement ‘VP“F ƒi le modèle d9une ™l—sse sousEreprésentée est m—l év—luéD
—lors ™ette ™l—sse est souvent ™l—ssée p—rmi l— ™l—sse m—jorit—ire de l9ensem˜le d9—pE
prentiss—geF €our remédier à ™e pro˜lèmeD le ™ritère de s™ission peut être —mélioré
en ™hoisiss—ntD p—r exempleD une entropie dé™entrée ‘VQ“D ou en e'e™tu—ntD soit un surE
é™h—ntillonn—ge de l9ensem˜le sousEreprésenté ‘VR“D soit un sousEé™h—ntillonn—ge de l9enE
sem˜le surEreprésenté ‘VS“F
    hes tr—v—ux ‘TV“ ont montré qu9—près ™onstru™tionD il est souvent né™ess—ire d9él—guer
l9—r˜reF in e'etD lors de l9—pprentiss—geD une ™ontr—inte permet de déterminer si un
noeud est r—isonn—˜lement homogène @si tel est le ™—sD —lors le noeud est un noeud
termin—lAF h—ns le ™—s où ™ette ™ontr—inte est trop forte et qu9il y — du re™ouvrement
entre ™l—ssesD ™ert—ins volumes élément—ires sont insigni(—nts et n9impliquent qu9un
seul exempleF h—ns ™e ™—sD il —pp—r—ît des phénomènes de surE—pprentiss—ge et de surE
é™h—ntillonn—ge de l9esp—™e des des™ripteursF geuxE™i sont résolus grâ™e à l9él—g—geF sl
existe deux gr—ndes f—milles de méthodes ‘VT“ ‘VU“ X soit l9—r˜re o˜tenu est simpli(é
en ™oup—nt toutes les ˜r—n™hes d9un noeudD soit un noeud est rempl—™é p—r l9un des
sousE—r˜res qui en des™endD les exemples des sousE—r˜res disp—rus ét—nt re™l—ssésF
    sl est génér—lement —dmis qu9—u™une de ™es propositions @™hoix du ™ritère de s™isE
sionD —r˜res o˜liquesD logique )oueD él—g—ge F F F A ne dev—n™e une —utre de m—nière sysE
tém—tique en termes de perform—n™e de ™l—ssi(™—tionF gel— dépend du jeu de données
employéD de l— n—ture dis™rète ou ™ontinue des v—ri—˜lesD de l9org—nis—tion intrinsèque
des ™l—sses d—ns l9esp—™e des des™ripteursD du f—it d9être en gr—nde dimension ou nonD
de l— t—ille de l9ensem˜le d9—pprentiss—geD de l— distri˜ution des ™l—sses F F F
2.3.   CLASSIFICATION NON SUPERVISÉE                                                     xxi


2.3 Classication non supervisée
   in —pprentiss—ge non superviséD seules les v—leurs données p—r les des™ripteurs sont
o˜serv—˜lesF ves exemples ne disposent d9—u™un étiquet—ge et le nom˜re de ™l—sses est
in™onnuF gel— ™onstitue les prin™ip—les interrog—tions X ™om˜ien y —EtEil de ™l—sses c itD
en suppos—nt le nom˜re de ™l—sses (xéD ™omment ét—˜lir un ™l—ssi(eur c
    v— première question trouve peu de réponseF ve nom˜re de ™l—sses réellement o˜serE
vées est di0™ilement détermin—˜le s—ns inform—tions — priori et il dépend de l9—ppli™—E
tion ™onsidéréeF v— di0™ulté se résume d—ns le pro˜lème suiv—nt X ™omment di'éren™ier
le ™—s de plusieurs regroupements de données qui ™orrespondent à plusieurs ™l—sses et
le ™—s de regroupements qui ™orrespondent à des modes d9une seule ™l—sseF ƒ—ns —uE
™une inform—tion — priori ou ™ontextuelleD ™el— sem˜le impossi˜leF in rev—n™heD des
™ritères de qu—lité mesurent l— pertinen™e du ™hoix du nom˜re de ™l—sses ‘VV“F €—rmi
™es ™ritèresD ™ert—ins s9—ppuient sur l9indi™e fsg @4 f—yesi—n snform—tion griterion 4A
‘QS“ ou sur le ™ritère esg @4 ek—ike9s snform—tion griterion 4A ‘VW“D ou en™ore sur des
™ritères st—tistiques de dist—n™es ‘WH“ ‘WI“ F F F in(nD d9—utres méthodes sont ˜—sées sur
le prin™ipe de l— v—lid—tion ™roisée ‘WP“F
    v— deuxième question trouve ˜e—u™oup de solutionsF ves premiers tr—v—ux ‘WQ“ ‘WR“
en regroupement non supervisé de données ™onduisent à des méthodes de ™l—ssi(™—tion
hiér—r™hiquesF ve prin™ipe est de ™onsidérer l— p—rtition à une seule ™l—sse qui ™omprend
toutes les o˜serv—tions jusqu9à l— p—rtition où ™h—que o˜serv—tion est une ™l—sseF intres
les deux extrémitésD l9utilis—teur doit ™hoisir l— p—rtition l— plus ré—listeF €our ™el—D les
™ritères de qu—lité qui mesurent l— pertinen™e du ™hoix du nom˜re de ™l—sses sont utilisés
‘VV“ ‘QS“ ‘VW“ ‘WH“ ‘WI“F ge type de ™l—ssi(™—tion hiér—r™hique est simil—ire —ux —r˜res de
™l—ssi(™—tionsF freim—n ‘WS“ propose une méthode d9—pprentiss—ge non supervisé pour
les —r˜res de ™l—ssi(™—tionF v9idée est origin—le X p—rt—nt d9un ensem˜le de points s—ns
l—˜el qui ™onstitue l— première ™l—sseD une se™onde ™l—sse est ™réée —rti(™iellement sur
l— ˜—se d9un tir—ge —lé—toire des des™ripteurs de l— première ™l—sseF in ™onstruis—nt
un —r˜re qui sép—re les deux ™l—ssesD on espère que l— première ™l—sse ser— s™indée en
groupes homogènes qui ™onstituent les 4 ™lusters 4 souh—itésF v— te™hnique ™onsiste
ensuite à déterminer quels sont les groupes qui sont reliés entre euxD p—r exemple vi—
une m—tri™e de proximité ‘WT“F €eu d9—rti™les ont été pu˜liés à ™e sujet et le pro™édé est
di0™ilement —ppli™—˜le pour les ™—s de données dont l9org—nis—tion sp—ti—le n9est p—s
trivi—leF
    €—rmi les modèles de mél—ngesD l— méthode l— plus ™élè˜re d9—pprentiss—ge non suE
pervisé est l— méthode des 4 uEmoyennes 4 ‘WU“ ‘WV“F €—rt—nt d9un nom˜re de points
d9initi—lis—tion ég—l —u nom˜re de regroupements souh—itésD on ™her™he simplement
à regrouper les exemples en groupes homogènes —u sens des des™ripteursF v— méE
thode ™onsiste à étiqueter itér—tivement les individus en fon™tion de leur dist—n™e —ve™
les points d9initi—lis—tion qui ™h—ngent d9une itér—tion à l9—utreF hivers modi(™—tions
™ontri˜uent à l9—™™élér—tion de l9—lgorithme ‘WW“ ou ™her™hent l— meilleure initi—lis—tion
‘IHH“F v— méthode des 4 uEmoyennes 4 est étendue à l— logique )oue à l9—ide l9—lgoE
rithme pgw @4 puzzy gEwe—ns 4A ‘IHI“F eprès —voir regroupé les données p—r p—quets
à l9—ide de l9—lgorithme des uEmoyennesD l9—spe™t )ou se ™—r—™térise p—r l— possi˜ilité
d9—ttri˜uer plusieurs ™l—sses p—r élément ‘IHP“F h9—utres méthodes mél—ngent l9—lgoE
CHAPITRE 2.      LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xxii                                                                              L'ART




rithme pgw —ve™ des —ppro™hes )oues de l9estim—tion du m—ximum de vr—isem˜l—n™e
‘IHQ“F v9—lgorithme iw ‘IR“ ‘IS“ ‘IT“ et ses dérivées ƒiwD igwD qiw ‘IU“ ‘IV“ ‘IW“
‘PH“ ™onstituent l9extension pro˜—˜iliste des 4 uEmoyennes 4F sls permettent de trouver
les proportions et les p—r—mètres des modes d9une loi ™i˜leF w—isD ™ontr—irement —u ™—s
de l9—pprentiss—ge supervisé qui ™onsidère que ™h—que ™l—sse peut être modélisée p—r
un mél—nge de loisD en —pprentiss—ge non supervisé une ™l—sse ™orrespond à l9un des
modes du mél—ngeF v9—pprentiss—ge ™onsiste don™ à —pprendre les p—r—mètres des lois de
™h—que ™l—sse —insi que les pro˜—˜ilités — priori de f—çon à m—ximiser l— vr—isem˜l—n™e
des donnéesF
    in(nD les rése—ux de neurones possèdent —ussi leur version de ™l—ssi(™—tion non
superviséeF sniti—lisés p—r les tr—v—ux de qross˜erg ‘IHR“D les v† @4 ve—rning †e™tor
u—ntiz—tion 4A sont un ™—s p—rti™ulier des rése—ux de neuronesF v— méthode qui en
résulte @ƒyw pour 4 ƒelfEyrg—niz—tion w—p 4 ou en™ore —ppelée les 4 g—rtes de uoE
honen 4A ‘IHS“ ‘IHT“ ‘IHU“D forme un rése—u ™omposé de deux ™ou™hesD l9une pour les
entréesD l9—utre qui dé™rit l9org—nis—tion des neurones de m—nière topologiqueF vors de
l9—pprentiss—geD les neurones ™i˜les de l— se™onde ™ou™he for™ent leurs voisins à modi(er
leurs poids en f—veur de l9exemple ™on™ernéF pin—lementD les poids dé™rivent l— densité
et l— stru™ture de l— rép—rtition des ve™teurs d9entréeF
    v9utilis—tion de l9une ou l9—utre de ™es méthodes dépend de l9—ppli™—tion visée et de
l9org—nis—tion intrinsèques des données d—ns l9esp—™e des des™ripteursF he m—nière géE
nér—leD l9—lgorithme des uEmoyennes est le plus utiliséD pour s— simpli™ité et s— r—piditéD
m—is —ussi ™—r il n9est p—s sujet à —ux sou™is d9optimis—tionsF



2.4 Classication faiblement supervisée
   in ™l—ssi(™—tion f—i˜lement superviséeD il existe une in™ertitude sur l— ™l—sse des
exemples d9—pprentiss—geF gette in™ertitude se ™—r—™térise p—r un ve™teur dont les ™omE
pos—ntes sont les pro˜—˜ilités de ™l—ssi(™—tion — priori de ™h—que ™l—sseF v9ensem˜le
d9—pprentiss—ge est don™ ™onstitué des exemples d—ns l9esp—™e des des™ripteurs et des
ve™teurs de pro˜—˜ilité de ™l—ssi(™—tion —sso™iés @™fF équ—tion PFIAF
    €eu de p—piers —˜ordent le ™—s de l9—pprentiss—ge f—i˜lement supervisé sous ™e forE
m—lisme pro˜—˜ilisteF ve ™—s le plus popul—ireD le plus tr—itéD et —y—nt f—it l9o˜jet d9une
m—jorité de pu˜li™—tionsD est le ™—s p—rti™ulier des —nnot—tions qui indiquent quelles
™l—sses sont possi˜les de m—nière équipro˜—˜leF €—r exempleD on p—rle du ™—s 4 préE
sen™eG—˜sen™e 4 en index—tion d9im—ges X ét—nt donnée une ˜—se d9im—ges dont l—
présen™e ou l9—˜sen™e de 4 ™on™epts 4 @™l—ssesA est ™onnue d—ns ™h—que im—ge ‘IHV“
‘IHW“D un modèle de ™l—ssi(™—tion des o˜jets doit être ét—˜liF hes modèles pro˜—˜ilistes
génér—tifs s9—ppuy—nt sur l9—lgorithme iw ‘P“ ‘IIH“ ‘IHV“ ‘IHW“ ou sur les ™h—mps de
w—rkov —lé—toires g—ussien ‘III“ ont été développésD m—is —ussi des modèles dis™rimiE
n—nts qui emploient des te™hniques de type ƒ†w ‘IIP“ ‘IIQ“D ou en™ore des modèles
˜—sés sur du 4 ˜oosting 4 ‘IIR“ ‘IIS“ @voir ™h—pitre R pour le ˜oostingAF ves di'éren™es
entre ™es méthodes portent sur le nom˜re de ™on™epts tr—ités d—ns les im—gesD sur le
nom˜re d9exemples d9—pprentiss—geD sur l— ™omplexité des im—gesD et sur les hypothèses
retenues rel—tivement —ux tr—nsform—tions des fr—gments d9une im—ge à l9—utreF €—r
2.5.   CLASSIFICATION SEMI-SUPERVISÉE                                                  xxiii


exempleD ™ert—ins ™onsidèrent que les régions d9intérêts sont ™onst—ntes en é™helle m—is
qu9elles su˜issent des rot—tions et des tr—nsl—tions ‘IIT“ ‘IIU“D d9—utres ‘IIV“ ‘IIW“D sous
les mêmes hypothèsesD ex—minent les inter—™tions sp—ti—les entre fr—gment d9im—ges —(n
de p—rf—ire le modèleF hes modèles génér—tifs plus ™omplets ‘IPH“ ‘IPI“ permettent de
lo™—liser l9o˜jet tout en pren—nt en ™ompte s— tr—nsl—tionD s— rot—tion et son é™helle
d—ns les im—ges d9—pprentiss—geF e l9inst—r de l9—pprentiss—ge semiEsuperviséD ‚osen˜erg
‘IPP“ montre qu9en —jout—nt des im—ges —nnotées en présen™eG—˜sen™e @f—i˜lement suE
perviséeA à des im—ges —nnotées de m—nière pré™ise @superviséeAD —lors les perform—n™es
de ™l—ssi(™—tion peuvent être —mélioréesF ves mêmes modèles génér—tifs sont utilisés en
segment—tion d9im—ges ‘IPQ“ ou pour l— déte™tion de ™on™epts d—ns des vidéos —nnotées
‘IPR“F
    h9—utres exemples p—rti™uliers proposent un —pprentiss—ge f—i˜lement superviséF ges
le ™—s d9o˜jets d9—pprentiss—ge dire™tement —nnotés p—r des experts ‘IPS“D ou en™oreD
des —ppli™—tions en télédéte™tionD et not—mment en interprét—tion d9im—ges ‘VI“F ve
™—s de l9—™oustique h—lieutique est un ™—s typique d9—pprentiss—ge f—i˜lement supervisé
‘IPT“D il est étudié d—ns l— p—rtie ssF
    in(nD ™ert—ins ™—s d9—sso™i—tions de ™l—ssi(eurs né™essitent l9utilis—tion d9un —pE
prentiss—ge f—i˜lement superviséF €—r exempleD en —pprentiss—ge semiEsupervisé itér—tif
‘Q“D les p—r—mètres du ™l—ssi(eur d9une itér—tion donnée sont estimés sur l— ˜—se des
pro˜—˜ilités de ™l—ssi(™—tion issues de l9itér—tion pré™édenteF
    gomme d—ns l— plup—rt des pro˜lèmes de ™l—ssi(™—tionD il n9existe p—s un modèle qui
est meilleur que les —utresD ™h—que jeu de données ™orrespond à un type de ™l—ssi(eur
en fon™tion des ses ™—r—™téristiques propresF he plusD en ™l—ssi(™—tion f—i˜lement suE
perviséeD il existe l— notion de ™omplexité de l9ensem˜le d9—pprentiss—geD qui est dé(nit
p—r l— n—ture des pro˜—˜ilités de ™l—ssi(™—tion — prioriF ƒi ™es pro˜—˜ilités — priori sont
f—i˜lesD —lors le jeu de données est ™omplexe ™—r les inform—tions sur les ™l—sses sont peu
inform—tivesD en rev—n™heD —ve™ un — priori fortD le jeu de données d9—pprentiss—ge est
peu ™omplexe du f—it de l— pré™ision forte des inform—tions liés —ux l—˜elsF ves tr—v—ux
™ités pré™édemment ne font p—s d9étude des réponses des ™l—ssi(eurs rel—tivement à
l— ™omplexité des l—˜elsD l9idée ét—nt plutôt de trouver le meilleur ™l—ssi(eur pur un
ensem˜le d9—pprentiss—ge donnéeF h—ns le ™h—pitre SD nous —pportons des éléments de
réponsesF


2.5 Classication semi-supervisée
    get ét—t de l9—rt est l—rgement inspiré du livre de gh—pelle ‘Q“ et de l9étude ˜iE
˜liogr—phique de hu ‘IPU“F gepend—ntD leurs ét—ts de l9—rt ne font p—s mention des
méthodes d9—pprentiss—ge semiEsupervisé utilisées pour l— ™l—ssi(™—tion des données
™orrélées @tr—du™tion de l9—ngl—is 4 rel—tion—l d—t— 4AD dont les prin™ip—les —ppli™—tions
sont l— ™l—ssi(™—tion de p—ges we˜F
    v9—pprentiss—ge semiEsupervisé est utilisé qu—nd peu de données l—˜élisées sont disE
poni˜lesF h—ns ™e ™—sD il — été montré que l9introdu™tion de données s—ns l—˜el d—ns
l9ensem˜le d9—pprentiss—ge peut —méliorer les perform—n™es de ™l—ssi(™—tion ‘Q“F sl existe
plusieurs f—milles de méthodesD à s—voirD les modèles génér—tifsD les modèles qui s9—pE
CHAPITRE 2.      LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xxiv                                                                              L'ART




puient sur des gr—phesD les modèles dis™rimin—nts et les modèles itér—tifs qui s9—ppuient
sur n9importe quel ™l—ssi(eur de ˜—seF
    v— première f—mille de méthodes regroupe les modèles génér—tifs ‘Q“F ve modèle
employé usuellement se ˜—se sur l9—lgorithme iwF ve prin™ipe est d9estimer l— denE
sité de pro˜—˜ilité jointe des o˜serv—tions et des l—˜elsF gomme en ™l—ssi(™—tion non
supervisée @™fF l— se™tion PFQ du ™h—pitre PAD on suppose que ™h—que ™l—sse suit une denE
sité de pro˜—˜ilité p—r—métriqueD dont on estime les p—r—mètresF w—is ™ontr—irement
—u ™—s non superviséD les ™l—sses sont ™onnuesD il su0t don™ de ™onn—ître un exemple
l—˜élisé p—r ™l—sse pour déduire les p—r—mètres —sso™iés à ™h—™une des ™l—ssesF xous
pouvons ™iter les —rti™les de xig—m qui proposeD vi— l9—lgorithme iwD d9estimer les
p—r—mètres de modèles f—yésien n—ïf q—ussien d—ns le ™—s mono mod—l ‘IPV“ ou multi
mod—l ‘IPW“D et dont les méthodes sont regroupées d—ns le ™h—pitre 4ƒemiEsupervised
text ™l—ssi(™—tion using iw4 du livre 4ƒemiEsupervised le—rning4 ‘Q“F xotons que l9—lE
gorithme génér—tif d9—pprentiss—ge f—i˜lement supervisé de l— se™tion QFPFQ du ™h—pitre
Q est l9un de ™es modèles génér—tifs qui peut être —ppliqué —u ™—s de l9—pprentiss—ge
semiEsuperviséF ges modèles possèdent l9—v—nt—ge d9—voir ˜e—u™oup été étudiés d—ns
l— littér—ture et d9être —ppré™iés pour leur stru™ture pro˜—˜ilisteF in rev—n™heD il est
di0™ile d9év—luer l— justesse des modèles génér—tifs et il f—ut ™onn—ître l— loi ™i˜le pour
™h—que jeux de donnéesF he plusD l9—lgorithme iw est sujet à l— question des minim—s
lo™—ux et ™ert—ines org—nis—tions intrinsèques des données ™onduisent l9—lgorithme vers
de m—uv—ises solutions ‘IQH“F
    v— deuxième gr—nde f—mille de modèles est l9—ppro™he dis™rimin—nteF €—rmi les méE
thodes dis™rimin—ntesD l— méthode des m—™hines à ve™teurs de support semiEsupervisée
est l— plus utilisée ‘Q“F in —ngl—isD on trouve les termes 4 semiEsupervised ƒ†w 4
@ƒQ†wA ou en™ore 4 „r—nsdu™tive ƒ†w 4 @„ƒ†wAF v— méthode ™onsiste à trouver
les ™oe0™ients de l9hyperpl—n qui sép—re les ™l—sses entre elles et tel que l— m—rge soit
m—xim—le @™fF l— se™tion QFQ du ™h—pitre QAF €—r r—pport à l9—pprentiss—ge superviséD
un terme de régul—ris—tion est —jouté d—ns l9équ—tion d9optimis—tionF geluiE™i tient
™ompte des données non l—˜éliséesF ves premières propositions ‘IQI“ m—nqu—ient de
ro˜ustesseD not—mment visEàEvis de l— qu—ntité d9exemples s—ns l—˜elF to—™hims ‘IQP“
propose l— première version ro˜usteF h9—utres p—piers proposent des —mélior—tionsD
™omme p—r exempleD une —d—pt—tion —u ™—s multiE™l—sses ‘IQQ“D un —lgorithme r—pide
pour les ƒQ†w liné—ires ‘IQR“D une dyn—mique de pro˜—˜ilis—tion g—ussienne à l— pl—™e
d9une dyn—mique liné—ire ‘IQS“ F F F w—lgré un form—lisme m—thém—tique —ppré™i—˜le et
de ˜onnes perform—n™esD not—mment pour les jeux de données pour lesquels les ƒ†w
supervisés sont très perform—ntsD ™ette méthode reste sujette —ux points optim—ux loE
™—ux et donne des perform—n™es modestes pour ˜e—u™oup de jeux de donnéesF gh—pelleD
ƒindhw—ni et ueerthi ‘IQT“D proposent une ˜i˜liogr—phie et ™omp—re les résult—ts des
méthodes d9—pprentiss—ge semiEsupervisé qui emploient les ƒ†wF
   ves modèles ˜—sés sur les gr—phes de simil—rité ™onstituent une —utre gr—nde f—mille
de méthodes d9—pprentiss—ge semiEsupervisé ‘Q“F sl existe plusieurs f—çons de ™onstruire
un gr—phe ‘IQU“ ‘IQV“ ‘IQW“F sm—ginez des noeuds de l9esp—™e reliés entre eux p—r des
˜r—n™hesF ves noeuds représentent les exemples —ve™ et s—ns l—˜elsD t—ndis que les
˜r—n™hes représentent les simil—rités entre exemplesF v9—lgorithme des kEplusEpro™hesE
voisins ‘TP“ ‘TT“ ‘TU“ peut être vu ™omme un ™—s p—rti™ulier des gr—phes de simil—ritéD l—
2.5.   CLASSIFICATION SEMI-SUPERVISÉE                                                   xxv


™l—sse —ttri˜uée ™orrespond—nt à l— ™l—sse m—jorit—ire des k exemples l—˜élisés les plus
simil—iresF eve™ les gr—phes de simil—ritéD s9—joute l— notion de dist—n™e entre données
s—ns l—˜elF €—r exempleD le jeu des simil—rités f—it qu9une o˜serv—tion s—ns l—˜elD éloignée
en dist—n™e de tout exemple l—˜éliséD peut être ™onsidérée ™omme pro™he de l9un d9entre
eux p—r l9intermédi—ire d9une —utre o˜serv—tion s—ns l—˜elF v9o˜je™tif est de trouver
une fon™tion de ™l—ssi(™—tion pour le gr—pheF v— méthode ™onsiste en un pro˜lème
de régul—ris—tion où le premier terme de l— fon™tion de ™oût porte sur les données
l—˜élisées et le se™ond terme permet de lisser les solutions sur l9ensem˜le du gr—phe à
l9—ide des exemples s—ns l—˜elF v— di'éren™e entre les méthodes se situe sur l— forme
des fon™tions de ™oûtF €—r exempleD l— fon™tion de ™oût peut s9exprimer en fon™tion de
l9erreur qu—dr—tique de ™l—ssi(™—tion pondérée pour une ™l—ssi(™—tion dite 4 dure 4 @non
pro˜—˜ilisteA ‘IRH“F he l— même f—çonD l— version pro˜—˜iliste exprime le ™oût en fon™tion
des ™h—mps —lé—toires q—ussiens ‘IRI“ ‘IRP“F …n p—pier propose d9utiliser l9—lgorithme
de régul—ris—tion de „ikhonov ‘IRQ“F ve gr—phe peut —ussi être modélisé ™omme un
™h—mp de w—rkov dis™ret ‘IRR“F sl existe ˜e—u™oup de propositions pour les modèles
˜—sés sur les gr—phes de simil—ritéF v9invent—ire présent n9est p—s exh—ustif m—is donne
une idée des —ppro™hes possi˜lesF xotons queD ™omme pour les modèles dis™rimin—ntsD
™es modèles sont ˜in—ires et peuvent s9étendre —u ™—s multiE™l—sses en utilis—nt une
—ppro™he 4 oneEversusE—ll 4F w—lgré l9élég—n™e des modèles m—thém—tiques et les ˜onnes
perform—n™es de ™l—ssi(™—tionD ™e modèle possède quelques déf—utsF „out d9—˜ord ™es
modèles sont fortement dépend—nts de l— f—çon dont sont ™onstruits les gr—phsF ƒ9ils
ne sont p—s ™orre™tement édi(ésD ™el— peut entr—îner de très m—uv—ises perform—n™esF
in(nD ™es modèles ont le déf—ut d9être perform—nts en ™l—ssi(™—tion uniquement sur les
données d9—pprentiss—ge ‘Q“D p—s sur les données de testD ™el— né™essite de ré—pprendre
un ™l—ssi(eur pour ™h—que nouvelle donnéeF
    v— dernière gr—nde f—mille de méthodes d9—pprentiss—ge semiEsupervisé repose sur
l9emploi itér—tif de ™l—ssi(eursF v— version simpliste est le 4 self tr—ining 4 introduit
d—ns les —nnées UH ‘IRS“ et qui est employé d—ns quelques —ppli™—tions de vision p—r
ordin—teurF €—r exempleD un p—pier ‘IRT“ propose de ™om˜iner un ™l—ssi(eur génér—tif
@vi— l9—lgorithme iwA —ve™ un pro™essus de self tr—iningF ve prin™ipe est le suiv—ntF e
une itér—tion donnéeD les exemples l—˜élisés de l9ensem˜le d9—pprentiss—ge ét—˜lissent un
modèle de ™l—ssi(™—tionF ves exemples s—ns l—˜el sont ™l—ssés à l9—ide de ™e ™l—ssi(eurD de
làD les exemples s—ns l—˜el deviennent l—˜élisésF €—rmi ™es exemples fr—i™hement l—˜éliE
sésD les plus pro˜—˜les —u sens de l— pro˜—˜ilité de ™l—ssi(™—tionD sont ™onsidérés ™omme
dé(nitivement l—˜élisés et ils ™ontri˜ueront à l9él—˜or—tion du ™l—ssi(eur de l9itér—tion
suiv—nteF v9—lgorithme est présenté plus en dét—il d—ns l— se™tion RFQ du ™h—pitre RF
ves —v—nt—ges de ™ette méthode sont l— simpli™ité de l9—lgorithme et l9—ppli™—˜ilité à
tout ™l—ssi(eur pro˜—˜ilisteF ves in™onvénients sont l— possi˜le prop—g—tion d9une erE
reur ™ommise lors des premières itér—tions et l— di0™ulté de l9étude de l— ™onvergen™e
‘IRU“ ‘IRV“ et du ™omportement de l9—lgorithmeF ve modèle génér—tif qui s9—ppuie sur
l9—lgorithme iw peut être vu ™omme un ™—s p—rti™ulier du self tr—ining d—ns le sens
où le modèle de ™l—ssi(™—tion évolue à ™h—que itér—tionD —u fur et à mesure que les
exemples sont ™orre™tement ™l—ssésF v— di'éren™e se situe d—ns l9—ttri˜ution d9un l—E
˜el à tous les exemples à ™h—que itér—tionD t—ndis que pour le self tr—iningD seuls les
exemples dont l9indi™e de ™on(—n™e de ™l—ssi(™—tion est su0s—mment élevé se voient
CHAPITRE 2.      LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE

xxvi                                                                              L'ART




—ttri˜uer une ™l—sseF v9—lgorithme itér—tif le plus ™élè˜re est le 4 ™oEtr—ining 4 ‘IRW“F
€—r r—pport —u self tr—iningD le ™oEtr—ining suppose que l9esp—™e des des™ripteurs peut
être s™indé en deux sousEesp—™es indépend—nts tels queD à ™h—que itér—tionD deux ™l—ssiE
(eurs —pprennent ™h—™un un modèle de ™l—ssi(™—tion sur l— ˜—se des deux sous esp—™esF
v— s™ission est e'e™tuée pour réduire l— ™omplexitéD surtout si l9un des deux sousE
ensem˜les est fortement ˜ruitéF h9—utres versions du ™oEtr—ining proposent de s™inder
—lé—toirement l9esp—™e des des™ripteurs à ™h—que itér—tion ‘ISH“F €ier™e et g—rdie ‘ISI“
emploient un ™l—ssi(eur f—yésien n—ïf —ve™ un pro™essus de ™oEtr—iningF sls proposent
—ussi quelques modi(™—tions ™ommeD p—r exempleD le ™hoix —lé—toire d9une ™l—sse @—u
sens de l— distri˜ution des ™l—sses des exemples l—˜élisésA pour l—quelle on ™her™he
l9exemple le plus pro˜—˜le p—rmi les exemples fr—i™hement ™l—ssi(ésF gette proposition
est dis™ut—˜le d—ns le ™—s des —r˜res de ™l—ssi(™—tion dont on s—it qu9ils f—vorisent les
™l—sses m—jorit—ires @™fF l— se™tion PFPFQ du ™h—pitre PAF
    €our ™on™lureD les perform—n™es de toutes ™es méthodes sont liées à l— n—ture des jeux
de données @nom˜re de des™ripteursD nom˜re d9exemples l—˜élisés et nom˜re d9exemples
s—ns l—˜elD re™ouvrement entre ™l—ssesD org—nis—tion sp—ti—le des données F F F AF sl n9y —
p—s vr—iment de méthode idé—le qui domine les —utres et une étude doit être menée
à ™h—que foisF he plusD l9—pprentiss—ge semiEsupervisé fon™tionne m—l qu—nd le jeu de
données est ™omplexe en terme de re™ouvrement entre ™l—sseF einsiD d—ns l— plup—rt des
p—piersD les méthodes sont testées sur des jeux de données pour lesquels l— ™l—ssi(™—tion
est —isée en —pprentiss—ge superviséF h—ns l— ™ommun—uté de l— ™l—ssi(™—tion de p—ges
we˜ ‘PS“ ‘ISP“D on emploie les termes 4 données ™orrélées 4 pour p—rler d9—pprentiss—ge
semiEsuperviséF …n p—pier ‘ISQ“ montre que les deux méthodes utilisées p—r ™ette ™omE
mun—uté sont les modèles ˜—sés sur les gr—phes de simil—rité et les modèles itér—tifsF
h—ns ™e même p—pierD pour un jeu de données p—rti™ulierD on montre que les gr—phes
sont plus perform—nts que les modèles itér—tifs si l— qu—ntité d9individus l—˜ellisés est
très f—i˜leF


2.6 Conclusion
    h—ns ™et ét—t de l9—rtD nous —vons présenté les qu—tre types d9—pprentiss—ge ™ouE
r—mment utilisés X l9—pprentiss—ge superviséD l9—pprentiss—ge non superviséD l9—pprentisE
s—ge f—i˜lement supervisé et l9—pprentiss—ge semiEsupervisé qui se dé™linent en gr—ndes
f—milles de modèles @génér—tifsD dis™rimin—ntsD hy˜ridesAF ve ˜ut ét—nt d9éto'er les
™onn—iss—n™es et de se situer méthodologiquementD les méthodes —sso™iées à ™h—™un de
™es —pprentiss—ges ont été présentées su™™in™tement et nous —vons exposé les prin™ip—les
di'éren™esF
    ve ™h—pitre Q est plus formel qu—nt à l— ™ompréhension des méthodes et —ux déE
veloppements m—thém—tiquesF xous —llons ™hoisir trois modèles de ˜—se @un génér—tifD
un dis™rimin—nt et un hy˜rideA que nous dé™linerons sous leurs formes supervisées et
f—i˜lement superviséesF
CHAPITRE

                 3           Classication faiblement
                             supervisée : modèles
                             proposés



3.1 Introduction


3.1.1 Généralités


    v9o˜je™tif de ™e ™h—pitre est de déterminer quelle méthode usuelle répond —u mieux
en —pprentiss—ge f—i˜lement supervisé et de ™omprendre le fon™tionnement propre à
™h—™une de ™es méthodesF xous ™hoisissons don™ volont—irement un l—rge spe™tre de
méthodes @d—ns le sens où les —ppro™hes méthodologiques se distinguent fortementAF
xous —vons ™hoisi un modèle génér—tifD un modèle dis™rimin—nt et un modèle hy˜ride
que nous dé™linons sous leur forme ™onnue d9—pprentiss—ge superviséD puis sous une
forme d9—pprentiss—ge f—i˜lement superviséF ves deux types d9—pprentiss—ge sont préE
sentés ™onjointement de m—nière à ˜ien ™omprendre les fondements des méthodes et
les liens étroits exist—nt entre l9—pprentiss—ge supervisé et l9—pprentiss—ge f—i˜lement
superviséF
    ve ™—s de l9—pprentiss—ge f—i˜lement supervisé ™onsidéré d—ns ™e ™h—pitre est di'éE
rent de ™elui ren™ontré h—˜ituellement d—ns l— littér—tureF gontr—irement —ux données
d9—pprentiss—ge dont l9inform—tion sur les ™l—sses est donnée p—r des ve™teurs ˜in—ires
qui indiquent quelles sont les ™l—sses possi˜lesD nous nous pl—çons d—ns le ™—s génér—l
d9un ve™teur qui donne les pro˜—˜ilités de ™l—ssi(™—tion — priori pour ™h—que ™l—sseF
€lus génér—lement en™oreD nous ™onsidérons un ensem˜le d9im—ges ou de do™uments
™onten—nt des o˜jetsD telles que les distri˜utions — priori des ™l—sses sont ™onnues d—ns
les im—ges ou les do™umentsF
   ev—nt de présenter les modèles de ™l—ssi(™—tion d—ns les se™tions QFP QFQ QFRD les
not—tions seront introduitesF ves perform—n™es de ™l—ssi(™—tion de ™es modèles seront
présentées d—ns le ™h—pitre S pour plusieurs jeux de données du dom—ine pu˜li™F
CHAPITRE 3.       CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xxviii                                                            MODÈLES PROPOSÉS




3.1.2 Notations
    in ™l—ssi(™—tion superviséeD l9ensem˜le d9—pprentiss—ge est noté {xn , yn }1≤n≤N D où
xn représente l9o˜serv—tion d—ns l9esp—™e des des™ripteursD t—ndis que yn = i indique
que xn est de l— ™l—sse iF h—ns le ™—s des ™l—ssi(eurs ˜in—ires @™l—ssi(™—tion à deux
™l—ssesAD yn peut prendre les v—leurs +1 ou −1F
    in ™l—ssi(™—tion f—i˜lement superviséeD K indique le nom˜re d9im—ges d9—pprentisE
s—geF v9im—ge d9—pprentiss—ge indi™ée p—r k ™ontient N (k) o˜jets dé™rits d—ns l9esp—™e
des des™ripteurs p—r {xkn }1≤k≤K,1≤n≤N (k) F gh—que im—ge d9—pprentiss—ge est —sso™iée à
un ve™teur l—˜el πk F ves ™ompos—ntes πki du ve™teur l—˜el donnent l— proportion de l—
™l—sse i d—ns l9im—ge k F ges proportions peuvent être vues ™omme l9— priori de l— ™l—sse
i d—ns l9im—ge k telle que πki = p (ykn = i)D ∀nF xous notons ykn = i si l9o˜jet xkn est
—sso™ié à l— ™l—sse iF xotons que i πki = 1F v9étiquette glo˜—le de l9im—ge est r—menée
à l9é™helle de l9o˜jetD donn—nt un l—˜el individuel — prioriF v9ensem˜le d9—pprentiss—ge
peut don™ s9é™rire X {xkn , πk }1≤k≤K,1≤n≤N (k) F
   v9o˜je™tif des méthodes est d9ét—˜lir un modèle de ™l—ssi(™—tion des o˜jets à p—rtir
du jeu de données d9—pprentiss—geF ƒi Θ sont les p—r—mètres du modèleD —lors nous
         ˆ
év—luons Θ d—ns un premier tempsD puis l— pro˜—˜ilité de ™l—ssi(™—tion p y = i|x, Θ ˆ
ét—nt donné l9exemple test xF


3.2 Modèle génératif
3.2.1 Introduction
   h—ns le ™h—pitre QFPD nous étudions un modèle génér—tif ˜—sé sur l9—lgorithme iwF
v— méthode ™onsiste à ™onsidérer que les données sont ™onstituées de modes g—ussiens
dont nous ™her™hons à év—luer les moments d9ordre I et PF
   „out d9—˜ordD d—ns l— se™tion QFPFPD nous présentons l— méthode sous s— forme l—
plus ™onnue X d—ns le ™—s de l9—pprentiss—ge superviséF €uisD d—ns l— se™tion QFPFQD l—
pro™édure est étendue —u ™—s de l9—pprentiss—ge f—i˜lement superviséF


3.2.2 Classication supervisée
   in guise de modèle génér—tifD nous étudions les mél—nges de q—ussiennes dont les
p—r—mètres sont estimés à l9—ide de l9—lgorithme iw qui m—ximise l— vr—isem˜l—n™e à
™h—que itér—tionF yn se pl—™e d—ns le ™—s de N ré—lis—tions {x1 , . . . , xN } d9une v—ri—˜le
—lé—toire X dont l— densité est un mél—nge de g—ussiennesF gel— suppose que nous
™onsidérons les données d9une ™l—sse rép—rties de m—nière mod—leD ™h—que mode ét—nt
modélisé p—r une g—ussienneF v9o˜je™tif de l9—pprentiss—ge est d9estimer les p—r—mètres
de ™h—™une des g—ussiennesF
  ƒoit l— v—ri—˜le —lé—toire S telle que snim = 1 si l— ré—lis—tion xn provient du
mode m de l— ™l—sse iD et snim = 0 sinonF xous en déduisons que ρim = p (sim )D —ve™
 M
 m=1 ρim = 1F
3.2.   MODÈLE GÉNÉRATIF                                                                          xxix


    ƒoit Θ = {ρim , µim , Σim }i,m les p—r—mètres d9un modèle de mél—nge g—ussienD où M
est le nom˜re de modes p—r ™l—sseD ρim est l— proportion du mode m de l— ™l—sse iD µim
est l— moyenne du mode m de l— ™l—sse i et Σim est l— m—tri™e de ™ov—ri—n™e du mode
m de l— ™l—sse iF v— fon™tion densité s9é™rit X
                                                  M
                           p (x|y = i, Θ) =             ρim N (x|µim , Σim )                     @QFIA
                                               m=1

    X est une o˜serv—tion in™omplète que l9on peut ™ompléter p—r l— v—ri—˜le ™—™hée
S F einsi f—itD le ™ritère du m—ximum de vr—isem˜l—n™e — posteriori peut être employéF
gepend—ntD l— m—ximis—tion de l— logEvr—isem˜l—n™e ™omplétée est di0™ileF v9—stu™e
de l9—lgorithme iw est de ™ontourner ™e ™—l™ul vi— l— m—ximis—tion de l9espér—n™e
™onditionnelle de l— logEvr—isem˜l—n™e ™omplétée p—r r—pport à ΘF in not—nt Θc les
p—r—mètres ™our—nts o˜tenus soit p—r ™—l™ulD soit p—r initi—lis—tionD l9estimé des p—r—E
mètres à l9itér—tion suiv—nte s9é™rit don™ X
                                   ˆ
                                   Θ = arg max {Q(Θ, Θc )}                                       @QFPA
                                               Θ

où
            Q(Θ, Θc ) = E [log p (x, s|Θ) |x, Θc ] =                p(s|x, Θc ) log p(x, s, Θ)   @QFQA
                                                                s
F yrD en suppos—nt les o˜serv—tions {xn } indépend—ntesD nous pouvons é™rire X
       
                                 N                     N
       
        log p(x, s, Θ) = log
       
                                    p(xn , sn , Θ) =     log [N (x|µ, Σ)p(sn )]
       
                        N
                               n=1                    n=1
                                                                                 .               @QFRA
                                      c
        p(s|x, Θc ) =
       
                          p(sn |xn , Θ )
       
                       n=1

pin—lementD en su˜stitu—nt les éléments de l9équ—tion @QFQA et en se fo™—lis—nt sur l—
™l—sse iD nous o˜tenons l9expression suiv—nte X
                              N    M
                       c
               Q(Θ, Θ ) =               log [ρim N (x|µim , Σim )] p(snim |xn , Θc )             @QFSA
                              n=1 m=1

xous voulons m—ximiser Q(Θ, Θc ) p—r r—pport à ΘF einsiD en ™onsidér—nt Θc ™omme
un p—r—mètre ™onst—ntD et ™omme prélimin—ire à l— m—ximis—tion nous ™—l™ulons
p(snim |xn , Θc ) d—ns une première ét—peF v— règle d9inversion de f—yes donne X
                                                    ρim p (xn |snim , Θc )
                           p(snim |xn , Θc ) =      M
                                                                                                 @QFTA
                                                          ρil p (xn |snil , Θc )
                                                    l=1


   €our trouver le p—r—mètre ρim qui m—ximise Q(Θ, Θc )D nous utilisons les multipliE
™—teurs de v—gr—nge —ve™ l— ™ontr—inte M ρim = 1F xous o˜tenons X
                                       m=1

                                              N
                                          1
                                  ρim   =           p(snim |xn , Θc )                            @QFUA
                                          N   n=1
CHAPITRE 3.         CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xxx                                                                         MODÈLES PROPOSÉS




ves moyennes et v—ri—n™es sont o˜tenues p—r dériv—tion X
                                         N
                                              p (snim |xn , Θc ) xn
                                        n=1
                               µim =      N
                                                                                          @QFVA
                                                                 c
                                                 p (snim |xn , Θ )
                                          n=1

                           N
                                 p (snim |xn , Θc ) (xn − µim ) (xn − µim )T
                           n=1
                   Σim =                     N
                                                                                          @QFWA
                                                 p (snim |xn , Θc )
                                          n=1

€uis les p—r—mètres ™our—nts sont estimés à nouve—uD et le pro™essus est itéré jusqu9à
™onvergen™eF v9—lgorithme est résumé d—ns le t—˜le—u QFIF
    vors de l— ph—se de testD l— pro˜—˜ilité pour qu9un individu quel™onque x soit de l—
™l—sse i est donnée p—r l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori X
                                                 M
                         p(y = i|x, Θ) =               ρim N (x|µim , Σim )              @QFIHA
                                                 m=1


    sl existe une version sto™h—stique de ™et —lgorithmeF v9—lgorithme ƒiw ‘IU“ — pour
o˜je™tif d9éviter d9—˜outir à un m—ximum lo™—l de vr—isem˜l—n™eF €our ™el—D entre les
ét—pes i et wD les individus sont ™l—ssés p—r r—pport —ux di'érents modes à l9—ide d9un
tir—ge —lé—toire suiv—nt l— densité de pro˜—˜ilité dis™rète {p(snim |xn )}i F


3.2.3 Classication faiblement supervisée
    €our le ™—s de l9—pprentiss—ge f—i˜lement superviséD nous nous sommes —ppuyés sur
les tr—v—ux développés d—ns ‘ISR“F ge p—pier propose de résoudre l9—lgorithme iw pour
des données f—i˜lement l—˜elliséesF ge dernier tr—ite uniquement le ™—s d9o˜serv—tion
dont le l—˜el indique l— présen™e ou l9—˜sen™e de ™l—sses d—ns un groupe d9o˜jetsF xous
—vons —d—pté l9—lgorithme —u ™—s des l—˜els qui indiquent l— proportion des ™l—sses d—ns
un groupe d9o˜jetsF
   ƒoit Θ = {ρim , µim , Σim }i,m les p—r—mètres d9un modèle de mél—nge de g—ussiennes X
                                                 M
                        p (x|y = i, Θ) =               ρim N (x|µim , Σim )              @QFIIA
                                                 m=1

€our un ensem˜le d9—pprentiss—ge de l— forme {xkn , πk } qui est l—˜ellisé en proportionD
le ™ritère de m—ximis—tion de l— vr—isem˜l—n™e peut être dé(nit p—r X
                                                              K N (k)
                 ˆ
                 Θ = arg max p(π|x, Θ) = arg max                        p(πk |xkn , Θ)   @QFIPA
                           Θ                              Θ
                                                              k=1 n=1
3.2.   MODÈLE GÉNÉRATIF                                                                                xxxi


 IG sniti—lis—tion des p—r—mètres Θc F
 PG tusqu9à ™onvergen™eD e'e™tuer su™™essivement les ét—pes i et w X
 Etape E X
                                       ρim p (xn |snim , Θc )
                               γnim = M
                                                        ρil p (xn |snil , Θc )
                                                  l=1

 Etape M X                          @wise à jour des p—r—mètres Θc A
                                                             N
                                                     1
                                             ρim   =              γnim
                                                     N      n=1
                              N                               N
                                  γnim xn                             γnim (xn − µim ) (xn − µim )T
                          n=1                                n=1
                  µim =     N
                                                   Σim =                         N
                                    γnim                                               γnim
                              n=1                                                n=1

          Tableau 3.1  Algorithme EM dans le cas de l'apprentissage supervisé.
gomme d—ns l— se™tion QFPFPD nous m—ximisons l9espér—n™e de l— logEvr—isem˜l—n™e
™omplétée qui s9é™rit X

        Q(Θ, Θc ) = E [log p (x, y|Θ) |x, π, Θc ] =                   p(y|x, Θc ) log p(x, y, Θ)      @QFIQA
                                                                  y

ƒoit K im—gesD ™omposées de N (k) o˜jetsF in suppos—nt les o˜serv—tions {xkn } indéE
pend—ntesD nous pouvons é™rire X
                                                
                         K N (k)                    K N (k)
 
  log p(x, y, Θ) = log 
 
 
                                 p(xkn , ykn , Θ)=         log [p(xkn |ykn , Θ)p(ykn |Θ)]
                              k=1 n=1                                 k=1 n=1
                                                                                                          .

                   K N (k)
 p(y|x, Θc ) =               p(ykn |xkn , Θc )



                  k=1 n=1
                                                                                                      @QFIRA
€—r su˜stitution d—ns l9équ—tion @QFIQAD nous o˜tenons X
                     K N (k)
              c
       Q(Θ, Θ ) =                        p (ykn = i|xkn , Θc ) log [πki p (x|ykn = i, Θ)]             @QFISA
                    k=1 n=1          i

   einsiD qu—nd l— proportion d9individus d—ns ™h—que im—ge ™onstitue l— l—˜ellis—tionD
™ette proportion donne un — priori sur ™h—que im—ge pour ™h—que ™l—sseD de telle sorte
que l9ét—pe i de l9—lgorithme iw prendre en ™ompte l9— priori πki X
                                                         πki p (xkn |ykn = i, Θc )
                      p (ykn = i|xkn , Θc ) =                                                         @QFITA
                                                            πkl p (xkn |ykn = l, Θc )
                                                        l
CHAPITRE 3.                 CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xxxii                                                                                MODÈLES PROPOSÉS




   €our l9ét—pe w de l9—lgorithmeD l— log vr—isem˜l—n™e ™omplétée @QFISA est optimisée
en fon™tion de ΘF ‚em—rquons que l— dépend—n™e de @QFISA p—r r—pport à Θ porte
essentiellement sur p (x|ykn = i, Θ) X
                   K N (k)
   Q(Θ, Θ ) =c
                                       p (ykn = i|xkn , Θc ) log p (x|ykn = i, Θ) + cste                  @QFIUA
                  k=1 n=1         i

ge point ™onstitue l— di'éren™e prin™ip—le —ve™ ‘ISR“F €our notre pro˜lém—tiqueD le
p—r—mètre πki est ™onnu puisqu9il ™onstitue le l—˜el des individus xkn F h—ns ‘ISR“D les
proportions ne sont p—s ™onsidérées ™onnues et doivent être estimées lors de l9ét—pe wF
    in sép—r—nt le pro˜lème en I pro˜lèmes élément—iresD m—ximiser QFIU revient à
m—ximiser l— log vr—isem˜l—n™e d9un mél—nge de g—ussiennes pondérées p—r le terme
p (ykn = i|xkn , Θc ) X
                       K N (k)
                                      p (ykn = i|xkn , Θc ) log p (x|ykn = i, Θ)                          @QFIVA
                      k=1 n=1

…ne nouvelle foisD l— m—ximis—tion de @QFIVA est e'e™tuée vi— l9—lgorithme iwF v— méE
thode ™onsiste don™ à insérer un —lgorithme iw d—ns l9ét—pe w d9un —utre —lgorithme
iwF yn peut voir d—ns ™e pro™édé ™omme l9expression d9un 4mél—nge de mél—nge4F
   gomme pré™édemmentD plutot que de m—ximiser l9expression de l— logE
vr—isem˜l—n™e pondérée @QFIVAD nous m—ximisons ™elle de l9espér—n™e de l— logE
vr—isem˜l—n™e ™omplétée X
                 K N (k)                                 M
         c                                           c
 Q (Θ, Θ ) =               p (ykn = i|xkn , Θ )                log [ρim N (xkn |µim , Σim )] p(sknim |xkn , Θc )
                 k=1 n=1                                 m=1
                                                                                    @QFIWA
yù sknim D dé(nie p—r p(sim ) = ρim D indique l— pro˜—˜ilitéD pour l9o˜jet n de l9im—ge k D
d9être —pp—renté —u mode m de l— distri˜ution de l— ™l—sse iF
   v9ét—pe i de ™e se™ond —lgorithme iw est —lors donnée p—r X
                                                             ρim p (xkn |sknim , Θc )
                           p (sknim |xkn , Θc ) =         M
                                                                                                          @QFPHA
                                                               ρknil p (xkn |sknil , Θc )
                                                          l

ves nouve—ux p—r—mètres sont o˜tenus à l9—ide de l— méthode des multipli™—teurs de
v—gr—nge ou p—r dériv—tion de l9espér—n™e de l— log vr—isem˜l—n™e ™omplétéeD leurs
expressions sont X
                                               p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc )
                                  k        n
                     ρim =                                                                                @QFPIA
                                                         p (ykn = i|xkn , Θc )
                                                 k   n

                                           p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) xkn
                              k        n
                   µim =                                                                                  @QFPPA
                                               p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc )
                                  k        n
3.3.   MODÈLE DISCRIMINANT                                                                xxxiii


                   p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) (xkn − µim )(xkn − µim )T
           k   n
   σim =                                                                                  @QFPQA
                                  p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc )
                         k    n



v9—lgorithme est résumé d—ns le t—˜le—u QFPF
    vors de l— ph—se de testD l— pro˜—˜ilité pour qu9un individu quel™onque x soit de l—
™l—sse i est donné p—r l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori X


                                               M
                          p(y = i|x, Θ) =           ρim N (x|µim , Σim )                  @QFPRA
                                              m=1




    xotons que ™et —lgorithme est peu ro˜uste pour des jeux de données ™omplexesD
dont le re™ouvrement entre ™l—sses est élevéF he plusD d—ns le ™—s de distri˜utions multi
mod—les —ve™ des m—tri™es de ™ov—ri—n™es ™omplexesD l9—lgorithme peine à ™onvergerF in
pr—tiqueD pour g—gner en perform—n™eD les m—tri™es de v—ri—n™eE™ov—ri—n™e sont ™onsidéE
rées di—gon—lesF gel— suppose que les des™ripteurs sont indépend—ntsF ƒi pour ™ert—ins
types de données ™e n9est p—s le ™—sD le f—it de ™hoisir un modèle de mél—nge peut
™ompenser ™e type de simpli(™—tionF €—r exempleD un nu—ge de points di—gon—l d—ns
un esp—™e à deux dimensions pourr—it être représenté p—r plusieurs nu—ges de points
™ir™ul—ires iFeF p—r un mél—nge de g—ussiennes dont les m—tri™es de ™ov—ri—n™e sont di—E
gon—lesF in ™onsidér—nt I = 4 ™l—ssesD M = 5 modes et D = 20 des™ripteursD le nom˜re
de p—r—mètres à estimer s9élève à IM D 1 + D = 4400 d—ns le ™—s d9une m—tri™e de
                                                2
v—ri—n™eE™ov—ri—n™e pleineD et à 2IM D = 800 p—r—mètres d—ns le ™—s d9une m—tri™e di—E
gon—leF in ™omp—r—nt —ux ID = 80 p—r—mètres qui représentent les ™oe0™ients d9un
hyperpl—n sép—r—teur d9un modèle dis™rimin—ntD et en suppos—nt que plus il y — de p—E
r—mètres moins les —lgorithmes sont ro˜ustes et plus les perform—n™es de ™l—ssi(™—tion
diminuesD ™el— nous l—isse entrevoir les futurs perform—n™es des —lgorithmesF




3.3 Modèle discriminant
    ve ™h—pitre QFQ est ™ons—™ré à l9él—˜or—tion de modèles dis™rimin—ntsF h—ns un
premier tempsD des méthodes ™l—ssiques d9—pprentiss—ge supervisé sont présentées d—ns
l— se™tion QFQFIF xous verrons not—mment l9—n—lyse dis™rimin—nte de pisherD puis l—
méthode uEp™— qui permet d9étendre l9—n—lyse de pisher du ™—s liné—ire —u ™—s non
liné—ireD les m—™hines à ve™teur de support seront ensuite étudiées d—ns le ™—s liné—ireD
et en(n d—ns le ™—s non liné—ireF h—ns un se™ond tempsD nous proposons des modèles
de ™l—ssi(™—tion pour le ™—s de l9—pprentiss—ge f—i˜lement superviséF xous proposons
d9—d—pter l9—n—lyse dis™rimin—nte de pisher —u ™—s des pro˜—˜ilités de ™l—ssi(™—tion —
prioriD en(nD nous indiquons ™omment o˜tenir une version non liné—ire du modèleF
CHAPITRE 3.                CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xxxiv                                                                                    MODÈLES PROPOSÉS




 IG sniti—lis—tion des p—r—mètres Θc F
 PG tusqu9à ™onvergen™eD e'e™tuer su™™essivement les ét—pes i et w X
 Etape E X
                                       πki p (xkn |ykn = i, Θc )
                            τkni =
                                         πkl p (xkn |ykn = l, Θc )
                                                l

 Etape M X
        Etape M-E X
                                               ρim N (xkn |skni = m, Θc )
                                 γknim =        M
                                                     ρil p (xkn |skni = l, Θc )
                                               l=1


        Etape M-M X
                                         τkni γknim                                  τkni γknim xkn
                   ρim =     k       n
                                                         et µim =        k       n
                                             τkni                                        τkni γknim
                                 k       n                                   k       n
                                             τkni γknim (xkn − µim )(xkn − µim )T
                      2          k       n
                     σim =
                                                                  τkni γknim
                                                     k       n


        Tableau 3.2  Algorithme EM dans le cas de l'apprentissage faiblement su-
                                                     pervisé.

3.3.1 Classication supervisée
Le modèle
   ge modèle est une p—r—métris—tion dire™te de l— ™l—ssi(™—tionF hé(ni ™omme une
version pro˜—˜iliste du modèle dis™rimin—ntD iFeF à l9inst—r de ™elui proposé d—ns ‘ISR“D
le modèle liné—ire peut être exprimé de l— m—nière suiv—nte X

                           p (y = i|x, Θ) ∝ F ( ωi , x + bi |{ωi })                                   @QFPSA

yù  ωi , x  +bi est l— dist—n™e entre l9o˜jet à ™l—sser et l9hyperpl—n qui sép—re l— ™l—sse
i des —utres ™l—ssesF v9équ—tion de ™et hyperpl—n est donnée p—r  ωi , x  +bi = 0 d—ns
l9esp—™e des des™ripteursF F est une fon™tion positive et ™roiss—nte qui permet d9—juster
l— dyn—mique de pro˜—˜ilis—tionF h—ns ™e m—nus™ritD F est ™hoisie ™omme ét—nt l—
fon™tion exponentielle X
                                                          exp( ωi , x + bi )
                           p (y = i|x, Θ) =                                                           @QFPTA
                                                                 exp( ωl , x + bl )
                                                         l
3.3.   MODÈLE DISCRIMINANT                                                                xxxv




        Figure 3.1  L'objectif de l'analyse discriminante de Fisher est de trouver un
        axe de projection Zω qui minimise le recouvrement des nuages de points entre
                                          classes.



    e ™h—que ™l—sseD ™orrespond un hyperpl—n qui sép—re l— ™l—sse ™onsidérée des —utres
™l—ssesF €our un individu test xD ™el— permet d9ét—˜lir un ve™teur de pro˜—˜ilité de
™l—ssi(™—tionF v— ™l—sse l— plus pro˜—˜le est —ttri˜uée à l9individu xF
   sl existe plusieurs méthodes d9—pprentiss—ge pour o˜tenir les ™oe0™ients Θ = {ωi , bi }
des hyperpl—nsF xous étudions i™i l9—n—lyse dis™rimin—nte de pisher qui est un moE
dèle liné—ireD puis l— méthode uEp™— @kernel prin™ip—l ™omponent —n—lysisA qui permet
d9étendre l9—n—lyse de pisher —u ™—s non liné—ireF in(nD l— méthode des ƒ†w @ƒupport
w—™hine †e™torA ser— présentéeD et pour (nirD l— version non liné—ire des ƒ†wF




Analyse discriminante de Fisher

    h—ns ™ette se™tionD l9—pprentiss—ge est e'e™tué à l9—ide de l9—n—lyse dis™rimin—nte de
pisherF v— philosophie de l— méthode est résumée d—ns l— (gure QFIF h—ns ™et exempleD
nous souh—itons trouver l9hyperpl—n qui sép—re les los—nges des étoiles qui sont exprimés
d—ns un esp—™es de deux des™ripteurs @X1 et X2 AF €our ™el—D nous —llons ™her™her l9—xe
Zω D porté p—r le ve™teur ω D qui minimise le re™ouvrement des proje™tions des nu—ges de
points sur ™et —xeF v— première ét—pe ™onsiste à trouver ω D il f—ut ensuite positionner
le ve™teur d—ns l9esp—™eF
   he m—nière plus formelleD pour un ensem˜le d9—pprentiss—ge {xn , yn }n∈[1...N ],yn ∈[1...I] D
en dé(niss—nt X
CHAPITRE 3.       CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xxxvi                                                                 MODÈLES PROPOSÉS




 le nom˜re d9individus p—r ™l—sse X    Ni
                                                      N
 le point moyen glo˜—l X               µ=     1
                                              N
                                                            xn
                                                      n=1

 le point moyen de l— ™l—sse i X       µi =     1
                                                Ni
                                                                 xn
                                                      n/yn =i

                                                  I
                                                       Ni
 l— v—ri—n™e inter groupe X            U=                 (µi − µ)(µi − µ)T
                                                i=1
                                                       N

 l— m—tri™e de v—ri—n™eE™ov—ri—n™e
 mesurée pour l— ™l—sse i X            Σi
                                                 I
                                       ˆ               Ni
 l— v—ri—n™e intr— groupe X            Σ=                 Σi
                                                i=1
                                                       N

—lorsD sur l9—xe Zw engendré p—r le ve™teur ω D les v—ri—n™es inter et intr— ™l—sses ont
                                                         ˆ         ˆ
respe™tivement pour expression X U (ω) = ω T U ω et Σ(ω) = ω T Σω F €—r prin™ipeD le
™ritère de pisher ™onsiste à trouver le ve™teur ω qui m—ximise le r—pport entre l—
                                                        ˆ
v—ri—n™e inter ™l—sse U (ω) et l— v—ri—n™e intr— ™l—sse Σ(ω) X

                                                      ωT U ω
                                      arg max                                      @QFPUA
                                            ω             ˆ
                                                      ω T Σω
ve ™ritère @QFPUA est résolu à l9—ide des multipli™—teurs de v—gr—ngeD sous l— ™ontr—inte
                      ˆ                                             ˆ
de norm—lis—tion ω T Σω = 1F xous o˜tenons l— solution génér—le X Σ−1 U ω = λω F yrD le
modèle dé(ni p—r l9expression @QFPSA est un modèle de ™l—ssi(™—tion à deux ™l—sses @une
                                                            ˆ
™l—sse ™ontre toutes les —utresAF h—ns ™e ™—sD l— m—tri™e Σ−1 U n9— qu9une seule v—leur
propre λ et un seul ve™teur propre —sso™ié X

                               ω = (Σ1 + Σ2 )−1 (µ1 − µ2 )                         @QFPVA

xous en déduisons —isément l— v—leur de bi X
                                            (µ1 + µ2 )
                                      b=ω                                          @QFPWA
                                                2
    ve prin™ip—l —v—nt—ge de ™ette méthode est son f—i˜le ™oût de ™—l™ulF xous —vons
vu que l9—pprentiss—ge du modèle se résume —u ™—l™ul de @QFPVA et @QFPWAF w—is l9inE
™onvénient m—jeur se situe d—ns l— f—i˜le ™omplexité du modèle et not—mment d—ns l—
liné—rité du modèleF

Kernel-principal component analysis (K-pca)
    v9—n—lyse dis™rimin—nte de pisher est présentée d—ns le p—r—gr—phe pré™édent pour
le ™—s liné—ireD m—is ™ert—ines situ—tions ne permettent p—s de trouver de telle solutionF
xous présentons d—ns ™e p—r—gr—phe l— méthode uEp™— qui permet d9étendre un modèle
de ™l—ssi(™—tion liné—ire —u ™—s non liné—ireF
3.3.   MODÈLE DISCRIMINANT                                                               xxxvii




        Figure 3.2  Pour des modèles non-linéaires, l'espace des observations est
         transformé an que, dans l'espace d'arrivée, il existe une solution linéaire.


    €lutôt que d9im—giner un —utre modèle de ™l—ssi(™—tionD le prin™ipe est de tr—nsE
former l9esp—™e des o˜serv—tions pour queD d—ns le nouvel esp—™eD il existe une solution
liné—ireF €—r exempleD d—ns l— pigure QFPD d—ns l9esp—™e des des™ripteurs {X1 , X2 } il
n9existe p—s d9hyperpl—n sép—r—teur pour les los—nges et les étoilesF …ne tr—nsform—tion
de l9esp—™e est e'e™tuéeD vi— l— fon™tion (X1 , X2 ) = ϕ (X1 , X2 )D telle qu9il existe un
hyperpl—n sép—r—teur d—ns le nouvel esp—™e (X1 , X2 )F
   ƒi l— fon™tion ϕ est ™onnueD —lors le modèle de ™l—ssi(™—tion s9é™rit X

                       p (y = i|ϕ(x), Θ) ∝ F ( ωi , ϕ(x) + bi |{ωi })                    @QFQHA

v9origin—lité de l— méthode réside d—ns le f—it qu9il n9est p—s né™ess—ire d9expli™iter l—
fon™tion ϕ m—is uniquement le produit s™—l—ire —sso™iéF
   v9idée est d9e'e™tuer une en—lyse en gompos—nte €rin™ip—le @eg€A d—ns le nouvel
esp—™e —(n d9extr—ire les ™ompos—ntes les plus signi(™—tivesF €our ™el—D nous devons
déterminer les v—leurs propres λ ≥ 0 et les ve™teurs propres non nuls v qui s—tisfont X

                                             λv = Cv                                     @QFQIA

où C est l— m—tri™e de ™ov—ri—n™e qui s9é™rit X
                                         N
                                  1
                               C=              ϕ(xn ), ϕ(xn )                          @QFQPA
                                  N     n=1


pour N exemples d9—pprentiss—geF v est une ™om˜in—ison liné—ire des {ϕ(xn )} que nous
notons X
                                              N
                                      v=           αn ϕ(xn )                             @QFQQA
                                             n=1
CHAPITRE 3.        CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xxxviii                                                                        MODÈLES PROPOSÉS




in inje™t—nt l9expression de v ™—l™ulée d—ns l9équ—tion @QFQQA et en e'e™tu—nt un produit
s™—l—ire sur l9équ—tion @QFQIA ™omme suit X

                               λ ϕ(xn ), v = ϕ(xn ), Cv , ∀n                                  @QFQRA

—lors l9équ—tion @QFQIA peut être réé™rite de l— m—nière suiv—nte X

          N                          N                      N
                                 1
     λ          ϕ(xn ), ϕ(xn ) =           αn     ϕ(xn ),         ϕ(xm ), ϕ(xm ), ϕ(xn )      @QFQSA
          n=1
                                 N   n=1                    m=1


ƒoit K l— m—tri™e de qr—m dont les ™ompos—ntes sont Kmn = ϕ(xm ), ϕ(xn ) D —lors
@QFQSA prend l— forme X
                                N λKα = K 2 α                             @QFQTA
où α est un ve™teur ™olonne de ™ompos—ntes {αn }F €our trouver les solutions de @QFQTAD
nous résolvons le pro˜lème du—l X

                                               N λα = Kα                                      @QFQUA

    ve ™—l™ul des v—leurs propres λ1 ≥ λ2 ≥ . . . ≥ λN et des ve™teurs propres ™orresE
pond—nts {αn } est e'e™tuéD puis l— nEième ™ompos—nte ϕ(x)n d9un ve™teur test ϕ(x)
est donnée p—r proje™tion sur le ve™teur v n qui est engendré p—r αn X
                                           N                              N
                ϕ(x)n = v n , ϕ(x) =             n
                                                αm ϕ(xm ), ϕ(x) =               n
                                                                               αm K(xm , x)   @QFQVA
                                         m=1                             m=1

où αm sont les ™ompos—ntes du neme ve™teur propreF
    n

   ve nouvel esp—™e peut être réduit en ne ™onsidér—nt que les Npca premières v—leurs
propres {λn }F gel— revient à ™onsidérer que les v—leurs propres inférieures à λNpca ont
des v—leurs très f—i˜les et sont don™ néglige—˜lesF
  ve produit s™—l—ire K(x1 , x2 ) est une fon™tion noy—u ‘RT“F €—rmi les noy—ux les plus
employés ‘RT“D on trouve le noy—u liné—ire X

                                         K(x1 , x2 ) = x1 T x2                                @QFQWA

et le noy—u g—ussien X
                                                        ||x1 − x2 | |2
                              K(x1 , x2 ) = exp                                               @QFRHA
                                                             2σ 2

    v— tr—nsform—tion de l9esp—™e des o˜serv—tions dépend dire™tement du ™hoix du
noy—uF €our le ™—s de l— (gure QFPD si les données sont ™entrées et si le p—r—mètre σ est
™orre™tement ™hoisiD —lors le noy—u g—ussien peut être très perform—ntF gel— s9explique
p—r l— forme des nu—ges de points @d—ns le ™—s où les données sont ™entréesA qui f—it que
les mesures de simil—rités sont sensi˜lement équiv—lentes —u sein des los—nges et —u sein
des étoiles d—ns le ™—s du noy—u g—ussienF get exemple montre que les perform—n™es de
™l—ssi(™—tion sont fortement liées —u ™hoix du noy—u et des p—r—mètres —sso™iésF
3.3.   MODÈLE DISCRIMINANT                                                                xxxix




        Figure 3.3  Exemple de 4 classes qui ne sont pas linéairement séparables
        (gure de gauche) dans un processus  one-versus-all . Après application de la
        méthode Kpca avec un noyau gaussien (gure de droite), les données deviennent
                                  linéairement séparables.


   h—ns l— (gure QFQD un exemple pr—tique montre ™omment R ™l—sses qui ne sont
p—s liné—irement sép—r—˜les d—ns un pro™essus 4 oneEversusE—ll 4 le deviennent —près
—ppli™—tion de l— méthodeF
   v— méthode uEp™— peut dire™tement être —ppliquée pour des données f—i˜lement
l—˜elliséesF in e'etD l— méthode ne requière p—s l— ™onn—iss—n™e de l—˜elsF sl s9—git uniE
quement d9e'e™tuer une tr—nsform—tion non liné—ire de l9esp—™e des —ttri˜utsF einsiD
une fois l— tr—nsform—tion e'e™tuéeD l9—n—lyse dis™rimin—nte de pisher peut être —ppliE
quée d—ns le ™—s f—i˜lement superviséD et d9un modèle f—i˜lement supervisé liné—ireD
nous o˜tenons un modèle f—i˜lement supervisé nonEliné—ireF

SVM
    v— méthode ƒ†w est une —utre te™hnique de ™—l™ul des ™oe0™ients d9un hyperpl—n
sép—r—teurF ƒ†w veut dire 4w—™hine à †e™teur de ƒupport4F xous dé(nissons l— m—rge
™omme ét—nt l— dist—n™e entre l9hyperpl—n sép—r—teur et les points les plus pro™hes de
l9hyperpl—nF ges points sont —ppelés 4ve™teurs de support4F …n exemple est représenté
d—ns l— pigure QFRD le ˜ut ét—nt de dis™riminer deux ™l—sses @les los—nges et les étoilesAF
ves ve™teurs supports sont entourés d9un ™er™le pointilléF v9idée fond—ment—le de l—
méthode ƒ†w est de trouver l9hyperpl—n qui m—ximise l— m—rgeF
    ƒoit l9ensem˜le d9—pprentiss—ge {xn , yn }n∈[1...N ] D où yn = +1 si xn est de ™l—sse i et
yn = −1 sinonF in ™hoisiss—nt de norm—liser Θ = {ωi , bi } de telle sorte que ωi x+bi = 1
                                                                                  T

si x est le ve™teur support de l— ™l—sse i et que ωi x + bi = −1 sinonD —lors le ™ritère
                                                         T

prim—l qui donne l9hyperpl—n sép—r—teur de m—rge m—xim—le est X

                                    ˆ          1
                                    Θ = arg min ||ωi ||2                                  @QFRIA
                                             Θ 2
CHAPITRE 3.      CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xl                                                                       MODÈLES PROPOSÉS




       Figure 3.4  L'objectif de la méthode SVM est de trouver l'hyperplan qui
                                  maximise la marge.


ƒous l— ™ontr—inteD yn ωi xn + bi ≥ 1D ∀nF
                        T

   …ne formul—tion du—le du ™ritère est o˜tenue en introduis—nt les multipli™—teurs de
v—gr—nge pour ™h—que ™ontr—inte @une ™ontr—inte p—r exemple d9—pprentiss—geA ‘QW“ X

                                               1
                   α = arg max
                   ˆ                   αn −               αp αq yp yq xp , xq        @QFRPA
                             α
                                   n
                                               2    p,q

sous les ™ontr—intesD αn ≥ 0D ∀n et n αn yn = 0F xotons que les dérivées p—rtielles du
l—gr—ngien donnent l— rel—tion suiv—nte X

                                           α n y n xn = ω
                                                        ˆ                            @QFRQA
                                       n


   v— fon™tion de dé™ision est (n—lement o˜tenue p—r su˜stitution de l— v—leur estimée
de ω d—ns l9équ—tion @QFPSA X
                                               N
                      p (y = i|x, Θ) ∝ F            αn yn x, xn + bi
                                                    ˆ                                @QFRRA
                                              n=1

gomme pour l9—n—lyse dis™rimin—nte de pisherD le p—r—mètre bi est o˜tenu en utilis—nt
l9expression @QFPWAF


SVM non linéaire
     v9extension de l— méthode ƒ†w —u ™—s non liné—ire suit l— même philosophie que
l— méthode uEp™—F v9exemple de l— (gure QFP peut à nouve—u être ™onsidéréF einsiD
s9il n9existe p—s de solution dis™rimin—nte liné—ire d—ns l9esp—™e des —ttri˜utsD ™eluiE
™i est tr—nsformé vi— une fon™tion ϕ telle que le nouvel esp—™e propose des solutions
3.3.   MODÈLE DISCRIMINANT                                                              xli


liné—irement sép—r—˜lesF v9extension —u ™—s non liné—ire est intrinsèquement plus dire™te
d—ns le ™—s des ƒ†wF
    „out d9—˜ordD nous rem—rquons que l— fon™tion de dé™ision @QFRRA du modèle liE
né—ire s9exprime en fon™tion du produit s™—l—ire entre l9individu test x et l9ensem˜le
des données d9—pprentiss—ge {xn }F v9idée est de rempl—™er ™e produit s™—l—ire p—r un
produit s™—l—ire qui est dé(nit d—ns un —utre esp—™e des —ttri˜utsF ge nouvel esp—™e
est en f—it l9esp—™e ™i˜le d—ns lequel des solutions liné—ires seront possi˜lesF ve produit
s™—l—ire est une fon™tion noy—u que nous notons K(x1 , x2 ) = ϕ(x1 ), ϕ(x2 ) F
    ves rem—rques e'e™tuées sur le ™hoix de l— fon™tion noy—u sont les mêmes que pour
l— méthode uEp™— X le ™hoix du noy—u et les p—r—mètres —sso™iés doivent ™orrespondre
à l9org—nis—tion sp—ti—le des donnéesF


3.3.2 Classication faiblement supervisée
    h—ns ™ette se™tion nous proposons une méthode d9—pprentiss—ge f—i˜lement superE
visé des p—r—mètres du modèle dis™rimin—ntF …ne méthode ™onsiste à développer un
™l—ssi(eur ƒ†w f—i˜lement superviséD —u lieu de ç—D nous proposons une méthode plus
trivi—le X l— modi(™—tion du ™ritère de pisherF ve ™—s non liné—ire est ensuite o˜tenu
à l9—ide de l— méthode uEp™—F pin—lementD l— seule di'éren™e qu9il existe entre le ™l—sE
si(eur ƒ†w non liné—ire et l9—n—lyse de pisher non liné—ire réside d—ns le ™—l™ul des
™oe0™ients de l9hyperpl—n sép—r—teur liné—ireD l— tr—nsform—tion de l9esp—™e des —ttriE
˜uts ét—nt e'e™tuée de l— même m—nière pour les deux —ppro™hesF


Optimisation de Fisher
    xous —vons vu que pour un jeux de données d9—pprentiss—ge supervisé {xn , yn }D où
yn = i si xn est de l— ™l—sse iD l9—n—lyse dis™rimin—nte de pisher d—ns le ™—s de P ™l—sses
™onsiste à ™—l™uler les moyennes µ1 et µ2 D et les m—tri™es de ™ov—ri—n™es Σ1 et Σ2 D
respe™tivement de l— ™l—sse i et du regroupement des —utres ™l—ssesF ves p—r—mètres du
modèle dis™rimin—nt Θ = {ωi , bi } sont —lors ™—l™ulés ™omme indiqué d—ns les expressions
@QFPVA et @QFPWAF
   in —pprentiss—ge f—i˜lement superviséD le jeu de données est ™onstitué d9o˜jets
—sso™iés à un ve™teur d9— priori sur les ™l—sses X {xkn , πk }F it—nt donné que les ™l—sses
des o˜jets ne sont p—s ™onnuesD nous ne pouvons p—s ™—l™uler dire™tement les points
moyens et les m—tri™e de ™ov—ri—n™esF
    €our le ™—l™ul des momentsD nous proposons de ™—l™uler une espér—n™e ™onditionnelle
rel—tive —ux — prioriF einsiD l— moyenne µ1 et l— m—tri™e de ™ov—ri—n™e Σ1 de l— ™l—sse
i prennent respe™tivement pour expression X
                                         K N (k)
                                                          πki xkn
                                          k       n
                                  µ1 =                                              @QFRSA
                                              K N (k)
                                                           πki
                                              k       n
CHAPITRE 3.             CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xlii                                                                      MODÈLES PROPOSÉS




et
                                 K N (k)
                                             πki (xkn − µ1 )(xkn − µ1 )T
                                 k       n
                        Σ1 =                                                          @QFRTA
                                                     K N (k)
                                                                 πki
                                                     k       n

„—ndis que l— moyenne µ2 et l— m—tri™e de ™ov—ri—n™e Σ2 du regoupement des —utres
™l—sses prennent respe™tivement pour expression X
                                             K N (k)
                                                         (1 − πki )xkn
                                             k       n
                                 µ2 =                                                 @QFRUA
                                                 K N (k)
                                                             (1 − πki )
                                                 k       n

et
                             K N (k)
                                         (1 − πki )(xkn − µ2 )(xkn − µ2 )T
                             k       n
                     Σ2 =                                                             @QFRVA
                                                 K N (k)
                                                             (1 − πki )
                                                 k       n

    gette méthode présente trois —v—nt—gesF „out d9—˜ordD seules les inform—tions dispoE
ni˜les sont exploitées X le ™—l™ul des moyennes et des m—tri™es de ™ov—ri—n™e est e'e™tué
à l9—ide des toutes les données d9—pprentiss—geF h9—utre p—rtD l— méthode proposée est
très simple puisqu9elle ne modi(e en rien l— démonstr—tion de l9—n—lyse de pisherF inE
(nD une —n—lyse plus (ne du modèle —™™rédite le ™hoix d9une telle pondér—tionF €—r
exempleD pour le ™—l™ul de l— moyenne µ1 d—ns l9expression @QFRSAD les individus qui ont
un — priori fort ™ontri˜uent d—v—nt—ge —u ™—l™ul de l— moyenne ™ontr—irement à ™eux
dont l9— priori est plus f—i˜leF gel— permet de donner d9—v—nt—ge de poids —ux données
dont les inform—tions sur l— ™l—sse d9origine sont plus import—ntesF


3.4 Arbres de classication
    h—ns le ™h—pitre QFRD nous tr—itons le ™—s des —r˜res de ™l—ssi(™—tionD en™ore —ppelés
—r˜res de dé™isionF h—ns un premier tempsD d—ns l— se™tion QFRFID nous dét—illons le
™—s de l9—pprentiss—ge superviséF ve ™—s de l9—pprentiss—ge f—i˜lement supervisé ser—
tr—ité d—ns l— se™tion QFRFP et une méthode de ™onstru™tion d9un —r˜re de ™l—ssi(™—E
tionGdé™ision est proposée pour des données f—i˜lement l—˜elliséesF


3.4.1 Classication supervisée
   ve prin™ipe de l9—pprentiss—ge des —r˜res de ™l—ssi(™—tion repose sur un é™h—ntillonE
n—ge de l9esp—™e tel que l— t—ille des é™h—ntillons dépend de l9org—nis—tion des donnéesF
3.4.   ARBRES DE CLASSIFICATION                                                        xliii




        Figure 3.5  Exemple en deux dimensions d'un arbre de classication qui
                             sépare les étoiles et les losanges.


€—rt—nt d9un jeu de données ™ontenu d—ns un hyper volume de t—ille in(niD l— méthode
™onsiste à ™réer des sousEé™h—ntillons de l9esp—™e des des™ripteurs itér—tivementF v— s™isE
sion d9un volume é™h—ntillonné est e'e™tuée de telle sorte que les sousEvolumes o˜tenus
soient les plus homogènes possi˜les visEàEvis des ™l—ssesF ƒi un volume n9est p—s —ssez
homogèneD il est s™indé à son tourF u—nd un sous esp—™e est su0s—mment homogène
en ™l—ssesD on lui —ttri˜ue l9étiquette de l— ™l—sse l— plus fréquenteF pin—lementD lors de
l— ™l—ssi(™—tionD tout individu test ™ontenu d—ns ™e volume élément—ire est ™onsidéré
™omme ét—nt de l— ™l—sse ™orrespond—nteF
    v9exemple de l— (gure QFS illustre ™es proposF h—ns ™ette (gureD l9o˜je™tif est de
sép—rer les étoiles et les los—nges représentés d—ns un esp—™e de dimension deuxF v9—pE
prentiss—ge produit l9—r˜re représenté p—r ™inq noeudsF ve premier noeud est un noeud
4père4 qui — deux noeuds 4(ls4 —sso™iésD dont l9un est un noeud 4termin—l4 et l9—utre
est —ussi un noeud père qui est —sso™ié à deux noeuds (ls termin—uxF v9—r˜re —insi
™réé produit une s™ission de l9esp—™e in(ni en trois sousEé™h—ntillons in(nisF ve premier
volume é™h—ntillonné est l9esp—™e X2  c2 qui est —sso™ié —ux los—ngesD t—ndis que les
deux —utres sont les esp—™es (X2  c2 , X1  c1 ) et (X2  c2 , X1  c1 ) respe™tivement
—sso™iés —ux los—nges et —ux étoilesF
    v9exemple pré™édent signi(e que l— ™onstru™tion d9un —r˜re revient à ét—˜lir une
su™™ession de ™onditions liées à des v—leurs de ™oupure pour di'érents —ttri˜utsF €lus
pré™isémentD en un noeud donnéD il f—ut déterminer l— v—leur de ™oupure cd —sso™iée
—u des™ripteur d telle que les noeuds (ls soient le plus homogènes possi˜le en ™l—sseF
ƒi G est le g—in d9inform—tion mesurée entre le noeud père et les noeuds (lsD —lors l—
meilleur v—leur de ™oupure cd ser— ™elle qui m—ximise ™e g—inF sl en ressort le ™ritère de
séle™tion de d et cd X
                                       arg max G                                    @QFRWA
                                            {d,cd }

v— mesure de l9homogénéité des ™l—sses est une qu—ntité d9inform—tions que nous notons
CHAPITRE 3.      CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xliv                                                              MODÈLES PROPOSÉS




I m —u noeud (ls m et I 0 —u noeud pèreF ve g—in d9inform—tions se ™—l™ule —lors de l—
m—nière suiv—nte X

                                  G=              Im   − I0                       @QFSHA
                                          m

h—ns l— méthode gRFS ‘UH“D l— qu—ntité d9inform—tions Im du noeud m ™orrespond à
l9entropie de ƒh—nnon X
                                Im = −           pmi log(pmi )                    @QFSIA
                                             i

où pmi est l— pro˜—˜ilité de l— ™l—sse i d—ns le noeud mF h—ns l— méthode gFeF‚F„F
‘TV“D ™ette qu—ntité d9inform—tions s9exprime en fon™tion de l9indi™e de qini ‘ISS“ X

                               Im = −            pmi (1 − pmi )                   @QFSPA
                                         i


   v— lisi˜ilité des règles de dé™isionD ˜—sée sur de simples seuilsD f—it que les —r˜res
de ™l—ssi(™—tion ont l9—v—nt—ge de dé™rire expli™itement les donnéesF v— r—pidité d9exéE
™ution et l— f—™ilité d9implément—tion sont d9—utres —touts import—ntsF w—lgré toutD
™es méthodes sont très inst—˜les d9une expérien™e à l9—utreF ves —r˜res o˜tenus et les
perform—n™es de ™l—ssi(™—tion di'èrent fortement si le jeu de données d9—pprentiss—ge
su˜it quelques v—ri—tionsF €—r exempleD d—ns l— (gure QFSD l9—r˜re o˜tenu n9est p—s exE
™lusifD une multitude d9—r˜res —ur—ient pu ™onvenirF xous verrons que les te™hniques
d9ensem˜le de ™l—ssi(eurs ™onstituent une solution à ™e pro˜lème @™fF ™h—pitre RAF


3.4.2 Classication faiblement supervisée
    ves —r˜res de ™l—ssi(™—tion ont été développés d—ns un ™—dre d9—pprentiss—ge superE
viséF xous souh—itons développer une te™hnique d9—r˜res de ™l—ssi(™—tion —d—ptée —ux
données d9—pprentiss—ge du type {xkn , πk }1≤k≤K,1≤n≤N (k) D où n indi™e les o˜jets d—ns
l9im—ge k F
    v9—ppro™he ™onsiste à ét—˜lir un nouve—u ™ritère de s™ission des données lors de
l9—pprentiss—geF in s9—ppuy—nt sur l— méthode gRFS ‘UH“D un ™ritère de sép—r—tion des
données ˜—sé sur l9— priori des ™l—sses est proposéF xous ™her™hons toujours à m—ximiser
le g—in d9inform—tion p—r r—pport à l— v—leur de ™oupure cd et —u des™ripteur d —sso™iéD
et en exprim—nt l— qu—ntité d9inform—tion Im —u noeud (ls m ∈ (N )∗ tel que X

                                Im = −           pmi log(pmi )                    @QFSQA
                                             i


où pmi est l— pro˜—˜ilité de ™l—sse i d—ns le noeud mF h—ns le ™—s de l9—pprentiss—ge
superviséD pmi est l— proportion d9individus de l— ™l—sse i —u noeud (ls m p—r r—pport à
l9ensem˜le des individus de l— ™l—sse i —u noeud pèreF h—ns le ™—s f—i˜lement superviséD
le nom˜re d9individus de l— ™l—sse i est indéterminéF xous proposons don™ d9estimer l—
pro˜—˜ilité pmi plutôt en ten—nt ™ompte des — priori πkn F €our un —ttri˜ut dD en not—nt
xd l— proje™tion de xkn sur l9—ttri˜ut dD —lors d—ns le premier noeud (ls m1 qui est tel
  kn
3.5.   CONCLUSION                                                                       xlv


xd ≤ cd où cd est l— v—leur de ™oupure du des™ripteur dD l— pro˜—˜ilité de l— ™l—sse i
  kn
s9exprime —insi X
                                                (πki )α
                                             {k,n}|{xkn }≤cd
                            pm 1 i =                                               @QFSRA
                                        I                                   
                                                                   (πkj )α
                                                                            
                                       j=1       {k,n}|{xkn }≤cd

h—ns le se™ond noeud (ls m2 D tel que xd ≥ cd D l— pro˜—˜ilité de l— ™l—sse i s9exprime
                                       kn
—insi X
                                                 (πki )α
                                             {k,n}|{xkn }≥cd
                            pm 2 i =                                               @QFSSA
                                        I                                   
                                                                   (πkj )α
                                                                            
                                       j=1       {k,n}|{xkn }≤cd

α ∈ R+ est un p—r—mètre de pondér—tion qui — pour o˜je™tif de diminuer l9—pport
des exemples dont l9— priori est f—i˜le etD inversementD d9—ugmenter l— ™ontri˜ution des
exemples dont l9— priori est fortF gel— revient à f—ire ™on(—n™e —ux individus dont on
est presque sûr de l— ™l—sseD p—r exemple des individus dont l— pro˜—˜ilité est voisine de
πkn = 0, 8D et à négliger ™eux dont l— pro˜—˜ilité est voisine de πkn = 0F ƒi α tend vers 0D
les exemples de pro˜—˜ilité nulle ont une ™ontri˜ution nulleD les ™ontri˜utions des —utres
ét—nt sensi˜lement équiv—lentes entre ellesF ƒi α tend vers l9in(niD seuls les exemples
de pro˜—˜ilité très pro™hes de 1 ™ontri˜uent —u ™—l™ul de pmi F gette proposition est
inspirée de l9entropie de ‚ényi ‘IST“D qui qu—nti(e l— diversité et l— ™omplexité d9un
systèmeD et qui utilise un p—r—mètre α de f—çon simil—ireF
   ve ™hoix de l— somme d—ns les expressions @QFSRA et @QFSSA se justi(e p—r l— volonté
de n9ex™lure —u™une ™l—sse possi˜leF in e'etD si le produit est ™hoisi et s9il existe —u
moins un individu p—r ™l—sse dont l9— priori est nulD —lors l9inform—tion Im est nulle
quelque soit αF …n gr—nd nom˜re d9individus l—˜élisés très pro˜—˜lement peuvent —insi
voir leur ™ontri˜ution —nnulée du f—it de quelques exemples dont les — priori sont nulsF
ves dénomin—teurs des équ—tions @QFSRA et @QFSSA sont des ™oe0™ients de norm—lis—tionF
    in ™l—ssi(™—tion superviséD lors de l— ph—se de testD iFeF —près l9—pprentiss—geD à
™h—que noeud est —sso™iée une ™l—sse @qui ™orrespond à l— ™l—sse m—jorit—ire d—ns le
noeudAF in ™l—ssi(™—tion f—i˜lement superviséeD ™omme les ™l—sses ne sont p—s ™onnuesD
nous —ttri˜uons un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion à ™h—que noeud dont les
™ompos—ntes sont pmi F ge™i est d9—ut—nt plus import—nt que l9étiquette (n—le —sso™iée
—u dernier noeudD ™elle qui ser— —ttri˜uée —ux exemples de testD est don™ un ve™teur
de pro˜—˜ilité de ™l—ssi(™—tionD et non plus dire™tement l— ™l—sse ™omme d—ns le ™—s de
l9—pprentiss—ge superviséF


3.5 Conclusion
    h—ns ™e ™h—pitreD nous —vons étudié trois méthodes élément—ires de ™l—ssi(™—tion
très étudiés d—ns l— littér—tureF ges modèles proviennent de notions et d9—ppro™hes
CHAPITRE 3.      CLASSIFICATION FAIBLEMENT SUPERVISÉE :

xlvi                                                           MODÈLES PROPOSÉS




nettement opposéesF xous —vons présenté les form—lismes m—thém—tiques et proposé des
extensions —ux ™—s de l9—pprentiss—ge f—i˜lement superviséF in termes de perform—n™es
de ™l—ssi(™—tionD pour ™h—que modèleD il existe —u moins un jeu de données tel que les
perform—n™es du ™l—ssi(eur ™onsidéré soient supérieuresF
   gepend—ntD d9—utres méthodes utilisent ™es modèles élément—ires pour —™™roitre les
perform—n™es de ™l—ssi(™—tionF ges te™hniques ™onstituent l9o˜jet du ™h—pitre R X l9étude
de l9—sso™i—tion de ™l—ssi(eurs sous l— forme de ™l—ssi(™—tion itér—tive ou de fusion de
pro˜—˜ilitéF
CHAPITRE

                 4           Association de classieurs



4.1 Introduction
    h—ns ™ette thèseD plutôt que de m—nipuler des l—˜elsD des ve™teurs de pro˜—˜ilités
de ™l—ssi(™—tion dé™rivent l— n—ture des o˜jetsF v9introdu™tion des pro˜—˜ilités induit
des notions usuelles d9—pprentiss—ge itér—tif et de fusion d9inform—tions @™fF —lgorithme
iw ‘IR“D —pprentiss—ge semiEsupervisé itér—tif ‘IRW“D et™AF ejoutons que le ™—dre génér—l
de l9—sso™i—tion de ™l—ssi(eurs multiples est l—rgement exploité d—ns le dom—ine de l—
™l—ssi(™—tion —utom—tique @‚—ndom forest ‘WS“D foosting ‘ISU“D et™AF h—ns ™e ™h—pitreD
nous étudions ™es deux —spe™ts de ™om˜in—isons de ™l—ssi(eurs X l9—sso™i—tion de ™l—sE
si(eurs multiples et l9—pprentiss—ge itér—tifD le point ™ommun ét—nt que des ™l—ssi(eurs
sont ™om˜inés entre euxF
    €remièrementD d—ns l— se™tion RFPD nous étudions les ensem˜les de ™l—ssi(eurs qui
font p—rtie des méthodes qui remportent —™tuellement un fr—n™ su™™ès dû —ux ex™elE
lentes perform—n™es de ™l—ssi(™—tionF v9idée est de générer un ensem˜le de ™l—ssi(eurs
qui proposent ™h—™un une solutionD puis une pro˜—˜ilité de ™l—ssi(™—tion (n—le est proE
posée en fusionn—nt ™h—que solution élément—ireF yn distingue deux gr—ndes f—milles de
méthodes X ™elles fondées sur le 4 ˜—gging 4 @les ™l—ssi(eurs générés sont indépend—ntsA
et ™elles fondées sur le 4 ˜oosting 4 qui ™onsidère une modi(™—tion dyn—mique des ™l—sE
si(eurs @l9—pprentiss—ge d9un ™l—ssi(eur donnée dépend des perform—n™es du ™l—ssi(eur
pré™édentAF
    heuxièmementD d—ns l— se™tion RFQD nous étudions les s™hém—s itér—tifsF ves ™l—ssiE
(eurs peuvent être ™om˜inés de m—nière itér—tiveD l9idée ét—nt d9utiliser l9inform—tion
intrinsèque donnée p—r un ™l—ssi(eur à une itér—tion donnée —(n de renfor™er l9—pprenE
tiss—ge du ™l—ssi(eur suiv—ntF …n ™l—ssi(eur à une itér—tion donnée peut —lors être vu
™omme un (ltre X si l— ™onn—iss—n™e pro˜—˜iliste du l—˜el est peu inform—tiveD iFeF les
pro˜—˜ilités — priori de ™l—ssi(™—tion sont f—i˜lesD —lors le ™l—ssi(eur est utilisé pour
fournir une nouvelle pro˜—˜ilité de ™l—ssi(™—tion qui est plus pro˜—˜le et moins ˜ruitéeF


4.2 Ensemble de classieurs
    xous ™ommençons p—r un ˜ref ét—t de l9—rt d—ns lequel nous donnons quelques
dé(nitionsF gette présent—tion synthétique — pour o˜je™tif d9introduire les méthodes
les plus ™onnues et les plus perform—ntesF in rev—n™heD d—ns les se™tions RFPFP et RFPFQD
xlviii                            CHAPITRE 4.       ASSOCIATION DE CLASSIFIEURS




nous ™hoisissons un type de méthode X les forêts —lé—toiresD que nous développons plus en
dét—il respe™tivement pour les ™—s de l9—pprentiss—ge supervisé et f—i˜lement superviséF


4.2.1 Etat de l'art
    ves ™l—ssi(eurs sont plus ou moins perform—ntsD plus ou moins st—˜lesF he m—nière
génér—leD les ensem˜les de ™l—ssi(eurs exploitent l9inst—˜ilité de ™ert—ins modèles de
™l—ssi(™—tionF h—ns ™e ™—sD un ™l—ssi(eur très inst—˜le est préféré à un ™l—ssi(eur très
perform—ntD st—˜le et ro˜usteF …n ™l—ssi(eur peu perform—ntD seulD n9est p—s ˜éné(que
m—is qu—nd plusieurs de ™es ™l—ssi(eurs sont regroupés ensem˜leD ils deviennent ™omE
pétitifsF €lus ils sont inst—˜lesD plus l— qu—ntité d9inform—tions est ri™heD le ˜ut ét—nt de
s—voir s—isir l9inform—tion utile fournie p—r ™h—™un des ™l—ssi(eursF ge™i justi(e l9emploi
de ™l—ssi(eurs dits 4 f—i˜les 4 @peu ro˜ustes et peu perform—ntsA tels que les —r˜res de
™l—ssi(™—tion et les ™l—ssi(eurs ˜—yésiens n—ïfs @voir se™tion PFPFI du ™h—pitre PAF
    v— première f—mille de méthodes — pour origine l— proposition de freim—n de ™omE
˜iner des ™l—ssi(eurs à l9—ide du f—gging ‘ISV“F v9idée est de générer un ensem˜le de
™l—ssi(eurs qui sont ™h—™un o˜tenus à p—rtir d9un sous ensem˜le —lé—toire des données
d9—pprentiss—geF v— séle™tion —lé—toire d9un sous ensem˜le d9—pprentiss—ge — ˜ut de
™réer de l9inst—˜ilité entre ™l—ssi(eursF ve ™hoix de ™l—ssi(™—tion (n—l est o˜tenu en
vot—nt sur l9ensem˜le des propositionsF ƒi freim—n utilise des ensem˜les d9—r˜res de
™l—ssi(™—tionD d9—utres méthodes mêlent ˜—gging et modèles dis™rimin—nts ou ˜—gging
et modèles génér—tifsF €—r exempleD uim ‘ISW“ et h—ng ‘ITH“ proposent de ™om˜iner
des ™l—ssi(eurs ƒ†w à l9—ide du ˜—ggingD d—ns d9—utres p—piers ‘ITI“ ‘ITP“D des modèles
˜—yésiens n—ïfsD issus de sous é™h—ntillons de données d9—pprentiss—ge sont —sso™iés entre
euxF
    ve ˜—gging — montré que l9—sso™i—tion de ™l—ssi(eurs pouv—it —méliorer nettement
les perform—n™es de ™l—ssi(™—tionF gepend—ntD le pro™essus de fusion du ˜—gging ™orresE
pond à une règle extrêmement simpleF einsi sont —pp—rues d9—utres méthodes qui sont
regroupées sous le nom de 4 ˜oosting 4F ve prin™ipe génér—l est de générer un ensem˜le
de ™l—ssi(eurs dont les résult—ts de ™l—ssi(™—tion sont pondérés en fon™tion du pouvoir
dis™rimin—nt de ™h—que ™l—ssi(eurF v9—lgorithme le plus ™élè˜re est 4 —d—˜oost 4 ‘ISU“
‘ITQ“ ‘ITR“ @en —ngl—isD —˜révi—tion de 4 ed—ptive foosting 4AF v9idée est de ™—l™uler
une pro˜—˜ilité de ™l—ssi(™—tion qui résulte d9une somme pondérée des pro˜—˜ilités de
™l—ssi(™—tion de ™h—que ™l—ssi(eur élément—iresF ves poids sont déterminés en fon™tion
des perform—n™es de ™l—ssi(™—tion du ™l—ssi(eur élément—ire ™onsidéréF ve pro™essus
est itér—tif tel queD d9une itér—tion à l9—utreD les ™l—ssi(eurs ™on™entrent leur f—™ulté de
dis™rimin—tion sur les exemples di0™iles issus du re™ouvrement entre ™l—ssesF einsiD les
™l—ssi(eurs issus des premières itér—tions —uront de ˜onnes perform—n™es glo˜—lesD t—nE
dis que les ™l—ssi(eurs issus des dernières itér—tions seront uniquement perform—nts sur
les exemples di0™ilesF ve meilleur ™l—ssi(eur Cr d9une itér—tion r donnée est ™elui qui
minimise une fon™tion de ™oût qui est fon™tion des poids —ttri˜ués à ™h—que exempleF
v9—lgorithme ™omplet est donné d—ns le t—˜le—u RFI d—ns le ™—s de l9—pprentiss—ge suE
pervisé et pour P ™l—ssesF he nom˜reuses —utres versions et extensions sont issues de
—d—˜oostF €—r exempleD 4 logit˜oost 4 ‘ITS“ est l— version sto™h—stique d9—d—˜oostF
€lutôt que d9—ttri˜uer une ™l—sse ˜in—ire —ux exemples @l9exemple 4 —pp—rtient 4 ou
4.2.   ENSEMBLE DE CLASSIFIEURS                                                                xlix


4 n9—pp—rtient p—s 4 à l— ™l—sse ™onsidéréeAD une régression logistique donne une v—E
leur intermédi—ire pro˜—˜ilisteF €—r exempleD des ™l—ssi(eurs ˜—yésiens n—ïfs ‘PR“ ou des
—r˜res de ™l—ssi(™—tion ‘ITT“ peuvent être employés d—ns le ™—dre de logit˜oostF hivers
—lgorithmes @4 ˜rown˜oost 4 ‘ITQ“D 4 m—d—˜oost4 ‘ITU“D hyyw ‘ITV“A sont ™onçus pour
être plus ro˜ustes —ux ˜ruits de ™ert—ins jeux de données @™eux dont le t—ux de re™ouE
vrement entre ™l—sses est élevéAF ves di'éren™es p—r r—pport à —d—˜oost et logit˜oost se
situent d—ns l— fon™tion de ™oût qui peut être exponentielle ‘ISU“ ‘ITS“D sigmoïd—le ‘ITV“D
exponentielle ˜ornée ‘ITU“D monotone ‘ITQ“D F F F hes tr—v—ux ‘ITW“ montrent que ˜rownE
˜oost est meilleur qu9—d—˜oost pour des jeux de données ˜ruitéesD m—is glo˜—lementD
™es méthodes ne donnent p—s de g—in signi(™—tifF

 ƒoit l9ensem˜le d9—pprentiss—ge {xn , yn }1≤n≤N tel que yn = {+1, −1} et M itér—tionsD
   IF sniti—lis—tion uniforme des poids des exemples X
      P1 (n) = 1/N
   PF €our r —ll—nt de I à R X
      ! „rouver le ™l—ssi(eur Cr qui minimise l9erreur de ™l—ssi(™—tion en fon™tion de l—
        di0™ulté des exemples Pr X
                             N

          r   = arg minCr         Pr (n) [δ (yn , Cr (xn ))] où Cr (xn ) = {+1, −1} indique l— ™l—sse
                            n=1
         estimée p—r Cr et δ (y1 , y2 ) = 1 si y1 = y2 F
       ! ƒi m ≥ 0, 5 —ller à l9ét—pe QF
       ! ghoix du poids du ™l—ssi(eur X αr = 1 ln 1−r r
                                                  2
       ! wise à jour de l— pondér—tion des exemples d9—pprentiss—ge X
         Pr+1 = Pr (n)exp[−αrr yn Cr (xn )]
                           Z
         où Zr est un ™oe0™ient de norm—lis—tionF
   QF ve ™l—ssi(eur (n—l C(x) qui —ttri˜ue une ™l—sse à l9exemple x est X
                        R
       C(x) = sign           αr Cr (x)
                       r=1

                                 Tableau 4.1  Algorithme adaBoost.
   h—ns les se™tions suiv—ntesD nous ™hoisissons l9une de ™es méthodes d9—sso™i—tion
de ™l—ssi(eurs que nous développons d—ns le ™—s de l9—pprentiss—ge supervisé et f—i˜leE
ment superviséF xous ™hoisissons les forêts —lé—toiresF xotons que des tr—v—ux ‘IUH“ ont
montré que les méthodes fondées sur le ˜—gging donnent de meilleurs résult—ts pour
des jeux de données ˜ruitées que les méthodes de ˜oostingF ‚é™iproquement on préfère
employer des te™hniques de ˜oosting pour des données f—i˜lement ˜ruitéesF


4.2.2 Random forest : apprentissage supervisé
    h—ns le ™—dre du ˜—gging —ve™ des —r˜res de dé™isionD ro propose d9—méliorer l—
méthode en ™ré—nt en™ore plus d9inst—˜ilité entre les —r˜res ‘IUI“F €our ™el—D il propose
d9utiliser un sousEé™h—ntillon des des™ripteurs en ™h—que noeud de ™h—que —r˜re de
l— forêtF ve nom˜re de v—ri—˜le ™hoisi en un noeud est dé(ni de m—nière empirique
l                                 CHAPITRE 4.      ASSOCIATION DE CLASSIFIEURS




       Figure 4.1  Dans le cadre des forêts aléatoires, les frontières imprécises et
       grossières des classieurs faibles sont moyennées pour donner une frontière
                                         plus précise.


                                  √
‘IUP“ ‘WS“F gert—ins pré™onisent D ‘IUP“D d9—utres round(log2 (D) + 1) ‘WS“D où D est le
nom˜re tot—l d9—ttri˜uts et round() séle™tionne l9entier le plus pro™heF qlo˜—lementD les
perform—n™es dé™roissent si le nom˜re d9—ttri˜uts ™hoisit pour ™h—que noeud est soit
trop f—i˜leD soit trop élevéF v9—sso™i—tion du ˜—gging d9—r˜re de dé™ision —ve™ le ™hoix
d9un sousEé™h—ntillon de des™ripteurs en ™h—que noeud forme les 4 forêts —lé—toires
4F hes extensions de l— méthode permettent de g—gner en inst—˜ilités et en r—piditéF
€—r exempleD les 4 extr—Etrees 4 ‘IUP“ proposent de prendre le premier sousEé™h—ntillon
—lé—toire de des™ripteurs en un noeud donnéD ™ontr—irement —ux forêts —lé—toires qui
séle™tionnent le meilleur des sousEé™h—ntillons de des™ripteursF
    he m—nière intuitiveD l— forte v—ri—˜ilité des —r˜res o˜tenus et l— fusion des ™l—sE
si(eurs font qu9il se dét—™he une frontière moyenne qui réduit les pro˜lèmes de surE
—pprentiss—ge intrinsèques —ux —r˜res de ™l—ssi(™—tion @se™tion QFRAF v9exemple de l—
(gure RFI illustre le pro™édéF h—ns ™et exempleD les frontières générées individuellement
p—r les —r˜res de l— forêt sont impré™ises et grossièresD —lors que l— frontière moyenneD
issue de l— fusion des ™l—ssi(eursD est ˜e—u™oup plus —ppropriéeF „out exemple test est
™l—ssé p—r ™h—™un des —r˜res de l— forêt qui lui —ttri˜ue un l—˜elD puis l— fusion des
™l—ssi(eurs est e'e™tuée p—r un simple vote en f—veur de l— ™l—sse m—jorit—ireF



4.2.3 Random forest : apprentissage faiblement supervisé
   xous ™onsidérons i™i une forêt d9—r˜res ™omme ™eux dé™rits d—ns l— se™tion QFRFP du
™h—pitre QD iFeF des —r˜res o˜tenus à l9—ide de données d9—pprentiss—ge dont l9inform—tion
sur les l—˜els est données p—r un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion — prioriF ges
—r˜res prennent un ve™teur de pro˜—˜ilités en entréeD iFeF pour l9—pprentiss—geD et ils
proposent un ve™teur de pro˜—˜ilités de ™l—ssi(™—tion en sortieD iFeF pour l— ph—se de
4.3.   CLASSIFICATION ITÉRATIVE                                                              li


testF ve pro˜lème est de fusionner ™es pro˜—˜ilitésF
    h—ns le ™—s superviséD un vote est e'e™tué entre les —r˜res de l— forêt pour déterminer
quelle est l— ™l—sse m—jorit—ireF he m—nière très —n—logueD d—ns le ™—s de l9—pprentiss—ge
f—i˜lement superviséD nous proposons d9e'e™tuer l— moyenne des pro˜—˜ilités des ™l—sses
proposées p—r ™h—™un des —r˜res de l— forêtF in not—nt pt = [pt1 . . . ptI ]D l9étiquette
—ttri˜uée à l9individu test x p—r l9—r˜re de l— forêt indi™é p—r tD l— pro˜—˜ilité — posteriori
de ™l—ssi(™—tion s9é™rit X
                                                      T
                                                  1
                                   p(y = i|x) =          pti                              @RFIA
                                                  T t=1
où T est le nom˜re d9—r˜res de l— forêtF v9ét—pe de ™l—ssi(™—tion ™onsiste à séle™tionner
l— ™l—sse l— plus pro˜—˜le —u sens de l— pro˜—˜ilité — posteriori @RFIAF
   xotons que si nous ™onsidérons un seul —r˜reD le f—it d9—ttri˜uer un ve™teur de
pro˜—˜ilité de ™l—ssi(™—tion peut poser pro˜lème si le l—˜el o˜tenu donne une situ—tion
d9équipro˜—˜ilitéF uelle ™l—sse —ttri˜uer —lors à l9individu test c ves forêts —lé—toires
résolvent le pro˜lème si —u moins un des —r˜res de l— forêt ne donne p—s une situ—tion
d9équipro˜—˜ilitéF
    in(nD de m—nière génér—leD l— di0™ulté est d9ét—˜lir un ™l—ssi(eur élément—ire dont
les p—r—mètres sont estimés à p—rtir de pro˜—˜ilités de ™l—ssi(™—tion — prioriF …ne fois
™ette tâ™he —™™omplieD des ™l—ssi(eurs élément—ires peuvent être ™om˜inés vi— les forêts
—lé—toires ou le ˜oostingF s™iD nous —vons ™hoisi i™i les forêts —lé—toires qui se prêtent
d—v—nt—ge à l— ™l—ssi(™—tion de données ™omplexes qui se ™—r—™térisent p—r un fort t—ux
de re™ouvrent inter ™l—sse ‘IUH“F


4.3 Classication itérative
    h—ns ™ette se™tionD nous proposons un pro™essus itér—tif inspiré de l9—pprentiss—ge
semiEsuperviséD plus p—rti™ulièrement du 4 selfEtr—ining 4F ve 4 selfEtr—ining 4 est étendu
—u ™—s de l9—pprentiss—ge f—i˜lement superviséF heux méthodes sont envis—géesD une
méthode simple et n—ïve qui présente des pro˜lèmes de surE—pprentiss—ge @se™tion RFQFIA
et une méthode —méliorée qui élimine les e'ets de surE—pprentiss—ge @se™tion RFQFPAF


4.3.1 Apprentissage itératif simple
    xous proposons un —pprentiss—ge itér—tif du ™l—ssi(eurF ve pro™essus est uniqueE
ment —ppliqué à l9ensem˜le d9—pprentiss—geD l9idée ét—nt de modi(er itér—tivement les
pro˜—˜ilités de ™l—ssi(™—tion — priori de l9ensem˜le d9—pprentiss—geF in utilis—nt les
inform—tions fournies p—r ™h—que ™l—ssi(eurD les l—˜els ™onvergent vers les ™l—sses réelles
des exemples d9—pprentiss—geF einsiD le ™l—ssi(eur à une itér—tion donnée peut être vu
™omme un (ltre qui —git sur les l—˜els ˜ruités et —™™roit les pro˜—˜ilités de ™l—ssi(E
™—tionF gette idée vient de l9—pprentiss—ge semiEsuperviséD —ve™ le 4 selfEtr—ining 4F e
™h—que itér—tionD les données l—˜élisées génèrent un ™l—ssi(eur pro˜—˜iliste qui —ttri˜ue
une ™l—sse —ux données s—ns l—˜elF ves données qui ont les plus fortes pro˜—˜ilités de
™l—ssi(™—tion sont —joutées —ux données l—˜ellisées pour l9itér—tion suiv—nteF
lii                                CHAPITRE 4.       ASSOCIATION DE CLASSIFIEURS




    ves pro™édures itér—tives sont —ppliquées d—ns di'érents ™ontextesD m—is le ™l—ssi(eur
utilisé est souvent un ™l—ssi(eur pro˜—˜iliste génér—tif ‘PS“ ‘Q“ qui prend des ™l—sses en
entrée @pour l9—pprentiss—geA et fournit des pro˜—˜ilités à l— sortieF ve point nég—tif de
™ette —ppro™he est l— possi˜ilité de prop—ger des erreurs dès les premières itér—tions
@du f—it de l9—'e™t—tion d9une ™l—sse sur l— ˜—se des pro˜—˜ilités de ™l—ssi(™—tionAF €our
réduire les e'ets de prop—g—tion d9erreursD nous n9—ttri˜uons p—s de ™l—sse dé(nitive
—ux exemples s—ns l—˜elsD m—is les pro˜—˜ilités de ™l—ssi(™—tion sont ™onservéesF
    †oi™i ™omment est implémentée l— pro™édure itér—tive d9—pprentiss—ge que nous —pE
pelons 4 sterI 4F e l9itér—tion rD ét—nt donné l9ensem˜le d9—pprentiss—ge f—i˜lement
supervisé {xn , πn }D un ™l—ssi(eur Cr est ™onstituéF ve ™l—ssi(eur Cr est ensuite utilisé
                 r

pour mettre à jour les données d9—pprentiss—ge {xn , πn } et fournir de nouvelles proE
                                                            r

˜—˜ilités de ™l—ssi(™—tion π F gette mise à jour des l—˜els pro˜—˜ilistes π r+1 doit
                              r+1

exploiterD à l— fois les inform—tions fournies p—r le ™l—ssi(eur Cr D iFeF l— pro˜—˜ilité de
™l—ssi(™—tion — posteriori p(xn |yn = i, Cr )D et l9inform—tion — priori initi—le π 1 F v— mise
à jour des l—˜els est —insi donnée p—r l9expression suiv—nte X
                                  r+1  1
                                 πn ∝ πn p(yn = i|xn , Cr )                              @RFPA

v9—lgorithme est présenté d—ns le t—˜le—u RFPF xotons que le ™l—ssi(eur (n—l est —ppris
à l9—ide de l9ensem˜le d9—pprentiss—ge {xn , πn }F
                                              R+1



  ƒoit l9ensem˜le d9—pprentiss—ge T1 = {xn , πn } et R itér—tionsD
                                              1

      IF €our r —ll—nt de I à R X
         ! epprendre un ™l—ssi(eur Cr à l9—ide de l9ensem˜le d9—pprentiss—ge Tr F
         ! gl—sser l9ensem˜le d9—pprentiss—ge Tr en utilis—nt le ™l—ssi(eur Cr F
         ! wise à jour de l9ensem˜le d9—pprentiss—ge Tr+1 = {xn , πn }
                                                                    r+1

           —ve™ πn ∝ πn p(yn = i|xn , Cr )F
                 r+1     1

      PF epprendre le ™l—ssi(eur (n—l —ve™ l9ensem˜le d9—pprentis—ge TR+1 F

         Tableau 4.2  Procédure itérative simple pour l'apprentissage faiblement su-
                                       pervisé (Iter1).


4.3.2 Apprentissage itératif amélioré
    ve prin™ip—l déf—ut de l— pro™édure itér—tive sterID présentée d—ns l— se™tion RFQFID est
le surE—pprentiss—geD iFeF le ™l—ssi(eur (n—l est uniquement perform—nt pour les données
d9—pprentiss—ge et les perform—n™es de ™l—ssi(™—tion sont m—uv—ises pour les données
de l9ensem˜le de testF €our l— pro™édure itér—tive sterID l9origine de ™e phénomène
vient du f—it que les données qui sont ™l—ssées p—r le ™l—ssi(eur Cr sont —ussi ™elles qui
permettent d9—pprendre le ™l—ssi(eur Cr F einsiD l9optimis—tion des ™l—ssi(eurs n9est p—s
—ssez génér—le ™—r elle se fo™—lise uniquement sur les données d9—pprentiss—geF
   e(n de résoudre le pro˜lèmeD une —utre pro™édure itér—tive est proposéeD nous l9—pE
pelons sterPF v9idée est de sép—rer l— mise à jours des pro˜—˜ilités de ™l—ssi(™—tion —
priori et l— règle d9—pprentiss—ge de l— pro˜—˜ilité de ™l—ssi(™—tion — posterioriF xous
proposons de sép—rer —lé—toirement l9ensem˜le d9—pprentiss—ge en deux sousEensem˜lesD
4.4.   CONCLUSION                                                                        liii


l9un ét—nt employé pour —pprendre un ™l—ssi(eurD et les données de l9—utre ét—nt ™l—ssées
p—r ™e ™l—ssi(eurF €lus pré™isémentD nous pro™édons de l— f—çon suiv—nteF e l9itér—tion
rD l9ensem˜le d9—pprentiss—ge Tr = {xn , πn } est s™indé —lé—toirement en deux sousE
                                             r

ensem˜les X le sousEensem˜le d9—pprentiss—ge T rr et le sous ensem˜le de test T tr F T rr
permet d9—pprendre le ™l—ssi(eur pro˜—˜iliste Cr F ves données de T tr se voit —ttri˜uer
des pro˜—˜ilités de ™l—ssi(™—tion — posteriori à l9—ide de Cr et les pro˜—˜ilités de ™l—ssiE
(™—tion — priori sont mises à jour en utilis—nt l— même règle de mis à jour que pour le
pro™essus itér—tif sterI @expression @RFPAAF v— s™ission de Tr est e'e™tuée rel—tivement
à β qui donne l— proportion des exemples pl—™és d—ns le sousEensem˜le d9—pprentiss—ge
T rr D —lors que l— proportion des exemples pl—™és d—ns le sousEensem˜le de test T tr
est (1 − β)F ve ™hoix de β mène —u ™ompromis suiv—ntF e(n que le ™l—ssi(eur Cr soit
™orre™tement éstiméD le nom˜re d9exemples qui ™onstitue T rr doit être su0s—mment
élevéF w—is si β est trop gr—ndD seuls quelques exemples verront leur l—˜el mis à jour à
™h—que itér—tion et le temps de ™onvergen™e peut —lors être longF
   v9—lgorithme est présenté d—ns le t—˜le—u RFQF xotons que le ™l—ssi(eur (n—l est
—ppris à l9—ide de l9ensem˜le d9—pprentiss—ge {xn , πn }F
                                                     R+1



 ƒoit l9ensem˜le d9—pprentiss—ge T1 = {xn , πn } et R itér—tionsD
                                             1

   IF €our r —ll—nt de I à R X
      ! ƒ™inder —lé—toirement Tr en deux groupes X T rr = {xn , πn } et T tr = {xn , πn }
                                                                     r                r

        selon l— proportion β F
      ! epprendre un ™l—ssi(eur Cr à l9—ide de l9ensem˜le d9—pprentiss—ge T rr F
      ! gl—sser l9ensem˜le d9—pprentiss—ge T tr en utilis—nt le ™l—ssi(eur Cr F
      ! wise à jour de T tr+1 = {xn , πn }
                                       r+1

        —ve™ πn ∝ πn p(yn = i|xn , Cr )F
               r+1    1

      ! ‚eformer l9ensem˜le d9—pprentiss—ge Tr+1 tel que Tr+1 = {T rr , T tr+1 }F
   PF epprendre le ™l—ssi(eur (n—l —ve™ l9ensem˜le d9—pprentis—ge TR+1 F

        Tableau 4.3  Procédure itérative améliorée pour l'apprentissage faiblement
                                     supervisé (Iter2).

    xotons que le pro™essus itér—tif proposé est dou˜lement —ssoupli p—r r—pport —ux
méthodes de 4 selfEtr—ining 4 utilisées en —pprentiss—ge semiEsuperviséF h9une p—rt les
™l—ssi(eurs employés sont pro˜—˜ilistes t—nt à l9entrée qu9à l— sortieD et d9—utre p—rtD
tous les exemples p—rti™ipent à l9él—˜or—tion d9un ™l—ssi(eurD le poids de ™h—que exemple
d—ns l9—pprentiss—ge ét—nt lié à l— n—ture intrinsèque des ™l—ssi(eursF



4.4 Conclusion
    v— m—nipul—tion des pro˜—˜ilités de ™l—ssi(™—tion — priori ™omme inform—tions sur
les l—˜els implique l9emploi de ™l—ssi(eurs élément—ires dont l9—pprentiss—ge est f—i˜leE
ment superviséF h—ns le ™—s de l— ™l—ssi(™—tion f—i˜lement superviséD ™es ™l—ssi(eurs
élément—iresD étudiés d—ns le ™h—pitre QD peuvent —ussi être ™om˜inés entre euxF ge fut
l9o˜jet de ™e ™h—pitreF
liv                            CHAPITRE 4.     ASSOCIATION DE CLASSIFIEURS




   „rois types de ™om˜in—ison ont été étudiés X les ensem˜les de ™l—ssi(eurs qui ™omE
prennent les deux gr—ndes f—milles du 4 ˜oosting 4 et du 4 ˜—gging 4D et l9—pprentisE
s—ge itér—tif pour lequel nous —vons proposé une méthode qui supprime les e'ets de
surE—pprentiss—geF
   h—ns le ™h—pitre suiv—ntD nous ™omp—rons toutes ™es méthodes sur di'érents jeux
de donnéesF
CHAPITRE

                 5            Evaluations et
                              performances des modèles



5.1 Introduction
    h—ns ™e ™h—pitreD nous présentons des résult—ts de simul—tions sur des jeux de
données ™onnus proven—nt de l— ˜—se de données …gs ‘IUQ“F gomme les perform—n™es
de l— ™l—ssi(™—tion f—i˜lement supervisée dépendent l—rgement de l— ™omplexité des
données d9—pprentiss—geD nous devons m—itriser ™e p—r—mètreF einsiD à p—rtir d9un jeu de
données superviséesD des ensem˜les d9—pprentiss—ge f—i˜lement supervisés sont simulés
—ve™ plusieurs nive—ux d9in™ertitude qui s9exprime p—r les pro˜—˜ilités de ™l—ssi(™—tion —
priori des données d9—pprentiss—geF ve proto™ole de simul—tionD qui in™lut l— génér—tion
d9un ensem˜le d9—pprentiss—ge et d9un ensem˜le de testD est présenté d—ns l— se™tion
SFP et les jeux de données supervisées sont présentés d—ns l— se™tion SFQF
    ves perform—n™es de ™l—ssi(™—tion sont év—luées en termes de t—ux de ˜onne ™l—sE
si(™—tion et en termes de ro˜ustesse du modèle visEàEvis du nive—u de ˜ruit d—ns les
l—˜elsF in e'etD le ™l—ssi(eur idé—l est perform—nt en t—ux de réussite et ses résult—ts de
™l—ssi(™—tion sont identiques en —pprentiss—ge supervisé et en —pprentiss—ge f—i˜lement
superviséF einsiD deux types de résult—ts sont présentés X les perform—n™es de ™l—ssi(™—E
tion en fon™tion du nive—u de ˜ruit @se™tion SFRFQA et les perform—n™es de ™l—ssi(™—tion
en fon™tion du nom˜re de ™l—sses possi˜les pour ™h—que exemple @se™tion SFRFPAF
   xotons queD en plus des S modèles présentés d—ns les ™h—pitres pré™édents @l— proE
™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure itér—tive
—méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD les forêts —lé—toires seules @peAD le
modèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAAD nous propoE
sons l9emploi de l— pro™édure itér—tive simple qui ™om˜ine deux ™l—ssi(eurs @d9—˜ord
le modèle dis™rimin—nt non liné—ireD puis les forêts —lé—toiresA sur deux itér—tions @piE
sherCpeAF


5.2 Procédure de simulation
   …ne p—rt import—nte de l9év—lu—tion ™onsiste à mesurer l— réponse des modèles
de ™l—ssi(™—tion en fon™tion du nive—u de ™omplexité des données d9—pprentiss—geF ge
nive—u de ™omplexité est dé(ni p—r r—pport à l9in™ertitude lié à l— ™onn—iss—n™e des l—˜els
lvi        CHAPITRE 5.      EVALUATIONS ET PERFORMANCES DES MODÈLES




des données d9—pprentiss—geD représentée p—r les v—leurs des pro˜—˜ilités de ™l—ssi(™—tion
— priori —sso™iées —ux données d9—pprentiss—geF …n jeu de données dont les pro˜—˜ilités
— priori de ™l—ssi(™—tion sont fortes est peu ™omplexeD et un jeu de données pour lequel
les ™l—sses sont équipro˜—˜les est très ™omplexeF
    sl est don™ né™ess—ire de m—itriser le nive—u de ™omplexité pour ™h—que expérien™eF
€our ™el—D un jeu de données supervisées est ™hoisi à p—rtir duquel nous ™réons un enE
sem˜le d9—pprentiss—ge f—i˜lement l—˜éliséF ves données sont regroupées p—r groupes de
proportions de ™l—sses tels que les proportions indiquent le l—˜el pro˜—˜iliste —ttri˜ué
à ™h—que mem˜re du groupeF €lus pré™isémentD l— première ét—pe ™onsiste à ™hoisir
un jeu de proportions {πk } pour ™h—que groupe {k} d9exemplesD puis les exemples
sont distri˜ués d—ns les groupes pour —tteindre les proportions souh—itéesF in(nD l9enE
sem˜le d9—pprentiss—ge {xn , πn } est ™onstruit en —ttri˜u—nt à ™h—que exemple le l—˜el
™orrespond—nt à l— proportion de ™l—sses de son groupe d9—pp—rten—n™eF xotons qu9il
est préfér—˜le de ™hoisir un jeu de données équili˜ré en ™l—sses @qui ™ontient le même
nom˜re d9exemples p—r ™l—sseA —(n de f—™iliter l— rép—rtition des données d—ns les
groupes et de pouvoir ™réer un gr—nd nom˜re de mél—nges @plus l— ˜—se de données
™ontient d9exemplesD plus on peut ™réer de mél—nges di'érentsAF
    heux types d9expériment—tions sont présentésF „out d9—˜ord @se™tion SFRFPAD nous
év—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nive—u de ˜ruit du l—˜elD
—ll—nt du ™—s supervisé —u ™—s tot—lement ˜ruitéF h—ns un deuxième temps @se™tion
SFRFQAD nous év—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nom˜re de ™l—sses
présentes d—ns le mél—ngeF ves jeux de données sont présentés d—ns l— se™tion SFQF
   …ne fois qu9un jeu de données est ™hoisiD une v—lid—tion ™roisée permet d9év—luer le
t—ux moyen de ˜onnes ™l—ssi(™—tionsF v— v—lid—tion ™roisée ™onsiste à s™inder le jeu de
données plusieurs fois pour générer l9ensem˜le d9—pprentiss—ge et l9ensem˜le de testF
eprès ™h—que s™issionD un t—ux de ˜onne ™l—ssi(™—tion est extr—it pour ™h—que modèleF
ves résult—ts fournis d—ns ™e m—nus™rit sont les t—ux moyens de ˜onnes ™l—ssi(™—tions
sur l9ensem˜le de dix expérien™esF


5.3 Jeux de données
    ves jeux de données proviennent de l— ˜—se de données …gs ‘IUQ“F u—tre jeux
de données ont été séle™tionnés en fon™tion de ™ritères p—rti™uliersF „out d9—˜ordD ils
doivent ™ontenir plusieurs ™l—sses —(n de ™réer des — priori ™omplexes impliqu—nt un
gr—nd nom˜re de ™l—ssesF „ypiquementD nous —vons ™hoisi des jeux de données ™onten—nt
entre P et U ™l—ssesF insuiteD l— ˜—se de données doit ™ontenir su0s—mment d9exemples
p—r ™l—sse pour ™réer un gr—nd nom˜re de mél—nges et une gr—nde v—riété de types de
proportions @se™tion SFPAF in(nD les jeux de données doivent être équili˜rés en ™l—sses
pour que les mél—nges o˜tenus suivent les proportions imposées p—r les proportions
™i˜les @se™tion SFPAF ges ™ritères spé™i(ques nous ont permis de retenir qu—tre jeux de
données dont les ™—r—™téristiques sont données d—ns le t—˜le—u SFIF
    hI est un jeu de données proven—nt de l— ™ommun—uté de vision p—r ordin—teurF
sl ™ontient sept ™l—sses de texture d9im—ges @mur de ˜riquesD ™ielD feuill—geD ™imentD feE
nêtreD ™heminD et her˜eAD qui sont représentées p—r IW des™ripteurs de texture @intensitéD
5.4.   PERFORMANCES                                                                       lvii


s—tur—tionD F F F AF v9intérêt de ™e jeu de données est l— possi˜ilité de ™réer des mél—nges
™omplexes à sept ™l—ssesF hP est une ˜—se de données ™onten—nt des mesures extr—ites
sur une )eur @srisAF „rois ™l—sses d9sris sont représentées p—r les dimensions des pét—les
et des sép—les port—nt à qu—tre le nom˜re de des™ripteursF ve jeu de données hQ est
™omposé de gr—phiques @™our˜esAF ves ™our˜es des gr—phiques sont ™l—ssées p—rmi T
™l—sses X norm—lesD périodiquesD plutôt dé™roiss—ntesD plutôt ™roiss—ntesD dis™ontinues
vers le h—utD ou dis™ontinues vers le ˜—sF gh—que ™our˜es est représentées p—r un ve™E
teur de TH v—leursF gomme pour hID l9intérêt de ™e jeu de données se situe d—ns le gr—nd
nom˜re de ™l—sses proposéF in(nD hR est le jeu de données proposé p—r freim—n ‘TV“D
formé des des™ripteurs de formes d9ondesF IW des™ripteurs ™ontinus dé™rivent Q ™l—sses
d9ondes formées de l— ™om˜in—ison de plusieurs ˜—ses d9ondes —uxquelles s9—joute du
˜ruit q—ussienF

         Base de Nature                Nombre Exemples Descripteurs
         données                       de classes par classe
         hI           „exture          U              QQH            IW @gontinusA
         hP           †égét—l          Q              SH             R @gontinusA
         hQ           qr—phique        T              IHH            TH @™ontinusA
         hR           porme d9onde     Q              PHH            IW @gontinusA

        Tableau 5.1     Caractéristiques des jeux de données avec leur nature (thème
        de classication), I (le nombre de classe), le nombre d'exemples par classe, et
                                   le nombre de descripteurs.




5.4 Performances
5.4.1 Choix des paramètres
    v— première expérien™e ™onsiste à ™hoisir les v—leurs des p—r—mètres des modèles de
™l—ssi(™—tionF v— pro™édure repose sur l9év—lu—tion des perform—n™es de ™l—ssi(™—tion à
p—rtir d9un ensem˜le de points possi˜les @™ette —ppro™he empirique est souvent e'e™tuée
qu—nd il n9existe p—s de méthode formelle pour le ™—l™ul des p—r—mètres ‘IQT“AD puis
le ™hoix de l— meilleure v—leur du p—r—mètre résulte du ™—l™ul des moyennes sur les
jeux de donnéesF ves résult—ts sont donnés d—ns l9—nnexe IF xotons qu9il est n—turel de
™onsidérer que l9—pprentiss—ge supervisé ™onstitue une référen™e @˜orne supérieureA pour
l9év—lu—tion des perform—n™esF einsiD tous les p—r—mètres sont év—lués sur l— ˜—se d9un
—pprentiss—ge superviséD puis ils sont utilisés pour l9—pprentiss—ge f—i˜lement superviséF
gel— est e'e™tué pour l9ensem˜le des expérien™es à suivreF
    h—ns le t—˜le—u WFI de l9—nnexe ID nous év—luons les perform—n™es de ™l—ssi(™—tion
supervisée pour le modèle génér—tif en fon™tion du p—r—mètre M D le nom˜re de q—usE
siennes ™onsidérées d—ns ™h—que mél—ngeD iFeF le nom˜re de q—ussiennes p—r ™l—sse @™fF
se™tion QFP et t—˜le—u QFPAF v— moyenne des perform—n™es de ™l—ssi(™—tion sur l9ensem˜le
des jeux de donnéesD nous in™ite à ™hoisir M = 5F
lviii      CHAPITRE 5.      EVALUATIONS ET PERFORMANCES DES MODÈLES




    €our l9év—lu—tion du p—r—mètre N pcaD l— dimension de l9esp—™e non liné—ire du
modèle dis™rimin—nt @™fF l— méthode up™— d—ns l— se™tion QFQFIAD et du p—r—mètre σ 2 D
le p—r—mètre d9é™helle du noy—u q—ussien @™fF équ—tion QFRHAD une —n—lyse ™onjointe
est e'e™tuéesF h—ns les t—˜le—ux WFP et WFQ de l9—nnexe ID nous reportons les ™our˜es
illustr—nt les sensi˜ilités des p—r—mètresF pin—lementD nous ™hoisissons N pca = 50 et
σ 2 = 5F
    €our l9év—lu—tion du p—r—mètre T D le nom˜re d9—r˜res d—ns un forêt @™fF se™tion
RFPFQAD et de l— proportion d9exemples d9—pprentiss—ge utilisés pour l— ™onstru™tion d9un
—r˜re de l— forêt p—r r—pport —u nom˜re tot—l d9exemples d9—pprentiss—ge @™fF se™tion
RFPFQAD une —n—lyse ™onjointe est e'e™tuéesF h—ns les t—˜le—ux WFR et WFS de l9—nnexe
ID nous reportons les ™our˜es illustr—nt les sensi˜ilités des p—r—mètresF pin—lementD
nous ™hoisissons T = 100 et une proportion de l9ensem˜le d9—pprentiss—ge de HDV pour
l9—pprentiss—ge d9un —r˜reF
    h—ns le t—˜le—u WFT de l9—nnexe ID nous év—luons les perform—n™es de ™l—ssi(™—tion
supervisée pour les forêts —lé—toiresD en fon™tion de αD le p—r—mètre de pondér—tion des
pro˜—˜ilités — priori d—ns le ™—l™ul des entropies en ™h—que noeud des —r˜res de dé™ision
@™fF se™tion QFR et les équ—tions @QFSRA et @QFSSAAF €our ™ette expérien™eD ét—nt donné que
α n9— —u™un imp—™t si le jeu de données est superviséD nous —vons généré —rti(™iellement
des jeux de données pour l9—pprentiss—ge f—i˜lement supervisé dont les pro˜—˜ilités —
priori impliquent Q ™l—sses possi˜les @™es expérien™es sont expliquées plus en dét—ils
d—ns l— se™tion SFRFQD ils ™orrespondent —ux résult—ts o˜tenus d—ns l— ™olonne 4 Q 4 du
t—˜le—u SFQAF v— moyenne des perform—n™es de ™l—ssi(™—tion sur l9ensem˜le des jeux
de donnéesD nous in™ite à ™hoisir α = 1F xotons que ™e p—r—mètre est peu in)uent sur
les résult—ts de ™l—ssi(™—tionD en e'et α imp—™te sur l— dyn—mique des pro˜—˜ilités qui
™onservent m—lgré tout l— même org—nis—tion hiér—r™hiqueF xotons que le p—r—mètre αD
rel—tif à l9—pprentiss—ge f—i˜lement superviséD est le seul p—r—mètre supplément—ire qui
est introduit p—r r—pport à l9—pprentiss—ge superviséF
   ve nom˜re R d9itér—tions pour les pro™essus itér—tifs @se™tion RFQA est (xé de m—nière
empirique en se référ—nt —ux résult—ts expériment—ux @(gure SFI de l— se™tion SFRFQAF
ves résult—ts indiquent que l— ™onvergen™e est r—pideD nous ™hoisissons don™ R = 15 en
g—ge de réussiteF
    in(nD le ™hoix du p—r—mètre β @se™tion RFQFP du ™h—pitre RA résulte d9un ™ompromis
entre le temps de ™onvergen™e de l— pro™édure itér—tive et l— qu—ntité d9exemples pour
l9—pprentiss—geF €our les expérien™es à suivreD nous ™hoisissons de mettre en —v—nt
l— pré™ision de l— ™l—ssi(™—tion —u détriment du temps de ™—l™ulD —lors nous (xons
β = 0, 75F ge ™hoix se justi(e prin™ip—lement en fon™tion du jeu de données hP qui
ne ™ontient que SH exemples p—r ™l—sse @™fF t—˜le—u SFIAD —insiD —ve™ β = 0, 75D les
™l—ssi(™—teurs seront ™onstitués à p—rtir d9un jeu de données qui ™ontient environ QU
exemples p—r ™l—sseF ƒi nous —vions ™hoisi β = 0.5D —lors le jeu de données p—rtiel
d9une itér—tion donnée ne ™ontiendr—it que PS exemples p—r ™l—sseF ge ™hoix est en f—it
une m—nière évidente d9o˜tenir à ™h—que fois des t—ux de ˜onne ™l—ssi(™—tion qu—siE
optim—ux pour le ™l—ssi(™—teur donnéF
5.4.   PERFORMANCES                                                                      lix


5.4.2 Performances en fonction de la complexité des données
      d'apprentissage

    h—ns un se™ond tempsD nous étudions les perform—n™es de ™l—ssi(™—tion en fon™tion
de l— ™omplexité de l9ensem˜le d9—pprentiss—geF u—tre nive—ux de ™omplexité sont déE
(nisD —ll—nt du ™—s de l9—pprentiss—ge supervisé —u ™—s où l— distri˜ution des ™l—sses est
uniformeF h—ns l9—nnexe PD nous donnons l9exemple des pro˜—˜ilités — priori générées
pour un jeu de données qui ™ontient R ™l—ssesF h—ns le ™—s de l9—pprentiss—ge f—i˜lement
superviséD une seule ™l—sse est présente d—ns le mél—ngeF h—ns ™elui de l9—pprentiss—ge
f—i˜lement supervisé @IAD une ™l—sse domine d—ns les mél—nges m—is ™ert—ines ™l—sses
sont pro˜—˜lesF h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @PAD le nive—u d9inE
™ertitude est supérieur à ™elui de l9—pprentiss—ge f—i˜lement supervisé @IAD ™el— se tr—duit
p—r une distri˜ution des pro˜—˜ilités — priori de ™l—ssi(™—tion qui tend vers une distriE
˜ution uniforme @™fF —nnexe PAF €our éviter un quel™onque déséquili˜reD ™h—que ™l—sse
domine —u moins une fois d—ns un ensem˜le de donnéesF in(nD le dernier ™—s tr—ité est
™elui où les ™l—sses ont l— même pro˜—˜ilité — priori de ™l—ssi(™—tionF gette expérien™e
montre ˜ien ™omment le form—lisme de l9—pprentiss—ge f—i˜lement supervisé présenté
d—ns ™e mémoire génér—lise les —utres types d9—pprentiss—geF
    ves résult—ts sont reportés d—ns le t—˜le—u SFP pour T modèles de ™l—ssi(™—tion X l—
pro™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure itér—E
tive —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD l— pro™édure itér—tive simple
qui ™om˜ine deux ™l—ssi(eurs @d9—˜ord le modèle dis™rimin—nt non liné—ireD puis les
forêts —lé—toiresA sur deux itér—tions @pisherCpeAD les forêts —lé—toires seules @peAD le
modèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAF he m—nière
prévisi˜leD les perform—n™es de ™l—ssi(™—tion dé™roissent qu—nd le nive—u de ™omplexité
des l—˜els —ugmenteD p—ss—nt de WH7 de t—ux de réussite moyen d—ns le ™—s de l9—pE
prentiss—ge superviséD à PR7 de t—ux de réussite moyen d—ns le ™—s équipro˜—˜leF gel—
montre l9import—n™e des v—leurs des pro˜—˜ilités — priori des ™l—ssesF port logiquementD
s—ns inform—tion — priori sur les ™l—ssesD les modèles répondent très di0™ilementF ƒeule
l— ™onn—iss—n™e d9un — priori permet d9—méliorer nettement les perform—n™es de ™l—sE
si(™—tion p—r r—pport —u ™—s équipro˜—˜leF einsiD d—ns le ™—s de 4 f—i˜lement supervisé
@IA pour lequel une ™l—sse domine d—ns le mél—ngeD les perform—n™es de ™l—ssi(™—tion
ne sont dégr—dées que de II7 en moyenne p—r r—pport —u ™—s de l9—pprentiss—ge suE
perviséF in termes de ™omp—r—ison des modèles de ™l—ssi(™—tionD l— pro™édure itér—tive
—sso™iée —ux forêts —lé—toires @peCsterPA est l— plus pertinente pour l94 —pprentiss—ge
f—i˜lement supervisé @IA 4 et l94 —pprentiss—ge f—i˜lement supervisé @PA 4F in rev—n™heD
l9—lgorithme iw est moins ro˜uste à l9introdu™tion d9in™ertitudes liées —u l—˜elF ve
model dis™rimin—nt se situe entre les deuxF
   xous proposons de ™om˜iner le modèle dis™rimin—nt et les forêts —lé—toires @piE
sherCpeA pour deux r—isonsF v— première est que les forêts —lé—toires sont très perE
form—ntes en ™l—ssi(™—tion superviséeD il sem˜le don™ pertinent d9ess—yer d9o˜tenir des
résult—ts équiv—lents pour des —pprentiss—ges plus ™omplexesF v— se™onde vient de l—
™onst—t—tion d9une ™ert—ine ro˜ustesse du modèle dis™rimin—nt @pisherA visEà vis de l—
™omplexité de l9ensem˜le d9—pprentiss—geD p—r exempleD nous rem—rquons que l9é™—rt
des perform—n™es diminue —ssez peu entre le ™—s de l9—pprentiss—ge supervisé et ™elui
lx         CHAPITRE 5.       EVALUATIONS ET PERFORMANCES DES MODÈLES




de l9—pprentiss—ge f—i˜lement superviséF v— ™onjug—ison de ™es deux propriétés peut
être pro(t—˜le pour ™ert—ins jeux de donnéesF h9—illeursD nous verrons d—ns le ™h—pitre
U que les meilleures perform—n™es de ™l—ssi(™—tion de ˜—n™s de poissons sont o˜tenues
—ve™ ™e modèleF
               Type         Supervisé    Faiblement      Faiblement       Non
         d'apprentissage                 supervisé (1)   supervisé (2)    supervisé
               FA+Iter1     0.96         0.85            0.72             0.14
               FA+Iter2     0.96         0.91            0.89             0.14
         D1    Fisher+FA    0.96         0.89            0.74             0.14
               FA           0.96         0.85            0.73             0.14
               Fisher       0.90         0.87            0.86             0.14
               EM           0.83         0.83            0.82             0.19
               FA+Iter1     0.97         0.80            0.64             0.33
               FA+Iter2     0.97         0.92            0.81             0.33
         D2    Fisher+FA    0.97         0,88            0.72             0,33
               FA           0.97         0,78            0.60             0,33
               Fisher       0,89         0,82            0.54             0,33
               EM           0,94         0,72            0.36             0,38
               FA+Iter1     1            0.74            0.63             0.16
               FA+Iter2     1            0.95            0.90             0.16
         D3    Fisher+FA    1            0.82            0.74             0.16
               FA           1            0.76            0.63             0.16
               Fisher       0.78         0.63            0.57             0.17
               EM           0.77         0.48            0.38             0.18
               FA+Iter1     0.79         0.81            0.33             0.33
               FA+Iter2     0.79         0.82            0.78             0.33
         D4    Fisher+FA    0.87         0.75            0.78             0.33
               FA           0.79         0.81            0.69             0.33
               Fisher       0.85         0.82            0.64             0.33
               EM           0.82         0.48            0.63             0.23
              Moyennes      0.90         0.79            0.67             0.24
       Tableau 5.2     Evolution du taux moyen de classication en fonction de la
       complexité des labels de l'ensemble d'apprentissage. La complexité des données
       d'apprentissage évolue du cas de l'apprentissage supervisé au cas équiprobable,
       en passant par des cas d'apprentissage faiblement supervisé plus ou moins com-
                                     plexes (cf. annexe 2).


5.4.3 Performances en fonction du nombre de classes dans les
      mélanges
    €our ™ette nouvelle expérien™eD nous év—luons les perform—n™es de ™l—ssi(™—tion en
fon™tion du nom˜re de ™l—sses possi˜les qui dé(nit —ussi le nive—u de ™omplexité des
pro˜—˜ilités — prioriF gette foisD une gr—nde v—riété de proportions ™i˜les est ™réée de
telle sorte à trouver des situ—tions de l—˜els f—i˜lement ˜ruités et fortement ˜ruités à l—
foisD l— seule v—ri—˜le ét—nt le nom˜re de ™l—sses présentes d—ns ™h—que mél—ngeF h—ns
l9—nnexe QD nous donnons un exemple de proportions ™i˜les pour un jeu de données qui
™ontient R ™l—ssesF gomme pré™édemmentD un nom˜re su0s—nt de groupes est ™onsidéré
—(n que ™h—que ™l—sse domine —u moins une fois d—ns un mél—ngeF
    ves résult—ts sont —0™hés d—ns le t—˜le—u SFQF ve t—ux moyen de ˜onne ™l—ssi(™—tion
est reporté pour ™h—que jeu de données en fon™tion du nom˜re de ™l—sses pro˜—˜les
d—ns le mél—nge pour ™h—que exemple de l9ensem˜le d9—pprentiss—geF v— moyenne des
t—ux de réussite et l9é™—rt type des t—ux de réussite sont reportés pour T modèles de
™l—ssi(™—tion X l— pro™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l—
pro™édure —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD l— pro™édure itér—tive qui
5.4.   PERFORMANCES                                                                    lxi


™om˜ine le modèle dis™rimin—nt et les forêts —lé—toires sur deux itér—tions @pisherCpeAD
les forêts —lé—toires seules @peAD le modèle dis™rimin—nt non liné—ire @pisherAD et le
modèle génér—tif @iwAF ves résult—ts sont positifs si ™ette moyenne est élevéeD ™e qui
indique que les perform—n™es glo˜—les sont ˜onnesD et si l9é™—rt type des t—ux de réussite
est f—i˜leD ™e qui signi(e que le ™l—ssi(eur est ro˜uste visEàEvis de l— ™omplexité des
données d9—pprentiss—geF
    qlo˜—lementD ™on™ern—nt l— moyenne des t—ux de réussiteD l— méthode peCsterP est
l— plus perform—nte pour tous les jeux de donnéesF in termes de ro˜ustesse rel—tivement
à l— ™omplexité des données d9—pprentiss—geD l— méthode peCsterP est —ussi l— plus
perform—nteD s—uf pour le jeu de données hI pour lequel le modèle dis™rimin—nt produit
l9é™—rt type des t—ux de ˜onne ™l—ssi(™—tion le plus f—i˜le @HDHI ™ontre HDHR pour le
modèle peCsterPAF
    v9—n—lyse des résult—ts o˜tenus à l9—ide des ™l—ssi(eurs élément—ires montre que
le modèle dis™rimin—nt et les forêts —lé—toires présentent des perform—n™es sensi˜leE
ment équiv—lentesF €—r exempleD pour le jeu de données hID le modèle dis™rimin—nt
est meilleur —ve™ une moyenne des t—ux de réussite v—l—nt HDVV @™ontre HDVT pour les
forêts —lé—toiresAD et un é™—rt type des t—ux de réussite qui v—ut HDHI @™ontre HDII pour
les forêts —lé—toiresAF snversementD pour le jeu de données hPD l— moyenne des t—ux de
˜onne ™l—ssi(™—tion —tteint VW7 pour les forêts —lé—toiresD ™ontre UW7 pour le modèle
dis™rimin—ntD et l9é™—rt type des t—ux de ˜onne ™l—ssi(™—tion est de V7D ™ontre IH7 pour
le modèle de ™l—ssi(™—tionF gel— s9explique p—r l9org—nis—tion intrinsèque des données
qui requière l9emploi d9un ™l—ssi(eur p—rti™ulierF h—ns le dom—ine de l— ™l—ssi(™—tion
—utom—tiqueD il est —dmis queD à un jeu de donnéesD ™orrespond un type de ™l—ssi(eurF
einsiD le ™hoix du noy—u est essentielD si les perform—n™es de ™l—ssi(™—tion sont moins
˜onnes —ve™ le modèle dis™rimin—ntD ™el— peut venir du f—it que les simil—rités sp—E
ti—les induites p—r le noy—u q—ussien ne ™orrespondent p—s à l— distri˜ution sp—ti—le
des donnéesF
    v— ™om˜in—ison de ™l—ssi(eursD soit p—r un pro™essus itér—tif @peCsterPAD soit p—r l—
™om˜in—ison de ™l—ssi(eurs pro˜—˜ilistes @pisherCpeAD permet d9—méliorer nettement
les perform—n™es de ™l—ssi(™—tionF in e'etD si les perform—n™es des forêts —lé—toires
dé™roissent —ve™ l— ™omplexité de l9ensem˜le d9—pprentiss—geD l— ™om˜in—ison de ™l—sE
si(eurs g—r—ntit d9—v—nt—ge de ro˜ustesseD diminu—nt l9é™—rt type des t—ux de réussiteD
et en ™onséquen™eD —ugment—nt le t—ux de réussite moyenF gel— est dû —u f—it que les
pro˜—˜ilités — priori sont ™orrigéesD soit de m—nière itér—tive @pour les modèles sterI et
sterPAD soit en ™om˜in—nt les pro˜—˜ilités — posteriori des ™l—ssi(eurs @pour le modèle
pisherCpeAF €—r exempleD pour le jeu de données hID l9é™—rt type des t—ux de réussite
diminue de T7 pour peCsterP @p—r r—pport à peAD t—ndis qu9il diminue de U7 pour
pisherCpe @p—r r—pport à peAD ˜éné(™i—nt —insi de l9—pport de ro˜ustesse du modèle
dis™rimin—nt @l9é™—rt type des t—ux de réussite v—ut HDHI pour le modèle dis™rimin—ntAF
xotons que les ™om˜in—isons de modèles dis™rimin—nts ou de modèles génér—tifsD vi—
des pro™édures itér—tives n9ont p—s donné de résult—ts ™onv—in™—ntsD ét—nt données les
perform—n™es rel—tivement moyennes o˜tenues en ™l—ssi(™—tion supervisée @les résult—ts
de ™l—ssi(™—tion f—i˜lement supervisée sont logiquement inférieurs à ™eux o˜tenus en
™l—ssi(™—tion superviséeAF
   in rev—n™heD pour ™es jeux de donnéesD les perform—n™es o˜tenues à l9—ide du modèle
lxii        CHAPITRE 5.        EVALUATIONS ET PERFORMANCES DES MODÈLES




génér—tif sont moins ˜onnesD en moyenneD que ™elles o˜tenues à l9—ide des —utres moE
dèlesF gel— peut s9expliquer p—r l— distri˜ution sp—ti—le des données qui ne ™orrespond
p—s à une org—nis—tion de mél—nge de q—ussiennesF gepend—ntD pour le jeu de données
hPD m—lgré l— supériorité des modèles ˜—sés sur les forêts —lé—toiresD les perform—n™es
de ™l—ssi(™—tion du modèle génér—tif sont meilleures que ™elles du modèle dis™rimin—ntD
—tteign—nt WH7 de t—ux de réussite moyen et un é™—rt type des t—ux de réussite de S7F

        Nombre de                                                         Moyennes /
        classes dans    1       2      3      4      5      6      7      Ecart type
         le mélange
            FA+Iter1    0.96    0.90   0.88   0.88   0.85   0.75   0.55   0.80 - 0.13
            FA+Iter2    0.96    0.96   0.96   0.94   0.94   0.92   0.81   0.92 - 0.05
            Fisher+FA   0.96    0.95   0.94   0.93   0.93   0.92   0.81   0.92 - 0.04
       D1   FA          0.96    0.92   0.91   0.88   0.88   0.84   0.62   0.86 - 0.11
            Fisher      0.90    0.89   0.89   0.89   0.89   0.89   0.84   0.88 - 0.01
            EM          0.83    0.83   0.84   0.83   0.83   0.83   0.75   0.82 - 0.03
            FA+Iter1    0.97    0.97   0.84                               0.90 - 0.09
            FA+Iter2    0.97    0.97   0.92                               0.94 - 0.03
            Fisher+FA   0.97    0.95   0.88                               0.93 - 0.04
       D2   FA          0.97    0.90   0.81                               0.89 - 0.08
            Fisher      0.89    0.80   0.69                               0.79 - 0.10
            EM          0.94    0.95   0.85                               0.90 - 0.05
            FA+Iter1    1       0.90   0.91   0.82   0.74   0.74          0.86 - 0.07
            FA+Iter2    1       1      0.99   0.98   0.97   0.98          0.98 - 0.01
            Fisher+FA   1       0.96   0.93   0.84   0.90   0.91          0.92 - 0.05
       D3   FA          1       0.9    0.89   0.75   0.82   0.88          0.87 - 0.08
            Fisher      0.78    0.72   0.68   0.62   0.62   0.73          0.69 - 0.06
            EM          0.77    0.62   0.62   0.45   0.47   0.58          0.58 - 0.11
            FA+Iter1    0.79    0.74   0.35                               0.54 - 0.27
            FA+Iter2    0.79    0.83   0.81                               0.82 - 0.01
            Fisher+FA   0.87    0.83   0.80                               0.81 - 0.02
       D4   FA          0.79    0.83   0.81                               0.81 - 0.02
            Fisher      0.85    0.81   0.77                               0.81 - 0.04
            EM          0.82    0.8    0.74                               0.79 - 0.04
       Tableau 5.3  Evolution du taux moyen de classication en fonction du
       nombre de classes dans chaque mélange. Des jeux de proportions sont créés,
       allant du cas supervisé au cas où toutes les classes sont probables (annexe 3).
    …ne ™omp—r—ison entre les pro™essus itér—tifs sterI et sterP est e'e™tuée @se™tion
RFQAF sterI est une méthode simple d9—pprentiss—ge des l—˜els qui peut introduire un
e'et de surE—pprentiss—geF v— méthode —méliorée sterP élimine ™e phénomène de surE
—pprentiss—geF v— ™omp—r—ison s9e'e™tue en tr—ç—nt l9évolution du t—ux de ˜onnes ™l—sE
si(™—tions en fon™tion des itér—tions pour les deux —ppro™hesF gel— est proposé d—ns
l— (gure SFI pour les deux jeux de données hI et hQF e ™h—que itér—tionD les données
d9—pprentiss—ge sont mises à jourD un modèle de ™l—ssi(™—tion est —pprisD et (n—lement
les données de test sont ™l—ssées pour fournir un t—ux de ˜onnes ™l—ssi(™—tionsF v—
mise à jour des l—˜els permet une meilleure estim—tion des modèles de ™l—ssi(™—tionF
€—r exempleD en ™onsidér—nt l— méthode sterPD un g—in de IH7 de réussite est o˜tenu
entre l9itér—tion I et l9itér—tion IS pour le jeu de données hQF he l— même f—çonD sterP
permet d9—méliorer les perform—n™es de ™l—ssi(™—tion d9environ R7 pour hIF v9imporE
t—n™e d9éviter les e'ets de surE—pprentiss—ge induit p—r l— pro™édure itér—tive sterI est
™l—irement justi(ée d—ns ™ette (gureF in e'etD pour sterPD —lors que les perform—n™es
sont —méliorées à ™h—que itér—tionD ™elles produites p—r sterI sont qu—siErégulières et
peu ™onv—in™—ntesF
    ge résult—t justi(e les perform—n™es de ™l—ssi(™—tion o˜tenues d—ns les t—˜le—ux SFP
et SFQF
5.5.   CONCLUSION                                                                     lxiii




                                          (a) D1




                                          (b) D3

        Figure 5.1  Evolution du taux moyen de classication en fonction des ité-
                                         rations.


5.5 Conclusion
   Synthèse.
   h—ns ™e ™h—pitreD pour plusieurs jeux de donnéesD nous testons les perform—n™es
de ™l—ssi(™—tion des modèles d9—pprentiss—ge f—i˜lement superviséeF e(n de mesurer le
™omportement des ™l—ssi(eurs visEàEvis de l— ™omplexité de l9ensem˜le d9—pprentiss—ge
@en termes de ™onn—iss—n™e des l—˜elsAD nous —vons ™hoisi de générer —rti(™iellement
des ensem˜les d9—pprentiss—ge dont l— ™onn—iss—n™e des l—˜els est donnée p—r des ve™E
teurs de pro˜—˜ilités de ™l—ssi(™—tion — prioriF gel— nous permet d9—juster l— ™omplexité
du jeu de données pour mieux ™omp—rer les méthodes entre ellesF v9—n—lyse des perforE
m—n™es de ™l—ssi(™—tion montre que les forêts —lé—toires —sso™iées à un pro™essus itér—tif
donnent souvent les meilleurs résult—ts en termes de ™ompromis entre les perform—n™es
de ™l—ssi(™—tion et l— ro˜ustesse visEàEvis de l— ™omplexité des données d9—pprentisE
s—geF v— ™ondition prin™ip—le de réussite de l9—pprentiss—ge f—i˜lement supervisé @tel
que les perform—n™es de ™l—ssi(™—tion soient simil—ires à ™elle o˜tenue en —pprentiss—ge
superviséA est l— présen™e d9— priori forts —sso™iés —ux données d9—pprentiss—geF
   Points à améliorer.
   €remièrementD il f—ut envis—ger une étude théorique du ™ritère de ™onvergen™e qui
lxiv       CHAPITRE 5.      EVALUATIONS ET PERFORMANCES DES MODÈLES




permette de dé(nir le ™—dre qui v—lideD ou nonD l— ™onvergen™e du pro™essusF …n ™ritère
d9—rrêt sem˜le —ussi essentiel pour que l— méthode soit tr—nsfér—˜le d—ns le dom—ine de
l9—ppli™—tionF
heuxièmementD nos modèles de ™l—ssi(™—tion sont très dépend—nts des pro˜—˜ilités de
™l—ssi(™—tion — prioriF €—r exempleD nous ™onst—tons queD qu—nd les pro˜—˜ilités de
™l—ssi(™—tion — priori tendent vers le ™—s équipro˜—˜leD les perform—n™es des ™l—ssi(eurs
sont très m—uv—ises @™—s équipro˜—˜le d—ns le t—˜le—u SFPAF einsiD nos méthodes sont
d—v—nt—ge fondées sur le (ltr—ge des exemples dont les — priori de ™l—ssi(™—tion sont
f—i˜lesD le plus souvent en utilis—nt le prin™ipe des sommes pondéréesF
„roisièmementD ™ert—ines —mélior—tions peuvent être —pportées sur les méthodes d9—pE
prentiss—geF €—r exempleD le ™ritère de fusion des pro˜—˜ilités de ™h—que —r˜re d9une
forêt pourr—it prendre en ™ompte un p—r—mètre de pondér—tion issu du ™hemin p—rE
™ouru p—r les exemples de l9ensem˜le de test d—ns ™h—que —r˜re de l— forêtF in outreD
l— méthode itér—tive —méliorée proposée repose sur un prin™ipe de s™ission —lé—toire
des données qui permet d9éviter le surE—pprentiss—geF gel— peut poser pro˜lème si les
exemples d9—pprentiss—ge sont peu nom˜reuxF h9—utres méthodes permettr—ient de séE
p—rer l— mise à jour des pro˜—˜ilités de ™l—ssi(™—tion — priori et l— règle d9—pprentiss—ge
de l— pro˜—˜ilité de ™l—ssi(™—tion — posterioriD not—mmentD les exemples d9—pprentiss—ge
pourr—ient être séle™tionnés en fon™tion de leur degré de ™on(—n™eF
    in(nD nous présentons l9—pprentiss—ge f—i˜lement supervisé ™omme ét—nt une généE
r—lis—tion de l9—pprentiss—ge semiEsuperviséF sl est don™ né™ess—ire de montrer le ™omE
portement des modèles d—ns ™e ™—dreF h—ns l— (gure SFPD nous —0™hons des résult—ts
qui mettent en —v—nt l9utilis—tion de notre —ppro™he p—r r—pport —u 4 selfEtr—ining 4D il
reste ™epend—nt à ™omp—rer les perform—n™es de ™l—ssi(™—tion à ™elles des modèles de
l9ét—t de l9—rtF
5.5.   CONCLUSION                                                                           lxv




                                              (a) D2




                       (b) D3, classe  normale  contre classe  cyclique 

        Figure 5.2  Pour l'apprentissage semi-supervisé, évolution du taux moyen de
        classication en fonction des itérations pour D2 et D3. Cinq modèles de classi-
        cation sont comparés : le processus itératif amélioré avec les forêts aléatoires
        assouplies (FA+Iter2), l'algorithme  self-training  (ST) (cf. section 2.5 du
        chapitre 2) associé aux forêts aléatoires assouplies (FA+ST), l'algorithme ST
        associé aux forêts aléatoires usuelles qui ne prennent pas de probabilités en en-
        trées (hard FA+ST), l'algorithme ST associé à l'algorithme EM (EM+ST), et
                l'algorithme EM présenté dans la section 3.2.3 du chapitre 3.
Deuxième partie
Classication automatique en
   acoustique halieutique
CHAPITRE

                  6            Sondeurs acoustiques et
                               logiciels de traitement



6.1 Introduction
    ve sondeur —™oustique est —™tuellement l9outil le plus —d—pté pour o˜server le miE
lieu sous m—rinF €—rmi les di'érents types d9ondes ™omme les ondes éle™trom—gnétique
ou ™elles fondées sur l9énergie éle™triqueD seule les ondes —™oustiques possèdent des ™—E
r—™téristiques de prop—g—tion —déqu—tes d—ns le milieu —qu—tiqueF xon seulement les
™onditions de prop—g—tion sont ™orre™tesD m—is les ™i˜les potentielles ™omme les poisE
sonsD le pl—n™tonD ou le fond de l— merD ré)é™hissent une p—rtie des ondes —™oustiquesF
ves ondes —™oustiques sont —lors émises depuis le sondeur et une p—rtie se ré)é™hit sur
™h—que ™i˜le telle que l9é™h—ntillonn—ge des sign—ux issus des di'érents é™hos des ™i˜les
permet de ™onstruire une im—ge —ppelée é™hogr—mmeF einsiD ™h—que pixel de l9im—ge
représente un é™h—ntillon de l9esp—™e sous m—rin tel que l— v—leur du pixel est fon™tion
de l9énergie moyenne qui est ré)é™hie d—ns ™et é™h—ntillon sp—ti—l @on p—rle d9énergie
rétrodi'usée p—r ™et é™h—ntillonAF
    ves —ppli™—tions du sondeur —™oustique sont multiplesF in ˜iologieD le sondeur trouve
de nom˜reuses —ppli™—tionsF geluiE™i peut être un outil de pê™he séle™tiveD le pê™heur
™hoisiss—nt p—r exemple de séle™tionner une espè™e de poissons rent—˜le tout en préserE
v—nt une espè™e protégéeF ves ™—mp—gnes d9év—lu—tion des sto™ks de ™ert—ines espè™es
h—lieutiques sont —ussi e'e™tuées à l9—ide des sondeurs —™oustiques ‘IPT“F v— ˜iom—sse de
™h—que espè™e est —lors déduite de l9o˜serv—tion des é™hogr—mmes et de l— ™l—ssi(™—tion
des im—gesF ve sondeur —™oustique est ég—lement très utilisé en géos™ien™e ‘IUR“ X pour
l— ™—r—™téris—tion verti™—le des sédimentsD p—r exemple pour l— prospe™tion pétrolièreD
ou en ˜—thymétrieD p—r exemple pour mesurer le relief et déterminer l— n—ture du fondF
in o™é—nogr—phie physiqueD en utilis—nt l9e'et hopplerD le sondeur —™oustique permet
de mesurer l— vitesse et l— stru™ture des m—sses d9e—u ‘IUS“F in(nD l— ™—t—strophe —éE
ron—utique de juin PHHWD d—ns l—quelle un —vion — disp—ru en plein o™é—n —tl—ntiqueD —
montré que le sondeur —™oustique reste l9un des prin™ip—ux outils @—ve™ le son—rA utilisés
pour l— fouille des o™é—ns @l9idée ét—it de retrouver les ˜oites noires de l9—pp—reil à l9—ide
des sondeurs —™oustiquesAF
   h—ns ™e ™h—pitreD nous présentons les ™—r—™téristiques essentielles des sondeurs
—™oustiquesF ges ™—r—™téristiques doivent être —ppréhendées —(n de ™omprendre ™omE
ment sont ™onstruites les im—ges et quelles sont les ™ontr—intes liées —ux sondeursF heux
CHAPITRE 6.     SONDEURS ACOUSTIQUES ET LOGICIELS DE

lxx                                                                    TRAITEMENT




       Figure 6.1  Diagramme de rayonnement des sondeurs acoustiques mono-
                                       faisceau.


types de sondeur sont présentés X le sondeur monof—is™e—u @se™tion TFPA et le sondeur
multif—is™e—ux @se™tion TFQAF


6.2 Sondeur monofaisceau
    ves sondeurs —™oustiques monof—is™e—u sont (xés sur l— ™oque des n—vires et
émettent une onde —™oustique verti™—le du ˜—te—u vers le ™entre de l— terreF €lus préE
™isémentD à l9inst—r des —ntennes éle™trom—gnétiquesD l9onde se prop—ge d—ns toutes les
dire™tions m—is —ve™ des g—ins d9—tténu—tion plus ou moins v—ri—˜les en fon™tion de
l9orient—tionF einsiD ™omme illustré d—ns l— (gure TFID le lo˜e prin™ip—l du di—gr—mme
de r—yonnement qui ™ontient l— m—jeure p—rtie de l9énergie —™oustique émise et reE
çueD est orienté du sondeur vers le ™entre de l— terre @—xe Z AF ves lo˜es se™ond—ires
du di—gr—mme de r—yonnement produisent du ˜ruit —™oustique que nous ™onsidérons
néglige—˜le d—ns ™e m—nus™ritF in ne ™onsidér—nt que l— p—rtie du di—gr—mme de r—yonE
nement ™omprise d—ns l9—ngle d9ouverture à EQdfD ™el— revient à voir le di—gr—mme de
r—yonnement de l9—ntenne ™omme un ™ône dont le sommet est situé sur l— ˜—se du
sondeurD dont l— droite génér—tri™e est p—r—llèle à l9—xe Z et dont l9—ngle ™orrespond à
l9—ngle d9ouverture à EQdf du di—gr—mme de r—yonnement réel @™fF (gure TFIAF xotons
que d—ns tout le do™umentD X représente le dépl—™ement du n—vireD Y l— tr—nsvers—le
—u n—vireD et Z l9—xe qui v— du n—vire vers le fond de l— merF
    v9onde —™oustique est un pulse d9une fréquen™e donnéeF €—r exempleD sur le n—vire
„h—l—ss—D il existe S sondeurs monof—is™e—u qui se distinguent p—r l— fréquen™e des
pulses @IVkrzD QV krzD UH krzD IPH krzD et PHHkrzAF v9intérêt d9une —n—lyse multiE
fréquentielle réside d—ns le f—it que les ™i˜les répondent di'éremment en fon™tion de
l— fréquen™eF €—r exempleD les m—quere—uxD qui n9ont p—s de vessie n—t—toire @po™he
d9—ir qui permet —ux poissons de modi(er leur )ott—˜ilité en fon™tion de l— profondeurAD
6.2.   SONDEUR MONOFAISCEAU                                                              lxxi


rétrodi'usent plus f—™ilement l9énergie —™oustique des impulsions de fréquen™es élevéesF
s™iD nous supposons que le sondeur émet une onde —™oustique homogène d—ns le ™ône
d9émission @(gure TFIAF eprès émission d9un pulseD le sondeur se pl—™e en mode d9é™oute
et —™quière le sign—l ré)é™hiF ves inst—nts des é™hos du sign—l ré)é™hi renseignent sur l—
dist—n™e de l— ™i˜le p—r r—pport —u sondeur t—ndis que l9—mplitude des é™hos du sign—l
ré)é™hi donne le pouvoir ré)é™hiss—nt de l— ™i˜le ‘IPT“F ve sign—l ré)é™hi est ™onverti en
énergie éle™triqueD puis il est —mpli(é et é™h—ntillonnéF v— fréquen™e d9é™h—ntillonn—ge
donne dire™tement l— h—uteur du volume élément—ire de l9esp—™eF ge volume élément—ire
est un mor™e—u de ™ôneD tel que son di—mètre ™roît —ve™ l— profondeurF €—r exempleD l—
fréquen™e d9é™h—ntillonn—ge v—ut UDSkrzD soit une h—uteur ™onst—nte du volume élémenE
                                                                              °
t—ire de HDImF €our le sondeur à QVkrzD l9—ngle d9ouverture à EQdf est de U ™onduis—nt
à un di—mètre de TDIm pour une profondeur de SHm et un di—mètre de IPDPm pour
une profondeur de IHHmF v9—mplitude de ™h—que é™h—ntillon du sign—l éle™trique est
don™ proportionnelle à l9énergie rétrodi'usée d—ns le volume élément—ire ™onsidéré en
pren—nt en ™ompte les pertes de prop—g—tionF
    xous —ppellons 4 ping 4 l9émission d9un pulseF €—r pings su™™essifsD —ve™ l— proE
gression du ˜—te—uD une im—ge peut être ™onstruiteF ves pixels représentent les volumes
sp—ti—ux élément—iresF gh—que ™olonne de l9im—ge représente un ping et ™h—que ligne reE
présente une pl—ge de profondeur @de t—ille HDImAD de telle sorte que les v—leurs des pixels
soient proportionnelles à l9énergie rétrodi'usée d—ns le volume élément—ireF einsiD pour
une im—ge en nive—u de grisD l9intensité des pixels est rel—tive à l9énergie rétrodi'usée
d—ns le volume élément—ire ™onsidéréF h—ns l— (gure TFPD nous représentons un exemple
d9im—ges o˜tenues —près plusieurs pings de deux sondeurs monof—is™e—u @un sondeur
de fréquen™e d9impulsion IVkrz et un sondeur de fréquen™e d9impulsion PHHkrzAF e(n
de dis™erner les formesD un seuil de EUHdf est —ppliquéD iFeF les v—leurs d9énergie inféE
rieures à EUHdf sont for™ées à une v—leur d9énergie très ˜—sse @EIPHdfAF pin—lementD on
distingue d—ns les im—ges le fond de l— merD des t—™hes qui ™orrespondent à des —gréE
g—tions de poissonsD et des ™ou™hes de pl—n™tonsF xous rem—rquons ég—lement que les
nive—ux de gris ont ™h—ngé pour ™ert—ins pixels d9une im—ge à l9—utreF gel— est dû à l—
réponse —™oustique des ™i˜les qui di'ère en fon™tion de l— fréquen™e des pulsesF einsiD
les ™ou™hes de pl—n™tonsD ˜ien visi˜les à PHHkrzD ont qu—siment disp—rues à IVkrzF
he mêmeD ™omme l9—ngle d9ouverture est v—ri—˜le d9une fréquen™e à l9—utre @IH pour   °
            °
IVurz et U pour PHHurzAD des —grég—tions ne sont plus intégrées d—ns le f—is™e—u à
PHHurz —lors qu9elles le sont à IVkrzF
    sl existe plusieurs ™—s —m˜igus liés —u systèmeF €remièrementD il se peut que le
volume élément—ire ™ontienne seulement une p—rtie d9un o˜jet rétrodi'us—ntD l9—utre
p—rtie ét—nt vide d9o˜jetF h—ns ™e ™—sD l9énergie rétrodi'usée ne ™orrespond p—s réelleE
ment à ™elle de l9o˜jetD m—is elle est sousEestiméeF €—r exempleD il se peut que l9énergie
rétrodi'usée soit l— même d—ns le ™—s d9un volume élément—ire qui ™ontient quelques
poissons ép—rs rép—rtis d—ns le volume et d—ns le ™—s d9un volume élément—ire o™™upé
p—rtiellement p—r un ˜—n™ très denseF get e'et de résolutionD qui est —™™entué d—ns les
gr—ndes profondeurs pour lesquelles l— t—ille du volume élément—ire —ugmenteD provoque
une forte impré™ision horizont—le sur les mesures des o˜jets de ™es im—gesF heuxièmeE
mentD le ˜—te—u se dépl—™e suiv—nt l9—xe des X en émett—nt des pings à interv—lles
réguliersF it—nt donnée l— forme ™onique du di—gr—mme de r—yonnementD ™ert—ines
CHAPITRE 6.      SONDEURS ACOUSTIQUES ET LOGICIELS DE

lxxii                                                                    TRAITEMENT




        Figure 6.2  Exemple d'une image obtenue après plusieurs pings d'un sondeur
                                      monofaisceau.


zones de l9esp—™e sont invisi˜les @™elles qui sont situées pro™hes de l— ™oque du n—E
vireAD et d9—utres sont vues plusieurs fois p—r plusieurs pings su™™essifs @™elles qui sont
pro™hes du fondAF …n ™ompromis est (xé p—r l— fréquen™e des pings qui est fon™tion
de l— profondeurF v9e'et de ™hev—u™hement des di—gr—mmes de r—yonnement des pings
su™™essifs entr—ine une impré™ision sur l— mesure de l9énergie rétrodi'usée p—r l9o˜jetF
€our les ˜—n™s de poissonsD l9énergie —sso™iée à un ˜—n™ est o˜tenue en moyenn—nt les
énergies rétrodi'usées de ™h—que ping du ˜—n™ de poissons ™onsidéréF hon™D pour un
˜—n™D plus il y — de pings et plus il y — de ™hev—u™hement interEpingD plus l9énergie est
™orre™tement estiméeF



6.3 Sondeur multifaisceaux
    ve prin™ipe du sondeur multif—is™e—ux est très pro™he de ™elui du sondeur monoE
f—is™e—uF yutre ™ert—ines ™—r—™téristiques te™hniques internes à l9—pp—reilD l— di'éren™e
se situe d—ns le di—gr—mme de r—yonnement qui ™ontient plusieurs ™ônes indépend—ntsF
v9idée est de juxt—poser plusieurs sondeurs monof—is™e—u tel que une plus gr—nde p—rtie
de l9esp—™e sous le n—vire soit ™ouvertF gh—™un des sondeurs est respons—˜le d9une zone
sous le n—vire et à ™h—que pingD ™h—que sondeur renvoie un sign—l ré)é™hiF einsiD p—r
pings su™™essifs une im—ge en trois dimensions est ™onstruiteF gomme d—ns l— (gure
TFID nous ™onsidérons que ™h—que f—is™e—u est un ™ôneF h—ns l— (gure TFQD à g—u™heD
nous présentons le ™—s d9un di—gr—mme de r—yonnement d9un sondeur à S f—is™e—uxF ve
˜—te—u se dépl—™e suiv—nt les X D l9—xe Y représente l— tr—nsvers—le —u ˜—te—uD et l9—xe Z
v— du ˜—te—u jusqu9—u ™entre de l— terreF in pr—tiqueD d—ns les ™on(gur—tions usuelles
du système utiliséD il y — PI f—is™e—ux tels que les —ngles d9ouverture à EQdf v—rient
        ° °
entre Q et T D et tels que l9—ngle formé p—r les —xes des deux f—is™e—ux extrêmes soit
          °                 °
d9environ VS D iFeF ΦaRPDS F €our éviter que les f—is™e—ux inter—gissent entre eux @un
6.4.   CONCLUSION                                                                  lxxiii


f—is™e—u pourr—it ™—pter l9é™ho produit p—r un f—is™e—u voisinAD l— fréquen™e des pulses
est di'érente d9un f—is™e—u à l9—utreF …n (ltre p—sse ˜—nde est don™ —sso™ié à ™h—que
f—is™e—u pour ne g—rder que l— fréquen™e ™orrespond—nteF in pr—tiqueD l9ensem˜le des
sousE˜—ndes s9ét—lent sur une pl—ge de fréquen™e de SHkrzF
    h—ns l— p—rtie droite de l— (gure TFQD l— zone insoni(ée est représentée en pointillé
d—ns le pl—n (Y, Z)F h—ns ™ette zoneD deux p—rties sont dis™ern—˜les X une zone qui
ne ™ontient que du sign—l utile et une zone qui ™ontient du sign—l utile et du ˜ruitF
ve ˜ruit est produit p—r les f—is™e—ux dépointésD iFeF les f—is™e—ux qui ne sont p—s
orientés p—r—llèlement à l9—xe Z D et plus p—rti™ulièrement p—r leurs lo˜es se™ond—iresF
                                                           °
in e'etD prenons l9exemple d9un f—is™e—u orienté à ΦaRS D —lors les lo˜es se™ond—ires
sont orientés verti™—lement —ve™ un m—ximum de rétrodi'usionF €our ™e f—is™e—uD les
é™hos du fond de l— mer reçu p—r les lo˜es se™ond—ires p—rviennent —v—nt ™eux perçus
p—r le lo˜e prin™ip—lD ™el— — pour e'et de ™réer une zone demiEsphérique d—ns l—quelle
du ˜ruit se mél—nge —u sign—lF xotons que ™e ˜ruit disp—r—ît si l9im—ge est seuillée à un
™ert—in nive—u d9énergieF
    gomme pour le sondeur monof—is™e—uD les pings su™™essifs du sondeur multif—is™e—ux
permettent de ™onstruire une im—ge en trois dimensionsF …n exemple d9im—ge en trois
dimensions est montré d—ns le h—ut de l— (gure TFRF sl s9—git de l— même zone insoni(ée
que d—ns l— (gure TFPF €remièrementD nous ™onst—tons que l— qu—ntité d9inform—tion
est ˜e—u™oup plus import—nte pour le sondeur multif—is™e—uxF gel— est dû —u f—it que
l— zone insoni(ée est plus l—rge et —u f—it que le sondeur monof—is™e—u p—sse à ™ôté de
™ert—ines —grég—tions de poissonsF einsiD l9im—ge fournie p—r le sondeur multif—is™e—ux
est plus ri™he en inform—tionsF heuxièmementD l9im—ge o˜tenue à l9—ide des sondeurs
multif—is™e—ux est ˜e—u™oup plus pré™ise qu—nt à l— forme des —grég—tions de poissonsF
€—r exempleD d—ns le zoom de l— p—rtie ˜—sse à g—u™he de l— (gure TFRD —lors que l9im—ge
révèle des formes ™omplexes et p—rti™ulières des —grég—tions de poissonsD ™elle o˜tenue
à l9—ide du sondeur monof—is™e—u @(gure TFPA ne donne qu9un —perçu d9une ™oupe
longitudin—le d—ns le pl—n (X, Z)F ves —pports du sondeur multif—is™e—ux p—r r—pport —u
sondeur monof—is™e—u sont don™ l— meilleure représent—tion de l— distri˜ution sp—ti—le
des —grég—tions et un —perçu plus inform—tif de l— morphologie des —grég—tions de
poissonsF
   sl existe des pro˜lèmes de résolution sp—ti—leF „out d9—˜ordD on trouve les mêmes
pro˜lèmes que pour le sondeur monof—is™e—u X les zones invisi˜les pro™hes du ˜—te—u
entre ™h—que pingD les zones où les f—is™e—ux se ™hev—u™hent d9un ping à l9—utre à p—rtir
d9une ™ert—ine profondeurD et l— t—ille du volume élément—ire qui —ugmente —ve™ l—
profondeurF ƒ9—joute à ™el— le ™—s des f—is™e—ux extérieurs pour lesquels les volumes
élément—ires sont in™linés d9un —ngle Φ ™orrespond—nt à l9orient—tion de l9—xe du ™ône
de r—yonnementF ge phénomène est visi˜le d—ns le ˜—s à droite de l— (gure TFQF v—
meilleure résolution n9est don™ p—s verti™—le m—is suiv—nt l9—xe du ™ône de r—yonnementF



6.4 Conclusion
   gomme entrevu d—ns l— se™tion TD il est indispens—˜le de développer des outils
(—˜les et ro˜ustes d9o˜serv—tion du milieu sous m—rinF ves r—isons peuvent être d9ordre
CHAPITRE 6.      SONDEURS ACOUSTIQUES ET LOGICIELS DE

lxxiv                                                                  TRAITEMENT




        Figure 6.3  Diagramme de rayonnement des sondeurs acoustiques multifais-
                                         ceaux.




        Figure 6.4  Exemple d'un échogramme acquis à l'aide d'un sondeur multi-
                                        faisceaux.


é™ologiqueD environnement—lD ™ommer™i—lD ou s™ienti(queF h—ns ™e ™ontexteD le sonE
deur —™oustique monof—is™e—u est un instrument d9o˜serv—tion idé—l qui permetD vi—
un é™h—ntillonn—ge de l9esp—™eD de ™onstruire une im—ge d—ns l—quelle sont visi˜les les
—grég—tions de pl—n™tonsD les ˜—n™s de poissonsD et le fond de l— merF ve sondeur mulE
tif—is™e—ux f—it en™ore mieux X l9im—ge o˜tenue est en trois dimensions et les volumes
élément—ires sont plus petitsF ges progrèsD en termes de résolution d9im—geD donnent
lieu à une meilleure des™ription morphologique et énergétique des —grég—tionsF e(n
de générer des im—ges exploit—˜lesD le sondeur —™oustique est —sso™ié à un logi™iel de
tr—itement du sign—l qui met en forme les im—ges et en extr—it des p—r—mètres ™omme
6.4.   CONCLUSION                                                                    lxxv


™eux des ˜—n™s de poissonsF
   h—ns ™e ™h—pitreD les outils d9o˜serv—tions utilisés pour ™ette thèse sont présentés
grossièrementF v9o˜je™tif est de ˜ien ™on™eptu—liser le ™ontexte d9—™quisition des im—gesF
xous —vons volont—irement peu développé ™ert—ins —spe™ts liés —ux ™—pteurs ™omme le
pro˜lème des lo˜es se™ond—ires des sondeurs —™oustiquesD ou ™elui de l— déte™tion du
fondD ou en™ore les pro˜lèmes liés à l9ét—lonn—ge des —pp—reilsF h—ns les pro™h—ins
™h—pitresD nous mettrons l9—™™ent sur les des™ripteurs —sso™iés —ux ˜—n™s de poissons
extr—its de ™es im—ges @™h—pitre UA et nous tr—iterons le ™—s pr—tique des év—lu—tions de
sto™ks @™h—pitre VAF
CHAPITRE

                 7            Classication et
                              reconnaissance des
                              structures



7.1 Introduction



    ves —ppli™—tions usuelles de tr—itement d9é™hos —™oustiques sontD p—r exempleD l—
™l—ssi(™—tion des ˜—n™s de poissons @à ™h—que —grég—tion ™orrespond une espè™e de poisE
son ou un regroupement d9espè™es de poissonsAD l— ™l—ssi(™—tion des im—ges @à ™h—que
im—ge ™orrespond une proportion de ˜iom—sse p—r espè™e ou d9énergie p—r espè™eAD ou
en™ore l9étude des distri˜utions des —gré—tions @soit sp—ti—lementD soit d—ns l9esp—™e des
des™ripteurs des ˜—n™s de poissonsAD l9o˜je™tif ét—nt d9e'e™tuer des —n—lyses génér—les
d9un é™osystème ‘IPT“F h—ns ™ette thèseD nous nous pl—çons d—ns le ™—s de l— ™l—ssi(E
™—tion des ˜—n™s de poissonsF gel— né™essite d9extr—ire pré—l—˜lement des des™ripteurs
pour ™h—que ˜—n™ de poissonsF ges des™ripteurs sont les p—r—mètres morphologiques
des ˜—n™sD les p—r—mètres rel—tifs à l9énergie rétrodi'uséeD et les ™—r—™téristiques de
positionnement sp—ti—l des —grég—tionsF
    …n ˜ref ét—t de l9—rt sur l— ™—r—™téris—tion des stru™tures est e'e™tué d—ns l— se™tion
UFPF
   insuiteD d—ns l— se™tion UFQD nous étudions les des™ripteurs —sso™iés —ux ˜—n™s de
poissons et dis™utons des —pproxim—tions e'e™tuéesF …n test de re™onn—iss—n™e des
˜—n™s Ph est e'e™tué pour retrouverD et étendre les résult—ts présentés d—ns l— thèse
de g—rl— ƒ™l—l—˜rin ‘IUT“F
    v— dimension 4 ˜—n™s 4 sem˜le trop élément—ire pour —ppréhender une org—nis—tion
sp—ti—le des ˜—n™s de poissons à l9é™helle d9un é™osystème ou plus simplement d9une
régionF gel— devient d9—ut—nt plus import—nt —ve™ les données issues du sondeur mulE
tif—is™e—ux pour lesquelles l— notion de ˜—n™s de poissons est moins fondéeF h—ns ™e
™ontexteD nous préférons une —n—lyse glo˜—le de l9im—ge et nous proposons un des™ripE
teur st—tistique qui modélise à l— fois l9org—nis—tion sp—ti—le des ˜—n™s de poissonsD et
l— ™omposition du mél—nge d9espè™es @se™tion UFRAF
CHAPITRE 7.        CLASSIFICATION ET RECONNAISSANCE DES

lxxviii                                                                          STRUCTURES




7.2 Etat de l'art
    ves premiers tr—v—ux sur l9—n—lyse des réponses —™oustiques des ˜—n™s de poissons
sont e'e™tués de m—nière m—nuelleF €—r exempleD ‚enouD „™herni—D rodgson et €erE
™ier ‘IUU“ ‘IUV“ ‘IUW“ montrent de m—nière qu—ntit—tive que les réponses —™oustiques
des ˜—n™s de poissons sont fon™tion des espè™es insoni(éesF ves tr—v—ux ét—ient e'e™E
tués à p—rtir de l9étude des formes des é™hotr—™es o˜tenusF e l9époqueD il n9y —v—it
p—s de logi™iels inform—tiques et les p—r—mètres expli™—tifs des ˜—n™s ét—ient extr—its
m—nuellement à p—rtir du gr—phique fourni p—r une t—˜le tr—ç—nteF
   h—ns les —nnées UHD une —v—n™ée ™onsidér—˜le est ré—lisée qu—nt à l— modélis—tion
des indi™es de rétrodi'usion des ™i˜les individuelles et des ˜—n™s de poissons ‘IVH“
‘IVI“ ‘IVP“ ‘IVQ“ ‘IVR“F ges tr—v—ux mettent en rel—tion l— t—ille du poissonD l9espè™e du
poissonD et l— densité du ˜—n™ de poissonsD —ve™ l9indi™e de rétrodi'usion de l9énergie
—™oustiqueF €—r exempleD ™onn—iss—nt l9intensité de l9é™hoD le type et l— t—ille du poissonD
—lors l9expert est en mesure d9év—luer l— ˜iom—sse du ˜—n™ de poissons insoni(éF
    ves —nnées VH et l9—vènement de l9inform—tique ont permis l9é™h—ntillonn—ge du
sign—l issu du sondeur et le sto™k—ge des é™h—ntillonsF he làD les premiers tr—v—ux postE
extr—™tion ‘IVS“ ‘IVT“ sont —pp—rus X à l9inst—r des tr—v—ux de pisher sur les sris ‘QT“D
des p—r—mètres sont extr—its m—nuellement des ˜—n™s de poissons @longueurD h—uteurD
position d—ns l— ™olonne d9e—uD énergie moyenne rétrodi'uséeD F F F A et des pro™essus de
™l—ssi(™—tion permettent l9—n—lyse des donnéesF
    ve développement de logi™iels d9extr—™tion —utom—tiques des ˜—n™s de poissons et
de tr—itement des données ™onstitue une ét—pe import—nte en —™oustique h—lieutiqueF
€—rmi ™es logi™iels ‘IVU“D on peut ™iter des logi™iels fr—nç—is ™omme woviesC ‘IVV“ et
™es divers évolutions ‘IVW“ ‘IWH“D des logi™iels utilisés p—r l— ™ommun—uté intern—tion—l
™omme i™ho†iew 1 D fergen sntegr—tor @fsA 2 D F F F
    hès lorsD le pro™essus de tr—itement n9— j—m—is ™essé de s9—méliorer et des proto™oles
de ™l—ssi(™—tion d9espè™es ou d9estim—tion de ˜iom—sse sont ét—˜lis ‘IVU“F €—r exempleD
d—ns ses tr—v—uxD g—rl— ƒ™—l—˜rin dé(nit le ˜—n™ de poissons et propose une liste exE
h—ustive de des™ripteurs —sso™iés —ux sondeurs monof—is™e—u ‘IWI“ ‘IWP“ ‘IWQ“ ‘IWR“ ‘IWS“
‘IUT“F ƒes tr—v—ux m—rquent —ussi le dé˜ut de l9—utom—tis—tion ™omplète du pro™essus
de re™onn—iss—n™eD —ll—nt de l9extr—™tion —utom—tique des ˜—n™s de poissonsD jusqu9à l—
™l—ssi(™—tion —utom—tique p—r espè™eF xoël hinerD vi— des outils de simul—tion d9—gréE
g—tionsD propose des méthodes de ™orre™tion des des™ripteurs des ˜—n™s de poissons
‘IWT“F
    eve™ l9—vènement du sondeur multif—isse—uxD l— ™—r—™téris—tion des stru™tures
™onn—ît un renouve—uF ves développements te™hnologiques ré™ents permettent d9—méE
liorer en résolution et en dimension l9o˜serv—tion de l— ™olonne d9e—uF v9—n—lyse de ™es
im—ges en Q dimensions ont déjà f—it l9o˜jet de pu˜li™—tions ‘IWU“ ‘IWV“F ‚é™emmentD
de nouve—ux outils sont —pp—rus pour l9—0™h—ge des —grég—tions en trois dimensions
‘IWW“ ‘PHH“F €—r exempleD on peut ™iter le logi™iel wovies QhD développé p—r l9sfremerD

   1 www.echoview.com
   2 BI est développé par l'IMR ( Institut of Marine Research , en Norvège) et commercialisé par la
société norvégienne SIMRAD qui conçoit la majorité des sondeurs actuellement utilisés.
7.3.   CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS

                                                                                     lxxix


qui ™ontient des modules ™omme l— déte™tion du fond ‘PHI“ ou l9extr—™tion —utom—tique
des des™ripteurs des ˜—n™s de poissons en trois dimensions ‘PHP“F



7.3 Classication et reconnaissance des bancs de pois-
    sons
7.3.1 Descripteurs des bancs 2D
   h—ns ™ette se™tionD les des™ripteurs de ˜—n™s de poissons qui sont extr—its d9une
—n—lyse p—r sondeur monof—ise—u sont présentés su™™in™tementF …ne —n—lyse plus —pE
profondie de ™es des™ripteurs est disponi˜le d—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“F
    xotons que les p—r—mètres des ˜—n™s de poissons sont liés à l— notion de seuil
d9extr—™tion X l9ensem˜le des pixels de l9im—ge sont seuillés —(n d9ex™lure les inform—E
tions ™onsidérées ™omme ét—nt rel—tives à du ˜ruit @poissons isolésD pl—n™tonD F F F dont
l9énergie —™oustique rétrodi'usée est f—i˜leA et de ne ™onserver que ™elles liées à une
—grég—tion de poissons @—ve™ une forte énergie rétrodi'usée qui ™orrespond à des niE
ve—ux d9intensité de pixels élevés d—ns l9im—geAF v— forme et l— t—ille des —grég—tions
sont fortement liées —u seuil d9extr—™tionF in e'etD des ˜—n™s distin™ts à un ™ert—in
seuilD peuvent ne former qu9une seule et même entité à un seuil inférieurF he mêmeD
à ™—use des v—ri—˜ilités de rétrodi'usion inter espè™esD ™ert—ines espè™es de poissons
sont invisi˜les pour un seuil donnéD —lors que d9—utres restent déte™t—˜lesF in pr—tiqueD
pour les ™—mp—gnes d9év—lu—tion de sto™ks d9espè™esD le seuil d9extr—™tion est (xé à
Sv =ETHdfF …ne fois le seuill—ge e'e™tuéD les ˜—n™s de poissons regroupent les pixels
voisinsF
    „out d9—˜ordD à ™h—que ˜—n™D sont —sso™iés des p—r—mètres temporels et géogr—E
phiques X —nnéeD moisD jourD heureD l—titude et longitudeF ves des™ripteurs morpholoE
giques ™—r—™térisent l— forme du ˜—n™ de poissonsF in deux dimensionsD les p—r—mètres
sont l— longueurD l— h—uteurD le périmètreD l9—ireD l9élong—tionD et l— dimension fr—™t—leF
v— troisième ™l—sse de des™ripteurs ™ontient les p—r—mètres ˜—thymétriques X l— sondeD
l— profondeur du ˜—n™D l9—ltitude du ˜—n™D et l9indi™e d9—ltitude qui exprime l— position
rel—tive du ˜—n™ d—ns l— ™olonne d9e—uF in(nD les des™ripteurs énergétiques sont des
p—r—mètres dire™tement issus des é™h—ntillons du sign—l numérisé fourni p—r le sondeurF
he ™ette su™™ession d9é™h—ntillons sont extr—its l— v—leur m—xim—le d9—mplitudeD l—
moyenne des v—leurs d9—mplitudeD l9é™—rt type des v—leurs d9—mplitudeD le ™oe0™ient de
v—ri—tion des v—leurs d9—mplitude ‘IWP“D l9énergie glo˜—le rétrodi'usée ‘IWP“D et l9indi™e
de rétrodi'usion de volume ‘IWP“F v9indi™e de rétrodi'usion de volume ser— étudié plus
pré™isément d—ns le ™h—pitre VF sl ser— —lors utilisé pour ™onvertir l9énergie —™oustique
en ˜iom—sseF
    uelques des™ripteurs morphologiques et ˜—thymétriques sont représentés de m—E
nière s™hém—tique à g—u™he de l— (gure UFIF he mêmeD à droite de l— (gure UFID nous
représentons l9enveloppe simpli(ée du sign—l é™h—ntillonnéF gette enveloppe f—it —pp—E
r—ître les é™hos dus —u ˜—n™ de poissons et ™eux dus —u fond de l— merF ƒeuls les é™hos
—sso™iés —u ˜—n™ de poissons sont utilisés pour l9extr—™tion des p—r—mètresD ™omme p—r
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

lxxx                                                                         STRUCTURES




       Figure 7.1  A gauche, quelques descripteurs morphologiques et bathymé-
       triques. A droite, l'enveloppe temporelle simpliée du signal rétrodiusé corres-
                       pondante et quelques descripteurs énergétiques.


exemple le ™—l™ul des moments d9ordre I et P de l— distri˜ution des v—leurs d9—mplitudeF
    sl existe ™ert—ines impré™isions ˜ien ™onnues en —™oustique h—lieutiqueF xous —vons
—˜ordé d—ns l— se™tion TFP le ™—s des énergies rétrodi'usées sousEestimées à ™—use de
l9o™™up—tion p—rtielle des volumes élément—ires p—r les ˜—n™s de poissonsF get é™h—nE
tillonn—ge de l9esp—™e entr—îne —ussi une impré™ision d—ns les mesures des longueurs
des ˜—n™sF in e'etD il est impossi˜le de s—voir à quel endroit ex—™t sont positionnés
les ˜—n™s d—ns le volume élément—ireF €lus l— sonde est gr—ndeD plus le di—mètre du
volume élément—ire —ugmenteD et plus ™es phénomènes d9impré™ision prennent de l9—mE
pleurF einsiD si L est l— longueur réelle du ˜—n™D et D3dB le di—mètre du f—is™e—u à
l— profondeur ™onsidéréeD —lors l— longueur mesurée du ˜—n™ de poissons Lm est une
v—ri—˜le —lé—toire de densité de pro˜—˜ilité uniforme sur l9interv—lle ]L, L+2D3dB [F gel—
entr—ine une erreur de mesure —ll—nt de 0 à 2D3dB D iFeF l— longueur est surestiméeF in
repren—nt l9exemple de l— se™tion TFPD pour une profondeur de SHmD l9erreur de mesure
peut —tteindre IPDPmD et pour profondeur de IHHmD elle peut —tteindre PRDRmF he plusD
notons que l9—ugment—tion du volume élément—ire —ve™ ™elle de l— sondeD provoque l—
™orrél—tion des des™ripteurs 4 profondeur du ˜—n™ de poissons 4 et 4 longueur du ˜—n™
de poissons 4D m—is —ussi des des™ripteurs 4 profondeur du ˜—n™ de poissons 4 et 4
énergie du ˜—n™ de poissons 4F ges pro˜lèmes d9impré™ision des mesures liée —ux ˜—n™s
de poissons ont l—rgement été évoqués d—ns des tr—v—ux —ntérieurs ‘IUT“ ‘IWT“ ‘IPT“
‘PHQ“F



7.3.2 Descripteurs des bancs 3D
  v9exploit—tion et le tr—itement des données —™quises p—r ™es sondeurs sont des thèmes
émergents ‘IWU“ ‘IWV“ ‘IWW“ ‘PHH“ ‘PHP“F h—ns ™ette se™tionD l— méthode d9extr—™tion des
7.3.   CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS

                                                                                               lxxxi




         Figure 7.2    A gauche, un exemple d'agrégation intra-ping. A droite, deux
         exemples successifs d'agrégation intra-ping qui illustrent l'agrégation inter-ping.


˜—n™s de poissons p—r le sondeur multif—is™e—ux est présentée de m—nière simpli(éeF
insuiteD nous présentons les des™ripteurs —sso™iés à ™h—que ˜—n™F
   †oi™i les prin™ip—les ét—pes ™onstitutives de l9extr—™tion des ˜—n™s de poissons X
 IF    Extraction des données 1D (intra-faisceau). in un ping donnéD d—ns ™h—que
       f—is™e—u indépend—mmentD on ™her™he à relier entre eux les é™h—ntillons d9un même
       ˜—n™F €our un ™ert—in seuil d9extr—™tion @™fF se™tion UFQAD ™el— est e'e™tué à l9—ide
       d9un ™ritère de ™ontiguïtéD iFeF deux é™h—ntillons sont ™onsidérés ™omme ét—nt issus
       du même ˜—n™ de poissons si leur dist—n™e rel—tive n9ex™ède p—s une v—leur donnéeF
 PF    Agrégation des données 2D (intra-ping ou inter-faisceau).                  in un ping
       donnéD les ˜lo™s indépend—nts identi(és à l9ét—pe I sontD ou ˜ien regroupés entre
       eux d9un f—is™e—u à l9—utreD ou ˜ien identi(és ™omme ne f—is—nt p—s p—rtie du même
       ˜—n™ de poissonsF v9uni(™—tion de deux ensem˜les de données dépend de ™ritères
       de ™ontiguïté verti™—ux et horizont—uxF €—r exempleD d—ns l— p—rtie g—u™he de
       l— (gure UFPD trois ˜—n™s de poissons ont été identi(ésF ve ˜—n™ I regroupe ™inq
       ˜lo™s pré—l—˜lement dé(nis à l9ét—pe ID tel que le regroupement implique des ˜lo™s
       issus du même f—is™e—u ou de f—is™e—ux voisinsF in rev—n™heD à l9inst—r du ˜—n™ PD
       ™ert—ins ˜lo™s identi(és à l9ét—pe I peuvent rester isolésD iFeF ils ne sont regroupés
       —ve™ —u™une —utre entitéF
 QF    Agrégation des données 3D (inter-ping). gette ét—pe ™onsiste à identi(er les
       ˜—n™s de poissons qui peuvent être fusionnés d9un ping à l9—utreF ƒoit deux pings
       i et j issus de l9ét—pe PD iFeF pour lesquels les —grég—tions Ph sont ™onnuesF elorsD
       un ™ritère de ™ontiguïté permet d9uni(er une —grég—tion identi(ée d—ns le ping i
       —ve™ une —grég—tion identi(ée d—ns le ping j F sl se peut même qu9une —grég—tion
       du ping i f—sse le lien entre deux —grég—tions du ping j qui n9ét—ient p—s réunies
       ensem˜le lors de l9ét—pe PF €—r exempleD d—ns l— p—rtie droite de l— (gure UFPD le
       ˜—n™ R du ping i est —sso™ié —ux ˜—n™s I et P du ping j pour ne former qu9un seul
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

lxxxii                                                                      STRUCTURES




         Figure 7.3  Les descripteurs morphologiques sont ceux de la boîte englobante.
               Cette gure montre un banc de poissons avec sa boîte englobante.



    et même ˜—n™ de poissonsF €lus simplementD les ˜—n™s S et QD respe™tivement des
    pings i et j D sont —grégés pour ne former qu9un seul et même ˜—n™F gette méthode
    est étendue à l9ensem˜le des pings de l9é™hogr—mmeD de telle sorte qu9un ˜—n™ de
    poissons peut in™lure un gr—nd nom˜re de pings @—ut—nt que né™ess—ireAF gette
    ét—pe ™lôt l9extr—™tion de ˜—n™sD il reste m—inten—nt à extr—ire les p—r—mètres de
    ™h—que ˜—n™F

    ves formes des ˜—n™s de poissons pouv—nt être p—rti™ulièrement ™omplexes et —lé—E
toiresD il — été ™onvenu qu9une ˜oîte englo˜—nte orientée servir—it de référen™e pour
les dimensions prin™ip—les des —grég—tionsF v9orient—tion de l— ˜oîte est ™—l™ulée en
moyenn—nt les —ngles des ve™teurs qui relient entre elles les sousEzones identi(ées lors
de l9ét—pe P de l9extr—™tion des ˜—n™s de poissonsF gomme représentés d—ns l— (gure
UFQD d—ns l—quelle un ˜—n™ de poissons est représenté —ve™ s— ˜oîte englo˜—nteD les p—E
r—mètres de longueurD de h—uteurD et de l—rgeur de l9—grég—tion sont ™eux de l— ˜oîte
englo˜—nteF in rev—n™heD le volume et le périmètre du ˜—n™ de poissons sont extr—its
dire™tement des positions des volumes élément—ires du ˜—n™ de poissonsF g9est —ussi
le ™—s des des™ripteurs ˜—thymétriquesD énergétiquesD temporelsD et géogr—phiques qui
sont dé(nis ™omme pour le sondeur monof—is™e—u @se™tion UFQAF
    gomme pour le sondeur monof—is™e—uD l— t—ille des volumes élément—ires ™roît —ve™
l— profondeurD ™onduis—nt à une possi˜le surEestim—tion de l— longueur et de l— l—rgeur
des ˜—n™s de poissonsD et à une possi˜le sousEestim—tion des des™ripteurs énergétiquesF
he plusD ˜ien que l— zone insoni(ée soit import—nte et ˜ien é™h—ntillonnéeD il se peut que
seule une p—rtie in(me d9un ˜—n™ de poissons soit o˜servée p—r le sondeurF einsiD ™omme
pour le sondeur monof—is™e—uD l9im—ge représent—tive de l— zone de prospe™tion dépend
de l— tr—je™toire du n—vireF €—r l— suiteD nous négligeons ™e phénomène en ™onsidér—nt
que l9—ppro™he sto™h—stique permet m—lgré tout de f—ire v—loir les v—ri—˜ilités entre
plusieurs groupes de poissonsF
7.3.   CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS

                                                                                          lxxxiii


7.3.3 Performances de classication : Bancs 2D
    h—ns ™ette se™tionD —(n d9illustrer le pouvoir dis™rimin—nt des des™ripteurs de ˜—n™s
de poissons PhD nous retrouvons les résult—ts o˜tenus d—ns l— thèse de g—rl— ƒ™—l—˜rin
‘IUT“ pour le jeu de données hSF ve jeu de données hS est ™elui utilisé p—r g—rl— ƒ™—l—E
˜rin d—ns s— thèse ‘IUT“F sl est issu de II ™—mp—gnes de pê™hes et d9o˜serv—tions —™ousE
tiques @sondeur monof—is™e—uA d—ns le golfe de q—s™ogne X wi„i†eg @HPGIIGIWVWD
PP ™h—lut—gesAD heeq @IQGHRGIWWHD PV ™h—lut—gesAD e…‚e @IIGHVGIWWHD PT ™h—luE
t—gesAD i„e€ @HQGHWGIWWHD PR ™h—lut—gesAD heeq @IHGHRGIWWID QQ ™h—lut—gesAD i„e€
@PTGHTGIHHID PQ ™h—lut—gesAD e…‚e @HVGIHGIWWID PR ™h—lut—gesAD heeq @IRGHRGIWWPD
QV ™h—lut—gesAD i„e€ @HRGIIGIWWPD PH ™h—lut—gesAD i„e€ @PIGHSGIWWQD IT ™h—lut—gesAD
i‚eq @HSGHTGIWWQD PU ™h—lut—gesAF gh—™un des ˜—n™s de l— ˜—se de données — été idenE
ti(é p—r un expert de l— m—nière suiv—nteF it—nt donné un ™h—lut—ge monospé™i(queD les
—grég—tions des é™hogr—mmes —™quis —u moment du ™h—lut—ge sont ™onsidérées ™omme
ét—nt des ˜—n™s de poissons de l9espè™e pê™héeF he ™ette f—çonD à p—rtir des TH ™h—luE
t—ges monospé™i(ques des II ™—mp—gnesD IRIW ˜—n™s de poissons ont été identi(és @IUW
˜—n™s de s—rdineD RUV ˜—n™s d9—n™hoisD TTU ˜—n™s de ™hin™h—rdD et WS ˜—n™s de merl—n
˜leuAF
    v— simul—tion ™onsiste à s™inder —lé—toirement l9ensem˜le des données en un sous
ensem˜le d9—pprentiss—ge et sous ensem˜le de testF …ne fois l— ™l—ssi(™—tion e'e™tuéeD
un t—ux de ˜onne ™l—ssi(™—tion est ™—l™uléF gette s™ission —lé—toire —ve™ remise est
e'e™tuée IHH fois et un t—ux moyen de ˜onne ™l—ssi(™—tion est déterminéF h—ns s—
thèseD g—rl— ƒ™—l—˜rin utilis—it un ™l—ssi(eur simple X une —n—lyse dis™rimin—nte liné—ire
de pisherF h—ns le t—˜le—u UFID les t—ux moyens de ˜onne ™l—ssi(™—tion sont —0™hés pour
l9—n—lyse dis™rimin—nte liné—ire de pisher @ehvpA @p—ge xxxv du présent m—nus™ritAD
l9—lgorithme iw @p—ge xxviii du présent m—nus™ritAD les m—™hines à ve™teur de support
@ƒ†wA @p—ge xxxix du présent m—nus™ritAD et les forêts —lé—toires @peA @p—ge xlix du
présent m—nus™ritAF ve ™ode ƒ†w @4 vi˜Eƒ†w 4A est disponi˜le en ligne sur internet
‘PHR“F ve p—r—mètre du noy—u v—ut SD ™elui qui —utorise des erreurs sur les m—rges est
(xé à IHHF ev—nt tout tr—itementD les données sont normées et ™entréesF

                             ADLF        EM      SVM        FA
                              UHDT7     TTDW7    VRDW7    VWDQ7

        Tableau 7.1  Comparaison des performances de classication du jeu de don-
        nées de bancs de poissons D5 pour diérents classieurs. Le taux moyen de
        bonne classication est reporté pour l'analyse discriminante linéaire de Fisher
        (ADLF) , l'algorithme EM (EM), les machines à vecteur de support (SVM),
                                 et les forêts aléatoires (FA).


   „out d9—˜ordD ™es résult—ts montrent à quel point le ™hoix du ™l—ssi(eur est imporE
t—ntF in e'etD les ™on™lusions génér—les —près l9utilis—tion de l9—n—lyse dis™rimin—nte
de pisher @ehvpA sont —ssez pessimistes X seuls UH7 des ˜—n™s de poissons sont ™orE
re™tement ™l—ssésF sl est —lors légitime de se dem—nder si l— ™l—ssi(™—tion de ˜—n™s est
possi˜leF in rev—n™heD les résult—ts o˜tenus —ve™ les forêts —lé—toires @peA sont ˜e—uE
™oup plus optimistes X W ˜—n™s de poissons sur IH sont ™orre™tement l—˜ellisésF h—ns ™e
CHAPITRE 7.        CLASSIFICATION ET RECONNAISSANCE DES

lxxxiv                                                                           STRUCTURES




™—sD l— ™l—ssi(™—tion de ˜—n™s de poissons sem˜le don™ être une voie prometteuseF ges
résult—ts montrent —ussi l— pertinen™e du ™hoix des forêts —lé—toires ™omme ™l—ssi(eur
pour ™es données p—r r—pport à des ™l—ssi(eurs du type iw ou ƒ†wF gel— justi(e le
f—it que nous —yons développé un ™l—ssi(eur f—i˜lement supervisé qui s9—ppuie sur les
—r˜res de dé™ision et les forêts —lé—toiresF h—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“D les m—E
tri™es de ™onfusion ét—ient représentéesF xous f—isons de même d—ns l— (gure UFR pour
l9—n—lyse dis™rimin—nte de pisher et pour les forêts —lé—toiresF gon™ern—nt le modèle
de ™l—ssi(™—tion ehvpD les ™on™lusions sont qu—siment les mêmes que d—ns l— thèse de
g—rl— ƒ™—l—˜rin X les t—ux de ™l—ssi(™—tion sont ˜—s et l— ™onfusion l— plus forte se situe
entre l9—n™hois et le ™hin™h—rd @PU7 des —n™hois sont ™l—ssés p—rmi les ™hin™h—rdsAF in
rev—n™heD l— m—tri™e de ™onfusion o˜tenue —ve™ les forêts —lé—toires donne un tout —utre
reg—rd des perform—n™es de ™l—ssi(™—tion @à droiteD d—ns l— (gure UFRAF gette foisD les
t—ux de ™l—ssi(™—tion intr— espè™es sont élevés et l— ™onfusion l— plus import—nte se
situe entre l— s—rdine et le ™hin™h—rd @IS7 des ˜—n™s de s—rdines sont ™l—ssés p—rmi les
˜—n™s ™hin™h—rdsAF
    einsiD nous ™onst—tons de m—nière qu—ntit—tive queD sous ™ondition du ™hoix d9un
™l—ssi(eur ™orre™tD les des™ripteurs de ˜—n™s de poissons fournis p—r le sondeur monoE
f—is™e—u permettent d9e'e™tuer une ™l—ssi(™—tion —utom—tique plus qu9—™™ept—˜leF ge
t—ux de re™onn—iss—n™e @VWDQ7A est —™™ept—˜le du point de vue du dom—ine —ppli™—tifF
in e'etD —ve™ un t—ux d9erreur d9environ IH7D les méthodes —utom—tiques permettent
de ™onsolider une expertise ou d9e'e™tuer un ™hoixF
    gepend—ntD l— ™l—ssi(™—tion de ˜—n™s de poissons p—r —pprentiss—ge supervisé —utoE
m—tique possède des limites intrinsèquesF €remièrementD l— représent—tivité des ˜—n™s
est di'érentes dur—nt les périodes de ™h—lut—ge et de prospe™tion @l— vitesse du n—vire
est di'érente ™e qui ™h—nge l— résolution des im—gesAF heuxièmementD ™ette —ppro™he
est restreinte —ux ™h—lut—ges monoEspé™i(ques dont l9o˜tention est di0™ile et qui ne
permettent p—s de modéliser les mél—nges d9espè™esF



7.4 Classication et reconnaissance des ensembles de
    bancs de poissons
7.4.1 Préambule
    v— ™—mp—gne gveƒƒHV3 —v—it pour ˜ut d9—™quérir de l— donnée multif—is™e—ux —(n
de mieux —ppréhender ™e nouve—u type d9inform—tions et d9en extr—ire des ™ompos—ntes
des™riptivesF gepend—ntD l9—n—lyse visuelle des é™hogr—mmes Qh o˜servés — ™h—ngé l—
per™eption de l9org—nis—tion des ˜—n™s de poissonsF sl est —dmis que l— distri˜ution sp—E
ti—le des ˜—n™s de poissons est fond—ment—le pour des o˜je™tifs de dis™rimin—tions ‘IWS“D
m—is le sondeur multif—is™e—ux intensi(e ™ette idéeF elors que les ˜—n™s de poissons —pE
p—r—iss—ient distin™ts et dé(nis —ve™ le sondeur monof—is™e—uD l9—jout d9une troisième
dimension sp—ti—le f—it —pp—r—ître une multitude de ˜—n™s s—tellites di'us et des formes
   3 Campagne     océanographique d'une semaine opérée par l'Ifremer en juin 2008 à bord du Thalassa,
l'objectif était l'acquisition de données multifaisceaux.
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                           lxxxv




        Figure 7.4    Matrices de confusion obtenues après la classication du jeu
        de données monofaisceau D5 pour deux classieurs : l'analyse discriminante
                  linéaire de Fisher (ADLF) et les forêts aléatoires (FA).


insoupçonnéesF v— notion même de ˜—n™s est remise en ™—useD l—iss—nt l— pl—™e à un
™on™ept plus génér—le X les 4 —grég—tions 4F €—r exempleD d—ns l— (gure UFSD plusieurs ™—s
d9—grég—tions sont représentés X l— grosse ˜oule dense @en h—utD à g—u™heAD les n—ppes de
˜—n™s de poissons tors—dés de formes —lé—toires @en h—utD à droiteAD l— nuée de poissons
@en ˜—sD à g—u™heAD et les petits ˜—n™s denses ép—rses @en ˜—sD à droiteAF v— vision du
sondeur monof—is™e—u ser— pertinente pour l— ˜oule denseD p—s pour les —utres ™—s X à
l— pl—™e des ˜—n™s tors—désD le sondeur monof—is™e—u peut déte™ter des petites t—™hes
—™™oléesD et à l— pl—™e d9une nuée de werl—ns fleusD le sondeur monof—is™e—u peut
déte™ter un ˜—n™ ™entr—l environné de ˜ruitF
    €our mieux —ppréhender l9inform—tion ™ontenue d—ns les im—gesD on peut envis—E
ger une —ppro™he —ltern—tive qui tient ™ompte à l— fois de l9org—nis—tion sp—ti—le des
—grég—tions et des ™—r—™téristiques des ˜—n™s de poissonsF gontr—irement —ux —n—lyses
—ntérieures PhD toute l9inform—tion doit être exploitéeF einsiD nous n9e'e™tuons p—s de
(ltr—ge des ˜—n™s trop petitsF gel— permet de prendre en ™onsidér—tion les é™hos isolés
qui peuvent être des poissons éloignés du ˜—n™ ™entr—lF in outreD si ™es é™hos isolés
sont du pl—n™tonD il f—ut les prendre en ™ompte d—ns l9—n—lyse glo˜—le ™—r ils peuvent
être représent—tifs de l9é™osystème lo™—l qui f—it que ™ert—ines espè™es sont présentes et
qui ™ontr—int le ™omportement de ™es espè™esF h—ns le ™omportementD sont in™lues l—
position des ˜—n™s d—ns l— ™olonne d9e—uD l— t—ille des ˜—n™sD leur morphologieD et leur
distri˜ution sp—ti—leF



7.4.2 Descripteur global proposé
   gert—ins tr—v—ux proposent l9—n—lyse de des™ripteurs glo˜—ux simples à p—rtir de
données issues du sondeur monof—is™e—u ‘PHS“ ‘PHT“F €—r exempleD d—ns ‘PHT“D l9extr—™E
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

lxxxvi                                                                       STRUCTURES




         Figure 7.5  Il existe diérents types d'agrégations allant de la grosse sphère
                                   dense, à la nuée de voxels.


tion prélimin—ire des ˜—n™s de poissons est rejetée ™—r le (ltr—ge des ˜—n™s trop petits
est vu ™omme une suppression d9inform—tions dis™rimin—ntesF e l— pl—™eD une —utre méE
thode pour extr—ire des stru™tures est proposée @on ne p—rle —lors plus de ˜—n™s m—is
de 4 p—t™h 4AF insuiteD des des™ripteurs glo˜—ux sont suggérés et —sso™iés à l9im—ge
™onsidéréeF €—rmi ™es des™ripteurs glo˜—uxD on peut ™iter l9énergie moyenne rétrodi'uE
sée p—r tous les p—t™hs de l9im—geD l— dist—n™e moyenne entre les p—t™hs de l9im—geD l—
densité des p—t™hsD l9o™™up—tion sp—ti—le des p—t™hsD et™F
    xous proposons une —ppro™he —n—logue qui repose sur l9—n—lyse st—tistique de l— disE
tri˜ution de stru™tures élément—ires —u sens d9un ™ritère de seuill—ge et de ™ontigüitéF
v9org—nis—tion sp—ti—le de ™es stru™tures élément—ires @les ˜—n™s de poissonsA dépend
de l— n—ture des poissons o˜servésF €—r exempleD l— distri˜ution des ˜—n™s d—ns l9im—ge
peut être homogène ou hétérogèneF einsiD l9im—ge des —grég—tions peut être vue ™omme
une ré—lis—tion d9un pro™essus sto™h—stique pon™tuelD ™h—que point du pro™essus repréE
sent—nt le ™entre de gr—vité d9un ˜—n™ de poissonsF h—ns ™e ™ontexteD nous proposons
un des™ripteur st—tistique qui ™—r—™térise l9org—nis—tion sp—ti—le du pro™essus pon™tuelF
he plusD les ˜—n™s peuvent être ™—tégorisésD en fon™tion de leur n—tureD de telles sortes
qu9une —n—lyse plus (ne de l— distri˜ution est e'e™tué X il s9—git —lors de ™—r—™térisé l—
distri˜ution de ˜—n™s de même ™—tégorieD ou de ™—tégorie di'érenteF gette extension de
l— méthode ™orrespond à l9étude d9un pro™essus pon™tuel m—rquéF
   K   de Ripley.
    ve K de ‚ipley ‘PHU“ ‘PHV“ regroupe une f—mille de méthodes qui exprime des st—E
tistiques sur les dist—n™es entre les exemples du pro™essusF €—r exempleD l9—n—lyse de
voisin—ge du premier ordre ‘PHU“ ™onduit à re™her™her l— qu—ntité moyenne de points
@KA d—ns un volume élément—ire B de l9esp—™e X

                                        K=         ρ(v)dv                                  @UFIA
                                               B
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                          lxxxvii


où ρ(v)dv est l— pro˜—˜ilité du nom˜re de points d—ns un volume in(nitésim—l dv
™entré en v F gette —n—lyse du premier ordre m—nque de (nesseF einsiD il existe une perte
d9inform—tion sur les dist—n™es interEexemplesF he plusD les inform—tions essentielles des
stru™tures ™omplexesD qui impliquent des distri˜utions hétérogènes —ve™ plusieurs motifs
em˜oités à plusieurs é™hellesD sont noyées d—ns l— moyenneF v9—n—lyse de voisin—ge du
se™ond ordre ‘PHW“ ‘PIH“D qui ™onsidère des st—tistiques sur les p—ires de pointsD est mieux
—d—ptée pour l— ™—r—™téris—tion des stru™tures ™omplexesF gette foisD l9—n—lyse ™onsiste
à re™her™her l— qu—ntité moyenne de ™ouple de points d—ns un volume élément—ire B X
                                   1
                             K=                    ρ(2) (x1 , x2 )dx1 dx2              @UFPA
                                   V   V       B

où ρ(2) (x1 , x2 )dx1 dx2 est l— densité du nom˜re de p—ires de points d—ns les volumes
in(nitésim—ux dx1 et dx2 ™entrés en x1 et x2 F † est le volume tot—l de l9esp—™e d9—n—lyseF
v— densité ρ(2) (x1 , x2 ) exprime l— ™orrél—tion entre les pointsF ƒi le pro™essus —lé—toire
est isotrope @inv—ri—n™e en tr—nsl—tionA et st—tionn—ire —u se™ond ordreD —lors l— densité
ρ(2) (x1 , x2 ) ne dépend que de l— dist—n™e entre les points X ||x1 − x2 | |F in pr—tique B
est une ˜oule de r—yon r et l— st—tistique K(r) peut être estimée ™omme suit X
                                           N
                                   1
                            K(r) =                 δij (||xi − xj | | ≤ r)             @UFQA
                                   V       i=j

où δij est une fon™tion qui renvoie I si l— ™ondition ||xi − xj | | ≤ r est respe™téeD H
sinonF
   Processus ponctuel marqué.
     v9—ppro™he pré™édente peut être étendue —u ™—s des pro™essus pon™tuels m—rqués
‘PIH“F ƒoit {xn }1≤N une ré—lis—tion p—rti™ulière d9un pro™essus —lé—toireF ƒi une étiquette
est —ttri˜uée à ™h—que point xn D —lors le pro™essus est m—rquéF …ne ré—lis—tion du
pro™essus m—rqué est notée {xn , mn }1≤N F …n m—rqu—ge est o˜tenu p—r ™—tégoris—tion
des o˜jets en sous ™l—ssesF €—r exemple ‘PII“D pour l9—n—lyse de l— distri˜ution des
zones forestièresD les —r˜res sont pré—l—˜lement ™l—ssés d—ns des ™—tégories distin™tesF
he ™ette f—çonD il est ™on™ev—˜le de r—nger les —r˜res p—r ™—tégorie de t—illeF e l9inst—r
de ‡en ‘PIP“ qui mêle les pro™essus pon™tuels m—rqués —ve™ du urige—ge @une méthode
d9interpol—tionAD nous envis—geons d9e'e™tuer une ™l—ssi(™—tion non supervisée —(n de
regrouper les points o˜servés en ™—tégoriesF †oi™i ™omment nous pro™édonsF gh—que
˜—n™ de poissons est ™—r—™térisé p—r un ™entre géogr—phique dont les ™oordonnées sont
xn D et p—r un ensem˜le de des™ripteurs @les p—r—mètres morphologiques et énergétiquesAF
ges des™ripteurs prennent leur v—leur d—ns l9ensem˜le ™ontinu des réelsF e(n d9o˜tenir
un ensem˜le dis™ret de m—rquesD nous —ppliquons l9—lgorithme des uEmoyennes qui est
présenté d—ns l— se™tion PFQ du ™h—pitre PF pin—lement les ˜—n™s de poissons ne sont
plus —sso™iés à un ve™teur de p—r—mètres ™ontinusD m—is un entier n—turel résume ses
™—r—™téristiquesF
   v9expression @UFQA du K de ‚ipley d—ns le ™—s s—ns m—rque est —d—ptée —u ™—s
des pro™essus pon™tuels m—rquésF gette foisD plutôt que d9év—luer le nom˜re moyen
d9exemples d—ns le volume élément—ire B D l— m—tri™e de ™oo™™urren™e des ™ouples de
m—rques d—ns le volume élément—ire est estiméeF gel— revient à estimer le nom˜re
CHAPITRE 7.              CLASSIFICATION ET RECONNAISSANCE DES

lxxxviii                                                                           STRUCTURES




       Figure 7.6  Volume d'intersection entre une boule et un prisme trapézoïdal.
d9o™™urren™e moyen de ™h—que ™ouple de m—rque d—ns un volume élément—ire B F ƒoit
Γ(r) = {Γp,q (r)}1≤p,q≤M l— m—tri™e de ™oo™™urren™e —ve™ M le nom˜re de m—rquesD
—lors les ™ompos—ntes de l— m—tri™e de ™oo™™urren™e s9expriment ™omme suit X
                         N            N
                               1
            Γp,q (r) =                      δi (mi = p)δj (mj = q)δij (||xi − xj | | ≤ r)   @UFRA
                         i
                             Vi (r)   j=i

où δij est une fon™tion qui renvoie I si l— ™ondition ||xi − xj | | ≤ r est respe™téeD H
sinonD et δi est une fon™tion qui renvoie I si l— ™ondition mi = p est respe™téeD H sinonF
Vi (r) est un ™oe0™ient de norm—lis—tionD il représente l9interse™tion entre le volume
V et l— ˜oule B de r—yon rF v9—v—nt—ge du m—rqu—ge est de regrouper ensem˜le des
données simil—iresF vors de l— ™onstru™tion de l— m—tri™e de ™oo™™urren™eD l— question
est de s—voir quels sont les groupes qui inter—gissent entre euxF €—r exempleD il n9est
p—s —˜surde de penser qu9une ™l—sse d9im—ges implique plusieurs types de groupes
d9exemplesF
   Correction des eets de bord.
    ve ™oe0™ient de pondér—tion Vi (r) d—ns l9expression @UFRA permet de ™onsidérer les
e'ets de ˜ordF h—ns le ™—s du sondeur monof—is™e—uD le volume V peut être estimé
p—r un re™t—ngle et le volume B est un disque ™entré en xi D —lors il existe des formules
pour ™—l™uler Vi (r) pour tout xi ‘PHW“F h—ns le ™—s du sondeur multif—is™e—uxD ™e ™—l™ul
est moins évidentF in e'etD une fois que les zones —veugles générées p—r le sondeur
multif—is™e—ux sont suppriméesD V est un prisme à ˜—se de tr—pèze ™omme représenté
d—ns l— (gure UFTF B est une ˜oule ™entrée en xi F €lusieurs ™—s de (gure sont possi˜les
en fon™tion du r—yon r de l— ˜oule et de l— position du ™entre xi de l— ˜ouleF „rois
exemples sont représentés d—ns le h—utD à droiteD de l— (gure UFT d—ns le pl—n {Y, Z} X
le ™—s de l— ˜oule qui ™oupe à l— fois le pl—n inférieur et un pl—n l—tér—l du prisme
tr—pézoïd—lD le ™—s de l— ˜oule qui ™oupe les deux pl—ns l—tér—ux et le pl—n supérieur
du prisme tr—pézoïd—leD et le ™—s de l— ˜oule qui ™oupe tous les pl—ns à l— foisF h9—utres
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                           lxxxix


exemples pourr—ient être sign—lésD ™omme l— ˜oule qui englo˜e tot—lement le prisme
tr—pézoïd—lF ges di'érents ™—s posent pro˜lème pour le ™—l™ul de Vi (r) et nous voulons
éviter de tr—iter ™h—que ™—s indépend—mmentF he ™e f—itD nous proposons une formule
génér—le qui permetD quelque soit l— t—ille de l— ˜oule et quelque soit l— position xi d—ns
le prisme tr—pézoïd—lD de ™—l™uler le volume Vi (r)F †oi™i l— méthodeF €l—çonsEnous d—ns
le pl—n {Y, Z} tr—nsverse —u n—vireD nous dé(nissons les gr—ndeurs suiv—ntes X
 IF S11 : ƒurf—™e extérieure du disque B p—r r—pport —u premier pl—n l—tér—l du prisme
    tr—pézoïd—lF
 PF S12 : ƒurf—™e extérieure du disque B p—r r—pport —u pl—n supérieur du prisme
    tr—pézoïd—lF
 QF S13 : ƒurf—™e extérieure du disque B p—r r—pport —u deuxième pl—n l—tér—l du
    prisme tr—pézoïd—lF
 RF S14 : ƒurf—™e extérieure du disque B p—r r—pport —u pl—n inférieur du prisme
    tr—pézoïd—lF
 SF S21 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du premier pl—n
    l—tér—l et p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF
 TF S22 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du premier pl—n
    l—tér—l et p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF
 UF S23 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du deuxième pl—n
    l—tér—l et p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF
 VF S24 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du deuxième pl—n
    l—tér—l et p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF
S11 D S12 D S13 D S14 D S21 D S22 D S23 et S24 sont représentées d—ns l— (gure UFTF yn montre
—isément que l— surf—™e d9interse™tion Ai (r) entre le disque ™entré en xi de r—yon r et l—
™oupe tr—nsvers—le du prisme tr—pézoïd—le @d—ns le pl—n {Y, Z}AD s9exprime en fon™tion
de {Sij }1≤i≤2,1≤j≤4 de l— m—nière suiv—nte X
                                                    2   4
                                Ai (r) = −3S +               Sij                       @UFSA
                                                   i=1 j=1

yù S est l— surf—™e du disque de r—yon rF sl reste ensuite à intégrer sur l— troisième
dimension @X A pour o˜tenir le volume d9interse™tion (n—l X

                                  Vi (r) =       Ai (r(x))dx                           @UFTA
                                             X


   Interprétation et sens physique.
    v— première ™on™lusion qui se dég—ge des o˜serv—tions —™oustiques est queD en fon™E
tion des espè™es de poissons présentes d—ns les im—ges et des spé™i(™ités environnemenE
t—les et géogr—phiquesD les ˜—n™s de poissons se ™—r—™térisent p—r des formesD des t—illesD
des réponses énergétiquesD et des positions v—ri—˜lesF he plusD l— plup—rt des im—ges
sont ™onstituées de mél—nges d9espè™es donn—nt n—iss—n™e à des im—ges qui ™on™entrent
des mél—nges de ˜—n™s de poissons de n—ture di'érenteF €—r exempleD ™ert—ins é™hoE
gr—mmes sont ™onstitués à l— fois de gros ˜—n™s de s—rdines très rétrodi'us—nts et de
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

x™                                                                      STRUCTURES




petits ˜—n™s de ™hin™h—rds moins énergétiques et plus di'usF ve m—rqu—ge permet de
modéliser ™es o˜serv—tionsF in e'etD le ™lustering est un moyen d9—gréger entre eux des
˜—n™s d9une même ™—tégorieD p—r exemple des ˜—n™s sem˜l—˜les en t—ille et en énergieF
einsiD l9histogr—mme des ™lusters permet d9identi(er quels sont les types de ˜—n™s préE
sents d—ns les im—gesF €—r exempleD d—ns le ™—s idé—lD des im—ges monoEspé™i(ques ne
sont ™omposées que d9un seul type de ˜—n™s de poissonsD —lors que des im—ges pluriE
spé™i(ques regroupent plusieurs types d9—grég—tionsF v9histogr—mme des ™lusters doit
don™ être représent—tif des mél—nges de types d9—grég—tionsD et p—r ™onséquent des
mél—nges d9espè™esF
    v— se™onde ™on™lusion des expertsD rel—tivement —ux o˜serv—tions des im—ges —™ousE
tiquesD ™on™erne l— distri˜ution des —grég—tionsF €remièrementD ils ont ™onst—té que
l9org—nis—tion sp—ti—le des ˜—n™s de poissons dépend des espè™es présentes d—ns les
im—ges et des ™—r—™téristiques environnement—les et géogr—phiquesF €—r exempleD les
mél—nges d9—n™hois et de ™hin™h—rds peuvent s9org—niser p—r ™ou™hesD les ˜—n™s d9—nE
™hois ét—nt —uEdessus des ˜—n™s de ™hin™h—rdsF ges ™ou™hes sont plus ou moins dé(niesD
pouv—nt être l— sour™e de ™ou™hes pluriEspé™i(quesF heuxièmementD les é™hogr—mmes
montrent que l— densité des ˜—n™s de poissons d—ns les im—ges peut être v—ri—˜le X
homogène ou hétérogène p—r endroitF €—r exempleD l— distri˜ution sp—ti—le des ˜—n™s
de s—rdines est —ssez homogène d—ns les im—gesD —lors que ™elle des mél—nges d9—n™hois
et de ™hin™h—rds peut se ™—r—™tériser p—r une densité qui dé™roît du fond vers l— surf—™e
de l— merF v9utilis—tion du u de ‚ipleyD étendu —u ™—s d9un pro™essus m—rquéD permet
non seulement de ™—r—™tériser l9existen™e de ™ert—ines ™l—sses de ˜—n™s de poissons d—ns
les im—gesD m—is —ussi de modéliser l— v—ri—˜ilité des distri˜utionsF in e'etD ™ette te™hE
nique exprime quels types de ˜—n™s de poissons sont regroupés entre eux et —ve™ quelle
fréquen™e moyenneF €renons le ™—s idé—l de deux ™ou™hes de poissons dont les ˜—n™s
sont m—rqués distin™tementD —lors le u de ‚ipley permet de spé™i(er les densités d—ns
™h—™une des ™ou™hesD m—is —ussi l— densité de l9interse™tion des deux ™ou™hes vi— les
™oo™™urren™esF


7.4.3 Performances
Jeu de données
    ve jeu de données hT provient de l— ™—mp—gne gveƒƒHV d9o˜serv—tion —™oustique
et de pê™he d—ns le golfe de q—s™ogneF v9—v—nt—ge de ™es données est l9insoni(™—tion de
l9esp—™e p—r les deux types de sondeur en même temps @sondeur monof—is™e—u et sonE
deur multif—is™e—uxAF gel— permet de ™omp—rer le pouvoir dis™rimin—nt des des™ripteurs
Qh proposés p—r r—pport à des —ppro™hes Ph ™l—ssiquesF „rois ™l—sses d9é™hogr—mme ont
été identi(éesD et pour que l— ˜—se d9—pprentiss—ge soit su0s—mment volumineuseD les
é™hogr—mmes sont divisés p—r qu—rts de millesF einsiD l— ˜—se de données est ™omposé
de X @—A TQ im—ges de s—rdines et de ™hin™h—rdsD @˜A UP im—ges d9—grég—tions denses et
tors—dées d9—n™hois et de ™hin™h—rdsD et @™A VU im—ges ™orrespond—nts à des —grég—tions
d9—n™hois et de ™hin™h—rds peu denses et ép—rsesF h—ns l— (gure UFUD nous donnons des
exemples d9im—ges pour ™h—™une de ™es trois ™l—ssesF xotre o˜je™tif est que le des™ripE
teur glo˜—l puisse di'éren™ier des im—ges en fon™tion de l9org—nis—tion des —grég—tions
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                                x™i




        Figure 7.7     En bas à droite : Histogramme des sondes moyennes pour la
        classe (a) (gros bancs de sardines bien dénis), la classe (b) (bancs épars pou-
        vant être très denses mais plutôt de forme sphérique), et la classe (c) (bancs
             diormes tels que la densité des bancs dans l'image est importante).


m—is —ussi en fon™tion de l— forme des —grég—tions des im—gesF einsiD l— ™l—sse @—A se
™—r—™térise p—r des gros ˜—n™s de s—rdines ˜ien dé(nis noyés d—ns des nuées de voxels
isolés qui ™orrespondent à des poissons isolésD des petits ˜—n™s de poissons isolés ou des
nuées de pl—n™tonF v— ™l—sse @˜A est ™onstituée de ˜—n™s ép—rs pouv—nt être très denses
m—is plutôt de forme sphériqueF in(nD l— ™l—sse @™A est ™omposée de ˜—n™s di'ormes
tels que l— densité de ˜—n™s d—ns l9im—ge soit import—nteF v9o˜je™tif est d9—voir un desE
™ripteur glo˜—l qui renseigne à l— fois sur l— n—ture des ˜—n™s de l9im—geD m—is —ussi sur
l9org—nis—tion des ˜—n™s d—ns l9im—geD don™ si le des™ripteur glo˜—l —rrive à di'éren™ier
™es trois ™l—ssesD notre o˜je™tif est —tteintF €our inform—tionD d—ns l— (gure UFUD l9histoE
gr—mme des sondes moyennes des im—ges est tr—™é pour ™h—™une des trois ™l—ssesF he
mêmeD pour mieux se représenter l— donnéeD nous —0™hons les distri˜utions sp—ti—les
et temporelles d—ns l— (gure UFVF h9ores et déjàD l9o˜serv—tion des sondes moyennes
et des distri˜utions sp—ti—les et temporelles nous permet de ™on™lure qu9une ™l—sse se
dét—™he des —utres X l— s—rdineD —lors que les deux —utres ™l—ssesD ™omposées d9—n™hois
et de ™hin™h—rdsD sont simil—ires en distri˜utions sp—ti—lesD temporellesD et de sondesF


Analyse statistique des descripteurs
    h—ns un premier tempsD —(n de mesurer l9import—n™e de ™h—que des™ripteur d—ns
le pro™essus de dis™rimin—tionD nous e'e™tuons une —n—lyse de l— v—ri—n™e ‘PIQ“ @enov—
en —ngl—is pour 4 ex—lysis yf †—ri—n™e 4AF ƒous ™onditions que les v—ri—n™es des disE
tri˜utions de ™h—que ™l—sse sont ég—les et que les o˜serv—tions sont indépend—ntesD ™e
test permet de qu—nti(er l9é™—rt des moyennes des distri˜utions de ™h—que ™l—sse pour
un des™ripteur donnéF einsiD plus ™et é™—rt est import—ntD plus le des™ripteur est disE
™rimin—nt pour les ™l—sses ™onsidéréesF ve prin™ipe est le suiv—ntF …n test d9hypothèse
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

x™ii                                                                        STRUCTURES




       Figure 7.8  Distribution spatiale (à gauche) et temporelle (à droite) du jeu de
       données D6 issu de la campagne CLASS08. A gauche, un zoom est eectué pour
       montrer la distribution spatiale des deux classes composées de mélange d'an-
       chois et de chinchards, l'une étant composée d'images denses avec des bancs
       torsadés (représentées par des points), l'autre d'images peu denses avec des
                         bancs dius (représentées par des cercles).




st—tistique permet de tester l9ég—lité entre l— v—ri—n™e interE™l—sses et l— v—ri—n™e intr—E
™l—sses @™fF se™tion QFQFI du ™h—pitre QAF ve r—pport F entre ™es deux v—ri—n™es donne
une idée de l— sép—r—tion des distri˜utions de ™h—que ™l—sseF €lus F est gr—ndD plus
l9hypothèse d9ég—lité des moyennes des distri˜utions est f—i˜leD et plus l— ™h—n™e qu9une
™l—sse se dét—™he des —utres est élevéeF in outreD un t—ux d9erreur de S7 est (xé tel que
F ne peut p—s dép—sser un seuil théoriqueF euEdelà de ™e seuil théoriqueD l9hypothèse
d9ég—lité des moyennes est rejetéeF v— pro˜—˜ilité que F soit inférieur —u seuil théorique
est donnée p—r l— v—leur pF ƒi p est pro™he de ID —lors les moyennes des distri˜utions de
™h—que ™l—sse sont identiques pour le des™ripteur ™onsidéréF ƒi p est pro™he de HD —lors
—u moins une des moyennes des distri˜utions des ™l—sses di'ère des —utresF pin—lementD
une enov— se résume en deux ét—pes X @—A véri(er l— v—leur p pour év—luer l— (—˜ilité du
test st—tistique et @˜A mesurer F qui renseigne sur le degré de sép—r—tionF xotons que
le résult—t de l9étude est ˜i—isé si les distri˜utions sont multiEmod—lesD si les v—ri—n™es
des distri˜utions ne sont p—s ég—les entre les ™l—sses et si les o˜serv—tions ne sont p—s
indépend—ntesF
   ves résult—ts sont —0™hés d—ns le t—˜le—u UFPF €our le jeu de données hTD nous
™omp—rons le pouvoir dis™rimin—nt de quelques des™ripteurs issus des im—ges Qh et des
im—ges Ph ™orrespond—ntesF ginq des™ripteurs glo˜—ux sont extr—its X l— densité @le
nom˜re de ˜—n™s de poissons divisé p—r le volume de l9é™hogr—mmeAD le pour™ent—ge
d9o™™up—tion sp—ti—le @le volume tot—l o™™upé p—r les ˜—n™s de poissons divisé p—r le
volume de l9é™hogr—mmeAD l— dist—n™e médi—ne entre les ˜—n™s de poissonsD l9indi™e de
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                                  x™iii


                                  sm—ge             sm—ge         sm—ge        sm—ge
         hes™ripteur     x—ture   QhD               PhD           QhD          PhD
                                  ™l—sses           ™l—sses       ™l—sses      ™l—sses
                                  {IDPDQ}           {IDPDQ}       {IDP}        {IDP}
         Densité         glo˜—l   p=0               p = 1e − 16   p = 0.1      2e − 5
                                  F = 172           F = 45        F =2         F = 19
         Occupation      glo˜—l   p = 1e − 8        p = 2e − 6    p = 1e − 9   p = 1e − 16
         spatiale                 F = 19            F = 13        F = 42       F = 93
         globale
         Distance        glo˜—l   p = 1e − 14       p = 0.6       p = 0.8      p = 0.8
         médiane                  F = 37            F = 0.5       F = 1e − 2   F = 4e − 2
         Indice de       glo˜—l   p = 1e − 11       p = 7e − 5    p = 1e − 7   p = 6e − 6
         fragmentation            F = 29            F =9          F = 30       F = 22
         Sonde           glo˜—l   p=0               p=0           p = 9e − 8   p = 2e − 8
         moyenne                  F = 526           F = 410       F = 32       F = 35
         Profondeur      lo™—l    p=0               p=0           p=0          p=0
                                  F = 6900          F = 778       F = 2300     F = 140
         Longueur        lo™—l    p=0               p=0           p = 1e − 4   p = 1e − 3
                                  F = 247           F = 44        F = 14       F = 10
         Largeur         lo™—l    p=0               p=0           p=0          p = 1e − 6
                                  F = 484           F = 1900      F = 124      F = 23
         Hauteur         lo™—l    p=0               p = 2e − 16   p=0          p = 0.8
                                  F = 217           F = 36        F = 74       F = 5e − 2
         Volume          lo™—l    p=0               p = 1e − 5    p = 0.4      p = 3e − 5
                                  F = 73            F = 11        F = 0.5      F = 12
         Occupation      lo™—l    p=0               p=0           p = 0.2      p = 4e − 7
         spatiale                 F = 242           F = 60        F =1         F = 25
         locale
         Sv              lo™—l    p=0               p=0           p = 1e − 7   p = 0.4
                                  F = 612           F = 45        F = 28       F = 0.6

        Tableau 7.2  Analyse de la variance (Anova) sur le jeu de données D6, en
        considérant les classes  Anchois-chinchard peu dense ,  Anchois-chinchard
                 dense  et  Sardine , respectivement annotées 1, 2, et 3.
fr—gment—tion de l9é™hogr—mme X
                                                      vi
                                       1−                                                    @UFUA
                                                i
                                                      V

D où vi est le volume du ˜—n™ i et V le volume de l9é™hogr—mme @pour une même
o™™up—tion sp—ti—leD l9im—ge peut ™ontenir un gros ˜—n™ de poissons ou plusieurs petits
˜—n™sAD et l— profondeur moyenne de l9é™hogr—mmeF ƒept des™ripteurs lo™—uxD iFeF des
des™ripteurs de ˜—n™s de poissonsD sont extr—its X l— profondeurD l— longueurD l— l—rgeurD
l— h—uteurD le volumeD l9o™™up—tion sp—ti—le lo™—le @le volume du ˜—n™ divisé p—r le
volume de l9é™hogr—mmeAD et l9énergie rétrodi'usée @ƒvAF €—rmi les trois ™l—sses testées
@4 en™hoisEghin™h—rd peu dense 4D 4 en™hoisEghin™h—rd dense 4D et 4 ƒ—rdine 4AD on s—it
que l— s—rdine donner— peu d9erreurs de ™l—ssi(™—tionF gel— se véri(e en rem—rqu—nt queD
d—ns l9histogr—mme des sondes moyennes des é™hogr—mmes @(gure UFUAD nous ™onst—tons
que l— distri˜ution des sondes des é™hogr—mmes ™onten—nt des —grég—tions de s—rdines
est l—rgement é™—rtée des distri˜utions des deux —utres ™l—ssesF einsiD ™omme le test
st—tistique est positif si —u moins une des ™l—sses se dét—™he des —utresD —lors nous
e'e™tuons le test à l— fois pour l9ensem˜le des ™l—sses @™l—sses {IDPDQ} d—ns l— (gure UFPA
et pour les ™l—sses di0™ilement sép—r—˜les @™l—sses {IDP} d—ns l— (gure UFPAF
    qlo˜—lementD les résult—ts sont positifs visEàEvis de l9—pport d9inform—tions dis™rimiE
n—ntes p—r le sondeur multif—is™e—uxF gomme supposéD l9—jout d9une troisième dimenE
sion sp—ti—le —ugmente l— (nesse de l— des™ription des —grég—tionsD et p—r ™onséquen™eD
CHAPITRE 7.      CLASSIFICATION ET RECONNAISSANCE DES

x™iv                                                                   STRUCTURES




le pouvoir dis™rimin—ntF gel— se véri(e en o˜serv—nt que l— st—tistique F est souvent
supérieure d—ns le ™—s des im—ges Qh p—r r—pport —ux im—ges PhD et en not—nt que l—
v—leur p est souvent inférieure d—ns le ™—s des im—ges QhF gomme —ttenduD une fois
que l— ™l—sse f—™ilement sép—r—˜le des s—rdines est retirée du testD nous ™onst—tons que
les pro˜—˜ilités d9erreurs —ugmententF gel— est dû —u f—it que les ™l—sses I et P sont
di0™ilement sép—r—˜lesF
    €lus pré™isémentD pour le jeu de données hTD les des™ripteurs de ˜—n™s de poissons
les plus dis™rimin—nts sem˜lent être l— profondeur et l— l—rgeur des ˜—n™s de poissons
@l— l—rgeur des ˜—n™s de poissons ét—nt fortement ™orrélée à l— profondeurD ™e résult—t
est justeAD et les des™ripteurs glo˜—ux les plus dis™rimin—nts sont l9o™™up—tion sp—ti—le
et l— sonde moyenneF …ne illustr—tion est proposée d—ns l— (gure UFWF €our le sondeur
multif—is™e—ux @im—ge QhAD nous représentons en h—ut à g—u™he de l— (gure UFW l9hisE
togr—mme de l— profondeur des ˜—n™s de poissons qui présente une st—tistique F très
f—vor—˜le @F = 2300AD et nous représentons en ˜—s à g—u™he de l— (gure UFW l9histoE
gr—mme de l9énergie rétrodi'usée p—r les ˜—n™s @ƒvA dont l— st—tistique F est moins
f—vor—˜le @F = 28AF gomme —ttenduD pour l9énergie rétrodi'usée @ƒvA il y — superpoE
sition des distri˜utionsD et pour l— profondeur des ˜—n™s de poissonsD les distri˜utions
ne se re™ouvrent p—sF gepend—ntD nous ™onst—tons que l— distri˜ution de l— ™l—sse 4
en™hoisEghin™h—rd dense 4 est multiEmod—le ™e qui f—usse le testF w—is si une —n—lyse
glo˜—le est ™onsidéréeD ™e des™ripteur est p—rti™ulièrement intéress—nt ™—r il ™onduit à
l9idée suiv—nte X si des ˜—n™s de poissons sont présents d—ns les deux modes à l— foisD
—lors l9im—ge est ™l—ssée d—ns l— ™—tégorie 4 en™hoisEghin™h—rd dense 4F ge prin™ipe
justi(e l9emploi d9un ™lustering qui ™onstitue l— première ét—pe pour o˜tenir le desE
™ripteur glo˜—l que nous —vons proposé d—ns l— se™tion UFRF he l— même f—çonD m—is
™ette fois pour le sondeur monof—is™e—uD nous tr—çons en h—ut à droite de l— (gure
UFW les histogr—mmes de l9o™™up—tion sp—ti—le glo˜—le d—ns les im—ges qui présente une
st—tistique F élevée @F = 93AD et nous tr—çons en ˜—s à droite de l— (gure UFW les histoE
gr—mmes des dist—n™es médi—nes d—ns les im—ges qui présentent une st—tistique F très
f—i˜le @F = 0.04AF ves ™on™lusions sont les mêmes que pour le sondeur multif—is™e—uxF
    gette —n—lyse st—tistique donne une idée génér—le de l— rel—tion entre les ™l—sses
d9espè™es ™onsidérées p—r le jeu de données hT et des des™ripteurs glo˜—ux ou lo™—uxF
gel— nous permet —ussi de qu—nti(er l9—pport d9inform—tions des im—ges Qh p—r r—pport
—ux im—ges PhF gepend—ntD n9ou˜lions p—s queD en plus des ™onditions né™ess—ires
et propres à ™ette —n—lyse st—tistique @—˜sen™e de prise en ™ompte des ™orrél—tions
entre des™ripteurs et monoEmod—lité des distri˜utionsAD nous —vons dû équili˜rer les
™l—sses en termes de ™—rdin—lité ™e qui peut produire des ™h—ngements moyens d—ns les
histogr—mmes et qui produit quelques impré™isionsF
   gette —n—lyse de l— v—ri—n™e est utilisée d—ns l— se™tion suiv—nte pour justi(er les
résult—tsF


Application à la reconnaissance des ensembles de bancs
   h—ns un deuxième tempsD nous proposons d9e'e™tuer une étude qu—ntit—tive du
pouvoir dis™rimin—nt du des™ripteur glo˜—l proposéF gette foisD plutôt que de ™l—sser des
˜—n™s de poissonsD nous ™l—ssons des im—ges ™omposées de ˜—n™s de poissonsF ves tests
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                                 x™v




         Figure 7.9  Pour le sondeur multifaisceaux et le sondeur monofaisceau, his-
         togrammes de quelques descripteurs dont le test de Fisher est soit très positif,
                                      soit très négatif.


sont e'e™tués —ve™ le jeu de données hT pour les im—ges Ph et QhF gomme pré™édementD
une v—lid—tion ™roisée permet de ™—l™uler un t—ux moyen de ˜onne ™l—ssi(™—tionF ve
prin™ipe d9év—lu—tion des des™ripteurs est le suiv—nt X nous ™onsidérons que le meilleur
des™ripteur est ™elui qui propose le meilleur t—ux de ˜onne ™l—ssi(™—tionF
   €lusieurs des™ripteurs sont ™omp—rés X
 IF    Sonde moyenne (Sonde). e ™—use de l— géométrie des f—is™e—ux des sondeursD
       les des™ripteurs sont souvent ™orrélés à l— sonde d9o˜serv—tionF v— di'éren™e entre
       le t—ux de re™onn—iss—n™e o˜tenu —ve™ l— sonde et ™elui o˜tenu à l9—ide d9un des™ripE
       teur donné est une mesure qui permet d9év—luer l9—pport de pouvoir dis™rimin—nt
       du des™ripteur ™onsidéréF einsiD de ™h—que im—geD les profondeurs moyennes sont
       extr—itesD et elles ™onstituent l9unique des™ripteur pour l9—pprentiss—ge du ™l—ssiE
       (eurF €—r —illeursD l— sonde est un indi™—teur ro˜uste de l9h—˜it—t d9une espè™eF
 PF    Descripteurs globaux proposées par Burgos et Horne                   ‘PHT“ (Burgos).
       furgos propose d9—sso™ier plusieurs des™ripteurs st—tistiques à ™h—que im—ge Ph X
       l— densité des ˜—n™s d—ns l9im—geD le pour™ent—ge d9o™™up—tion sp—ti—leD l9indi™e
       de fr—gment—tion de l9im—ge @pour une même o™™up—tion sp—ti—leD l9im—ge peut
       ™ontenir un gros ˜—n™ de poissons ou plusieurs petits ˜—n™sAD les IHeme D SHeme D et
       WHeme ™entiles de l— densité de pro˜—˜ilité de l9—ire des ˜—n™s de poissonsD les IHeme D
       SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9—ire rel—tive des ˜—n™s de
       poissons @rel—tivement à l9—ire tot—le des im—gesAD les IHeme D SHeme D et WHeme ™enE
       tiles de l— densité de pro˜—˜ilité de l— profondeur pondérée des ˜—n™s de poissons
       @pondérée p—r le r—pport entre l— densité de l9énergie volumique rétrodi'usée et
       l— sondeAD l— dist—n™e médi—ne des ˜—n™s de poissonsD l9énergie rétrodi'usée voE
       lumique moyenneD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité
       de l9énergie rétrodi'usée volumique des ˜—n™s de poissonsF furgos présente —ussi
       deux p—r—mètres qui sont liés à l— densité de poissons d—ns un volume élément—ire
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

x™vi                                                                      STRUCTURES




       ‘PIR“F gepend—ntD pour estimer ™ette densitéD il est né™ess—ire de ™onn—ître l9espè™e
       du poisson d—ns le ˜—n™F itD ™omme nous ess—yons de prédire l— ™l—sse des ˜—n™s
       de poissonsD nous supposons que ™ette donnée est in™onnueF ges deux des™ripteurs
       ne sont don™ p—s utilisésF „ous ™es p—r—mètres sont f—™ilement étendus —ux ™—s
       d9im—ge QhF ges IU p—r—mètres forment un ve™teur qui est —sso™ié à ™h—que im—ge
       et qui permet d9—pprendre des ™l—ssi(eursF
 QF    Histogramme des descripteurs (Hist-Descr).         gh—que ˜—n™ est p—r—métré
       p—r un ™ert—in nom˜re de des™ripteurs @se™tions UFQ et UFQFPAF €our ™h—™un des
       des™ripteursD d—ns ™h—que im—geD un histogr—mme disjoint est ™—l™uléF in ™onsidéE
       r—nt l9histogr—mme ™omme un ve™teur de p—r—mètres et en ™on™—tén—nt les histoE
       gr—mmes de ™h—que des™ripteurD nous o˜tenons un ve™teur qui dé™rit ™h—que im—ge
       et qui permet d9—pprendre un ™l—ssi(eurF
 RF    Histogramme des clusters (Hist-Clust). v9—ppro™he est l— même que pour le
       des™ripteur pré™édentF h—ns l— se™tion UFRFPD les ˜—n™s sont regroupés p—r ™lusterF
       h—ns ™h—que im—geD l9histogr—mme des ™lusters est e'e™tuéD donn—nt un ve™teur
       de des™ripteurs —sso™ié à ™h—que im—geF ges ve™teurs permettent d9e'e™tuer l9—pE
       prentiss—ge d9un ™l—ssi(eurF
 SF    K de Ripley (Ripley).        ve des™ripteur proposé d—ns l— se™tion UFRFP permet
       d9o˜tenir une m—tri™e de ™oo™™urren™e —sso™iée à ™h—que im—geF in ™on™—tén—nt
       les lignes @ou les ™olonnesA de ™es m—tri™esD nous o˜tenons un ve™teur qui permet
       d9—pprendre un ™l—ssi(eurF
    furgos ‘PHT“ montre qu9une —n—lyse multiEseuils est plus pertinente qu9une —n—lyse
qui s9—ppuie sur plusieurs v—leurs de ™ontiguïtés @lors de l— déte™tion des ˜—n™s de
poissonsD ™fF se™tions UFQ et UFQFPAF einsiD pour deux v—leurs de seuill—ge distin™tes
@™fF se™tion UFQAD les formes des —grég—tions ™h—ngentD deux pixels isolés peuvent être
—grégés ensem˜le si le nive—u de seuil ˜—isseF he plusD ™omme l— réponse —™oustique des
poissons di'ère d9une espè™e à l9—utreD ™ert—ine espè™e voit leur énergie rétrodi'usée
fortement modi(ée d9un nive—u de seuill—ge à l9—utreF get —spe™t produit des éléments
de dis™rimin—tion entre les espè™es de poissonsF ves des™ripteurs proposés sont don™
—sso™iés à une —n—lyse multiEseuilsF ve ve™teur de des™ripteurs —sso™ié à une im—ge pour
un seuil donné est ™on™—téné —ux ve™teurs de des™ripteurs issus de seuill—ges di'érentsF
v9—pprentiss—ge et l— ™l—ssi(™—tion sont e'e™tués à p—rtir du ve™teur (n—l qui ™ontient
les inform—tions de ™h—que seuilF €our ™ette expérien™eD sous ™onseil de l9expertD nous
™hoisissons les seuils −60dB et −54dB @l9—n—lyse de sensi˜ilité montre une gr—nde
v—ri—˜ilité entre ETHdf et ESRdfAF he l— même f—çonD pour le des™ripteur 4 u de ‚ipley
4D plusieurs t—illes de ˜oules sont ™hoisiesD donn—nt plusieurs m—tri™es de ™oo™™urren™es
dont les v—leurs sont ™on™—ténées pour ™onstruire le ve™teur des des™ripteursF ve ™hoix
de l— t—ille des ˜oules est e'e™tué en tr—ç—nt l9histogr—mme des dist—n™es entre les
individus @(gure UFIHAF heux types de dist—n™es se dég—gent X les dist—n™es très pro™hes
inférieures à S mètres et des dist—n™es plus import—ntes inférieures à PH mètresF einsiD
nous ™hoisissons deux types de ˜oules X une dont le r—yon v—ut PDS mètresD et l9—utre
dont le r—yon v—ut IH mètresF
    ves résult—ts sont —0™hés d—ns le t—˜le—u UFQ pour le sondeur monof—is™e—u et d—ns
le t—˜le—u UFR pour le sondeur multif—is™e—uxF ves ™l—ssi(eurs ™hoisis sont les forêts
—lé—toiresF h—ns ™e t—˜le—uD le t—ux moyen de ˜onne ™l—ssi(™—tion issu d9une v—lid—tion
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                                x™vii




        Figure 7.10  Histogramme des distances entre individus d'une même image
                                      pour chaque classe.


™roisée est représenté en fon™tion du nom˜re d9im—ges utilisées pour —pprendre un ™l—sE
si(eurF sl est prévisi˜le que les perform—n™es de ™l—ssi(™—tion ™roissent —ve™ le nom˜re
d9im—ges ™onsidérées pour l9—pprentiss—ge @plus il y — d9exemples l—˜élisésD meilleure
est l9estim—tion du ™l—ssi(eurAF in ordonnéeD le t—ux moyen de ˜onne ™l—ssi(™—tion
est —0™hé pour ™h—™un des des™ripteurs utilisés @€rofD furgosD ristEhes™rD ristEglustD
‚ipleyAF

                 Cardinal de
                 l'ensemble      30    60    90    120
                 d'apprentissage
                 furgos          79,5% 83,8% 85,7% 87,0%
                 ristEglust            UVDI7      VIDU7     VRDQ7     VTDH7
                 ristEhes™r            SPDS7      TQDH7     TWDW7     UQDP7
                 ‚ipley                UTDU7      UWDW7     VQDQ7     VRDH7
                 ƒonde                 UIDQ7      UPDR7     UPDW7     UIDH7

        Tableau 7.3  Pour le sondeur monofaisceau (images 2D), comparaison du
        pourvoir discriminant des descripteurs globaux. Le taux moyen de bonne clas-
        sication est représenté en fonction de la taille de l'ensemble d'apprentissage.
            Les descripteurs résultent d'une analyse multi seuils (-60dB et -54dB).


    gommençons p—r une —n—lyse glo˜—le des résult—tsF €remièrementD les perform—n™es
des méthodes rel—tivement —u ™—rdin—l de l9ensem˜le d9—pprentiss—ge renseignent sur l—
ro˜ustesse des méthodesF s™i les perform—n™es —ugmentent —ve™ l— t—ille de l9ensem˜le
d9—pprentiss—geF v— ™on™lusion logique est queD plus nous disposons d9im—ges —nnotéesD
meilleures sont les t—ux de ™l—ssi(™—tionF heuxièmementD ™omme pour le test st—tistique
de l— se™tion UFRFQD l9—pport d9inform—tions dis™rimin—ntes p—r le sondeur multif—is™e—ux
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

x™viii                                                                         STRUCTURES




                  Cardinal de
                  l'ensemble      30               60        90        120
                  d'apprentissage
                  furgos                VWDV7      WHDW7     WIDQ7     WIDQ7
                  ristEglust            WIDP7      WPDU7     WQDV7     WQDU7
                  ristEhes™r            UWDT7      VQDU7     VSDP7     VSDS7
                  ‚ipley                91,4% 93,4% 94,3% 94,4%
                  ƒonde                 UIDQ7      UPDR7     UPDW7     UIDH7

         Tableau 7.4  Pour le sondeur multifaisceaux (images 3D), comparaison du
         pourvoir discriminant des descripteurs globaux. Le taux moyen de bonne clas-
         sication est représenté en fonction de la taille de l'ensemble d'apprentissage.
             Les descripteurs résultent d'une analyse multi seuils (-60dB et -54dB).


ne f—it —u™un douteF €our ™h—™une des méthodes d9—n—lyse glo˜—leD le g—in moyen de
perform—n™e de ™l—ssi(™—tion de l9—n—lyse Ph à l9—n—lyse Qh —ugmente signi(™—tivement
@—ll—nt de U7 d9—mélior—tion pour le des™ripteur glo˜—l 4 furgos 4 à PH7 d9—mélior—tion
pour le des™ripteur ristEhes™rAF …n troisème point import—nt est l— ™ontri˜ution des
des™ripteurs visEàEvis de l— sondeF fien que les des™ripteurs glo˜—ux soient ™orrélés à
l— sonde @plus l— sonde est gr—ndeD plus l— profondeur des ˜—n™s de poissons —ugmenteD
™e qui imp—™te à l— fois sur l9histogr—mme des des™ripteurs des ˜—n™s de poissonsD et
sur l9histogr—mme des ™lustersAD les des™ripteurs glo˜—ux introduisent d9—utres inforE
m—tions dis™rimin—ntes qui ™ontri˜uent à —méliorer l—rgement le t—ux de ™l—ssi(™—tion
p—r r—pport à ™elui de l— sonde @PQDR7 d—ns le meilleur des ™—sAF
    w—inten—nt nous —pportons quelques éléments d9—n—lyse qui expliquent les di'éE
ren™es entre furgos et les des™ripteurs ˜—sés sur les histogr—mmes des ™lusters @ristE
glust et ‚ipleyAF in e'etD nous ™onst—tons que les des™ripteurs glo˜—ux de furgos sont
meilleurs pour des im—ges issues du sondeur monof—is™e—uD t—ndis que le des™ripteur
proposé @‚ipleyA produit les meilleurs résult—ts de ™l—ssi(™—tion d—ns le ™—s d9im—ge
QhF v9expli™—tion vient du ™ontenu et de l— n—ture des im—ges X les im—ges Qh sont
plus denses et ˜e—u™oup plus ri™hes en inform—tions que les im—ges Ph @il su0t de
™omp—rer les im—ges des (gures TFP @monof—is™e—uA et TFR @multif—is™e—uxAAF einsiD les
des™ripteurs de furgos sont plus —d—ptés à des im—ges simples dont l— densité des ˜—n™s
de poissons est f—i˜leD en rev—n™he le des™ripteur proposé @‚ipleyA né™essite d—v—nt—ge
d9inform—tionsD not—mment pour le ™—l™ul des ™oo™™urren™es @plus l9im—ge est ™omplexeD
plus les ™oo™™urren™es portent de l9inform—tion dis™rimin—nteAF …ne —utre expli™—tion
est donnée à p—rtir de l9—n—lyse des des™ripteursF „out d9—˜ordD notons que le des™ripE
teur furgos ™ontient des inform—tions ™ommunes —ve™ les des™ripteurs ˜—sés sur les
histogr—mmes des ™lusters @ristEhes™r et ‚ipleyAF in e'etD les inform—tions de densitéD
de volumeD d9énergie et de profondeur des ˜—n™s de poissons sont ™ommunes —ux deux
des™ripteursF ejoutons queD même si le des™ripteur ‚ipley est plus pré™isD l9inform—tion
de dist—n™e entre ˜—n™s de poissons est ™ommune —ux deux —ppro™hesF in rev—n™heD
seul furgos ™onsidère le pour™ent—ge d9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tionD
et seules les méthodes ˜—sées sur les histogr—mmes ™onsidèrent l— longueurD l— l—rgeur
et l— h—uteur des ˜—n™s de poissonsF yrD si nous nous référons —u t—˜le—u UFP d—ns lequel
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                           x™ix


(gurent les résult—ts de l9exy†eD nous ™onst—tons que les p—r—mètres morphologiques
des ˜—n™s de poissons @h—uteurD longueurD l—rgeurA sont ˜e—u™oup plus dis™rimin—nts
que l9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tion d—ns le ™—s Qh pour les ™l—sses
{1, 2} @les v—leurs de l— st—tistiques F sont respe™tivement {F = 14, F = 124, F = 74}
™ontre {F = 42, F = 30}AF gel— explique que les méthodes ˜—sées sur les histogr—mmes
sont meilleures que furgos d—ns le ™—s des im—ges Qh @t—˜le—u UFRAD tout simplement
™—r les des™ripteurs élément—ires sont plus dis™rimin—ntsF snversementD d—ns le ™—s PhD
pour les ™l—sses {1, 2} les st—tistiques F deviennent {F = 10, F = 23, F = 0, 05} pour
l— longueurD l— l—rgeurD et l— h—uteur des ˜—n™s de poissons et {F = 93, F = 22} pour
l9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tionF gel— justi(e que furgos soit meilleur
d—ns le ™—s Ph @t—˜le—u UFQAF
    e(n d9expliquer les ˜onnes perform—n™es o˜tenues —ve™ l9histogr—mme des ™luster
@ristEglustA et les ™oo™™uren™es des ™lusters d—ns les ˜oules @‚ipleyAD pour les im—ges
QhD nous tr—çons l9histogr—mme des ™lusters pour ™h—que ™l—sse @(gure UFIIAF ge résulE
t—t n9est p—s —˜soluD d—ns le sens où le ™lustering résulte d9une initi—lis—tion —lé—toire
de l— position des ™lustersD —insi deux ™lustering di'érents peuvent produire des résulE
t—ts tot—lement éloignésF gepend—ntD l— (gure UFII montre ˜ien ™omment l9ét—pe de
™lustering est détermin—nte et —joute du pouvoir dis™rimin—nt @not—mment p—r r—pE
port à l9histogr—mme des des™ripteurs ristEhes™rAF h—ns ™ette (gureD on rem—rque
que les distri˜utions sont rel—tivement ˜ien dét—™hées les unes des —utresD et que les
™l—sses sont —sso™iées à plusieurs ™lustersF €—r exempleD pour les im—ges de ƒ—rdineD les
™lusters {1, 2, 5, 11, 12, 13} sont m—jorit—irement présentsD t—ndis que pour les en™hoisE
ghin™h—rd peu denses et les en™hoisEghin™h—rd densesD les ensem˜les de ™lusters m—E
jorit—irement présents sont {17, 18, 19, 20} et{11, 12, 18, 19}F h—ns ™es ensem˜lesD pluE
sieurs p—ires de ™lusters peuvent être ™hoisis pour dé(nir une ™l—sse X l— p—ire de ™luster
{11, 18} est pro˜—˜lement —sso™iée à l— ™l—sse 4 en™hoisEghin™h—rdD dense 4D l— p—ire
{18, 20} est pro˜—˜lement —sso™iée à l— ™l—sse 4 en™hoisEghin™h—rdD peu dense 4D et
™omme dernier exempleD l— p—ire {2, 12} est pro˜—˜lement —sso™iée à l— ™l—sse 4 ƒ—rE
dine 4F gel— explique que les ™ouples de ™lusterD qui sont l— ˜—se de notre des™ripteur
glo˜—l qui s9—ppuie sur les m—tri™es de ™oo™™urren™esD sont déjà lo™—lisés à l9—ide du
™lusteringF gepend—ntD l9—n—lyse d9une inform—tion de dist—n™e entre ™es ™ouplesD vi—
le u de ‚ipleyD produit une légère —mélior—tion des perform—n™es de ™l—ssi(™—tionF
gel— illustre ™omment le ™lustering produit de très ˜onnes perform—n™es et pourquoi l—
m—rge d9—mélior—tion des perform—n™es de ™l—ssi(™—tion reste peu import—nte @de HDP7
à HDU7A —ve™ le des™ripteur proposé @4 ‚ipley 4AF
    ixpliquons m—inten—nt pourquoi le ™lustering produit de meilleurs résult—ts que
l9histogr—mme des des™ripteurs des ˜—n™s de poissonsF v— question est légitime ™—r ™es
deux des™ripteurs glo˜—ux prennent les mêmes des™ripteurs de ˜—n™s de poissons en enE
tréeF v— di'éren™e se situe d—ns l— prise en ™ompteD ou nonD du ™—r—™tère 4 dépend—nt 4
des des™ripteursF in e'etD les histogr—mmes des des™ripteurs sont o˜tenus pour ™h—que
des™ripteur indépend—mment en ™onsidér—nt qu9ils sont disjointsF eu ™ontr—ireD le ™lusE
tering permet de prendre en ™ompte toutes les ™orrél—tions possi˜les entre des™ripteursD
quelle que soit l— dimension de l9esp—™e des des™ripteursF einsiD ét—nt données les fortes
™orrél—tions qui existent entre tous les des™ripteurs ™onsidérés @™fF se™tion UFQD se™tion
UFQFPD et ™h—pitre TAD l— prise en ™ompte du ™—r—™tère 4 dépend—nt 4 des des™ripteurs
CHAPITRE 7.      CLASSIFICATION ET RECONNAISSANCE DES

™                                                                        STRUCTURES




       Figure 7.11  Pour un clustering donné, histogramme des clusters dans les
                                images pour chaque classe.




d9—grég—tions est un plus non néglige—˜leF gette expli™—tion est —ussi v—lide visEàEvis des
des™ripteurs glo˜—ux proposés p—r furgosF €—r exempleD l— prise en ™ompte de ™ert—ins
qu—ntiles de l9énergie rétrodi'usée @ƒvAD n9exprime en rien les di'érentes ™orrél—tions
possi˜les entre le ƒv et les —utres des™ripteurs qui peuvent être dis™rimin—ntesF
    h—ns le t—˜le—u UFSD nous reportons les t—ux moyens de ˜onne ™l—ssi(™—tion pour les
des™ripteurs furgosD ristEglustD et ‚ipleyD en fon™tion du seuil d9extr—™tion des ˜—n™s
de poissons d—ns l9im—geF v— moyenne est e'e™tuée sur l— v—lid—tion ™roisée m—is —ussi
sur l— t—ille de l9ensem˜le d9—pprentiss—geF he m—nière génér—leD l— première ™onst—t—E
tion est que les perform—n™es ™hutent —ve™ l9—ugment—tion du seuilF gel— est ™ohérent X
plus le seuil d9extr—™tion —ugmenteD moins il y — de ˜—n™s de poissons d—ns l9im—ge et
don™ d9inform—tions dis™rimin—ntesF heuxièmementD nous o˜servons moins de st—˜ilité
que sur l— ™l—ssi(™—tion multi seuils de l— (gure UFRF in e'etD même si l9histogr—mme
des des™ripteurs donne les meilleurs résult—ts pour les seuils ETHdfD ESIdfD et ERVdfD
—u™une méthode ne domine vr—iment les —utresF pin—lementD ™es résult—ts tr—duisent
l9import—n™e d9une —n—lyse multi seuilsF in e'etD l— ™on™—tén—tion des des™ripteurs
issus d9—n—lyses multi seuils @t—˜le—u UFRA permet d9—méliorer les résult—ts de ™l—ssi(™—E
tionF gel— est p—rti™ulièrement vr—i pour le des™ripteur proposé @‚ipleyA pour lequel le
meilleur t—ux de ™l—ssi(™—tion @WHDI7A en —n—lyse mono seuil @t—˜le—u UFSA est —tteint
pour le seuil ETHdfD et pour lequel les perform—n™es sont nettement —méliorées @WQDQ7
en moyenneD t—˜le—u UFRA en —n—lyse multi seuils @™on™—tén—tion des des™ripteurs des
seuils ETHdf et ESRdfAF €our ™on™lureD l9—n—lyse multi seuils est très f—vor—˜le à notre
des™ripteurD et permet de g—gner en st—˜ilitéF
7.4.   CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS

DE POISSONS                                                                               ™i


              Seuil        -60dB -58dB -54dB -51dB -48dB
              d'extraction
              furgos       VSDT7 90,2% VVDV7 VRDR7 VHDW7
              ristEglust   91,7% WHDI7 VVDQ7 85,6% 81,2%
              ‚ipley       WHDI7 VWDQ7 89,0% VQDW7 VHDQ7

        Tableau 7.5  Pour le sondeur multifaisceaux (images 3D), comparaison du
        pouvoir discriminant des descripteurs globaux. Le taux moyen de bonne classi-
        cation est représenté en fonction du seuil d'extraction des bancs de poissons
                    dans les images (-60db, -57dB, -54dB, -51dB, -48dB).


7.4.4 Synthèse
    ves nouvelles te™hnologies d9—™oustique sous m—rineD sym˜olisées p—r le sondeur
multif—is™e—uxD permettent de dé™rire les zones insoni(ées de m—nière ˜e—u™oup plus
pré™iseF xot—mmentD l— for™e du sondeur multif—is™e—ux est l9—jout d9une troisième
dimension de l9esp—™e qui révèle des formes ™omplexesD inst—˜les et diversesF h—ns ™ette
se™tionD nous —vons ™omp—ré des des™ripteurs glo˜—ux de ™es im—ges qui se ˜—sent sur
une —n—lyse multi seuilsF v— première ™on™lusion issue de l9exy†e est que les im—ges
Qh ™ontiennent ˜e—u™oup plus d9inform—tions dis™rimin—ntes que les im—ges PhD ™el—
est ™on(rmé p—r les perform—n™es de ™l—ssi(™—tion qui sont l—rgement en f—veur d9une
—n—lyse multif—is™e—ux plutôt qu9une —n—lyse monof—is™e—uF v— se™onde ™on™lusion est
que le des™ripteur proposéD qui dé™rit l9org—nis—tion sp—ti—le des ˜—n™s de poissons
d—ns l9im—geD permet d9—méliorer les perform—n™es de ™l—ssi(™—tion p—r r—pport à des
des™ripteurs issus de l9ét—t de l9—rtF gette —mélior—tion est ™onst—té pour des im—ges QhD
en rev—n™heD le m—nque d9inform—tions des im—ges issues des sondeurs monof—is™e—u ne
permet p—s d9—méliorer les perform—n™esF
    gepend—ntD l9év—lu—tion des méthodes dem—nde à être —pprofondieF €lus p—rti™ulièE
rementD le prin™ipe selon lequel des des™ripteurs fortement dis™rimin—nts présentent un
fort t—ux de ™l—ssi(™—tion pose quelques pro˜lèmesF in e'etD les ™l—ssi(eurs sont sujets
à des phénomènes de ˜ruitsF €our résumerD nous —vons ™onst—té p—r simul—tion queD
plus nous —joutons de des™ripteursD moins les perform—n™es sont ˜onnesF v9idée ét—it
initi—lement de ™on™—téner les m—tri™es de ™oo™™urren™es pour une gr—nde v—riété de
seuils et de t—illes de ˜oulesD m—is nous étions —lors sujets à des pro˜lèmes de ™—p—™ité
mémoire et de s—tur—tion des ™l—ssi(eursF v9exemple le plus signi(™—tif se trouve d—ns
le t—˜le—u UFS X l— ™on™—tén—tion des histogr—mmes des ™lusters @ristEglustA —ve™ les
m—tri™es de ™oo™™urren™es @‚ipleyA produit de moins ˜ons résult—ts que l9emploi des
histogr—mmes seulsF „outefoisD l9—n—lyse multiEseuils permet d9—méliorer les résult—tsF
v— ™on™lusion est que le ™l—ssi(eur employé n9est p—s —ssez ro˜usteD l9—jout de des™ripE
teur ne doit p—s —ltérer les perform—n™esF h—ns le futurD si ™es des™ripteurs sont utilisésD
une —n—lyse des perform—n™es plus (ne devr— être envis—géD soit en utilis—nt un ™l—ssiE
(eur plus ro˜usteD soit en ™h—nge—nt l— méthode d9év—lu—tionF €—r exempleD plutôt que
de ™on™—téner les ensem˜les de des™ripteurs pour ne former qu9un seul des™ripteurD on
peut im—giner plusieurs ™l—ssi(eurs —sso™iés à ™h—que ™on(gur—tion de seuil ou de t—ille
de ˜oule @pour les st—tistiques de ™oo™™urren™esAD puis un vote ser—it e'e™tué à l9inst—r
CHAPITRE 7.       CLASSIFICATION ET RECONNAISSANCE DES

™ii                                                                     STRUCTURES




des méthode de 4 ˜oosting 4 et de 4 ˜—gging 4F
    v9—n—lyse de l9exy†e et des perform—n™es de ™l—ssi(™—tions ont montré que les
di'éren™es de perform—n™es entre les des™ripteurs peuvent venir des —spe™ts méthodoE
logiques des des™ripteurs m—is —ussi des inform—tions ™ontenus d—ns les des™ripteursF
einsiD si en Qh notre des™ripteur est plus perform—nt du f—it de l9utilis—tion de des™ripE
teurs morphologiques ™omme l— longueur ou l— l—rgeurD —lors ™euxE™i doivent être in™lus
d—ns l— méthode de furgosF he mêmeD si en Ph les des™ripteurs proposés p—r furgos
sont meilleurs que notre des™ripteurD les inform—tions ™omplément—ires ™ontenues d—ns
furgos doivent être in™lues d—ns les histogr—mmesF gel— ™onstitue les futurs tr—v—ux et
—pprofondissements de ™ette thém—tiqueF
    in(nD les perform—n™es de ™l—ssi(™—tion peuvent être —méliorées en ™onsidér—nt une
—n—lyse multiErésolutions et multiEfréquentiellesF €—r exempleD l9exy†e montre que
™ert—ins des™ripteurs Ph sont plus dis™rimin—nts que ™ert—ins des™ripteurs Qh @™9est
le ™—s du volume des ˜—n™s de poissons pour les ™l—sses {1, 2} pour lequel les st—tisE
tiques F v—lent F = 0, 5 et F = 12 respe™tivement pour l— Qh et l— PhAF in ré—litéD
™omme l9é™h—ntillonn—ge du sondeur multif—is™e—ux est plus pré™is que ™elui du sonE
deur monof—is™e—uD l9inform—tion Ph peut être retrouvé d—ns les im—ges QhD le tout
est ™omprendre quelle inform—tion doit être sous é™h—ntillonnéeF €—r exempleD l9extr—™E
tion Ph des ˜—n™s de poissons peut donner une multitude de ˜—n™sD là où le sondeur
multif—is™e—ux n9en verr—it qu9un @l9inform—tion de volume des ˜—n™s et de fr—gment—E
tion est —lors ™omplètement di'érente pour les im—ges PhAF he mêmeD m—lgré l9—˜sen™e
d9—n—lyse multiEfréquentielleD il est ˜ien ét—˜li qu9une —n—lyse multiEfréquentielle @PhA
permet de dis™riminer plus f—™ilement les espè™es ‘IPT“F pin—lementD l— ™om˜in—ison
de tous les —spe™ts multiErésolutionsD multiEfréquentiellesD multiEseuilsD lo™—ux et gloE
˜—uxD ™onstitue l9enjeu m—jeur qui permettr—it d9o˜tenir une des™ription optim—le des
—grég—tionsF


7.5 Conclusion
    v— des™ription des ˜—n™s de poissons est un sujet v—steD qui né™essite de l9—ttenE
tion et de l— retenueF €lusieurs —ppro™hes peuvent être ™onsidérées X une des™ription
lo™—le de l9—grég—tion @p—r—mètres morphologiquesD p—r—mètres énergétiquesD et™AD ou
plusieurs é™helles glo˜—les @à l9é™helle d9une portion d9é™hogr—mmeD ou à l9é™helle d9une
région géogr—phiqueD et™AF „outes les inform—tions possi˜les et disponi˜les ™onstituent
un des™ripteur potentiellement intéress—nt et dis™rimin—nt pour le ˜—n™ de poissonsD le
voxel d—ns l9im—geD ou l9im—ge elleEmêmeF
    h—ns ™e ™ontexteD d—ns ™e ™h—pitreD nous —vons montré ™omment peuvent se mêler
les des™ripteurs lo™—ux et les des™ripteurs glo˜—uxF in utilis—nt des des™ripteurs usuels
de ˜—n™s de poissons et des des™ripteurs usuels glo˜—ux —uxquels nous —vons —jouté
nos propres propositions de des™ripteursD nous —vons montré ™omment peuvent être
dé™rites des im—ges qui ™ontiennent des —grég—tions de l— même espè™eD m—is dont les
formes sont di'érentesF
   ges des™ripteurs glo˜—ux peuvent être envis—gés pour l— ™l—ssi(™—tion des ˜—n™s
de poissonsF in plus des des™ripteurs lo™—ux des ˜—n™s de poissonsD sont —joutées des
7.5.   CONCLUSION                                                                   ™iii


™ompos—ntes des™riptives de l9environnement des ˜—n™s de poissonsF ge pro™édé est
utilisé d—ns le ™h—pitre suiv—ntD d—ns lequel nous e'e™tuons une ™l—ssi(™—tion de ˜—n™s
de poissonsD à p—rtir de des™ripteurs à l— fois lo™—ux et glo˜—uxF
CHAPITRE

                 8           Application à l'évaluation
                             des biomasses des espèces
                             halieutiques dans le Golfe
                             de Gascogne



8.1 Introduction
    h—ns les ™h—pitres pré™édentsD des méthodes —utom—tiques ont été suggérées pour
—pprendre des modèles de ™l—ssi(™—tion d9o˜jets dont le l—˜el est impré™is @™fF p—rtie s
du présent m—nus™ritAF insuiteD —près —voir présenté les des™ripteurs usuels des —grég—E
tions de poissonsD et le nouve—u sondeur multif—is™e—uxD de nouve—ux des™ripteurs ont
été proposés @™h—pitre T et ™h—pitre UAF gomme l9—n—lyse première du ™omportement des
modèles de ™l—ssi(™—tionD ou des des™ripteurs d9im—gesD requiert des —ppro™hes simples
et élément—iresD toutes ™es méthodes sou'rent d9un m—nque de v—lid—tionF xot—mmentD
™el— est dû —u f—it que des s™én—rios ont été générés pour év—luer les perform—n™es
glo˜—les des méthodes de ™l—ssi(™—tion et leurs réponses rel—tivement —ux ™omplexités
des ensem˜les d9—pprentiss—ge @™fF ™h—pitre SAF sl — —ussi f—llu tester les nouve—ux desE
™ripteurs sur un jeu de données p—rtielles qui n9est p—s représent—tif de l9étendu des
o˜serv—tions possi˜les en —™oustique h—lieutiqueD m—is dont l— ™on(gur—tion permet
m—lgré tout d9entériner l— ™ontri˜utionF sl est don™ légitime de se dem—nder si toutes
™es méthodes fon™tionnent sur des ™—s pr—tiquesD réelsD et exh—ustifsF
    in guise d9—ppli™—tionD d—ns ™e ™h—pitreD nous proposons une étude expériment—le
qui v—lide à l— fois l9utilis—tion des méthodes d9—pprentiss—ge et ™elle des des™ripteurs
des —grég—tionsF ves outils développés sont —insi —ppliqués à l9év—lu—tion de l— ˜iom—sse
des espè™es h—lieutiques d—ns le qolfe de q—s™ogne qui est pr—tiquée de m—nière exE
perteF gette —ppli™—tion permet de juger les perform—n™es de ™l—ssi(™—tion des ˜—n™s
de poissons rel—tivement —ux méthodes de ™l—ssi(™—tion employées et —ux des™ripteurs
utilisésF v9idée génér—le est queD si les ˜—n™s de poissons sont ™onven—˜lement ™l—ssésD
—lors l— ˜iom—sse déterminée doit être l— même que ™elle estimée p—r l9expertF
   h—ns un premier tempsD nous exposons l— méthode de l9expert et le fon™tionneE
ment d9une ™—mp—gne de pê™he —™oustique @se™tion VFPAF h—ns un se™ond tempsD les
méthodes —utom—tiques d9év—lu—tion de ˜iom—sse sont présentées @se™tion VFQAF €uisD
d—ns un troisième tempsD nous présentons l— méthode pour —ppliquer les —lgorithmes
CHAPITRE 8.      APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™vi                 ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




de ™l—ssi(™—tion de ˜—n™s de poissons à l9év—lu—tion de ˜iom—sse @se™tion VFRAF in(nD
une —n—lyse des perform—n™es d9estim—tion de ˜iom—sse est e'e™tuée d—ns l— se™tion
VFSF



8.2 Méthode de l'expert pour l'évaluation de bio-
    masses
    ve qolfe de q—s™ogneD ™omme d9—utres régions du mondeD est soumis à l— surexploiE
t—tion de ses ressour™es h—lieutiquesF v— forte pression médi—tique qui en dé™ouleD vientD
pour une p—rtie de l— popul—tionD de l— peur de voir disp—r—ître de leurs —ssiettes des
mets de ™hoixD pour les pê™heursD de voir leur métier disp—r—itreD pour les é™ologistesD
de l— ™r—inte de voir disp—r—ître à tout j—m—is une espè™e de l— surf—™e du glo˜eD et
pour les politiquesD de devoir proposer des solutions qui ™onviennent à l9ensem˜le des
p—rtiesF h—ns ™e ™ontexteD des ™—mp—gnes —nnuelles d9év—lu—tion des sto™ks des espè™es
h—lieutiques ont vu le jourF illes permettent de rendre ™ompte de l9ét—t des ressour™es
et de suivre —insi l9évolution et les tend—n™es des qu—ntités o˜servées ™h—que —nnéeF
    v9évolution fond—ment—le qui suit le développement des outils d9o˜serv—tions —™ousE
tiquesD est l9estim—tion des sto™ks d9espè™esF v— première ét—pe ™onsiste à ™l—sser les
—grég—tions o˜servées p—r ™—tégorie qui représentent des ™l—sses d9espè™es ‘IWP“F h—ns
le ™—s de mél—nges d9espè™esD l— proportion de ˜iom—sse des espè™es qui est o˜tenue
p—r ™h—lut—geD est r—menée —u nive—u de l9im—ge pour dé(nir l— proportion d9énergie
—™oustique p—r espè™e ‘PIS“F €our —méliorer l— ™l—ssi(™—tion d—ns le ™—s des mél—nges
d9espè™esD ™ert—ins des™ripteurs glo˜—ux ont été développés ‘PIT“F ve livre de ƒimmonds
et w—™venn—n ‘IPT“ f—it o0™e de référen™e qu—nt à l— méthodologie d9év—lu—tion des
sto™ks des espè™es h—lieutiquesF v— méthode utilisée p—r l9sfremer ‘PIU“ s9en inspire l—rE
gementF e(n de ™onn—ître les —spe™ts essentiels de l— pro™édure d9év—lu—tion et pour
mieux —n—lyser le ™omportement des méthodes —utom—tiquesD l— méthode experte est
présentée d—ns ™ette se™tionF
   ƒoit une région du glo˜e d—ns l—quelle nous souh—itons e'e™tuer une év—lu—tion du
sto™k de ™ert—ines espè™es de poissons @(gure VFIAF †oi™i les ét—pes essentielles de l—
méthode d9év—lu—tion de l— ˜iom—sse X
 IF v— première ét—pe est l— ™—mp—gne d9—™quisition des données de pê™he et des
    données —™oustiquesF gh—que —nnéeD un n—vire o™é—nogr—phique e'e™tue le même
    p—r™ours tel que représenté d—ns l— p—rtie g—u™he de l— (gure VFIF v9év—lu—tion de
    sto™k est e'e™tuée sur ™ette ™—mp—gne de RS joursF hes ™h—lut—ges sont e'e™tués
    à ™h—que nouvelle déte™tionF ƒi l— même déte™tion ™ontinue —près l— pê™heD il n9y
    — p—s de nouve—u ™h—lut—geD s—uf si l— déte™tion ™h—ngeF eprès tout ™h—ngement
    de tr—nsvers—le @™fF p—rtie g—u™he de l— VFIAD pour toute déte™tionD même si ™ette
    déte™tion est ™onnue et prolonge une o˜serv—tionD un ™h—lut—ge est e'e™tuéF in
    prospe™tion @période d9—™quisition et d9—n—lyse de l— donnée —™oustiqueAD le ˜—te—u
    se dépl—™e à IH noeudsD et —u moment des ™h—lut—gesD le ˜—te—u se dépl—™e à R
    noeuds @™fF l— p—rtie droite de l— (gure VFIAF ves ˜—n™s ne sont don™ p—s les mêmes
    en prospe™tion et en période de pê™heF ge™i est dû —ux pertur˜—tions —pportées
8.2.   MÉTHODE DE L'EXPERT POUR L'ÉVALUATION DE BIOMASSES                                ™vii




         Figure 8.1  An d'estimer la biomasse des espèces halieutiques dans le Golfe
         de Gascogne, le navire océanographique acquière de la donnée acoustique et
                     eectue des chalutages suivant un protocole précis.


       p—r le ™h—lut et à l— vitesse du ˜—te—u réduite @le ˜—te—u reste plus longtemps —u
       dessus du ˜—n™ de poissons qui plongeAF gomme les —grég—tions sont ™l—ssées en
       période de prospe™tionD les inform—tions de ™h—lut—ge sont r—menées à l— zone de
       prospe™tion ™orrespond—nteF in pr—tiqueD une fois que l— dé™ision de pê™her est
       priseD le ˜—te—u f—it demiEtour ™omme illustré d—ns l— p—rtie droite de l— (gure VFID
       et le ™h—lut—ge est e'e™tué d—ns l— zone de prospe™tion viséeF eprès le ™h—lut—geD
       un dernier demiEtour permet de reprendre l— tr—nsvers—le à l9endroit où elle — été
       quittéeF
 PF v— se™onde ét—pe est l— ™l—ssi(™—tion des é™hos p—r ™l—sses d9espè™esF ves ˜—n™s
    extr—its p—r le logi™iel movies @™h—pitre TA sont ™l—ssés p—r ™l—sses qui dé(nissent
    des espè™es de poissons ou des groupements d9espè™es de poissonsF €—r exempleD
    d—ns l— p—rtie g—u™he de l— (gure VFPD l— ™—tégorie hI de ˜—n™s di'us regroupe
    le ghin™h—rd et le w—quere—u ™ollés —u fondD hP r—ssem˜le les ˜—n™s souvent
    denses de ƒ—rdineD d9en™hois ou de ƒpr—t qui sont d—ns le milieu de l— ™olonne
    d9e—u ou ™ollés —u fondD hQ est ™onstitué de ˜—n™s de werl—n fleu —u ˜ord du
    pl—te—u ™ontinent—lD et hR réunit les ˜—n™s surf—™iques d9en™hois et de ƒ—rdineF
    ges groupes sont sus™epti˜les de ™h—nger d9une ™—mp—gne à l9—utreD —u gré des
    situ—tions nouvelles et indé™isesF h9—utres peuvent être ™réésF
 QF v— troisième ét—pe est l— str—ti(™—tion de l— zone de prospe™tion @p—rtie droite de
    l— (gure VFPAF gel— ™onsiste à s™inder ™ette zone en str—tes à l— fois homogènes en
    t—ille de poissons p—r espè™e et en proportion d9espè™esF in pr—tiqueD les experts
    dé(nissent les str—tes homogènes de m—nière empiriqueD l9une des ™ontr—intes ét—nt
    qu9une str—te soit ™omposée d9—u moins deux ™h—lut—gesF …n ve™teur de t—illes
    de poissons et un ve™teur de proportions d9espè™es sont —sso™iés à ™h—que str—te
    en moyenn—nt les données de ™h—lut—ge de l— str—te ™onsidérée ‘IPT“ ‘PIU“F v—
    signi(™—tion ˜iologique est l— notion d9h—˜it—t homogène X l9en™hois se situe plutôt
CHAPITRE 8.       APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™viii                  ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




          Figure 8.2  Dans le processus d'estimation de la biomasse des espèces ha-
          lieutiques, les bancs de poissons observés sont classés par catégories, et la zone
                           de prospection est divisée en strates homogènes.


        en f—™e de l— qirondeD t—ndis que le werl—n fleu se trouve sur le ˜ord du pl—te—u
        ™ontinent—lF gh—que iƒh… 1 d9une str—te est —sso™ié —u ve™teur moyen de t—illes
        de poissons d—ns l— str—te et —u ve™teur moyen de proportions d9espè™esF
        xotons queD d—ns une str—teD il peut y —voir plusieurs ™h—lut—ges moyens qui ™orE
        respondent à des ™h—lut—ges p—rti™uliersD ™omme p—r exemple les ™h—lut—ges de surE
        f—™eF einsiD tous les ˜—n™s d9un iƒh… ne sont p—s for™ément —sso™iés —ux mêmes
        ™—r—™téristiques de t—illes de poissons et de proportion d9espè™esF €—r exempleD pour
        les ™h—lut—ges surf—™iquesD seuls les ˜—n™s —sso™iés à l— ™—tégorie hR sont ™on™erE
        nésF he mêmeD si —u moment du ™h—lut—geD le ™h—lut est positionné —u milieu de
        l— ™olonne d9e—uD seuls les ˜—n™s de l— ™—tégorie hP sont —sso™iés à ™e ™h—lut—geF
        gette note justi(e l— se™onde ét—peF
  RF v— qu—trième ét—pe estD pour ™h—que iƒh…D l— ™onversion de l9énergie —™oustique
     p—r espè™e en ˜iom—sse p—r espè™eF gonn—iss—nt l9énergie tot—le —™oustique rétrodifE
     fusée p—r un groupe de ˜—n™s de poissonsD et ™onn—iss—nt l— proportion rel—tive de
     ˜iom—sse p—r espè™eD nous en déduisons l— ˜iom—sse tot—le p—r espè™e d—ns l9iƒh…
     ™onsidéré ‘PIU“F it—nt donnée l9énergie tot—le rétrodi'usée d—ns une im—ge @Etot A
     et une ™onst—nte liée —u sondeur @C AD l9expression de l— ˜iom—sse de l9espè™e i d—ns
     l9im—ge ™onsidérée @BMi A s9exprime de l— m—nière suiv—nte X
                                                         ωi
                                         BMi = C     I
                                                                  Etot                         @VFIA
                                                          ωj σj
                                                    j=1

   1 Un ESDU correspond à une portion élémentaire du parcours de prospection. En anglais, ESDU
signie  echo sampling distance unit . En pratique, un ESDU correspond à un échogramme, i.e. une
image, sur 1 mille marin (1 mille = 1852 mètres).
8.3.   MÉTHODES ALGORITHMIQUES D'ÉVALUATION DE BIOMASSES                                ™ix


       où ωi est l— ieme ™ompos—nte du ve™teur moyen de proportions d9espè™es —sso™iée
       à l9im—geD et σi est l9indi™e de ré)exion moyen de l9espè™e i ‘PIV“F v9indi™e de
       ré)exion σi tr—duit l— réponse de ™h—que espè™e rel—tivement à l9énergie —™oustiqueF
       ƒon expression dépend de l— t—ille moyenne des poissons de l9espè™e i @Li A et de
       p—r—mètres propres à ™h—que espè™e {ai , bi } X

                                      σi = 10(ai +bi log(Li ))/10                     @VFPA


8.3 Méthodes algorithmiques d'évaluation de bio-
    masses
    v9—utom—tis—tion du pro™essus d9év—lu—tion des sto™ks d9espè™es se fonde sur le
même prin™ipe que l— méthode de l9expert X l9estim—tion de l— ˜iom—sse des espè™es
d—ns ™h—que im—ge élément—ire @iƒh…AF fien que les perform—n™es de ™es méthodes
—ient été prouvéesD elles sont très peu —ppliquéesF veur dépend—n™e à ™ert—ins p—r—E
mètres et les d—ngers de prop—g—tion d9erreurs font que l— présen™e des experts reste
indispens—˜leF v9—utom—tis—tion du pro™essus est don™ envis—ge—˜le pour ™orro˜orer
l9—n—lyse de l9expert ‘IPT“F
   €etitg—s et —llF ‘PIW“ ont ™omp—rés plusieurs méthodes —utom—tiquesF gh—™une d9elle
repose sur l— notion de dist—n™e entre im—geD l9idée génér—le ét—nt d9—sso™ier le même
ve™teur de proportion d9espè™es et le même ve™teur de t—ille de poissons à des im—ges
qui sont simil—iresF …ne méthode ™onsiste simplement à —sso™ier les im—ges —ux p—r—E
mètres du ™h—lut—ge le plus pro™heF …ne —utre méthode @esgeƒeA r—ssem˜le les im—ges
équiv—lentes p—r groupe d9im—ges sem˜l—˜lesF gh—que im—ge d9un groupe ét—nt —sso™iée
à un ™h—lut—ge @le ™h—lut—ge le plus pro™heAD un ™h—lut—ge moyen fédère l9ensem˜le du
groupe d9im—gesF v— méthode „rg est l— version ™ontr—ire d9esgeƒeD d—ns le sens
où plutôt que de ™ommen™er p—r regrouper les im—ges entre ellesD les ™h—lut—ges sont
r—ssem˜lés en groupes de ™h—lut—ges équiv—lentsD puis ™h—que im—ge est —sso™iée à l9un
des groupes de ™h—lut—gesF
    ves p—r—mètres import—nts de ™es méthodes —utom—tiques sont le nom˜re de ™—E
tégories de ™h—lut—ges ou le nom˜re de ™—tégories d9im—gesD et l— f—çon de ™réer les
regroupementsF in e'etD il est né™ess—ire de dé(nir un ensem˜le de des™ripteurs —sE
so™iés —ux im—gesD de déterminer une fon™tion de dist—n™eD et en(n une méthode de
™l—ssi(™—tion non supervisée est e'e™tuéeF €our esgeƒe et „rg ‘PIW“D les p—r—mètres
des im—ges sont les p—r—mètres moyens des ˜—n™s de poissons des im—gesD puis une ™l—sE
si(™—tion hiér—r™hique non supervisée est utilisée pour e'e™tuer le 4 ™lustering 4F h—ns
d9—utres tr—v—ux ‘PPH“D les p—r—mètres des im—ges sont les histogr—mmes des p—r—mètres
des ˜—n™s d—ns les im—gesD et les dist—n™es sont dé(nies p—r l— divergen™e de fh—tt—™h—E
ryy— ‘TR“F gepend—ntD ™ette méthode se distingue des —utres ™—r le regroupement des
données s9e'e™tue p—r une —ppro™he v—ri—tionnelleF ve point ™ommun de ™es méthodes
est l— prop—g—tion d9une inform—tion de ™h—lut—ge @un ve™teur de proportions de ˜ioE
m—sse d9espè™es et un ve™teur de t—illes de poissonsA d—ns les im—gesD puis le ™—l™ul de
l— ˜iom—sse se f—it ™omme pour l9équ—tion @VFPAF
   €eu de tests et de ™omp—r—isons ont été e'e™tuésF yn peut se dem—nderD p—r exempleD
CHAPITRE 8.       APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™x                 ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




quels sont les des™ripteurs les plus pertinents X ™ert—ins qu—ntiles des histogr—mmes
des des™ripteurs des ˜—n™s de poissons @™omme le f—it furgos ‘PHT“AD les histogr—mmes
™omplets des des™ripteurs des ˜—n™s de poissons @™omme nous le f—isons d—ns le ™h—pitre
UAD des p—r—mètres glo˜—ux des™riptifs de l9im—ge @™omme le pour™ent—ge d9o™™up—tion
sp—ti—le d—ns l9im—geD et™AD ou l— ™om˜in—ison de tous ™es p—r—mètres c yn peut —ussi se
dem—nder quelle est l— meilleure méthode de regroupement des données X l— méthode des
kEmoyennesD une ™l—ssi(™—tion hiér—r™hiqueD les gr—phes de simil—ritéD ou —lors v—utEil
mieux ™onsidérer une —ppro™he v—ri—tionnelle c


8.4 Classication de bancs de poissons pour l'évalua-
    tion de biomasses
8.4.1 Comment évaluer la biommasse
    e(n d9entériner sur un ™—s pr—tique les —lgorithmes d9—pprentiss—ge f—i˜lement suE
pervisé proposés d—ns l— p—rtie s et les des™ripteurs glo˜—ux proposés d—ns le ™h—pitre
UD nous proposons une méthode d9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques
d—ns le qolfe de q—s™ogneF he m—nière génér—leD l9—n—lyse fon™tionne de l— m—nière
suiv—nte X notre méthode permet de ™l—sser des ˜—n™s de poissonsD et don™D une fois
les ˜—n™s ™l—ssésD les ˜iom—sses p—r espè™e peuvent être estimées d—ns ™h—que im—geF
he làD les résult—ts de ˜iom—sse peuvent être ™omp—rés —ve™ ™eux de l9expert ou des
méthodes —utom—tiquesD donn—nt une indi™—tion des perform—n™es de ™l—ssi(™—tionF he
plusD les des™ripteurs pour l— ™l—ssi(™—tion de ˜—n™s de poissons sontD soit des des™ripE
teurs lo™—ux @se™tion UFQ du ™h—pitre UAD soit des des™ripteurs glo˜—ux @se™tion UFR du
™h—pitre UAD soit des ™om˜in—isons de des™ripteurs lo™—ux et glo˜—uxF gel— permet de
v—lider l9emploi des des™ripteurs glo˜—ux présentés d—ns le ™h—pitre UF
    ƒoit une ™—mp—gne de pê™he et d9o˜serv—tion —™oustique telle que présentée d—ns
l— se™tion VFPF v— zone de prospe™tion est divisée en im—ges élément—ires @ou iƒh… X
im—ges élément—ires de I mille m—rinA qui ™ontiennent ™h—™une des ˜—n™s de poissonsF
v9ensem˜le d9—pprentiss—ge est ™onstitué en —sso™i—nt une im—ge à un ™h—lut—ge @p—r
exemple le ™h—lut—ge le plus pro™heD ou —lorsD un ™h—lut—ge moyen peut être ™onsiE
déré ™omme pour l— méthode esgeƒe de l— se™tion VFQAF …ne im—ge d9—pprentiss—ge
est don™ l—˜élisée à l9—ide d9un ve™teur de pro˜—˜ilités — priori des ™l—sses qui ™orE
respondent —ux proportions de ˜iom—sse p—r espè™e d—ns l9im—geF „ous les ˜—n™s de
poissons d9une im—ge d9—pprentiss—ge sont —sso™iés à ™e ve™teur de pro˜—˜ilités — priori
de telle sorte que l9ensem˜le d9—pprentiss—ge (n—l se note {xn , πn }D où xn est un ˜—n™
de poissons et πn le ve™teur des pro˜—˜ilités — priori ™orrespond—ntF ge form—lisme
nous permet d9—ppliquer les méthodes d9—pprentiss—ge f—i˜lement supervisé de l— p—rE
tie sF v9o˜serv—tion xn ™omprend soit des des™ripteurs lo™—uxD soit des des™ripteurs
glo˜—uxD ou les deuxF …ne fois que le modèle de ™l—ssi(™—tion est —pprisD tous les ˜—n™s
de poissons sont ™l—ssésF insuiteD pour ™h—que ˜—n™ de poissonsD —y—nt déterminé leur
™l—sseD l9énergie —™oustique est ™onvertie en ˜iom—sseF pin—lementD d—ns une im—geD l—
somme des ˜iom—sses ™—l™ulée pour ™h—que ˜—n™ de poissons donne l— ˜iom—sse tot—le
p—r espè™eF
8.4.   CLASSIFICATION DE BANCS DE POISSONS POUR L'ÉVALUATION DE

BIOMASSES                                                                              ™xi


    v— méthode de ™onversion de l9énergie —™oustique d9un ˜—n™ de poissons en ˜iom—sse
est l— suiv—nte ‘IPT“F gette méthode permet de donner le poids @en kilogr—mmeA d9un
˜—n™ de poissons de longueur LD de surf—™e S @d—ns le ™—s d9im—ges ˜idimensionnellesAD
d9énergie rétrodi'usée de volume Sv et dont l— longueur des poissons lp est ™onnueF
ves p—r—mètres LD S et Sv sont o˜tenus à l9—ide de l9extr—™tion des ˜—n™s de poissons
p—r le logi™iel movies et le p—r—mètre lp est déterminé p—r é™h—ntillonn—ge des individus
pê™hésF v— ˜iom—sse BMi en kilogr—mme de l9espè™e i s9exprime en fon™tion du nom˜re
de poissons d—ns le ˜—n™ @N AD et du poids d9un poisson pi ™omme suit X
                                                           ¯

                                    BMi = N.¯i /1000
                                            p                                         @VFQA

ve nom˜re de poissons s9exprime en fon™tion de l— densité ρ @en nom˜re de poissons
p—r m3 A et du volume du ˜—n™ @V A X N = ρ.V F in ™onsidér—nt le volume d9un ˜—n™
ellipsoïd—leD —lors X
                                         2
                                     V = S.L                                 @VFRA
                                         3
F he plusD l— densité ρ s9exprime en fon™tion de l9énergie rétrodi'usée Sv et de l9index
de ré)exion T Si = ai + bi .log(lp ) de l— m—nière suiv—nte X
                                               Sv −T Si
                                      ρ = 10      10                                  @VFSA

où ai et bi sont des p—r—mètres propre à ™h—que espè™eF in(nD l— rel—tion entre le poids
pi d9un poisson et l— longueur lp d9un poisson ét—nt donnée p—r pi = ci .lpi D où ci et di
¯                                                                 ¯       d

sont des p—r—mètres propres à ™h—que espè™eD —lors l9expression (n—le de l— ˜iom—sse
est X
                                   2             Sv −T Si
                                            d
                           BMi = .S.L.ci .lpi .10 10 /1000                           @VFTA
                                   3

    heux —ppro™hes sont —˜ordées pour le ™—l™ul de l— ˜iom—sse (n—le BM end =
{BMiend } d9un ˜—n™ de poissons X une —ppro™he 4 dure 4 et une —ppro™he 4 souple
4F ƒoit le ve™teur BM = {BMi } qui ™ontient les poids du ˜—n™ ™onsidéré pour toutes
les ™l—ssesF v9—ppro™he 4 dure 4 revient à ™onsidérer que le ˜—n™ de poissons n9est ™onstiE
tué que d9une seule espè™eF ƒi Θ est le ™l—ssi(eur et p(y = i|x, Θ) est l— pro˜—˜ilité —
posteriori de ™l—ssi(™—tion d—ns l— ™l—sse i du ˜—n™ de poissons xD —lors l— ˜iom—sse
(n—le du ˜—n™ est un ve™teur dont les ™ompos—ntes v—lent X

                   BMiend = BMi         si  i = arg maxj p(y = j|x, Θ)
                                                                                      @VFUA
                   BMiend = 0         sinon

h—ns le ™—s de l9—ppro™he soupleD les ™ompos—ntes du ve™teur (n—l BM end de ˜iom—sse
sont X
                             BMiend = p(y = i|x, Θ).BMi                         @VFVA

in f—is—nt ™el—D ™omme d—ns le p—pier de r—mmond ‘PPI“D nous ™onsidérons qu9un ˜—n™
de poissons est ™omposé de plusieurs espè™esF h9un point de vue m—thém—tiqueD ™el—
permet de diminuer les erreurs d9—ttri˜ution de ˜iom—sseF
CHAPITRE 8.      APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xii                ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




8.4.2 Un critère d'optimisation des paramètres des classieurs
    in ™omplément de l— p—rtie sD d—ns l—quelle nous ™onsidérons un ensem˜le de donE
nées dont les — priori sont ™onnus pour ™h—que ™l—sseD une nouvelle inform—tion est
disponi˜le X l— proportion de ˜iom—sse d—ns les im—gesF h—ns ™ette se™tionD nous propoE
sons une méthode d9optimis—tion des p—r—mètres des ™l—ssi(eursD d—ns le ™—s d9im—ges
pour lesquelles les proportions des ™l—sses sont ™onnuesF it—nt donnés les p—r—mètres
                                                                                  ˆ
Θ d9un ™l—ssi(eurD l— méthode ™onsiste à trouver un jeu de p—r—mètres optimisés Θ qui
s—tisfont un ™ert—in ™ritèreF
    xous p—rtons du postul—t que si les p—r—mètres Θ d9un modèle de ™l—ssi(™—tion
idé—l @qui ™l—sse p—rf—itement les donnéesA sont optim—uxD et si les o˜jets des im—ges
d9—pprentiss—ge sont ™l—ssés à l9—ide de ™e modèleD —lors l— proportion des ™l—sses estimée
d—ns les im—ges d9—pprentiss—geD notée πk (Θ) où k indi™e l9im—geD doit être identique à
                                          ˆ
l— proportion réelle des ™l—sses d—ns les im—ges d9—pprentiss—geF einsiD nous o˜tenons
                                                                       ˆ
πk (Θ) = πk F ve ™ritère ™onsiste don™ à trouver le jeu de p—r—mètres Θ qui minimise une
ˆ
dist—n™e entre les proportions réelles πk et les proportions estimées πk (Θ)F ge ™ritère
                                                                         ˆ
peut s9é™rire X
                               ˆ
                              Θ = arg min      D(ˆk (Θ), πk )
                                                   π                                   @VFWA
                                        Θ
                                              k

où D(•, •) est l— dist—n™e ™onsidéréeF €—rmi les dist—n™es possi˜lesD on peut ™iter l—
dist—n™e de fh—tt—™h—ryy— ‘TR“ ‘PPP“ X

                                                  1
                         D(ˆk (Θ), πk ) = 1 −
                           π                               πki (Θ) · πki
                                                           ˆ                         @VFIHA
                                                  I   i


D l— dist—n™e de uull˜—™kEvei˜ler ‘PPQ“ ‘TS“ ‘PPR“ X

                                              1                   πki
                           D(ˆk (Θ), πk ) =
                             π                        πki log                        @VFIIA
                                              I   i
                                                                πki (Θ)
                                                                ˆ

D et l— dist—n™e eu™lidienne X

                          D(ˆk (Θ), πk ) =
                            π                         |πki − πki (Θ)|2
                                                             ˆ                       @VFIPA
                                                  i


…ne des™ente de gr—dient permet de résoudre le ™ritère @VFWAF in se r—men—nt à un k
pro˜lèmes élément—iresD l9expression du gr—dient de l— fon™tion à minimiser s9exprime
pour l— dist—n™e de f—tt—™h—ryy— p—r X

                                      ∂       1         πki
                                            =                                        @VFIQA
                                  ∂ πki (Θ)
                                    ˆ         2       πki (Θ)
                                                      ˆ

D pour l— dist—n™e de uull˜—™kEvei˜ler p—r X

                                        ∂        −πki
                                              =                                      @VFIRA
                                    ∂ πki (Θ)
                                      ˆ         πki (Θ)
                                                ˆ
8.5.   PERFORMANCES                                                                   ™xiii


D et pour l— dist—n™e de eu™lidienne p—r X
                                ∂                πki (Θ) − πki
                                                 ˆ
                                      =                                             @VFISA
                            ∂ πki (Θ)
                              ˆ                                  2
                                                  |πkj − πkj (Θ)|
                                                         ˆ
                                             j


   ve prin™ip—l in™onvénient de ™ette méthode est intrinsèque à l— méthode du gr—dientF
in e'etD une des™ente de gr—dient permet de trouver un minimum lo™—l d9une fon™tion
qui est pro™he du point d9initi—lis—tionF h—ns ™e ™h—pitreD l9optimis—tion est —ppliquée
—u modèle dis™rimin—nt qui se prête —isément à l— méthode ™ontr—irement —ux modèles
˜—sés sur les —r˜res de ™l—ssi(™—tion dont l— qu—ntité de p—r—mètres @le nom˜re de
noeuds d—ns les —r˜res et les v—leurs de ™oupures —sso™iées à ™h—que noeudA est une
v—ri—˜le —lé—toireF ves p—r—mètres du modèle sont don™ Θ = {ωi , bi }D l9ensem˜le des
™oe0™ients des hyperpl—ns qui sép—rent l— ™l—sse i des —utres ™l—ssesF


8.5 Performances
8.5.1 Simulation d'un scénario
   €our déterminer ™omment se ™omportent les modèles de ™l—ssi(™—tion développés
d—ns l— p—rtie s visEàEvis de données issues de l9—™oustique h—lieutiqueD nous e'e™tuons
une simul—tion de s™én—rio ™omme d—ns l— p—rtie sF einsiD le jeu de données hS @p—ge
x™A est utilisé pour générer des ensem˜les d9—pprentiss—ge f—i˜lement supervisésF
   v— première expérien™e ™on™erne les p—r—mètres des modèles de ™l—ssi(™—tionF ves
résult—ts de simul—tions sont reportés d—ns l9—nnexe PF ves ™on™lusions sont les mêmes
que d—ns l— p—rtie s @p—ge lviiAF
    v— se™onde expérien™e ™on™erne l— ro˜ustesse des ™l—ssi(eurs rel—tivement —u nive—u
de ˜ruit des pro˜—˜ilités — priori des exemples d9—pprentiss—ge @™omme d—ns l— se™tion
SFRFP du ™h—pitre SAF €our ™el—D R nive—ux de ™omplexité des données d9—pprentiss—ge
sont ™réésD —ll—nt de l9—pprentiss—ge superviséD —u ™—s équipro˜—˜leD en p—ss—nt p—r des
nive—ux intermédi—iresF ves proportions ™i˜les qui permettent de générer ™es ensem˜les
d9—pprentiss—ge sont données d—ns l9—nnexe PF ves résult—ts de simul—tions sont donE
nés d—ns le t—˜le—u VFIF ves ™on™lusions sont sem˜l—˜les à ™elles de l— p—rtie sF ƒ—ns
surpriseD plus les pro˜—˜ilités — priori des ™l—sses sont f—i˜lesD plus les perform—n™es de
™l—ssi(™—tion ™hutentF €—rmi les ™l—ssi(eurs élément—ires @peD pisherD et iwAD le modèle
dis™rimin—nt @pisherA est le plus ro˜uste visEàEvis de l— ™omplexité des mél—ngesF einsiD
m—lgré de très ˜onnes perform—n™es en ™l—ssi(™—tion superviséeD les forêts —lé—toires
@peA sont peu perform—ntes dès que les pro˜—˜ilités — priori de ™l—ssi(™—tion ˜—issentF
gepend—ntD l— ™om˜in—ison de ™l—ssi(eursD soit p—r l9utilis—tion d9un pro™essus itér—tif
@peCsterIAD soit p—r l— fusion de ™l—ssi(eurs @pisherCpeA d—ns un pro™essus itér—tifD
permet d9—ppro™her les ex™ellentes perform—n™es o˜tenues p—r les forêts —lé—toires @peA
en ™l—ssi(™—tion superviséeF ve f—i˜le t—ux de réussite o˜tenu p—r l— méthode itér—tive
4 sterP 4 s9explique p—r l— s™ission de l9ensem˜le d9—pprentiss—ge à ™h—que itér—tionD tel
que les données d9—pprentiss—ge ne soient plus —ssez nom˜reuses pour que l9org—nis—tion
sp—ti—le de l9ensem˜le de toutes les données soit ™onven—˜lement modéliséeF
CHAPITRE 8.         APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xiv                  ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




    v— troisième expérien™e ™on™erne l— ro˜ustesse des ™l—ssi(eurs rel—tivement —u
nom˜re de ™l—sses pro˜—˜les pour un exemple d9—pprentiss—ge @™omme d—ns l— se™tion
SFRFQ du ™h—pitre SAF €our ™el—D R nive—ux de ™omplexité des données d9—pprentiss—ge
sont ™réésF ves proportions ™i˜les qui permettent de générer ™es ensem˜les d9—pprenE
tiss—ge sont données d—ns l9—nnexe QF ves résult—ts de simul—tion sont donnés d—ns le
t—˜le—u VFPF gette foisD ™ontr—irement à l— tend—n™e génér—le qui se dég—ge de l— p—rtie
sD donn—nt l— méthode 4 peCsterP 4 plus perform—nteD nous ™onst—tons que l— fusion
itér—tive du ™l—ssi(eur dis™rimin—nt —ve™ les forêts —lé—toires @pisherCpeA permet d9o˜E
tenir les meilleurs résult—ts —ve™ une moyenne génér—le de 84% de réussite et un é™—rt
type de 5%F €our ™e jeu de donnéesD les perform—n™es de ™l—ssi(™—tion ne dép—ssent
p—s 70% en moyenne —ve™ le pro™essus itér—tifF gel— illustre d9une p—rt les di0™ultés
de l9—pprentiss—ge —utom—tique qu—nt —u ™hoix du ™l—ssi(eurD et d9—utre p—rt ™omment
les perform—n™es d9un ™l—ssi(eur dépendent de l9org—nis—tion intrinsèque des nu—ges de
points pour ™h—que ™l—sseF

              Type          Supervisé     Faiblement          Faiblement           Non
         d'apprentissage                  supervisé (1)       supervisé (2)        supervisé
              FA+Iter1      0.89          0.81                0.38                 0.25
              FA+Iter2      0.89          0.47                0.32                 0.25
         D5   Fisher+FA     0.89          0.75                0.62                 0.24
              FA            0.89          0.59                0.35                 0.25
              Fisher        0.70          0.72                0.61                 0.27
              EM            0.66          0.47                0.46                 0.28
       Tableau 8.1     Evolution du taux moyen de classication du jeu de données
       D5 en fonction de la complexité des labels de l'ensemble d'apprentissage. La
       complexité des données d'apprentissage évolue du cas de l'apprentissage su-
       pervisé au cas équiprobable, en passant par des cas d'apprentissage faiblement
                     supervisé plus ou moins complexes (cf. annexe 2).

                  Nombre de                                          Moyennes /
                  classes dans     1       2      3       4          Ecart type
                   le mélange
                       FA+Iter1    0.89    0.72   0.62    0.45       0.67 - 0.18
                       FA+Iter2    0.89    0.79   0.71    0.42       0.70 - 0.20
                       Fisher+FA   0.89    0.86   0.86    0.77       0.84 - 0.05
                 D5    FA          0.89    0.71   0.68    0.58       0.71 - 0.12
                       Fisher      0.70    0.71   0.65    0.56       0.65 - 0.06
                       EM          0.66    0.52   0.51    0.47       0.54 - 0.08
       Tableau 8.2  Evolution du taux moyen de classication du jeu de données D5
       en fonction du nombre de classes dans chaque mélange. Des jeux de proportions
       sont créés, allant du cas supervisé au cas où toutes les classes sont probables
                                         (annexe 3).


8.5.2 Campagne PELGAS00
Le jeu de données
    ves données sont ™elles de l— ™—mp—gne €ivqeƒHHF v9expert fournit un ensem˜le
d9iƒh… @de I milleA pour lesquels l9estim—tion de ˜iom—sse est ™onnue et —uxquels est
jointe l— liste des p—r—mètres des ˜—n™s de poissonsF xous disposons —ussi de l9ensem˜le
des ™h—lut—gesD qui renseignent sur les espè™es présentes —u moment du ™h—lut—geD et
8.5.   PERFORMANCES                                                                         ™xv




        Figure 8.3  Bancs de poissons de la campagne PELGAS00. Ceux dont l'a
        priori est connu constituent l'ensemble d'apprentissage, les autres sont classés.



surtoutD qui déterminent l— t—ille des poissons p—r espè™e —(n d9e'e™tuer l— ™onverE
sion entre l9énergie d9un ˜—n™ de poissons et s— ˜iom—sseF xotons que les ˜iom—sses
des im—ges d9—pprentiss—ge sont ™elles év—luées p—r l9expertD et non ™elles issues du
™h—lut—geF gette pr—tique est —dmise p—r les experts ‘IPT“ ‘PIU“ qui ont l— volonté de
minimiser les erreurs possi˜les induites p—r un ™h—lut—ge dont l9é™h—ntillonn—ge ne ser—it
p—s représent—tif de l9é™osystème environn—ntF ves ˜—n™s de poissons s—ns —nnot—tion
et ™eux dont l9— priori est ™onnu sont représentés d—ns l— (gure VFQF h—ns ™e jeu de
donnéesD les é™hos isolésD qui ™orrespondent à du pl—n™ton ou à des poissons isolésD ne
sont p—s ™onsidérés ™omme ét—nt des ˜—n™s de poissons et ne sont p—s pris en ™ompte
d—ns ™ette expérien™eF gel— explique l9—spe™t mor™elé des tr—nsvers—les de prospe™tion
dont ont été supprimés les iƒh… s—ns ˜—n™s de poissons —vérésF
    v9étude des perform—n™es de ™l—ssi(™—tion des modèles de ™l—ssi(™—tion f—i˜lement
supervisés — montré que les t—ux de réussite sont ˜—s qu—nd l9ensem˜le des — priori
des ™l—sses sont ˜—sF in rev—n™heD les t—ux de réussite restent ™onven—˜les siD d—ns
l9ensem˜le des données d9—pprentiss—geD il existe quelques — priori forts pour ™h—que
™l—sseF ves modèles de ™l—ssi(™—tion peuvent —lors être vus ™omme des (ltres qui —tE
ténuent l9in)uen™e des exemples ˜ruités d—ns l9—pprentiss—ge en m—inten—nt ™elle des
CHAPITRE 8.       APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xvi                ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




exemples dont l9— priori est fortF he ™e f—itD il est né™ess—ire d9—n—lyser les mél—nges
o˜tenus lors de l— ™—mp—gne €ivqeƒHH pour déterminer si les ™l—sses sont représenE
tées p—r des — priori forts en nom˜res su0s—ntsF einsiD d—ns l9—nnexe RD les pro˜—˜ilités
— priori et les ˜iom—sses —sso™iées sont tr—™ées pour ™h—que ™h—lut—ge et pour ™h—que
espè™e X l— ƒ—rdine @(gure WFPAD le w—quere—u @(gure WFRAD le ghin™h—rd @(gure WFQAD
l9en™hois @(gure WFSAD et les espè™es néglige—˜les @(gure WFTAF ves espè™es néglige—˜les
regroupent des poissons ™omme le werl—n fleu et le ƒpr—t dont l— ˜iom—sse est peu
représentéeF e(n d9ét—˜lir si le nom˜re de ˜—n™s de poissons est su0s—nt pour ™h—que
™l—sseD le nom˜re de ˜—n™s p—r im—ge est —ussi tr—™é en fon™tion de l9indi™e du ™h—lut—ge
@d—ns l9—nnexe RD (gure WFUAF

                          xom˜re d9im—ge       xom˜re tot—l      €oids moyen
                          pour lesquelles      de ˜—n™s          de poissons p—r
                          {πni } ≥ 0.8         telles que        ™h—lut—ge @en kgA
                                               {πni } ≥ 0.8
          ƒ—rdine         T                    ITU               PST
          ghin™h—rd       PQ                   STP               PIP
          w—quere—u       IQ                   RTV               QIP
          en™hois         IT                   UWI               IRU
          ispè™es         H                    H                 SW
          néglige—˜les

       Tableau 8.3  Pour la sardine, le chinchard, le maquereau, l'anchois et les
       espèces négligeables, le nombre d'images pour lesquelles les probabilités a priori
       sont supérieures à 0.8 est reporté, ainsi que le nombre total de bancs de poissons
       dans les images telles que les probabilités a priori sont supérieures à 0.8, et le
                           poids moyen des poissons par chalutage.

    ves prin™ip—les inform—tions sont résumées d—ns le t—˜le—u VFQF „out d9—˜ordD pour
les R espè™es prin™ip—lesD les im—ges d9—pprentiss—ge ™ontiennent su0s—mment de ˜—n™s
de poissons pour estimer ™orre™tement les p—r—mètres d9un modèle de ™l—ssi(™—tionF €—r
exempleD pour l— s—rdineD ITU ˜—n™s de poissons ont une pro˜—˜ilité — priori supérieure à
HDV d9être ™l—ssés p—rmi l— s—rdineF ƒeules les espè™es néglige—˜les sont peu représentées
—ve™ H ˜—n™ de poissons qui ont une pro˜—˜ilité — priori de ™l—ssi(™—tion supérieure à HDV
m—is IHQ ˜—n™s de poissons qui ont une pro˜—˜ilité — priori de ™l—ssi(™—tion supérieure
à HDSF gel— est véri(é p—r le poids moyen p—r espè™e d—ns l9ensem˜le des ™h—lut—ges qui
ne dép—sse p—s SWkg pour les espè™es néglige—˜lesF €our ™on™lureD l— qu—ntité de ˜—n™s
l—˜ellisés —ve™ un — priori fort est su0s—nteD ex™epté pour les espè™es néglige—˜lesF

Les performances globales
    €lusieurs ™om˜in—isons de des™ripteurs sont envis—ge—˜lesF €—r exempleD seuls les
des™ripteurs des ˜—n™s de poissons sont utilisés pour l9—pprentiss—ge des modèles de
™l—ssi(™—tionF e ™es des™ripteurs de ˜—n™s de poissonsD peuvent être —joutés des desE
™ripteurs glo˜—ux ™omme ™eux proposés p—r furgos ‘PHT“D ou ™eux proposés d—ns le
™h—pitre UD ou les deuxF ves ™oordonnées géogr—phiques peuvent —ussi être —joutées
8.5.    PERFORMANCES                                                                             ™xvii


™omme des™ripteur lo™—l de ™h—que ˜—n™ de poissonsF e ™el— s9—joute l— f—çon de ™—lE
™uler l— ˜iom—sse @l9—ppro™he 4 dure 4D ™fF l9expression @VFUAD ou l9—ppro™he 4 souple
4D ™fF l9expression @VFVAA et le ™hoix du ™l—ssi(eurF v9ensem˜le de ™es ™om˜in—isons
™onduit à des résult—ts très nom˜reux m—is —ssez sem˜l—˜lesF h—ns ™ette se™tionD nous
ne montrons que les solutions résult—nts des deux meilleures ™om˜in—isons —u sens d9un
™ert—in ™ritère qui s9—ppuie sur l— ™orrél—tionF ƒoit les ve™teurs BMiexp = {BMij } et
                                                                                 exp

BMialg = {BMij }D respe™tivement rel—tifs à l9év—lu—tion de l— ˜iom—sse de l9espè™e i
                 alg

donnée p—r l9expert et ™elle o˜tenue de m—nière —lgorithmiqueD tel que les ™ompos—ntes
des ve™teurs soient les im—ges indi™ées p—r j @iFeF les iƒh…AF elorsD l— ™orrél—tion est
un s™—l—ire qui renseigne sur l— simil—rité entre les deux ve™teurs BMiexp et BMialg F
v9expression de l— ™orrél—tion est donnée p—r X
                                        N
                                                 exp   ¯ exp   alg   ¯ alg
                                              (BMij − BM i )(BMij − BM i )
                                        j=1
       Γi (BMiexp , BMialg ) =                                                                  @VFITA
                                   N                                     N
                                           exp   ¯ exp
                                        (BMij − BM i )2                          alg   ¯ alg
                                                                              (BMij − BM i )2
                                  j=1                                   j=1

                                                                         ¯
où N indi™e toutes les im—ges de l— ™—mp—gne d9o˜serv—tion et BMi est le ve™teur
moyenF v— ™orrél—tion est un s™—l—ire ™ompris entre 0 et 1F ƒi les ve™teurs sont identiquesD
—lors l— ™orrél—tion v—ut ID sinonD plus les ve™teurs di'èrentD plus l— ™orrél—tion tend
vers HF pin—lementD pour juger de l9e0™—™ité d9une méthode de ™l—ssi(™—tion et du ™hoix
des des™ripteursD un ™oe0™ient moyen de ™orrél—tion Γ(BM exp , BM alg ) sur l9ensem˜le
des ™l—sses i est ™—l™ulé X
                                                            I
                                                       1
                        Γ(BM     exp
                                       , BM   alg
                                                    )=           Γi (BMiexp , BMialg )          @VFIUA
                                                       I   i=1


    h—ns le t—˜le—u WFU de l9—nnexe SD les ™oe0™ients de ™orrél—tion moyens sont —fE
(™hés pour deux méthodes de ™—l™ul de l— ˜iom—sseD pour plusieurs ™om˜in—isons de
des™ripteursD et pour plusieurs ™l—ssi(eursF einsiD si l— méthode 4 souple 4 de ™—l™ul de
l— ˜iom—sse est —ppliquée @™fF équ—tion @VFVAAD —lors SOFT = 1 et HARD = 0F ƒi
l— méthode 4 dure 4 de ™—l™ul de l— ˜iom—sse est —ppliquée @™fF équ—tion @VFVAAD —lors
SOFT = 1 et HARD = 0F ƒi les ™oordonnées géogr—phiques des ˜—n™s de poissons
@l—titude et longitudeA sont —joutées ™omme des™ripteurs lo™—ux en ™omplément des
des™ripteurs morphologiques et énergétiquesD —lors Coord. géographique = 1D sinon
Coord. géographique = 0F ƒi les des™ripteurs glo˜—ux présentés p—r furgos ‘PHT“
sont —joutés —ux des™ripteurs lo™—uxD —lors Burgos = 1D sinon Burgos = 0F ƒi les
des™ripteurs glo˜—ux proposés d—ns ™e tr—v—il de thèse @™fF l— se™tion UFR du ™h—pitre UA
sont —joutés —ux des™ripteurs lo™—uxD —lors Ripley = 1D sinon Ripley = 0F xotons
que tous les des™ripteurs glo˜—ux peuvent être —joutés en même temps —ux des™ripteurs
lo™—uxD d—ns ™e ™—s Burgos = 1 et Ripley = 1F in plus des ™l—ssi(eurs proposés d—ns
l— p—rtie sD à s—voir le modèle génér—tif @GénératifD ™fF ™h—pitre QAD le modèle dis™rimiE
n—nt @Kpca/FisherD ™fF ™h—pitre QAD les forêts —lé—toires ou 4 ‚—ndom porest 4 @FAD ™fF
™h—pitre Q et RAD l— fusion du modèle dis™rimin—nt et des forêts —lé—toires @Fisher+FAD
™fF ™h—pitre Q et RAD et le pro™essus itér—tif @FA+ItératifD ™fF ™h—pitre Q et RAD nous
CHAPITRE 8.     APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xviii              ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




—joutons un ™l—ssi(eur dis™rimin—nt qui exploite l9optimis—tion proposée d—ns l— se™tion
VFRFP @Optimisation Kpca/FisherAF
    ev—nt de présenter les deux ™om˜in—isons qui donnent les meilleurs résult—tsD nous
pro™édons à une —n—lyse glo˜—leF „out d9—˜ordD le ™—l™ul 4 souple 4 de l— ˜iom—sse
donne de meilleurs résult—ts en moyenne pour ™h—™un de ™l—ssi(eursF gel— s9explique
p—r le f—it que les erreurs de ™l—ssi(™—tion sont —tténuées si un mél—nge de ™l—sses est
—ttri˜ué à ™h—que ˜—n™ de poissonsD et queD —u ™ontr—ireD elles ont un imp—™t import—nt
si une seule ™l—sse est —ttri˜uée à ™h—que ˜—n™ de poissonsF ƒeul le ™l—ssi(eur dis™rimiE
n—nt @Kpca/FisherA di'èreD —ve™ un ™oe0™ient de ™orrél—tion moyen de HDRVR d—ns le
™—s 4 souple 4 @Soft = 1AD ™ontre HDRWI d—ns le ™—s 4 dur 4 @Hard = 1AF he l— même
f—çonD l9utilis—tion des ™oordonnées géogr—phiques ™omme des™ripteurs lo™—ux —'e™te
les perform—n™es de ™l—ssi(™—tion en moyenneF gel— est toujours le ™—s en moyenneD
ex™epté pour Hard = 1D Bugos = 0D et Ripley = 0D tel que le ™oe0™ient de ™orrél—E
tion v—ut HDRTQ si Coord. géographique = 0D et HFRUH Coord. géographique = 1F
ves ™on™lusions qu—nt —u ™hoix des des™ripteurs sont di0™iles à ét—˜lir t—nt les ™oe0E
™ients de ™orrél—tion sont v—ri—˜lesF €lusieurs ™—s de (gures —pp—r—issentF €—r exempleD
™elui de l9—ugment—tion des perform—n™es —ve™ l9—jout d9inform—tion des™riptive @™9est
le ™—s du modèle FA+Itératif —ve™ Coord. géographique = 0 et Soft = 1D pour
lequel le ™oe0™ient de ™orrél—tion p—sse de HDRWQ d—ns le ™—s de des™ripteurs lo™—ux
uniquement à HDSPI en utilis—nt tous les des™ripteurs disponi˜lesAF yn trouve —ussi le
™—s inverse pour lequel le ™oe0™ient de ™orrél—tion ™hute —ve™ l9—jout d9inform—tions
des™riptives @™9est le ™—s du modèle Optimisation Kpca/Fisher —ve™ Coord. géo-
graphique = 0 et Hard = 1D pour lequel le ™oe0™ient de ™orrél—tion p—sse de HDSPT
d—ns le ™—s de des™ripteurs lo™—ux uniquement à HDSHT en utilis—nt tous les des™ripteurs
disponi˜lesAF „ous les —utres ™—s de (gures sont présents s—ns pouvoir e'e™tuer une
—n—lyse logiqueF gel— s9explique p—r l9inst—˜ilité re™onnue des ™l—ssi(eurs rel—tivement
—u nom˜re de des™ripteurs qui peuventD en fon™tion du ™l—ssi(eurD être sour™e de ˜ruits
ouD —u ™ontr—ireD d9—mélior—tion des résult—ts si l— qu—ntité de des™ripteurs —ugmenteF
he plusD le m—nque de tend—n™e logique et ™y™liqueD ™ontr—irement —ux expérien™es
pré™édentes pour lesquelles les résult—ts sont ™onst—nts et st—˜les @™fF t—˜le—ux SFPD SFQD
UFQD UFRD VFID et VFPAD s9explique p—r l9—˜sen™e de v—lid—tion ™roiséeD ™—r nous tr—itons
des données 4 réelles 4F einsiD s—ns v—lid—tion ™roiséeD les tend—n™es des perform—n™es
de ™l—ssi(™—tions ser—ient —ussi di0™iles à —n—lyserF €—r exempleD nous —urions souh—ité
voir les résult—ts s9—méliorer à ™h—que —jout d9inform—tions des™riptivesF gette rem—rque
souligne l— di0™ulté d9év—luer des modèles de ™l—ssi(™—tion et des des™ripteurs sur des
données réelles ™ontr—irement à des données synthétiquesF
    v9—n—lyse glo˜—le pré™édente est e'e™tuée sur des moyennes de moyennesF gette
—ppro™he — ses limitesF h9—illeurs les meilleurs résult—ts du t—˜le—u WFU de l9—nnexe S sont
o˜tenus pour le ™l—ssi(eur Optimisation Kpca/Fisher —ve™ un ™—l™ul de ˜iom—sse
4 dur 4D —lors que l— tend—n™e génér—le donne l— f—veur à un ™—l™ul 4 souple 4 de l—
˜iom—sseF xous proposons d—ns l— suite d9—n—lyser plus en dét—ils les perform—n™es de
™l—ssi(™—tion des deux meilleures ™on(gur—tions du t—˜le—u WFU de l9—nnexe SF
8.5.   PERFORMANCES                                                                       ™xix


Deux exemples
   ves deux meilleures ™on(gur—tions du t—˜le—u WFU de l9—nnexe S sont étudiées m—inE
ten—ntF sl s9—git pour un ™—l™ul 4 dur 4 de l— ˜iom—sseD de l9emploi du ™l—ssi(eur Op-
timisation Kpca/Fisher s—ns les ™oordonnées géogr—phiques et s—ns les des™ripE
teurs glo˜—uxD et pour un ™—l™ul 4 souple 4 de l— ˜iom—sseD de l9emploi du ™l—ssi(eur
FA+Itératif s—ns les ™oordonnées géogr—phiques m—is —ve™ tous les des™ripteurs gloE
˜—uxF €our ™es deux ™on(gur—tionsD les ™oe0™ients de ™orrél—tion v—lent respe™tivement
HDSPT et HDSPIF




        Figure 8.4  A gauche : corrélation entre la biomasse par espèce estimée
        par l'expert et celle estimée par les méthodes algorithmiques. La corrélation
        moyenne, qui prend en compte toutes les combinaisons possibles du tableau 9.7
        de l'annexe 5 est comparée à celles obtenues pour deux modèles algorithmiques :
        le processus itératif amélioré (FA+Itératif, section 4.3.2) en ajoutant tous
        les descripteurs globaux (Burgos = 1 et Ripley = 1) du chapitre 7 et le
        modèle discriminant (Optimisation Kpca/Fisher, section 3.3) en utilisant
        les descripteurs de bancs de poissons seuls. A droite, la biomasse par espèce
        estimée par l'expert, par la méthode algorithmique FA+Itératif avec tous les
        descripteurs globaux, et par la méthode Optimisation Kpca/Fisher sans
                                  ajout de descripteurs globaux.


    h—ns l— (gure VFRD à g—u™heD nous tr—çons les ™oe0™ients de ™orrél—tion en fon™E
tion des espè™es pour les deux modèles pré™édemment dé™rits et pour l— ™orrél—tion
moyenne o˜tenue pour toutes les ™om˜in—isons possi˜les du t—˜le—u WFU de l9—nnexe
S et pour tous les ™l—ssi(eursF gel— permet de ™onst—ter qu9il y — une tend—n™e géE
nér—le suivie p—r l9ensem˜le des perform—n™es o˜tenues pour toutes les modélis—tions
possi˜lesF xous ™onst—tons —ussi que les deux meilleures modélis—tions produisent des
résult—ts sensi˜lement équiv—lents et très pro™hes de l— tend—n™e moyenneF he m—nière
génér—leD quelque soit les méthodes de ™l—ssi(™—tionD les estim—tions de ˜iom—sse de
l9—n™hois et des espè™es néglige—˜les sont plus pro™hes de ™elles de l9expert que ne le
sont ™elles du ™hin™h—rd et du m—quere—uF intre les deuxD l— s—rdineF e droite de l—
CHAPITRE 8.      APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xx                 ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




(gure VFRD nous représentons les ˜iom—sses estimées p—r espè™e pour les deux modéliE
s—tions ™onsidérées et ™elles estimées p—r l9expertF €remièrementD si les tend—n™es des
™orrél—tions sont sensi˜lement équiv—lentes d9une modélis—tion à l9—utreD les ˜iom—sses
résult—ntes peuvent être très di'érentesF €—r exempleD pour le m—quere—u l9é™—rt de ˜ioE
m—sse entre les deux méthodes —lgorithmiques —tteint QSH HHH tonnesF gel— s9explique
p—r le f—it que le m—quere—u n9— p—s de vessie n—t—toireD et p—r ™onséquentD les p—r—E
mètres {ai , bi , ci , di } de ™onversion d9énergie à ˜iom—sse de l— se™tion VFRFID di'èrent
fortement pour le m—quere—u p—r r—pport —ux —utres espè™esF einsiD quelques erreurs
de ™l—ssi(™—tion peuvent —voir un imp—™t énorme sur l9év—lu—tion de l— ˜iom—sseF €—r
exempleD si quelques ˜—n™s de s—rdines sont ™l—ssés p—rmi les ˜—n™s de m—quere—uxD l—
v—ri—tion de ˜iom—sse pour l— s—rdine est très inférieure à ™elle o˜servé pour le m—queE
re—uF gel— explique qu9entre les deux méthodes —lgorithmiquesD il y — des di'éren™es
f—i˜les de ˜iom—sse pour l— s—rdine et le ™hin™h—rdD qui se tr—duisent p—r un gros é™—rt
de ˜iom—sse pour le m—quere—uF heuxièmementD l9é™—rt de l9estim—tion de ˜iom—sse
entre les deux types de modélis—tion et l9expert se justi(e p—r de grosses erreurs de
™l—ssi(™—tionF in e'etD de m—nière génér—le les perform—n™es sont —ssez moyennes et
les erreurs introduisent des ˜i—is d—ns l9estim—tion de l— ˜iom—sseF gomme illustré préE
™édemmentD ™es ˜i—is proviennent des ™onversions de l9énergie du ˜—n™ de poissons en
˜iom—sse de poissonsF
    €our illustrer les pro˜lèmes de ™l—ssi(™—tionD nous tr—çons les ™—rtes de ˜iom—sse
o˜tenues p—r l9expert et p—r les deux méthodes —lgorithmiques pour l9espè™e qui donne
les meilleurs résult—ts @l9—n™hoisA et ™elle qui donne les moins ˜ons résult—ts @le m—queE
re—uAF einsiD d—ns l— (gure VFSD nous tr—çons l— ˜iom—sse —sso™iée à ™h—que iƒh…D iFeF
tous les milles m—rinsD d—ns le pl—n t—ngent à l— surf—™e de l— terreF gh—que ™er™le est
proportionnel à l— ˜iom—sse estimée X plus le ™er™le est gr—ndD plus l— ˜iom—sse estimée
est import—nteF ves ™—rtes ™on(rment les résult—ts de l— (gure VFR X d—ns le ™—s où
l9expert — ™orre™tement estimé l— ˜iom—sse des di'érentes espè™esD l— ™l—ssi(™—tion des
˜—n™s d9—n™hois est mieux réussies que ™elle des ˜—n™s de m—quere—uxF gel— est vr—i
quelque soit l— modélis—tionF in e'etD nous ™onst—tons que pour les trois estim—tions
de l— ˜iom—sse d9—n™hoisD l— m—jorité des —grég—tions se situe d—ns le sudEest du qolfe
de q—s™ogneD en f—™e de l— qirondeF in rev—n™heD pour le m—quere—uD ™onformément
—ux f—i˜les v—leurs de ™orrél—tion de l— (gure VFRD il y — ˜e—u™oup d9erreurs de ™l—sE
si(™—tionF ves ™—rtes de distri˜utions de ˜iom—sse montrent à quel point l9erreur est
import—nteF €our ™h—™un des trois types de méthode d9év—lu—tionD les ™—rtes o˜tenues
sont di'érentesF v— prin™ip—le expli™—tion est l— forte lo™—lis—tion des —n™hois d—ns le
sudEest du qolfe de q—s™ogneD produis—nt des p—r—mètres des™riptifs des ˜—n™s de poisE
sons pro™hes de situ—tions monomod—lesF in e'etD ™omme l9—n™hois est ™on™entré d—ns
une p—rtie du qolfe de q—s™ogneD les inform—tions des™riptives sont peu v—ri—˜les ™e
qui f—™ilite l9estim—tion des p—r—mètres des modèles de ™l—ssi(™—tionF ejoutons à ™el—
que l9—n™hois est une espè™e de poisson dont les p—r—mètres des™riptifs sem˜lent plus
dis™rimin—nts que pour les —utres espè™esF in e'etD les m—tri™es de ™onfusion d—ns l—
(gure UFR montrent sur un jeu de données p—rti™ulier qu9entre l— s—rdineD l9—n™hoisD le
™hin™h—rd et le merl—n ˜leuD l9—n™hois est l9espè™e l— plus dis™rimin—nteF
8.5.   PERFORMANCES                                                                    ™xxi




        Figure 8.5  Estimation de la biomasse d'anchois et de maquereau par l'ex-
        pert, par la méthode discriminante avec optimisation telle que Ripley = 0,
        Cluster = 0 et Soft = 0, et par le processus itératif tel que Ripley = 1,
        Cluster = 1 et Soft = 1. La biomasse est représentée par des cercles dont le
                       rayon est proportionnel à la biomasse estimée.


8.5.3 Discussion
    h—ns ™e ™h—pitreD nous —vons —ppliqué les méthodes d9—pprentiss—ge f—i˜lement suE
pervisé proposées d—ns l— p—rtie s —u ™—s de l9év—lu—tion de l— ˜iom—sse des espè™es
h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts sont positifs pour l9—n™hois @(gure
VFSAD m—is sont glo˜—lement insu0s—nts pour être e'e™tifsF ve tr—nsfert d—ns le dom—ine
de l9—ppli™—tion né™essite ˜e—u™oup d9—mélior—tionsF gepend—ntD retenons que l— ™l—ssiE
(™—tion de ˜—n™s de poissons n9est p—s l— f—çon usuelle de pr—tiquer les év—lu—tions de
˜iom—ssesD ™elleE™i est —™™omplie p—r une prop—g—tion glo˜—le de l9inform—tion de proE
portion des espè™es d—ns les im—ges @se™tions VFP et VFQAF v9o˜je™tif de ™ette —ppli™—tion
est dou˜leF
„out d9—˜ordD il s9—git de v—lider l9emploi des méthodes de ™l—ssi(™—tion f—i˜lement suE
pervisé sur un ™—s pr—tiqueF €our l9év—lu—tion de ˜iom—sseD les résult—ts montrent que
l9—ppro™he est envis—ge—˜le en —pport—nt des —mélior—tions etD de plusD en n9ess—y—nt
p—s d9e'e™tuer l9év—lu—tion dire™te de l— ˜iom—sse m—is plutôt d9utiliser ™es méthodes
CHAPITRE 8.      APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xxii                ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




pour e'e™tuer une préE™l—ssi(™—tion ™omme le f—it l9expert @se™tion VFPAF
in(nD ™es résult—ts —pportent l— preuve queD pour l9év—lu—tion de ˜iom—sseD l— ™l—ssi(E
™—tion des ˜—n™s de poisons est moins e0™—™e qu9une —ppro™he glo˜—le de prop—g—tion
de l9inform—tion des proportions d—ns les im—ges ‘PIW“F
   €lusieurs r—isons expliquent les résult—ts nu—n™és o˜tenus d—ns ™e ™h—pitre X
 IF   Incertitude sur la validité des échantillonnages. v9unique solution pour déE
      terminer les espè™es présentes d—ns les im—ges est le ™h—lut—geF he mêmeD ™e ™h—luE
      t—ge indique l— proportion des ™l—sses d—ns les im—ges qui est l— ˜—se des méthodes
      d9estim—tionsF „outefoisD on montre qu9il existe une forte in™ertitude qu—nt —ux
      inform—tions données p—r le ™h—lut—ge ‘IPT“F €remièrementD il existe des pro˜lèmes
      d9évitements des poissons rel—tivement —u (let de pê™heF ƒeule une p—rtie d9un
      ˜—n™ de poissons peut être ™—pturéeD et m—lgré l9impl—nt—tion de sondeurs à l9 4
      entrée 4 des ™h—lutsD il est très di0™ileD voire impossi˜le de déterminer ex—™tement
      le ™omportement des poissons visEàEvis du (let de pê™heF einsiD pour une o˜serv—E
      tion —™oustique p—rti™ulièreD l— proportion des espè™es pê™hées peut être di'érente
      de l— proportion réelle des espè™es vue d—ns l9é™hogr—mmeF ejoutons à ™el— que
      le ™omportement des poissons —utours du (let de pê™he peut v—rier d9une espè™e
      à l9—utreF yn peut supposer p—r exemple que ™ert—ins poissons sont plus vifs que
      d9—utresD ou queD f—™e —u d—ngerD ils ont des plus gr—ndes f—™ultés de dispersionsF
      heuxièmementD le ™h—lut—ge ne ™ouvre p—s l— tot—lité de l— ™olonne d9e—uF v9ouverE
      ture verti™—le du (let est de PH mètresD tel qu9il est di0™ile de s—voir pré™isément
      si un ˜—n™ de poissons est ™—pturé ou nonD et si l— proportion pê™hée est ™elle qui
      est o˜servée d—ns l9é™hogr—mmeF in outreD les ™h—lut—ges de fond sont soumis à
      des s—uts qui ™orrespondent à des v—ri—tions de vitesse du ˜—te—uD l—iss—nt p—sser
      ou non ™ert—ins poissons ™ollés —u fondF
      v9—ttri˜ution de ™h—lut—ges moyens sur des zones spé™i(quesD ™omme le f—it l9expert
      @™fF se™tion VFPAD est un moyen e0™—™e pour diminuer l9in™ertitude sur les proporE
      tionsF ves proportions moyennes —insi o˜tenues sont st—tistiquement plus (—˜lesF
      sl ser—it intéress—nt de pro™éder de l— même f—çon pour l9estim—tion de l— ˜iom—sse
      à l9—ide d9une ™l—ssi(™—tion —utom—tique des ˜—n™s de poissonsF €—r exempleD les
      pro˜—˜ilités — priori utilisées pour l9—pprentiss—ge pourr—it être issues d9un ™h—E
      lut—ge moyen qui soit l— ™om˜in—ison des ™h—lut—ges les plus pro™hesF in(nD les
      pro˜lèmes d9évitements des poissons p—r r—pport —u ™h—lut—ge et de positions du
      (let d—ns l— ™olonne d9e—u peuvent être —tténués à l9—ide de théories plus génér—les
      que l— théorie des pro˜—˜ilitésF €—r exempleD l— théorie de hempsterEƒh—fer ‘I“D
      qui permet de prendre des dé™isionsD se ˜—se à l— fois sur l— pro˜—˜ilité d9un évéE
      nement et sur un interv—lle de ™on(—n™e de ™ette pro˜—˜ilitéF he l— même f—çonD
      pour notre —'—ireD on peut im—giner que les pro˜—˜ilités — priori des ™l—sses ne
      sont p—s ™onst—ntesD m—is qu9elles sont ™omprises d—ns un interv—lle qui dépend
      de p—r—mètres ™omme l— sonde ou l— position du ™h—lut—geF h—ns ™e ™—sD une telle
      théorie peut être —ppliquéeF
 PF   Incertidudes de l'expertise. sl est re™onnu que les méthodes d9estim—tion des
      sto™ks d9espè™esD qu9elles s9—ppuient sur une —n—lyse d9experts ou sur un pro™édé
      —lgorithmiqueD sou'rent de l9impossi˜ilité d9év—luer le t—ux d9erreurs de ™l—ssi(™—E
      tion ‘IPT“F in e'etD à l9inst—r des —méri™—ins de l— xyeD des norvégiens de l9sw‚D
8.5.   PERFORMANCES                                                                 ™xxiii


    des esp—gnols de l9siy et des fr—nç—is de l9sfremerD tous les gr—nds org—nismes
    intern—tion—ux qui emploient des te™hniques d9estim—tion ™omme ™elle présentée
    d—ns l— se™tion VFPD s9—™™ordent sur l9in™—p—™ité de mesurer qu—ntit—tivement l—
    justesse d9une estim—tion ‘PPS“F gel— vient du f—it que les o˜lets sousEm—rins sont
    invisi˜les à nos yeuxD et qu9en dehors des sondeurs —™oustiques dont l— résolution
    reste peu pré™iseD l9homme ne dispose p—s en™ore d9outils d9o˜serv—tion vr—iment
    —ppropriéF x9—y—nt p—s de vérité terr—in digne de ™e nomD l— seule te™hnique pour
    mesurer l— pertinen™e d9un —lgorithme ™onsiste à ™omp—rer les solutions à ™elle
    de l9expertF w—isD dû à l— forte in™ertitude de l9estim—tion de référen™eD un doute
    persiste qu—nt —ux perform—n™es de ™l—ssi(™—tion réelles des méthodes —lgorithE
    miquesF he plusD ™el— rend ™omplexe l— ™omp—r—ison des —ppro™hes —utom—tiques
    entre ellesF gomment s—voir si une méthode est mieux qu9une —utre c gomment
    e'e™tuer une étude de p—r—mètre c
    gepend—ntD l— (gure VFRD à g—u™heD montre une ™orrél—tion entre les mesures de
    ˜iom—sse des di'érentes méthodesD —ve™ qu—siment les mêmes r—pport de ˜iom—sse
    p—r espè™eF einsiD en se repl—ç—nt d—ns le ™ontexte du suivi des sto™ksD —ve™ l9o˜je™E
    tif de déterminer quels sont les tend—n™es des évolutions des ˜iom—sses d9espè™es
    d—ns une zone p—rti™ulièreD toutes ™es —ppro™hes restent v—l—˜les et pertinentesF
    g—r si ™es —n—lyses sont ™onduites ™h—que —nnéeD —lors il est possi˜le de prédire si
    une espè™e perdureD est en voie de disp—ritionD ou se multiplie d—ns une zoneD ™e
    qui est déjà intéress—nt ˜iologiquementF
 QF Formalisme probabiliste incorrect. €our ™ette —ppli™—tionD nous ™onsidérons
    que les pro˜—˜ilités — priori des ™l—sses d—ns les im—ges sont données p—r les proE
    portions de ˜iom—sse d9espè™es d—ns les ™h—lut—gesF ‚—menées à l9é™helle des ˜—n™s
    de poissonsD ™es proportions donnent une pro˜—˜ilité de ™l—ssi(™—tion — priori pour
    ™h—que ˜—n™ de l9im—geF gette dém—r™he est ™ritiqu—˜leF in e'etD prenons l9exemple
    extrême d9une im—ge qui ™ontient deux espè™esD —ve™ un très gros ˜—n™ de s—rdines
    et deux petits ˜—n™s de ™hin™h—rdsD tel que l— ˜iom—sse de s—rdine soit W fois plus
    import—nte que ™elle des ™hin™h—rdsF in termes de ˜iom—sseD l— pro˜—˜ilité des
    s—rdines est de HDW et ™elle des ™hin™h—rds est de HDI —lors qu9en ré—litéD nous —vons
    I ™h—n™e sur Q d9être en présen™e d9un ˜—n™ de s—rdineD soit une pro˜—˜ilité de
    HDQQ pour l— s—rdine et P ™h—n™es sur Q d9être en présen™e d9un ˜—n™ de ™hin™h—rdsD
    soit une pro˜—˜ilité de HDTTF get exemple montre que ™e form—lisme pro˜—˜iliste
    est in™orre™t et qu9un tr—v—il devr—it être fourni pour résoudre ™e pro˜lèmeF gette
    rem—rque montre les limites de l9utilis—tion des modèles d9—pprentiss—ge f—i˜lement
    supervisé pour l— ™l—ssi(™—tion des ˜—n™s de poissons d—ns le ™—dre de l9év—lu—tion
    de l— ˜iom—sseD du moins telle que proposée d—ns ™e tr—v—il de thèseF v9—ppro™he le
    qui ™onsiste à ventiler des proportions de ˜iom—sse d—ns des groupements d9im—ges
    simil—ires sem˜le plus —d—ptée à ™e pro˜lème @™fF se™tions VFP et VFQAF
    gepend—ntD une méthode —utom—tique d9estim—tion des proportions réelles d—ns les
    im—ges de ™h—lut—ges peut être envis—géeF v9utilis—tion d9un form—lisme utilis—nt
    les fon™tions de ™roy—n™es et le r—isonnement pl—usi˜le de l— théorie de hempsterE
    ƒh—fer sem˜le en™ore une fois pertinente ‘I“F he plusD il est envis—ge—˜le qu9en ™ours
    de ™—mp—gnes de pê™hes —™oustiquesD l9expert l—˜élise ™ert—ins ˜—n™sD du moins les
    plus sûrsD fourniss—nt une ˜—se solide de préE™l—ssi(™—tion en vue de l9estim—tion
    des pro˜—˜ilités — priori d—ns les im—gesF
CHAPITRE 8.       APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xxiv                ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




      e(n de déterminer si le fort t—ux d9erreurs provient de ™e form—lisme de proporE
      tion de ˜iom—sseD nous proposons de ™onvertir les proportions de ˜iom—sses en
      proportion d9énergies à l9—ide de l9expression VFTF ves ™orrél—tions moyennesD pour
      les di'érentes ™om˜in—isons sont —0™hées d—ns le t—˜le—u WFV de l9—nnexe SF xous
      ™onst—tonsD que les résult—ts ne sont guère —méliorésD ils sont très sem˜l—˜lesD les
      ™on™lusions ét—nt simil—ires à ™elles de l9—n—lyse des perform—n™es issues des proE
      portions de ˜iom—sseF €our illustrer ™es proposD les moyennes des ™oe0™ients de
      ™orrél—tion sur l9ensem˜le des ™om˜in—isons de des™ripteurs et de modèles de ™l—sE
      si(™—tion possi˜les sont représentés à g—u™heD d—ns l— (gure VFTF he mêmeD à droite
      de l— (gure VFTD l— ˜iom—sse estimée p—r espè™e est représentée pour l— méthode
      l— plus perform—nteD à l— fois pour le ™—s des proportions de ˜iom—sse et ™elui
      des proportions d9énergiesF ves résult—ts sont très simil—ires à ™eux o˜tenus pré™éE
      demment X ˜e—u™oup d9erreurs pour le m—quere—u et le ™hin™h—rdD moins pour l—
      s—rdineD et ˜onne estim—tion pour l9—n™hois et les espè™es néglige—˜lesF




        Figure 8.6     A gauche, comparaison entre les coecients de corrélation ob-
        tenus pour des probabilités de classication a priori issues des proportions de
        biomasses ou des proportions d'énergies. A droite, biomasse estimée par l'expert
        et pour la méthode d'estimation Optimisation Kpca/Fisher, en utilisant les
        descripteurs de bancs de poissons seuls, et pour des probabilités de classication
          a priori issues des proportions de biomasses ou des proportions d'énergies.


 RF   Jeu de données incomplet. h—ns ™e ™h—pitreD l9o˜je™tif est d9—ppliquer les méE
      thodes d9—pprentiss—ge f—i˜lement supervisé sur un ™—s réelD m—is —ussi d9—ppliE
      quer les des™ripteurs glo˜—ux proposés pour ™onst—ter une —mélior—tion des perE
      form—n™esF ve t—˜le—u WFU de l9—nnexe S montre queD pour ™ert—ins modèles de
      ™l—ssi(™—tionD l9—jout de p—r—mètres des™riptifs permet d9—™™roitre les perform—n™es
      d9estim—tionF xot—mmentD d—ns le ™h—pitre UD nous —vons montré d9une p—rtD que
      les im—ge Ph sont peu inform—tives en ™omp—r—ison des données Qh @nous o˜E
      tenions —lors un g—in de ˜onne ™l—ssi(™—tion de IH7AD et queD d9—utre p—rtD une
      —n—lyse multi seuils —méliore nettement les perform—n™es de ™l—ssi(™—tion p—r r—pE
8.5.   PERFORMANCES                                                                   ™xxv


    port à une —n—lyse à un seul seuilF yrD pour l9expérien™e du présent ™h—pitreD les
    modèles de ™l—ssi(™—tion sont testés sur un jeu de données issu d9un sondeur moE
    nof—is™e—u et l9extr—™tion des ˜—n™s de poissons est e'e™tuée pour un seul seuil
    d9énergieF e ™e jourD il n9existe p—s de données multif—is™e—ux qui soient tr—itées et
    v—lidées p—r un expertD d9—illeurs ™e type de sondeur n9est p—s utilisé d—ns le proE
    to™ole d9estim—tion de l— ˜iom—sseF sl le ser—F einsiD l9estim—tion de ˜iom—sse p—r
    des méthodes —utom—tiques de ™l—ssi(™—tion de ˜—n™s de poissons ser— nettement
    —méliorée si nous disposons d9im—ges Qh pour lesquelles nous e'e™tuons une —n—E
    lyse multi seuilsF ejoutons que pour ™e jeu de donnéeD seuls les ˜—n™s de poissons
    sont retenus et que les zones de pl—n™ton sont é™—rtéesF yrD d—ns le ™h—pitre UD nous
    ™onservons toutes les —grég—tions pl—n™toniques en ™onsidér—nt qu9elles sont repréE
    sent—tives d9un environnement et qu9elles sont sour™es d9inform—tionsF v— prise en
    ™ompte du pl—n™ton permettr—it —ussi d9—méliorer l9estim—tion de l— ˜iom—sse des
    espè™esF in(nD lors des ™—mp—gnes de pê™hes —™oustiquesD l9expert e'e™tue une préE
    ™l—ssi(™—tion visuelle sur l— ˜—se des o˜serv—tions —™oustiques multiEfréquentiellesF
    €our le m—quere—uD l— réponse —™oustique en h—utes fréquen™es est plus élevée que
    les —utres espè™esD ™e qui se tr—duit p—r le f—it qu9il est plus visi˜le que les —utres
    espè™es d—ns les im—ges fournies p—r les sondeurs de fréquen™es élevéesF v— ™l—ssiE
    (™—tion du m—quere—u est don™ trivi—le pour l9expertF gomme nous ne disposons
    p—s de ™ette inform—tion multiEfréquentiellesD le m—quere—u est di0™ile à di'érenE
    tier des —utres espè™esF h9—illeursD le m—quere—u est l9espè™e pour l—quelle nous
    —vons o˜tenu les plus m—uv—is résult—ts de ™l—ssi(™—tionF ƒi nous —vions disposé
    de ™ette inform—tion h—ute fréquen™eD le m—quere—u —ur—it ™ert—inement pu être
    ™l—ssé ™onven—˜lementD et p—r ™onséquentD ™el— —ur—it permis de diminuer le ˜ruit
    entre espè™e et ™onduit à une meilleure estim—tion des modèles de ™l—ssi(™—tion
    pour les —utres espè™esF
 SF Approche à simplier. sl sem˜le que nous nous soyons pl—™és d—ns le ™—s le plus
    ™omplexeF h—ns l— méthode ™hoisie p—r l9expert ‘PIU“D ™eluiE™i p—sse p—r une ét—pe
    de ™l—ssi(™—tion des —grég—tions p—r espè™es ou p—r groupes d9espè™es @™fF ™h—pitre
    UAF gel— simpli(e le pro˜lème pour des ™hoix de ™l—ssi(™—tion di0™iles et insolu˜lesF
    …ne expérien™e possi˜le est de rempl—™er ™ette ét—pe de ™l—ssi(™—tion m—nuelle p—r
    de l— ™l—ssi(™—tion —utom—tique f—i˜lement superviséeD telle qu9il y —it des ™l—sses
    qui regroupent des espè™esF ges regroupements d9espè™es peuvent être dé(nis en
    fon™tion de leur nive—u de pro˜—˜ilitéD soit post ™l—ssi(™—tionD soit post ™h—lut—geD
    ou plus simplement p—r l9expertF h—ns le ™—s pr—tique d9une ™—mp—gne de pê™he
    —™oustiqueD ™ette ét—pe d9—utom—tis—tion est un moyen de v—liderD ou nonD le ™hoix
    de l9expertF
 TF Conversion énergie/biomasse. eprès l9ét—pe de ™l—ssi(™—tionD pour ™—l™uler l—
    ˜iom—sse génér—le p—r espè™eD nous —vons ™onvertie l9énergie —™oustique rétrodifE
    fusée de ™h—que ˜—n™ en ˜iom—sse de poissons pour ™h—que ˜—n™F €our ™el—D nous
    —vons supposé que les ˜—n™s de poissons sont de forme ellipsoïd—le —ve™ un di—E
    mètre de se™tion horizont—le ™entr—le ég—le à l9—ngle d9ouverture du f—is™e—uF gette
    supposition peut entr—îner des di'éren™es not—˜les de ˜iom—sse p—r r—pport à l9exE
    pertF he mêmeD l— formule de ™onversion @™fF expression VFTA entre l9énergie et l—
    ˜iom—sse né™essite l— ™onn—iss—n™e de l— t—ille des poissons qui n9est p—s ex—™te
    ét—nt donnée l9impré™ision de l9é™h—ntillonn—geF ge p—r—mètre entr—ine —ussi une
CHAPITRE 8.      APPLICATION À L'ÉVALUATION DES BIOMASSES DES

™xxvi               ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE




    impré™ision d—ns l— v—leur de l— ˜iom—sseF


8.6 Conclusion
   h—ns ™e ™h—pitreD nous —vons proposé une —ppli™—tion à l9év—lu—tion de l— ˜iom—sse
de ™ert—ines espè™es h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts de l9estim—tion
sont plutôt nég—tifsF …n gr—nd nom˜re de r—isons expliquent les m—uv—is résult—tsD les
prin™ip—les ét—ntD l— ™omplexité du jeu de donnéesD l— ™onversion de l9énergie —™oustique
en ˜iom—sseD l9—˜sen™e de données multif—is™e—ux et multiEfréquen™esD et™F
    hes —ppli™—tions moins périlleuses —ur—ient permis de mettre —v—nt les modèles
de ™l—ssi(™—tion proposéesF €—r exempleD l— préE™l—ssi(™—tion e'e™tuée p—r les experts
—v—nt l— prop—g—tion des inform—tions de proportion de ˜iom—sse peut être —utom—tiséeF
gette tâ™he ser— ˜e—u™oup plus —isée ét—nt données le regroupement d9espè™e d—ns une
même ™l—sseF he plusD l— justesse des modèles de ™l—ssi(™—tion pourr—it être mise en
—v—nt sur l— pro˜lém—tique de l— ™l—ssi(™—tion d9o˜jetsD ét—nt donné l— ™onn—iss—n™e de
l— présen™e et de l9—˜sen™e des ™l—sses d—ns les im—ges d9—pprentiss—geF
CHAPITRE

                 9           Conclusion Générale



    h—ns ™ette thèseD nous —vons étudié un pro˜lème génér—l de ™l—ssi(™—tion pro˜—˜iE
liste —utom—tiqueD puis nous nous sommes pl—™és d—ns le ™—dre —ppli™—tif de l9—™oustique
h—lieutiqueF
h—ns un premier tempsD nous —vons proposé des méthodes d9—pprentiss—ge f—i˜lement
superviséD l9origin—lité ét—nt d9estimer les p—r—mètres d9un modèle de ™l—ssi(™—tion à
p—rtir de l— seule ™onn—iss—n™e des pro˜—˜ilités de ™l—ssi(™—tion — priori des exemples
d9—pprentiss—geF
h—ns un se™ond tempsD nous —vons tr—ité le ™—s de l— ™l—ssi(™—tion des ˜—n™s de poissons
d—ns des é™hogr—mmesF …n des™ripteur glo˜—l des im—ges — été proposéD et les méthodes
d9—pprentiss—ge f—i˜lement supervisé ont été —ppliquées à l9év—lu—tion de l— ˜iom—sse
des espè™es h—lieutiquesF
   Résultats principaux.

 IF xous —vons dé(ni un ™—dre origin—l qui englo˜e plusieurs types d9—pprentiss—geF
    e notre ™onn—iss—n™eD peu de tr—v—ux présentent des modèles de ™l—ssi(™—tion qui
    soient tr—nsversesD l9us—ge ét—nt de préféren™e l— proposition d9un modèle p—rtiE
    ™ulier pour un ™ert—in type d9—pprentiss—geF einsiD le form—lisme m—thém—tique
    proposé permet de génér—liser l9—pprentiss—ge supervisé et semiEsuperviséF
 PF xous —vons suggéré des méthodes d9—pprentiss—ge pour trois modèles de ™l—ssi(E
    ™—tions élément—ires @un modèle génér—tifD un modèle dis™rimin—ntD et un modèle
    hy˜rideAD puis nous —vons étudié le ™—s des ™om˜in—isons de ™l—ssi(eursD vi— les
    ensem˜les de ™l—ssi(eurs et l— ™l—ssi(™—tion itér—tiveF
 QF v— simul—tion des jeux de données d9—pprentiss—ge nous — permis de m—itriser
    l— ™omplexité de l9—pprentiss—geD et —insiD d9év—luer le ™omportement dyn—mique
    des ™l—ssi(eursF ves résult—ts ont montré l— pertinen™e des modèles proposésD —ve™
    not—mment l9emploi des pro™essus itér—tifsD qui permettentD pour ™ert—ins nive—ux
    de ™omplexitéD de retrouver qu—siment les mêmes résult—ts qu9en ™l—ssi(™—tion
    superviséF
 RF …n des™ripteur des —grég—tions de poissons d—ns des im—ges — été proposéF geluiE™i
    permet de modéliser l— distri˜ution sp—ti—le des ˜—n™s de poissons d—ns une im—geF
    ves résult—ts expériment—ux ont permis de v—lider leur utilis—tion qui est re™omE
    m—ndée pour des im—ges ™omplexes ™omme ™elles issues du sondeur multif—is™e—uxD
    m—is —ussiD l9étude expériment—le à montré l9—pport qu—ntit—tif d9inform—tions disE
    ™rimin—ntes du sondeur multif—is™e—ux rel—tivement —u sondeur monof—is™e—uF
™xxviii                                   CHAPITRE 9.      CONCLUSION GÉNÉRALE




 SF in(nD pour v—lider l9utilis—tion des modèles proposésD l9ensem˜le des propositions
    — été —ppliqué à l9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques d—ns le golfe
    de q—s™ogneF ves résult—ts expériment—ux ont montré que l9—ppro™he ˜—sée sur l—
    ™l—ssi(™—tion des ˜—n™s de poissons sou'r—it de nom˜reuses —pproxim—tions méE
    thodologiques et instrument—lesD et qu9en l9ét—tD l9—ppro™he glo˜—le de prop—g—tion
    des proportions de ˜iom—sse ét—it préfér—˜leF
   Qualité des résultats.
xous dis™utons i™i de l— v—lidité des résult—ts et des points à —pprofondirF
 IF xotre o˜je™tif prin™ip—l ét—it d9o˜tenir un ™l—ssi(eur ™ompétitif qui propose les
    meilleures perform—n™es de ™l—ssi(™—tionF einsiD nous —vons exploré un m—ximum
    de form—lismes et de méthodesF gel— — été f—it —u détriment d9une —n—lyse plus
    —pprofondie du ™omportement des modèlesF €—r exempleD les propositions de fuE
    sion de pro˜—˜ilitésD vi— des sommes pondérées restent empiriquesF he mêmeD l—
    ™onvergen™e des pro™essus itér—tifs n9est p—s prouvéeF gepend—ntD notons que les
    méthodes proposées sont origin—les et prometteusesD ™ellesE™i posent les ˜—ses d9un
    tr—v—il qui dem—nder— plus d9—n—lyses et d9él—rgissements @™itons p—r exemple l9—pE
    prentiss—ge d9un —r˜re de ™l—ssi(™—tion à p—rtir de pro˜—˜ilités de ™l—ssi(™—tion qui
    n9—v—it j—m—is été proposéAF
 PF v— ™omplexité de l9—pprentiss—ge est étudiée en génér—nt —rti(™iellement des jeux
    de données sur l— ˜—se de proportions ™i˜les ™hoisiesF v9étude n9est p—s exh—ustiveD
    il f—udr—it générer ˜e—u™oup plus de ™—s p—rti™uliers et de types de proportionsD p—r
    exempleD nous —vons testé le ™—s d9un jeu de données d9—pprentiss—ge pour lequel
    toutes les ™l—sses sont équipro˜—˜lesD m—is qu9en estEil des p—ires ou des triplets de
    ™l—sses équipro˜—˜les c gel— permettr—it d9—ppré™ier le ™omportement des modèles
    d—ns le ™—s d9im—ges pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses d9o˜jets
    sont ™onnuesF
 QF ve des™ripteur proposéD qui ™—r—™térise l— distri˜ution sp—ti—le d9un pro™essus pon™E
    tuel m—rquéD — été testé sur un jeu de donnés limitéD ™eluiE™i ét—nt ™omposé de seuleE
    ment trois ™l—ssesD dont l9une est très di'érente des —utres en termes de sondeF xous
    —vons montréD l9utilité du des™ripteur pour ™—r—™tériser ™ert—ines formes d9—grég—E
    tionsD m—is il est import—nt de mesurer s— ™ontri˜ution sur d9—utres ™l—sses d9espè™e
    etGou de distri˜utionsF gepend—ntD ™e jeu de données nous — permis de mettre en
    —v—nt l— for™e du sondeur multif—is™e—ux p—r r—pport —u sondeur monof—is™e—uF
 RF xotre o˜je™tif ét—it de proposer un des™ripteur glo˜—l pour lequel les perform—n™es
    de ™l—ssi(™—tion sont les meilleuresF gepend—ntD les des™ripteurs ™onsidérés n9engloE
    ˜—ient p—s né™ess—irement les mêmes inform—tions élément—ires @™—r—™téristiques
    élément—ires des ˜—n™s de poissonsD inform—tions glo˜—les sur l9im—geD et™AF he
    plusD une exy†e — permis de mesurer l9import—n™e de ™h—que des™ripteur éléE
    ment—ireD ™e qui — expliqué les perform—n™es des méthodesF einsiD il —ur—it été
    pertinent de ™on™lure p—r une ™omp—r—ison des méthodologies des™riptives en utiE
    lis—nt les mêmes inform—tions élément—iresF w—lgré toutD ™es tr—v—ux prélimin—ires
    sont intéress—ntsD ils proposent des ™on™lusions import—ntesD et il y — l9expression
    d9un p—r—mètre des™riptif origin—lF
 SF ves résult—ts de l9—ppli™—tion du ™h—pitre V sont mitigés et insu0s—nts pour
    ™on™lure que notre méthode fon™tionneF v— synthèse de l— se™tion VFSFQ donne
™xxix


    les ™on™lusions et les r—isons qui expliquent le m—nque d9ex—™titudeF gepend—ntD
    une —utre —ppli™—tion —ur—it été envis—ge—˜le X ™elle de l— ™l—ssi(™—tion d9o˜jet d—ns
    des im—ges d9—pprentiss—ge pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses est
    ™onnuesF in e'etD nous —vons montré que notre model de ™l—ssi(™—tion peut être
    plus perform—nt que le model génér—tif proposé p—r fishop et …lusoy ‘ISR“D il y —
    don™ des ™h—n™es pour que ™ette —ppli™—tion fon™tionneF
   Porté des résultats.
e plusieurs nive—uxD les tr—v—ux de ™ette thèse ont un fort potentiel de popul—ris—tionF
 IF ve form—lisme m—thém—tique qui permet de génér—liser plusieurs formes d9—pprenE
    tiss—ge est intéress—ntF eujourd9huiD —lors que l— pro˜lém—tique de ™l—ssi(™—tion
    est toujours l— mêmeD iFeF —'e™ter une ™l—sse à une entitéD ˜e—u™oup de modèles
    sont dédiés à un pro˜lème de ™l—ssi(™—tion p—rti™ulier qui dépend du type de ™omE
    plexité du jeu d9—pprentiss—ge @superviséD semiEsuperviséD f—i˜lement superviséAF
    einsiD l9utilis—tion d9un ™l—ssi(eur n9est p—s m—llé—˜leF in ™ours d9utilis—tionD si
    l— pro™édure de l—˜ellis—tion ™h—ngeD l9—pprentiss—ge du modèle doit ™h—ngerF in
    rev—n™heD le form—lisme proposé —utorise toute tr—nsvers—lité et ne ™loisonne p—s
    d—ns une —ppli™—tion donnée qui dépend de l— ™omplexité des jeux d9—pprentiss—geF
    gette proposition permet don™ d9él—rgir l— vision et devr—it intéresser l— ™ommuE
    n—uté s™ienti(queF
 PF ges résult—ts induisent de nom˜reuses —ppli™—tions possi˜lesF xous —vons proposé
    des modèles de fusion des pro˜—˜ilités pour l9—pprentiss—ge des p—r—mètres des
    modèles de ™l—ssi(™—tion élément—iresF ges fusions de pro˜—˜ilités ont permis de
    se pl—™er d—ns le ™ontexte de méthodes exist—ntes dont nous n9—vons p—s ™h—ngé
    l— théorie fond—ment—leF …ne multitude d9—utres —ppli™—tions peut être envis—géeF
    €—r exempleD pourquoi ne p—s tr—iter le ™—s de l9—lgorithme ƒiw ‘IU“ à l— pl—™e
    de l9—lgorithme iw c €ourquoi ne p—s ™hoisir une —utre méthode d9ensem˜le de
    ™l—ssi(eurs c yn peut im—giner une méthode ˜—sée sur ed—˜oost ‘ISU“F he mêmeD
    il sem˜le impér—tif de mesurer le ™omportement de tels modèles génér—ux d—ns
    le ™—s de l9—pprentiss—ge semiEsupervisé et d—ns ™elui des im—ges —nnotées en préE
    sen™eG—˜sen™eF „outes ™es —ppli™—tions ™onstituent un fort intérêt pour l— ™ommuE
    n—uté s™ienti(queF
 QF xos diverses expérien™es sur le sondeur multif—is™e—uxD nous ont permis de qu—ntiE
    (er l9—pport d9inform—tions dis™rimin—ntes p—r r—pport —u sondeur monof—is™e—uF
    yrD les org—nismes o™é—nogr—phiques intern—tion—ux utilisent très peu le sondeur
    multif—is™e—ux d—ns les proto™oles d9o˜serv—tion des o™é—nsF xos tr—v—ux vont don™
    ™ontri˜uer à démontrer l9import—n™e de l9utilis—tion de ™et outilF €—r exempleD ™el—
    doit motiver d—v—nt—ge les experts à ™onsidérer le sondeur multif—is™e—ux d—ns
    les proto™oles d9év—lu—tion de l— ˜iom—sseF sl en est de même pour le des™ripteur
    d9—grég—tions proposéD dont nous —vons démontré l9utilitéD et qui peut intéresser
    l— ™ommun—uté des o™é—nogr—phes qui ™her™hent de nouve—ux outils de dis™rimiE
    n—tionF
 RF in —™oustique h—lieutiqueD ™es —lgorithmes d9—pprentiss—ge peuvent être utilisés
    plus simplementF xous n9—vons p—s réussi à o˜tenir les résult—ts es™omptés pour
    l9év—lu—tion de l— ˜iom—sseF gepend—ntD pour un jeu de données moins ™omplexes
    @hSAD les résult—ts ét—ient s—tisf—is—ntsF ves —lgorithmes d9—pprentiss—ge devr—ient
™xxx                                        CHAPITRE 9.        CONCLUSION GÉNÉRALE




       Figure 9.1  En classication automatique, un modèle de régression peut être
         utilisé pour passer de l'espace des descripteurs à l'espace des probabilités.


    don™ intéresser l— ™ommun—uté des s™ienti(ques o™é—nogr—phes en vue d9une préE
    ™l—ssi(™—tionD ™omme ™el— est e'e™tué pour l9év—lu—tion de l— ˜iom—sse p—r les
    expertsF ves jeux de données sont plus simples ™—r ™ert—ines ™l—sses sont ™omposées
    du regroupement de ™ert—ines espè™esF
   Futurs travaux.
…n ™ert—ins nom˜res de futurs tr—v—ux sont envis—ge—˜lesF
 IF in termes de nouve—ux modèles de ™l—ssi(™—tionD il sem˜le essentiel de proposer
    une méthode d9—pprentiss—ge f—i˜lement supervisé pour les ƒ†wF ves m—™hines à
    ve™teurs de supports ont prouvé leur supériorité pour ˜e—u™oup de jeux de donE
    néesD et ils sont souvent utilisés de m—nière systém—tique pour des pro˜lèmes de
    ™l—ssi(™—tion élément—ires ‘PPT“F xous —vons ™on™entré nos e'orts sur les forêts
    —lé—toires pour lesquelles nous o˜tenions les meilleures perform—n™es de ™l—ssi(™—E
    tion supervisée pour un jeu de ˜—n™s de poissons @hSAD m—is il est indispens—˜le
    de proposer une version f—i˜lement supervisée des ƒ†wF ƒ—ns ™el—D ™es tr—v—ux
    restent in™ompletsF
 PF ges dernières —nnéesD les modèles de régression ont ˜e—u™oup été utilisés d—ns le
    dom—ine de l— vision p—r ordin—teur @segment—tion ‘PPU“D estim—tion de l— pose d9un
    individus ‘PPV“D ™orrespond—n™e de points d9un o˜jet entre im—ges ‘PPW“D lo™—lis—tion
    d9o˜jets ‘PQH“D et™AF sl ser—it intéress—nt de développer des modèles de ™l—ssi(™—tion
    —utom—tique fondés sur l9utilis—tion des modèles de régressionF v9idée est que l—
    fon™tion de régression permette de p—sser dire™tement de l9esp—™e des des™ripteurs
    à l9esp—™e des pro˜—˜ilitésF ve ™on™ept est représentée d—ns l— (gure WFID l9o˜je™tif
    est de sép—rer les los—ngesD les étoilesD et les points noirsD pour ™el—D à ™h—que point
    de l9esp—™e des des™ripteursD ™orrespond un point de l9esp—™e des pro˜—˜ilités de
    ™l—ssi(™—tionD ™9est ˜ien un pro˜lème de régressionF
 QF h9—utres te™hniques de des™ription des —grég—tions peuvent être proposéesF €—r
    exempleD d—ns l— ™ontinuité des tr—v—ux e'e™tués d—ns ™ette thèseD il ser—it intéE
™xxxi


ress—nt de tr—iter des modèles qui ™onjuguent à l— fois des —spe™ts lo™—ux @liés —ux
™—r—™téristiques de ™h—que ˜—n™sA et glo˜—ux @liés à l9org—nis—tion des ˜—n™s de
poissons d—ns l9im—geAF h—ns un p—pier ‘PQI“D les —uteurs proposent de ™om˜iner
les des™ripteurs lo™—ux des régions d9une im—ge et des des™ripteurs glo˜—ux qui
dé™rivent le poids des régions d—ns l9im—geF gette idée peut être étendue —u ™—s
des —grég—tions de poissons en ™onsidér—nt qu9une région de l9esp—™e est un ˜—n™
de poissonsF v9inform—tion glo˜—leD —lors modélisée p—r l9in)uen™e de ™h—que ˜—n™
d—ns l9im—geD peut être ™omplétée p—r des gr—phes de simil—rités qui représenteE
r—ient l9org—nis—tion sp—ti—le des ˜—n™s les uns p—r r—pport —ux —utresF
Troisième partie
Annexes et Bibliographie
Annexe 1 :
                       Etude des paramètres des
                       modèles de classication



               M             1      2      3      4      5
               D1            HFVQ   HFVQ   HFVQ   HFVQ   HFVQ
               D2            HFWQ   HFWP   HFWP   HFWP   HFWR
               D3            HFTW   HFUR   HFVI   HFVQ   HFUU
               D4            HFUV   HFVQ   HFUW   HFVH   HFVP
               D5            HFTS   HFTS   HFTS   HFTS   HFTS
               Moyenne       HFUU   HFUW   HFVH   HFVH   HFVH

Tableau 9.1  Performance de classication supervisée en fonction du para-
mètre M (équation 3.1), le nombre de modes dans le mélange de Gaussiennes
                          pour le modèle génératif.


               N pca         10     20     30     40     50
               D1            HFVI   HFVW   HFVW   HFVW   HFWH
               D2            HFWS   HFWS   HFWP   HFWH   HFVW
               D3            HFRT   HFSU   HFTW   HFTU   HFUV
               D4            HFVT   HFVT   HFVQ   HFVU   HFVS
               D5            HFTT   HFTV   HFTW   HFTW   HFTW
               Moyenne       HFUR   HFUW   HFVH   HFVH   HFVP

Tableau 9.2  Performance de classication supervisée en fonction du para-
mètre N pca, la dimension de l'espace obtenu à l'aide du noyau Gaussien pour
                       la méthode K-pca (page xxxvi).
ANNEXE 1 :

™xxxvi          ETUDE DES PARAMÈTRES DES MODÈLES DE CLASSIFICATION




                         σ2             0.1 0.5 1             5      10
                         D1             HFPS   HFUH   HFVQ    HFWH   HFWH
                         D2             HFUQ   HFWP   HFWR    HFVW   HFVW
                         D3             HFVR   HFTQ   HFUH    HFUV   HFTV
                         D4             HFQQ   HFRQ   HFUP    HFVS   HFVU
                         D5             HFPW   HFSQ   HFTT    HFTW   HFUH
                         Moyenne        HFRV   HFTR   HFUU    HFVP   HFVH

         Tableau 9.3  Performance de classication supervisée en fonction du para-
         mètre σ2 , le paramètre d'échelle du noyau Gaussien pour le modèle discriminant
                                            (page xxxvi).




                         T              1      100 200 300 400
                         D1             HFWH   HFWT   HFWT    HFWT   HFWT
                         D2             HFWR   HFWQ   HFWU    HFWQ   HFWQ
                         D3             I      I      I       I      I
                         D4             HFTS   HFVP   HFUW    HFUV   HFVH
                         D5             HFVI   HFWH   HFWH    HFVW   HFVW
                         Moyenne        HFVT   HFWP   HFWP    HFWI   HFWI

         Tableau 9.4      Performance de classication supervisée en fonction du pa-
         ramètre T (équation 4.1), le nombre d'arbres de classication considérés dans
         une forêt aléatoire. Pour cette expérience, la proportion d'exemples utilisés pour
         l'apprentissage d'un arbre d'une forêt aléatoire, relativement à l'ensemble d'ap-
                        prentissage initiale (cf. section 4.2.2), est de 0.8.




           Proportion d'exemples
           d'apprentissage pour      0.5 0.6 0.7 0.8 0.9 1
           pour un arbre d'une forêt
           D1                        HFWS HFWS HFWS HFWT HFWS HFWP
           D2                        HFWP HFWP HFWQ HFWU HFWP HFWP
           D3                        I    I    I    I    I    I
           D4                        HFVT HFVI HFVP HFUW HFVH HFTV
           D5                        HFVW HFVW HFWH HFWH HFVW HFVR
           Moyenne                   HFWP HFWI HFWP HFWP HFWI HFVU

         Tableau 9.5  Performance de classication supervisée en fonction de la
         proportion d'exemples utilisés pour l'apprentissage d'un arbre de classication
            d'une forêt aléatoire (cf. section 4.2.2). Pour cette expérience, T = 100.
ANNEXE 1 :

ETUDE DES PARAMÈTRES DES MODÈLES DE CLASSIFICATION                                  ™xxxvii




                   α(3 classes) 0.1 0.4 1      3    8
                   D1           HFWP HFWI HFWI HFWH HFWI
                   D2           HFUW HFVH HFVI HFVP HFVP
                   D3           HFVT HFVU HFVW HFWR HFWI
                   D4           HFUS HFUQ HFVI HFUU HFUU
                   D5           HFUP HFTW HFTV HFUI HFUQ
                   Moyenne      HFVH HFVH HFVP HFVP HFVP

     Tableau 9.6  Performance de classication faiblement supervisée en fonction
     du paramètre α (équations (3.54) et (3.55)), le coecient de pondération pour
     le calcul de l'entropie en chaque noeud des arbres de classication. Pour chaque
     observation de l'ensemble d'apprentissage faiblement annoté, trois classes sont
                                probables (cf. section 5.4.3).
Annexe 2 :
                                            Probabilités a priori des
                                            données d'apprentissage
                                            pour diérents niveaux
                                            de complexité



    ixemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF €luE
sieurs nive—ux de ™omplexités sont générésD i™i le nive—u de ™omplexité est dé(ni p—r le
nive—u de ˜ruit qui est rel—tif à l— v—leur des pro˜—˜ilités — prioriF ves données générées
vont du ™—s de l9—pprentiss—ge supervisé —u ™—s équipro˜—˜leD en p—ss—nt p—r deux ™—s
d9—pprentiss—ge f—i˜lement superviséD l9un ét—nt moins ™omplexe que l9—utreF
   h—ns le ™—s de l9—pprentiss—ge superviséD les proportions ™i˜les sont X

                                                                          
                                                      1       0        0         0
                                                     0     1      0       0
                                                                          
                                                     0     0      1       0
                                                      0       0        0         1



   h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @IAD les proportions ™i˜les sont X

                                                                              
                                                   0.7      0.1        0.1       0.1
                                                  0.1    0.7
                                                                     0.1
                                                                                0.1
                                                                                
                                                                          
                                                  0.1    0.1     0.7      0.1
                                                   0.1      0.1        0.1       0.7



   h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @PAD les proportions ™i˜les sont X

                                                                                                    
             0.5      0.1       0.1       0.3      0.5       0.3      0.1         0.1       0.5      0.1      0.3      0.1
           0.3     0.5    0.1     0.1     0.1    0.5     0.3      0.1     0.1     0.5   0.1     0.3
                                                                                                    
           0.1     0.3    0.5     0.1     0.1    0.1     0.5      0.3     0.3     0.1   0.5     0.1
             0.1      0.1       0.3       0.5      0.3       0.1      0.1         0.5       0.1      0.3      0.1      0.5



   h—ns le ™—s équipro˜—˜leD les proportions ™i˜les sont X

                                                                    
                                                                0.25
                                                               0.25
                                                                    
                                                               0.25
                                                                0.25
Annexe 3 :
                                                    Probabilités a priori des
                                                    données d'apprentissage
                                                    en fonction du nombre de
                                                    classes par mélanges



    ixemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF €luE
sieurs nive—ux de ™omplexités sont générésD i™i le nive—u de ™omplexité est dé(ni p—r le
nom˜re de ™l—sses pro˜—˜les d—ns les mél—ngesD tel que le nive—u de ˜ruit rel—tif à l—
v—leur des pro˜—˜ilités — priori soit très v—ri—˜le d9un exemple à l9—utreF
    h—ns le ™—s d9un mél—nge à I ™l—sseD les proportions ™i˜les sont X

                                                                                       
                                                                  1          0      0         0
                                                                 0        1    0       0
                                                                                       
                                                                 0        0    1       0
                                                                  0          0      0         1



    h—ns le ™—s d9un mél—nge à P ™l—ssesD les proportions ™i˜les sont X

                                                                                                                             
 0.9       0.1      0.6       0.4        0.9        0.1        0.6        0.4      0.9         0.1      0.6        0.4       0         0        0         0
0.1
         0.9
                   0.4
                            0.6       0 
                                                   0 
                                                              0 
                                                                         0       0 
                                                                                              0 
                                                                                                        0 
                                                                                                      0      0.9     0.1    0.6     0.4
                                                                                                                                         
 0      0       0      0       0.1      0.9      0.4      0.6      0        0       0       0      0.1     0.9    0.4     0.6
  0         0        0         0          0          0          0          0       0.1         0.9      0.4        0.6       0         0        0         0
                                                                                                        
                                          0          0          0          0         0          0         0         0
                                       0.9      0.1      0.6      0.4      0        0       0       0 
                                                                                                        
                                        0        0        0        0      0.9      0.1     0.6     0.6
                                         0.1       0.9        0.4         0.6       0.1        0.9       0.4       0.4



    h—ns le ™—s d9un mél—nge à Q ™l—ssesD les proportions ™i˜les sont X

                                                                                                                               
     0.9       0.05       0.05          0.4       0.3         0.3        0.9       0.05         0.05      0.4         0.3        0.3       0.9       0.05
   0.05      0.9    0.05        0.3      0.4      0.3       0        0         0        0         0       0      0.05     0.9 
                                                                                                                               
   0.05     0.05     0.9        0.3      0.3      0.4      0.05      0.9      0.05     0.3       0.4     0.3      0       0 
      0          0          0            0          0          0        0.05       0.05         0.9       0.3         0.3        0.4      0.05       0.05
                                                                                                                  
                          0.05          0.4        0.3        0.3         0          0            0        0            0         0
                        0.05        0.3      0.4      0.3       0.9     0.05      0.05     0.4       0.3     0.3
                                                                                                                  
                         0           0        0        0       0.05      0.9      0.05     0.3       0.4     0.3
                           0.9          0.3        0.3        0.4       0.05        0.05         0.9      0.3          0.3       0.4



    h—ns le ™—s d9un mél—nge à R ™l—ssesD les proportions ™i˜les sont X
ANNEXE 3 :

            PROBABILITÉS                 e €‚sy‚s           DES DONNÉES D'APPRENTISSAGE EN

™xlii                          FONCTION DU NOMBRE DE CLASSES PAR MÉLANGES


                                                                                               
         0.85      0.05      0.05      0.05      0.4      0.2      0.2       0.2       0.4      0.3      0.2      0.1
        0.05    0.85   0.05     0.05    0.2   0.4     0.2    0.2     0.1     0.4   0.3     0.2
                                                                                               
        0.05    0.05   0.85     0.05    0.2   0.2     0.4    0.2     0.2     0.1   0.4     0.3
         0.05      0.05      0.05      0.85      0.2      0.2      0.2       0.4       0.3      0.2      0.1      0.4
Annexe 4 :
                            Charactéristiques des
                            chalutages.



   h—ns un premier tempsD nous tr—çons les ˜iom—sses p—r espè™e en fon™tion de l9inE
di™e du ™h—lut—geD et les proportions de ˜iom—sse p—r espè™e en fon™tion de l9indi™e
du ™h—lut—geF €uisD nous tr—çons le nom˜re de ˜—n™s de poissons d—ns une im—ge en
fon™tion de l9indi™e du ™h—lut—geF




      Figure 9.2  Biomasse de Sardine en fonction du chalutage et probabilité a
                   priori de la sardine dans les images de chalutage.
ANNEXE 4 :

™xliv                                  CHARACTÉRISTIQUES DES CHALUTAGES.




        Figure 9.3  Biomasse de Chinchard en fonction du chalutage et probabilité
                   a priori de la Chinchard dans les images de chalutage.




        Figure 9.4  Biomasse de Maquereau en fonction du chalutage et probabilité
                  a priori de la Maquereau dans les images de chalutage.
ANNEXE 4 :

CHARACTÉRISTIQUES DES CHALUTAGES.                                                  ™xlv




     Figure 9.5  Biomasse de Anchois en fonction du chalutage et probabilité a
                  priori de la Anchois dans les images de chalutage.




     Figure 9.6  Biomasse d'espèce négligeable en fonction du chalutage et pro-
         babilité a priori de l'espèce négligeable dans les images de chalutage.
ANNEXE 4 :

™xlvi                                   CHARACTÉRISTIQUES DES CHALUTAGES.




        Figure 9.7  Quantité de bancs de poissons en fonction de l'indice du chalu-
                                           tage.
Annexe 5 :
Corrélation entre
l'évaluation de biomasse
de l'expert et des
algorithmes.
ANNEXE 5 :

                                   ALUATION DE BIOMASSE DE L'EXPERT ET

                                                                           DES ALGORITHMES.




                                                                                              Soft Hard Cood.      Bur- Ri-           Géné- Optimi- Kpca/ FA    FA+ FA+ Moyenne
                                                                                                        géogra-    gos pley           ratif sation Fisher       Fisher Ité-
                                                                                                        phiques                             Kpca/                      ratif
                                                                                                                                            Fisher
                                                                                              1   0     0          0       0          HFRVP HFSHV   HFRTQ HFRWV HFSIQ  HFRWQ 0.492
                                                                                              1   0     0          0       1          HFRTW HFSIT   HFRVI HFRVR HFRTU  HFRUW 0.482
                                                                                              1   0     0          1       0          HFRUP HFSHQ   HFRWS HFRWS HFRWV  HFRTR 0.487
                                                                                              1   0     0          1       1          HFRVR HFSIT   HFRVW HFRUS HFRTR  0.521 0.491
                                                                                              1   0     1          0       0          HFRTU HFSIP   HFRWR HFRVV HFRVQ  HFRTR 0.484
                                                                                              1   0     1          0       1          HFRVR HFSIW   HFRUP HFRTS HFRVS  HFRSV 0.480
                                                                                              1   0     1          1       0          HFRUP HFSHP   HFSHH HFRTI HFRVH  HFRTI 0.479
                                                                                              1   0     1          1       1          HFRVR HFSIQ   HFRVR HFRTT HFRWI  HFRSV 0.482
                                                                                                        Moyenne                       0.476 0.511   0.484 0.479 0.485 0.474 HFRVR
                                                                                              0   1     0          0       0          HFRPW 0.526            HFRRI      HFRSW0.463
                                                                                                                                                                                 HFRSW         HFRTU
                                                                                              0   1     0          0       1          HFRUW     HFSPI        HFRUT      HFSHH0.486
                                                                                                                                                                                 HFRUV         HFRTT
                                                                                              0   1     0          1       0          HFQWI     HFSHW        HFSHU      HFRRU0.459
                                                                                                                                                                                 HFRST         HFRRW
                                                                                              0   1     0          1       1          HFRUS     HFSHT        HFSHS      HFRUT0.481
                                                                                                                                                                                 HFRTU         HFRTH
                                                                                              0   1     1          0       0          HFRSW     HFSII        HFSHT      HFRTP0.470
                                                                                                                                                                                 HFRRW         HFRQS
                                                                                              0   1     1          0       1          HFRVH     HFRWR        HFRWS      HFRPS0.464
                                                                                                                                                                                 HFRTH         HFRQQ
                                                                                              0   1     1          1       0          HFQWP     HFRWU        HFRWT      HFRQI0.443
                                                                                                                                                                                 HFRPS         HFRPP
             CORRÉLATION ENTRE L'ÉV




                                                                                              0   1     1          1       1          HFRUU     HFRWT        HFSHR      HFRPS0.469
                                                                                                                                                                                 HFRSV         HFRSS
                                                                                                        Moyenne                       0.447     0.507        0.491      0.453 0.456            0.448   HFRTT
                                                                                                           Tableau 9.7     Pour des probabilités a priori de classication issus d'une pro-
                                                                                                           portion de biomasse, les Coecients de corrélation moyens (cf. équation (8.17))
                                                                                                           sont achés pour un calcul  souple  ou  dur  de la biomasse (cf. équa-
                                                                                                           tions (8.8) et (8.7)), pour diérentes combinaisons de descripteurs, et pour
                                                                                                           plusieurs classieurs. La corrélation représente la similarité entre l'estimation
                                                                                                           de biomasse de l'expert et celle déterminée de manière algorithmique. Plus cette
                                                                                                                        corrélation est élevée, plus l'estimation est similaire.
                                                                         ™xlviii
Soft Hard Cood.      Bur- Ri-           Géné- Optimi- Kpca/ FA                  FA+ FA+ Moyenne
                                                                                                                                                                                    ANNEXE 5 :




          géogra-    gos pley           ratif sation Fisher                     Fisher Ité-
          phiques                             Kpca/                                    ratif
                                              Fisher
1    0    0          0       0          HFRST HFSIT   HFRUT HFRWV               HFRVW  HFSHH 0.489
1    0    0          0       1          HFRVW 0.517   HFRWS HFRTR               HFRTW  HFRVV 0.487
                                                                                                     DES ALGORITHMES.




1    0    0          1       0          HFRUQ     HFSHV        HFRVT      HFRTV HFRUV  HFRST 0.478
1    0    0          1       1          HFRUS     HFSIR        HFSHH      HFRTH HFRTW  HFRUT 0.482
1    0    1          0       0          HFRSI     HFSIS        HFRVV      HFSHP HFRWR  HFRWS 0.490
1    0    1          0       1          HFRVH     HFSIH        HFRVP      HFRWT HFRWT  HFRWQ 0.492
                                                                                                                        CORRÉLATION ENTRE L'ÉV




1    0    1          1       0          HFRUU     HFSHV        HFSHP      HFSHI HFRUW  HFRVP 0.491
1    0    1          1       1          HFRUI     HFSIS        HFRVV      HFSHP HFRWR  HFRWS 0.494
          Moyenne                       0.471     0.512        0.489      0.486 0.483 0.485
0    1    0          0       0          HFRQQ     0.513        HFSIQ      HFRQI HFRST  HFRVT 0.472
0    1    0          0       1          HFRVI     HFSHR        HFRWH      HFRIT HFRTT  HFRRR 0.466
0    1    0          1       0          HFRSI     HFRVV        HFSHH      HFRRQ HFRUH  HFRHH 0.458
0    1    0          1       1          HFRUS     HFSHR        HFSHS      HFRHP HFRUT  HFRQQ 0.465
0    1    1          0       0          HFQVV     HFRVT        HFRWQ      HFRUQ HFRUW  HFRTQ 0.463
0    1    1          0       1          HFRUT     HFRWQ        HFRUR      HFRPT HFRVT  HFRTI 0.496
0    1    1          1       0          HFRSS     HFRWH        HFRWI      HFRTW HFRRH  HFRRS 0.465
0    1    1          1       1          HFRVR     HFRVT        HFRWQ      HFRUQ HFRUW  HFRTQ 0.479
          Moyenne                       0.455     0.495        0.494      0.441 0.469 0.449
             Tableau 9.8     Pour des probabilités a priori de classication issus d'une pro-
             portion d'énergie, les Coecients de corrélation moyens (cf. équation (8.17))
             sont achés pour un calcul  souple  ou  dur  de la biomasse (cf. équa-
             tions (8.8) et (8.7)), pour diérentes combinaisons de descripteurs, et pour
             plusieurs classieurs. La corrélation représente la similarité entre l'estimation
             de biomasse de l'expert et celle déterminée de manière algorithmique. Plus cette
                          corrélation est élevée, plus l'estimation est similaire.
                                                                                                                                              ALUATION DE BIOMASSE DE L'EXPERT ET

                                                                                                     ™xlix
Bibliographie



 ‘I“ qF ƒh—ferD e m—them—ti™—l theory of eviden™eF €rin™eton …niversity €ressD IWUTF
 ‘P“ sF …lusoy —nd gF fishopD qener—tive versus dis™rimin—tive methods for o˜je™t
     re™ognitionD €ro™eedings of the PHHS Iiii gomputer ƒo™iety gonferen™e on
     gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF PSV!PTSD PHHSF
                           ¶
 ‘Q“ yF gh—pelleD fF ƒ™hà lkopfD —nd eF ienD ƒemiEsupervised le—rningF ws„ €ressD
     PHHTF
 ‘R“ iF idgeworthD yn the pro˜—le errors of frequen™yE™onst—ntsD tourn—l of the
     roy—l st—tisti™ so™ietyD volF UID noF QD ppF RWW!SIPD IWHVF
 ‘S“ D yn the pro˜—le errors of frequen™yE™onst—ntsD tourn—l of the roy—l st—tisti™
     so™ietyD volF UID noF RD ppF RWW!SIPD IWHVF
 ‘T“ vF ƒ—v—geD yn rere—ding rF—F (sherD „he enn—ls of ƒt—tisti™sD volF RD noF QD ppF
     RRI!SHHD IWUTF
 ‘U“ tF €r—ttD pFyF edgeworth —nd rF—F (sher on the e0™ien™y of m—ximum likelihood
     estim—tionD „he enn—ls of ƒt—tisti™sD volF RD noF QD ppF SHI!SIRD IWUTF
 ‘V“ ƒF ƒtiglerD pr—n™is ysidro edgeworthD st—tisti™i—nD tourn—l of the roy—l st—tisti™
     so™ietyD volF IRID noF QD IWUVF
 ‘W“ D „he history of st—tisti™s X the me—surement of un™ert—inty ˜efore IWHHD
     r—rv—rd …niversity €ressD IWVTF
‘IH“ D ƒt—tisti™s on the t—˜le X the history of st—tisti™—l ™on™epts —nd methodsD
     r—rv—rd …niversity €ressD IWWWF
‘II“ eF r—ldD e history of m—them—ti™—l st—tisti™s from IUSH to IWQHF ‡ileyD IWWVF
‘IP“ D yn the history of m—ximum likelihood in rel—tion to inverse pro˜—˜ility
     —nd le—st squ—resD ƒt—tisti™—l ƒ™ien™eD volF IRD noF PD IWWWF
‘IQ“ tF eldri™hD ‚F—F (sher —nd the m—king of m—ximum likelihoodD ƒt—tisti™—l
     ƒ™ien™eD volF IPD noF QD ppF ITP!IUTD IWWUF
‘IR“ eF hempsterD xF v—irdD —nd hF ‚u˜inD w—ximum likelihood from in™omplete
     d—t— vi— the em —lgorithmD tourn—l of the roy—l st—tisti™ so™ietyD volF QWD ƒeries
     fD noF ID ppF I!QVD IWUUF
‘IS“ ‚F xe—l —nd qF rintonD e view of the iw —lgorithm th—t justi(es in™rement—lD
     sp—rse —nd other v—ri—ntsF uluwer e™—demi™ €u˜lishersD IWWVF
‘IT“ qF w™ v—™hl—n —nd „F urishn—nD „he iw —lgorithm —nd extentionsF ‡ileyD
     IWWUF
™lii                                                                 BIBLIOGRAPHIE




 ‘IU“ qF geleux —nd hF hie˜oltD „he sem —lgorithm X — pro˜—˜ilisti™ te—™her —lgorithm
      derived from the em —lgorithm for the mixture pro˜lemF gomput—tion—l ƒt—tisti™s
      u—rterlyD volF PD noF ID ppF UQ!VPD IWVSF
 ‘IV“ wF t—mshidi—n —nd ‚F tennri™hD gonjug—te gr—dient —™™eler—tion of the em —lE
      gorithmD tourn—l of the emeri™—n ƒt—tisti™i—l —sso™i—tionD volF VVD ppF PPI!PPVD
      IWWQF
 ‘IW“ D u—siEnewton —™™eler—tion of the em —lgorithmD tourn—l of the roy—l st—E
      tisti™ so™ietyD volF SW@fAD ppF STW!SVUD IWWUF
 ‘PH“ ˆFEvF weng —nd hF ‚u˜inD w—ximum likelihood estim—tion vi— the e™m —lgoE
      rithm X e gener—l fr—meworkD fiometrik—D volF VHD noF PD ppF PTU!PUVD IWWQF
 ‘PI“ wF w—ronD eutom—ti™ indexing X —nexperiment—l inquiryD tourn—l of the essoE
      ™i—tion for gomputing w—™hineryD volF VD noF QD ppF RHR!RIUD IWTIF
 ‘PP“ €F homingos —nd wF €—zz—niD yn the optim—lity of the simple ˜yesi—n ™l—ssi(er
      under zeroEone lossD w—™hine ve—rningD volF PWD ppF IHQ!IQUD IWWUF
 ‘PQ“ hF r—nd —nd uF ‰uD sdiot9s ˜—yes E not so stupid —fter —ll c sntern—tion—l ƒt—E
      tisti™—l ‚eviewD volF TWD noF QD ppF QVS!QWWD PHHIF
 ‘PR“ €F uotsi—ntis —nd €F €intel—sD vogit˜oost of simple ˜—yesi—n ™l—ssi(erD gomE
      put—tion—l sntelligen™e in h—t— mining ƒpe™i—l sssue of the snform—ti™— tourn—lD
      volF PWD noF ID ppF SQ!SWD PHHSF
 ‘PS“ tF xeville —nd hF tensenD ster—tive ™l—ssi(™—tion in rel—tion—l d—t—D eees workE
      shop on le—rning stitisti™—l models from rel—tion—l d—t—D ppF RP!RWD PHHHF
 ‘PT“ qF tohn —nd €F v—ndleyD istim—ting ™ontinuous distri˜utions in ˜—yesi—n ™l—ssiE
      (ersD €ro™eedings of the IIth gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD
      ppF QQV!QRSD IWWSF
 ‘PU“ qF ‡e˜˜D tF foughtonD —nd F ‡—ngD xot so n—ive ˜—yes X —ggreg—ting oneE
      dependen™e estim—torsD w—™hine ve—rningD volF SVD noF ID ppF S!PRD PHHSF
 ‘PV“ hF fleiD eF xgD —nd wF tord—nD v—tent diri™hlet —llo™—tionD tourn—l of w—™hine
      ve—rning ‚ese—r™hD volF QD ppF WWQ!IHPPD PHHQF
 ‘PW“ „F rofm—nnD €ro˜—˜ilisti™ l—tent sem—nti™ intexingD €ro™eedings of the twentyE
      se™ond —nnu—l intern—tion—l ƒsqs‚ ™onferen™e on rese—r™h —nd development in
      inform—tion retrievi—lD IWWWF
 ‘QH“ „F qri0ths —nd wF ƒteyversD pinding s™ienti(™ topi™sD €ro™eedings of the n—E
      tion—l —™—demy of s™ien™esD volF IHID ppF SPPV!SPQSD PHHRF
 ‘QI“ „F wink— —nd tF v—'ertyD ixpe™t—tionEprop—g—tion for the gener—tive —spe™t moE
      delD €ro™eedings of the IIth gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD
      PHHPF
                          ©            ©                             © ©
 ‘QP“ †F †—ndew—lleD ƒÃ le™tion prà di™tive d9un modäle gà nà r—tif p—r le
                                      ©
      ™ritäre —i™pD RIäme tournà e de ƒt—tistiqueD snri—D forde—uD PHHWF
 ‘QQ“ wF ƒtoneD grossEv—lid—tion ™hoi™e —nd —ssessment of st—tisti™—l predi™tionsD
      tourn—l of the roy—l st—tisti™ so™ietyD volF QTD ppF III!IRUD IWURF
 ‘QR“ rF ek—ikeD snform—tion theory —nd —n extension of the m—ximum likelihood
      prin™ipleD Pnd sntern—tion—l ƒymposium on snform—tion „heoryD ppF PT!PVID
      IWURF
BIBLIOGRAPHIE                                                                      ™liii


‘QS“ qF ƒ™hw—rzD istim—ting the dimension of — modelD enn—ls of ƒt—tisti™sD volF TD
     noF PD ppF RTI!RTRD IWUVF
‘QT“ ‚F pisherD „he use of multiple me—surements in t—xonomi™ pro˜lemsD enn—ls
     of iugeni™sD ppF IUW!IVVD IWQTF
‘QU“ ‚F hu˜—D €F r—rtD —nd hF ƒtorkD €—ttern ™l—ssi(™—tionF ‡iley snters™ien™eD PHHHF
‘QV“ qF w™v—™hl—nD his™rimin—nt —n—lysis —nd st—tisti™—l p—ttern re™ognitionF ‡iley
     snters™ien™eD PHHRF
‘QW“ fF foserD sF quyonD —nd †F †—pnikD e tr—ining —lgorithm for optim—l m—rgin
     ™l—ssi(erD pifth ennu—l ‡orkshop on gomput—tion—l ve—rning „heoryD ppF IRR!
     ISPD IWWPF
‘RH“ †F †—pnikD „he n—ture of st—tisti™—l le—rning theoryF xE‰ X ƒpringerE†erl—gD IWWSF
‘RI“ †F †—pnik —nd eF vernerD €—ttern re™ognition using gener—lized portr—it meE
     thodD eutom—tion —nd ‚emote gontrolD volF PRD ppF UUR!UVHD IWTQF
‘RP“ ‚F hud— —nd €F r—rtD €—ttern ™l—ssi(™—tion —nd s™ene —n—lysisF     ‡ileyD IWUQF
‘RQ“ tF wer™erD pun™tions of positive —nd neg—tive type —nd their ™onne™tion with
     the theory of integr—l —qu—tionsD tourn—l of ‚oy—l ƒo™iety vondonD volF PHWD ppF
     RIS!RRTD IWHWF
‘RR“ wF eizerm—nD iF fr—verm—nD —nd vF ‚ozonoerD „heoreti™—l found—tions of the
     potenti—l fun™tion method in p—ttern re™ognition le—rningD eutom—tion —nd ‚eE
     mote gontrolD volF PSD ppF VPI!VQUD IWTRF
‘RS“ gF gortes —nd †F †—pnikD ƒupportEve™tor networkD w—™hine ve—rningD volF PHD
     ppF PUQ!PWUD IWWSF
             ¶
‘RT“ fF ƒ™hà lkopf —nd eF ƒmol—D ve—rning with uernelsF      „he ws„ €ressD PHHPF
‘RU“ tF ferksonD eppli™—tion of the logisti™ fun™tion to ˜ioE—ss—yD tourn—l of the
     emeri™—n ƒt—tisti™—l esso™i—tionD volF QWD ppF QSU!QTSD IWRRF
‘RV“ D w—ximum likelihood —nd minimum χ2 Eestim—tes of the logisti™ fun™tionD
     tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF SHD ppF IQH!ITPD IWSSF
‘RW“ „F ememiy—D u—lit—tive response models X — surveyD tourn—l of i™onomi™
     liter—tureD volF IWD ppF IRVQ!ISQTD IWVIF
‘SH“ tF ril˜eD vogisti™ regression modelsF   gh—pm—n —nd r—llGg‚g €ressD PHHWF
‘SI“ gF fishopD €—ttern re™ognition —nd m—™hine le—rningF    ƒpringerD PHHTF
‘SP“ „F hietteri™h —nd qF f—kiriD ƒolving multi™l—ss le—rning pro˜lems vi— errorE
     ™orre™ting output ™odesD tourn—l of erti(™i—l sntelligen™eD volF PD ppF PTQ!PVTD
     IWWSF
‘SQ“ uF gr—mer —nd ‰F ƒingerD yn the —lgorithmi™ implement—tion of multi™l—ss
     kernelE˜—sed ve™tor m—™hinesD tourn—l of w—™hine ve—rning ‚ese—r™hD volF PD
     ppF PTS!PWPD PHHIF
            ¶
‘SR“ fF ƒ™hà lkopfD eF ƒmol—D —nd uF wullerD uernel prin™ip—l —n—lysisD edv—n™es
     in uernel wethodsEƒupport †e™tor ve—rningD ws„ €ressD ppF QPU!QSPD IWWWF
‘SS“ fF ƒ™hölkopfD eF ƒmol—D —nd uFE‚F wüllerD xonline—r ™omponent —n—lysis —s
    — kernel eigenv—lue pro˜lemD xeur—l gomput—tionD volF IHD ppF IPWW!IQIWD IWWVF
™liv                                                                BIBLIOGRAPHIE




 ‘ST“ uF €e—rsonD yn lines —nd pl—nes of ™losest (t to systems of points in sp—™eD
      €hilosophi™—l w—g—zineD volF PD noF TD ppF SSW!SUPD IWHIF
                                 ©
 ‘SU“ ‰F ve gunD …ne pro™Ã dure d9—pprentiss—ge pour rà             ©se—u    à    seuil
            ©
      —symà triqueD gognitiv—VSD IWVSF
 ‘SV“ hF ‚umelh—rtD €—r—llel distri˜uted pro™essing X explor—tion in the mi™rostru™ture
      of ™ognitionF ws„ €ressD IWVTF
 ‘SW“ tF enderson —nd iF ‚osenfeldD xeuro ™omputing fund—tions of rese—r™hF        ws„
      €ressD IWVVF
 ‘TH“ ‰F ve gunD tF henkerD —nd ƒF ƒoll—D yptim—l ˜r—in d—m—geD €ro™eedings of the
      xeur—l snform—tion €ro™eeding ƒystemsEPD ppF SWV!THSD IWWHF
 ‘TI“ fF r—ssi˜i —nd hF ƒtorkD edv—n™es in neur—l inform—tion pro™essing systemsD
      ƒFtF r—nsonD tFhF gow—n —nd gFvF qilles @iditionsAD volF SD pF ITRD IWWQF
 ‘TP“ „F goverD xe—rest neigh˜or p—ttern ™l—ssi(™—tionD „r—ns—™tions on snform—tion
      theoryD volF IQD noF ID ppF PI!PUD IWTUF
 ‘TQ“ iF hez— —nd wF hez—D hi™tion—ry of dist—n™esF     ilsevierD PHHTF
 ‘TR“ eF fh—tt—™h—ryy—D yn — me—sure of divergen™e ˜etween two st—tisti™—l popul—E
      tions de(ned ˜y pro˜—˜ility distri˜utionsD fullF g—l™utt— w—thsF ƒo™FD volF QSD
      ppF WW!IHWD IWRQF
 ‘TS“ ƒF uull˜—™kD vetter to the editor X „he kull˜—™kElei˜ler dist—n™eD „he emeri™—n
      ƒt—tisti™i—nD volF RID noF RD ppF QRH!QRID IWVUF
 ‘TT“ tF fentleyD wultidimention—l ˜in—ry se—r™h trees used for —sso™i—tive se—r™hingD
      gommuni™—tion on the esso™i—tion for gomputing w—™hineryD volF IVD noF WD ppF
      SHW!SIUD IWUSF
 ‘TU“ „F ƒeidl —nd rF uriegelD yptim—l multiEstep kEne—rest neigh˜or se—r™hD snterE
      n—tion—l gonferen™e on w—n—gement of h—t—D ppF ISR!ITSD IWWVF
 ‘TV“ vF freim—nD tF priedm—nD ‚F ylshenD —nd gF ƒtoneD gl—ssi(™—tion —nd regression
      treesF gh—pm—n 8 r—llFD IWVRF
 ‘TW“ tF uinl—nD sndu™tion of de™ision treesD w—™hine ve—rningD volF ID noF ID ppF
      VI!IHTD IWVTF
 ‘UH“ D gRFS X €rogr—ms for m—™hine le—rningD worg—n u—ufm—nn €u˜lishersD
      IWWQF
 ‘UI“ qF u—ssD en explor—tory te™hnique for invesg—ting l—rge qu—ntities of ™—tegori™—l
      d—t—D tourn—l of —pplied st—tisti™sD volF PWD noF PD ppF IIW!IPUD IWVHF
 ‘UP“ ‡FE‰F voh —nd ‰FE‰F ƒhihD ƒplit sele™tion methods for ™l—ssi(™—tion treesD ƒt—E
      tisti™— ƒini™—D volF UD ppF VIS!VRHD IWWUF
 ‘UQ“ rF veveneD ‚o˜ust tests for equ—lity of v—ri—n™esD ƒt—nford …niversity €ressF
      gontri˜utions to pro˜—˜ility —nd ƒt—tisti™s X iss—ys in ronor of r—rold rotellingD
      ppF PUV!PWPD IWTHF
 ‘UR“ ƒF wurthyD ƒF u—sifD —nd ƒF ƒ—lz˜ergD e system for indu™tion of o˜lique treesD
      tourn—l of erti(™i—l sntelligen™e ‚ese—r™hD volF PD ppF I!QPD IWWRF
BIBLIOGRAPHIE                                                                       ™lv


‘US“ uF fennet —nd „F flueD e support ve™tor m—™hine —ppro—™h to de™ision treesD
     siii sntern—tion—l toint gonferen™e on xeur—l xetworks €ro™eedings siii
     ‡orld gongress on gomput—tion—l sntelligen™eD volF PD ppF VVH!VVRD IWWVF
‘UT“ ‡F ‡uD xF fennetD xF gristi—niniD —nd tF ƒh—weE„—ylorD v—rge m—rgin trees for
     indu™tion —nd tr—nsdu™tionD €ro™eedings of the ƒixth sntern—tion—l gonferen™e
     on w—™hine ve—rningD ppF RUR!RVQD IWWWF
‘UU“ yF ‰ildiz —nd iF elp—ydinD vine—r dis™rimin—nt treesD €ro™eedings of the ƒevenE
     teenth sntern—tion—l gonferen™e on w—™hine ve—rningD ppF IIUS!IIVPD PHHHF
‘UV“ tF t—ngD ƒtru™ture determin—tion in fuzzy modeling X — fuzzy ™—rt —ppro—™hD
     €ro™eedings of the siii gonferen™e on puzzy ƒystemsD ppF RVH!RVSD IWWRF
‘UW“ ‚F ‡e˜erD puzzyEidQ X — ™l—ss of methods for —utom—ti™ knowledge —™quisitionD
     sn €ro™eedings Pnd sntern—tion—l gonferen™e on puzzy vogi™ —nd xeur—l xetE
     worksD ppF PTS!PTVD IWWPF
‘VH“ gF t—nikowD puzzy de™ision trees X issues —nd methodsD siii „r—ns—™tion on
     ƒystemsD w—nD —nd gy˜erneti™sD €—rt f X gy˜erneti™sD volF PVD noF ID ppF I!IRD
     IWWVF
‘VI“ hF v—n de †l—g —nd eF ƒteinD sn™orporing un™ert—inty vi— hier—r™hi™—l ™l—ssi(E
     ™—tion using fuzzy de™ision treesD siii „r—ns—™tion on qeos™ien™e —nd ‚emote
     ƒensingD volF RSD noF ID ppF PQU!PRSD PHHUF
             ©
‘VP“ ƒF „u'à ryD h—t— mining et st—tistique dà   ©™isionnelle E v9intelligen™e d—ns les
                    ©
     ˜—ses de donnà esF „e™hnipD PHHSF
‘VQ“ €F ven™—D ƒF v—lli™hD —nd fF †—ill—ntD gonstru™tion of —n o'E™entered entropy for
     the supervised le—rning of im˜—l—n™ed ™l—ssed X some (rst resultsD gommuni™—E
     tions in ƒt—tisti™s E „heory —nd methodsD volF QWD noF QD PHIHF
‘VR“ eF viuD tF qhoshD —nd gF w—rtinD qener—tive overs—mpling for mining un˜—l—n™ed
     d—t—setsD sntern—tion—l gonferen™e on h—t— winingD ppF TT!UPD PHHUF
‘VS“ wF uu˜—t —nd ƒF w—twinD eddressing the ™urse of im˜—l—n™ed d—t— set X oneE
     sided s—mplingD sntern—tion—l gonferen™e on w—™hine ve—rningD ppF IUW!IVTD
     IWWUF
‘VT“ tF wingerD en empiri™—l ™omp—rison of pruning methods for de™ision tree indu™E
     tionD w—™hine ve—rningD volF RD noF PD ppF PPU!PRQD IWVWF
‘VU“ pF ispositoD hF w—ler˜—D —nd qF ƒemer—roD e ™omp—r—tive —n—lysis of methodsD
     siii „r—ns—™tions on €—ttern w—™hine sntelligen™eD volF IWD noF SD ppF RUT!RWID
     IWVUF
‘VV“ „F ˆi—ng —nd ƒF qongD wodel sele™tion for unsupervised le—rning of visu—l
     ™ontextD sntern—tion—l tourn—l of gomputer †isionD volF TWD noF PD ppF IVI!PHID
     PHHSF
‘VW“ rF ek—ikeD snform—tion theory —nd —n extension of m—ximum likelihood prinE
     ™ipleD Pnd sntern—tion—l ƒymposium on snform—tion „heoryD ppF PTU!PVID IWUQF
‘WH“ qF willig—n —nd wF gooperD en ex—min—tion of pro™edures for determining the
     num˜er of ™lusters in — d—t— setD €sy™hometrik—D volF SVD noF PD ppF ISW!IUWD
     IWVSF
™lvi                                                                BIBLIOGRAPHIE




 ‘WI“ €F ‚ousseeuwD ƒilhouettes X — gr—phi™—l —id to the interpret—tion —nd v—lid—tion
      of ™luster —n—lysisD tourn—l of gomput—tion—l —nd epplied w—them—ti™sD volF PHD
      ppF SQ!TSD IWVUF
 ‘WP“ „F v—ngeD †F ‚othD wF fr—unD —nd tF fuhm—nnD ƒt—˜ilityE˜—sed v—lid—tion of
      ™lustering solutionsD xeur—l gomput—tionD volF ITD noF TD ppF IPWW!IQPQD PHHTF
 ‘WQ“ eF idw—rd —nd vF g—v—lliEƒforz—D e method for ™luster —n—lysisD fiometri™sD
      volF PID ppF QTP!QUSD IWTSF
 ‘WR“ tF ‡—rdD rier—r™hi™—l grouping to optimize —n o˜je™tive fun™tionD tourn—l of
      the emeri™—n ƒt—tisti™—l esso™i—tionD volF SVD ppF PQT!PRRD IWTQF
 ‘WS“ vF freim—nD ‚—ndom forestsD w—™hine ve—rningD volF RSD pF S XQPD PHHIF
 ‘WT“ „F ƒhi —nd ƒF rorv—thD …nsupervised le—rning with r—ndom forest predi™torsD
      tourn—l of gomput—tion—l —nd qr—phi™—l ƒt—tisti™sD volF ISD noF ID ppF IIV!IQVD
      PHHTF
 ‘WU“ ƒF vloydD ve—st squ—re qu—ntiz—tion in p™mD siii „r—ns—™tions on snform—tion
      „heoryD volF PVD noF PD ppF IPW!IQUD IWVPF
 ‘WV“ tF r—rtig—nD glustering —lgorithmsD ‡illeyD IWUSF
 ‘WW“ „F u—nungoD hF wountD xF xet—ny—huD gF €i—tkoD ‚F ƒilverm—nD —nd eF ‡uD
      en e0™ient kEme—ns ™lustering —lgorithm X en—lysis —nd implement—tionD siii
      „r—ns—™tions on €—ttern en—lysis —nd w—™hine sntelligen™eD volF PRD ppF VVI!VWPD
      PHHPF
‘IHH“ hF erthur —nd ƒF †—ssilvitskiiD uEme—nsCC X the —dv—nt—ges of ™—reful seedingD
      €ro™eedings of the eighteenth —nnu—l egwEƒsew symposium on his™rete —lgoE
      rithmsD ppF IHPU!IHQSD PHHUF
‘IHI“ tF fezdekD €—ttern re™ognition with fuzzy o˜je™tive fun™tion —lgorithmsD uluwer
      e™—demi™ €u˜lishersD xorwelD weD IWVIF
‘IHP“ ‚F hud—D €F r—rtD —nd hF ƒtorkD €—ttern ™l—ssi(™—tionF    ‡ileyD PHHHF
‘IHQ“ sF q—th —nd fF qev—D …nsupervised optim—l fuzzy ™lusteringD siii „r—ns—™tions
      on €—ttern en—lysis —nd w—™hine sntelligen™eD volF IID noF UD ppF UUQ!UVID IWVWF
‘IHR“ ƒF qross˜ergD ed—pt—tive p—ttern ™l—ssi(™—tion —nd univers—l re™oding X sF p—r—lE
      lel development —nd ™oding of neur—l fe—ture dete™torsD fiologi™—l gy˜erneti™sD
      volF PQD ppF IPI!IQRD IWUTF
‘IHS“ „F uohonenD ƒelfEorg—nized form—tion of topologi™—lly ™orre™t fe—ture m—psD
      fiologi™—l gy˜erneti™sD volF RTD ppF SW!TWD IWVPF
‘IHT“ D ƒelfEorg—niz—tion m—psD ferlin X ƒpringerE†erl—gD volF QHD IWWSF
‘IHU“ gF fishopD xeur—l networks for p—ttern re™ognitionD g—m˜ridge …niversity
      €ressD IWWSF
‘IHV“ wF ‡e˜erD wF ‡ellingD —nd €F €eron—D …nsupervised le—rning of models for o˜je™t
      re™ognitionD iurope—n gonferen™e on gomputer †isionD volF ID ppF IV!QPD PHHHF
‘IHW“ D „ow—rds —utom—ti™ dis™overy of o˜je™t ™—tegoriesD gomputer †ision —nd
      €—ttern ‚e™ognitionD volF PD ppF IHI!IHVD PHHHF
‘IIH“ tF €on™eD wF re˜ertD gF ƒ™hmidD —nd eF iserm—nD „ow—rd ™—tegoryElevel o˜je™t
      re™ognitionF ve™ture xotes in gomputer ƒ™ien™eD ƒpringerD PHHTF
BIBLIOGRAPHIE                                                                      ™lvii


‘III“ vF quD iF ˆingD —nd „F u—n—deD ve—rning gmrf stru™tures for sp—ti—l priorsD
      sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD ppF I!TD
      PHHUF
‘IIP“ eF ƒhiv—ni —nd hF ‚othD ve—rning — sp—rse represent—tion for o˜je™t dete™tionD
      iurope—n gonferen™e on gomputer †isionD ƒpringerD PHHPF
‘IIQ“ wF †id—lEx—quet —nd ƒF …llm—nnD y˜je™t re™ognition with inform—tive fe—tures
      —nd line—r ™l—ssi(™—tionD sntern—tion—l gonferen™e on gomputer †isionD PHHQF
‘IIR“ eF ypeltD wF pusseneggerD eF €inzD —nd €F euerD ‡e—k hypothäses —nd ˜ooE
      sying for generi™ o˜je™t dete™tion —nd re™ognitionD iurope—n gonferen™e on gomE
      puter †isionD PHHRF
‘IIS“ eF f—rErillel —nd hF ‡einsh—llD i0™ient le—rning of rel—tion—l o˜je™t ™l—ss moE
      delsD sntern—tion—l tourn—l of gomputer †isionD volF UUD noF IEQD ppF IUS!IWVD
      PHHVF
‘IIT“ ‚F pergusD €F €eron—D —nd eF isserm—nD y˜je™t ™l—ss re™ognition ˜y unsuperviE
      sed s™—le inv—ri—nt le—rningD sntern—tion—l ™onferen™e on gomputer †ision —nd
      €—ttern ‚e™ognitionD PHHQF
‘IIU“ D ‡e—kly supervised s™—ledEinv—ri—nt le—rning of models for visu—l re™ogE
      nitionD sntern—tion—l tourn—l of gomputer †isionD volF UID noF QD ppF PUQ!QHQD
      PHHTF
‘IIV“ gF ƒ™hmidD ‡e—kly supervised le—rning of visu—l models —nd its —ppli™—tion to
      ™ontentE˜—sed retriev—lF sntern—tion—l tourn—l of gomputer †isionFD volF STD ppF
      U!ITD PHHRF
‘IIW“ hF tF gr—nd—ll —nd hF €F ruttenlo™herD ‡e—kly supervised le—rning of p—rtE˜—sed
      sp—ti—l models for visu—l o˜je™t re™ognitionD iurope—n gonferen™e on gomputer
      †isionD PHHTF
‘IPH“ tF ghungD „F uimD ‰F x—m gh—eD —nd rF ‰—ngD …nsupervised ™onstell—tion model
      le—rning —lgorithm ˜—sed on voting weight ™ontrol for —™™ur—te f—™e lo™—liz—tionD
      €—ttern ‚e™ognitionD volF RPD noF QD ppF QPP!QQQD PHHWF
‘IPI“ vF ˆie —nd €F €erezD ƒlightly supervised le—rning of p—rtE˜—sed —ppe—r—n™e moE
      delsD gomputer †ision —nd €—ttern ‚e™ognition ‡orkshopD volF TD PHHRF
‘IPP“ gF ‚osen˜erg —nd wF re˜ertD „r—ining o˜je™t dete™tion models with we—kly
      l—˜eled d—t—D IQth fritish w—™hine †ision gonferen™eD ppF SUU!SVTD PHHPF
‘IPQ“ wF †—s™on™elosD qF g—rneiroD —nd xF †—s™on™elosD ‡e—kly supervised topEdown
      im—ge segment—tionD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern
      ‚e™ognitionD PHHTF
‘IPR“ eF …lgesD gF ƒ™hulzeD hF ueysersD —nd „F freuelD sdentifying relev—nt fr—mes in
      we—kly l—˜eled videos for tr—ining ™on™ept dete™torsD sntern—tion—l gonferen™e
      on sm—ge —nd †ideo ‚etriev—lD ppF W!ITD PHHVF
‘IPS“ tF ‚ossiter —nd „F wuk—iD fioEmimeti™ le—rning from im—ges using impre™ise
      expert inform—tionD puzzy ƒet —nd ƒystemsD volF ISVD noF QD ppF PWS!QIID PHHUF
‘IPT“ tF ƒimmonds —nd hF w—™venn—nD pisheries —™ousti™s X theory —nd pr—™ti™eF yxE
      ford X fl—™kwell ƒ™ien™e vtdD PHHSF
™lviii                                                               BIBLIOGRAPHIE




‘IPU“ ˆF huD ƒemiEsupervised le—rning liter—ture surveyD gomputer ƒ™ien™esD …niE
      versity of ‡is™onsinEw—disonD volF ISQHD PHHVF
‘IPV“ uF xig—mD eF w™gullumD ƒF „hrunD —nd „F wit™helD ve—rning to ™l—ssify text
      from l—˜eled —nd unl—˜eled do™umentsD esso™i—tion for the edv—n™ement of erE
      ti(™i—l sntelligen™e tourn—lD IWWVF
‘IPW“ uF xig—mD eF w™g—llumD ƒF „hrunD —nd qF w—nnD „ext ™l—ssi(™—tion from l—˜eE
      led —nd unl—˜eled do™uments using emD w—™hine ve—rningD volF QWD ppF IHQ!IQRD
      PHHHF
‘IQH“ pF gozm—n —nd sF gohenD ‚isks of semiEsupervised le—rningF yF gh—pelleD eF
      ienD —nd fF ƒ™holkopf @idsAD ƒemiEƒupervised ve—rningD ws„ €ressD PHHTF
‘IQI“ †F †—pnikD ƒt—tisti™i—l le—rning theoryF   ‡ileyEsnters™ien™eD IWWVF
‘IQP“ „F to—™himsD „r—nsdu™tive inferen™e for text ™l—ssi(™—tion using support ve™tor
      m—™hinesD €ro™eedings of the ITth sntern—tion—l gonferen™e on w—™hine ve—rE
      ningD ppF PHH!PHWD IWWWF
‘IQQ“ vF ˆu —nd hF ƒ™huurm—nsD …nsupervised —nd semiEsupervised multiE™l—ss supE
      port ve™tor m—™hinesF €ro™eedings of the PHth x—tion—l gonferen™e —n erti(™i—l
      snteligen™eD PHHSF
‘IQR“ †F ƒindhw—ni —nd ƒF ƒF ueerthiD v—rge s™—le semiEsupervised line—r svmsD ƒpe™i—l
      snterest qroup on snform—tion ‚etriev—lD PHHTF
‘IQS“ yF gh—pelle —nd eF ienD ƒemiEsupervised ™l—ssi(™—tion ˜y low density sep—r—E
      tionD €ro™eedings of the IHth sntern—tion—l ‡orkshop on erti(™i—l snteligen™e
      —nd ƒt—tisti™sD PHHSF
‘IQT“ yF gh—pelleD †F ƒindhw—niD —nd ƒF ƒF ueerthiD yptimiz—tion te™hniques for semiE
      supervised support ve™tor m—™hinesD tourn—l of m—™hine le—rning rese—r™hD volF WD
      noF pe˜D ppF PHQ!PQQD PHHVF
‘IQU“ wFEpF f—lk—nD eF flumD €F ghoiD tF v—'ertyD fF €—nt—noD —nd wF ‚we˜—ngir—D
      €erson identi(™—tion in we˜™—m im—ges X —n —ppli™—tion of semiEsupervised le—rE
      ningD ‡orkshop on ve—rning with €—rti—lly gl—ssi(ed „r—ining h—t— @sgwvAD
      PHHSF
‘IQV“ ˆF h—ng —nd ‡F veeD ryperp—r—meter le—rning for gr—ph ˜—sed semiEsupervised
      le—rning —lgorithmsD edv—n™es in xeur—l snform—tion €ro™essing ƒystemsD
      volF IWD PHHTF
‘IQW“ pF ‡—ng —nd gF h—ngD v—˜el prop—g—tion through line—r neigh˜orhoodsD snE
      tern—tion—l ™onferen™e on w—™hine ve—rningD PHHTF
‘IRH“ eF flum —nd ƒF gh—wl—D ve—rning from l—˜eled —nd unl—˜eled d—t— using gr—ph
      min™utsD €ro™eedings of the IVth sntern—tion—l gonferen™e on w—™hine ve—rningD
      PHHIF
‘IRI“ ˆF huD F qh—hr—m—niD —nd tF v—'ertyD ƒemiEsupervised le—rning using g—ussi—n
      (elds —nd h—rmoni™ fun™tionsD sntern—tion—l gonferen™e on w—™hine ve—rningD
      ppF WIP!WIWD PHHQF
‘IRP“ tF †er˜eek —nd xF †l—ssisD q—ussi—n (elds for semiEsupervised regression —nd
      ™oresponden™e le—rningD €—ttern ‚e™ognitionD volF QWD ppF IVTR!IVUSD PHHTF
BIBLIOGRAPHIE                                                                     ™lix


‘IRQ“ wF felkinD sF w—tveev—D —nd €F xiyogiD ‚egul—riz—tion —nd semiEsupervised le—rE
      ning on l—rge gr—phsF €ro™eeding of the gonferen™e on gomput—tion—l ve—rning
      „heoryD PHHRF
‘IRR“ qF qetz —nd xF ƒhent—lD ƒemiEsupervised le—rning E — st—tisti™—l physi™s —pE
      pro—™hD €ro™eeding of the PPnd sgwv ‡orkshop on ve—rning with €—rti—lly
      gl—ssi(ed „r—ining h—t—D PHHSF
‘IRS“ eF egr—w—l—D ve—rning with — pro˜—˜ilisti™ te—™herD siii „r—ns—™tions on snE
      form—tion „heoryD volF ITD ppF QUQ!QUWD IWUHF
‘IRT“ gF ‚osen˜ergD wF re˜ertD —nd rF ƒ™hneiderm—nnD ƒemiEsupervised selfEtr—ining
      of o˜je™t dete™tion modelsD Uth siii ‡orkshop on eppli™—tions of gomputer
      †isionD PHHSF
‘IRU“ wF gulp —nd qF wi™h—ilidisD en iter—tive —lgorithm for extending le—rners to
      semiEsupervised settingD „he PHHU toint ƒt—tisti™—l weetingsD PHHUF
‘IRV“ qF r—'—ri —nd eF ƒ—rk—rD en—lysis of semiEsupervised le—rning with the y—rowsky
      —lgorithmD PQrd gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD PHHUF
‘IRW“ eF flum —nd „F wit™helD gom˜ining l—˜eled —nd unl—˜eled d—t— with ™oE
      tr—iningD ‡orkshop on gomput—tion—l ve—rning „heoryD ppF WP!IHHD IWWVF
‘ISH“ gF wullerD ƒF ‚—ppD —nd wF ƒtru˜eD epplying ™oEtr—ining to referen™e resoluE
      tionD €ro™eeding of the RHth ennu—l weeting on esso™i—tion for gomput—tion—l
      vinguisti™sD ppF QSP!QSWD PHHIF
‘ISI“ hF €ier™e —nd gF g—rdieD vimit—tion of ™oEtr—ining for n—tur—l l—ngu—ge le—rE
      ning from l—rge d—t—setsD gonferen™e on empiri™—l methods in n—tur—l l—ngu—ge
      pro™essingD ppF I!WD PHHIF
‘ISP“ ƒF eF w—™sk—ssy —nd pF €rovostD e simple rel—tion—l ™l—ssi(erD €ro™eedings of
      the se™ond workshop on multiErel—tion—l d—t— miningD ppF TR!UTD PHHQF
            ¼
‘ISQ“ „F qà rel —nd uF uerstingD yn the tr—deEo' ˜etween iter—tive ™l—ssi(™—tion —nd
      ™olle™tive ™l—ssi(™—tion X (rst experiment—l resultsD sntern—tion—l ‡orkshop on
      wining qr—phsD volF QD PHHSF
‘ISR“ gF wF fishop —nd sF …lusoyD qener—tive versus dis™rimin—tive methods for o˜je™t
      re™ognitionD ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF
      PSV!PTSD PHHSF
‘ISS“ gF qiniD we—surement of inequ—lity of in™omeD i™onomi™ tourn—lD volF QID ppF
      PP!RQD IWPIF
            ©
‘IST“ eF ‚Ã nyiD yn me—sures of entropy —nd inform—tionD €ro™eeding on the Rth
      ferkley ƒymposium on w—them—ti™—l ƒt—tisti™s —nd €ro˜—˜ilityD volF ID ppF SRU!
      STID IWTIF
‘ISU“ ‰F preund —nd ‚F ƒ™h—pireD e de™isionEtheoreti™ gener—liz—tion of onEline le—rE
      ning —nd —n —ppli™—tion to ˜oostingD tourn—l of gomputer —nd ƒystem ƒ™ien™esD
      volF SSD ppF IIW!IQWD IWWUF
‘ISV“ vF freim—nD f—gging predi™torsD w—™hine ve—rningD volF PTD noF PD ppF IPQ!IRHD
      IWWTF
™lx                                                                   BIBLIOGRAPHIE




‘ISW“ rF uimD ƒF €—ngD rF teD —nd ƒF f—ngD ƒupport ve™tor m—™hine ensem˜le with
      ˜—ggingF €—ttern ‚e™ognition with ƒupport †e™tor w—™hinesD PHHPF
‘ITH“ fF h—ngD „F €h—mD —nd ‰F h—ngD f—gging support ve™tor m—™hine for ™l—ssi(E
      ™—tion of ƒivhE„op m—ss spe™tr— of ov—ri—n ™—n™er serum s—mplesF es PHHU X
      edv—n™es in erti(™i—l sntelligen™eD PHHUF
‘ITI“ eF €rinzie —nd hF †—n hen €oelD ‚—ndom multi™l—ss ™l—ssi(™—tion X gener—lizing
      r—ndom forests to r—ndom wxv —nd r—ndom xfF ve™ture xotes in gomputer
      ƒ™ien™e E h—t—˜—se —nd ixpert ƒystems —ppli™—tionsD PHHUF
‘ITP“ F ‰—ngD ˆF xieD ‡F ˆuD —nd tF quoD en —ppro—™h to sp—m dete™tion ˜y n—ive
      ˜—yes ensem˜le ˜—sed on de™ision indu™tionD Tth sntern—tion—l gonferen™e on
      snteligent ƒystems hesign —nd eppli™—tionsD volF PD ppF VTI!VTTD PHHTF
‘ITQ“ ‰F preundD en —d—ptive version of the ˜oost ˜y m—jority —lgorithmD €ro™eedings
      of the twelfth ennu—l gonferen™e on gomput—tion—l ve—rning „heoryD ppF IHP!
      IIQD IWWWF
‘ITR“ ‚F ƒ™h—pireD e ˜rief introdu™tion to ˜oostingD €ro™eedings of the ITth sntern—E
      tion—l toint gonferen™e on erti(™i—l sntelligen™eD IWWWF
‘ITS“ tF priedm—nD „F r—stieD —nd ‚F „i˜shir—niD edditive logisti™ regression X — st—E
      tisti™—l view of ˜oostingD enn—ls of st—tisti™sD volF PVD noF PD ppF QQU!RHUD PHHHF
‘ITT“ ‚F vutzD vogit˜oost with trees —pplied to the w™™i PHHT perform—n™e predi™tion
      ™h—llenge d—t—setsD €ro™eedings of the sntern—tion—l toint gonferen™e on neur—l
      networksD PHHTF
‘ITU“ gF homingo —nd yF ‡—t—n—˜eD w—d—˜oost X — modi(™—tion of —d—˜oostD €ro™eeE
      dings of the „hirteenth ennu—l gonferen™e on gomput—tion—l ve—rning „heoryD
      ppF IVH!IVWD PHHHF
‘ITV“ vF w—sonD €F f—rtlettD —nd tF f—xterD smproved gener—liz—tion through expli™it
      optimiz—tion of m—rginD w—™hine ve—rningD volF QVD noF QD ppF PRQ!PSSD PHHHF
‘ITW“ ‚F w™hon—ldD hF r—ndD —nd sF i™kleyD en empiri™—l ™omp—rison of three ˜oosting
      —lgorithms on re—l d—t— sets with —rti(™i—l ™l—ss noiseD wultiple gl—ssi(er ƒystems
      E ve™ture xotes in gomputer ƒ™ien™esD ppF QS!RRD PHHQF
‘IUH“ „F hietteri™hD en experiment—l ™omp—rison of three methods for ™onstru™ting
      ensem˜les of de™ision treesD w—™hine ve—rningD volF RHD noF PD ppF IQW!ISVD PHHHF
‘IUI“ „F uF roD ‚—ndom de™ision forestD sghe‚D IWWSF
‘IUP“ €F qeurtsD hF irnstD —nd vF ‡ehenkelD ixtremely r—ndomized treesD w—™hine
      ve—rningD volF QTD noF ID ppF Q!RPD PHHTF
‘IUQ“ eF esun™ion —nd hF xewm—nD …™i m—™hine                     le—rning   repositoryD
      http XGGwwwFi™sFu™iFeduG∼mle—rnGwv‚epositoryFhtmlF
‘IUR“ ˆF vurtonD en introdu™tion to underw—ter —™ousti™sF PHHPD ˜ouquin sur l9—™ousE
      tique sous m—rineF
‘IUS“ ƒF xF v—neD €F wF fironD uF pF fr—d˜rookD tF fF futlerD tF rF gh—ndlerD wF hF
      growellD ƒF tF w™vell—ndD uF ƒF ‚i™h—rdsD —nd eF qF ‚oyD „hreeEdimension—l
      me—surement of river ™h—nnel )ow pro™esses using —™ousti™ doppler velo™imetryD
      ‡iley snter ƒ™ien™eD volF PQD noF IQD ppF IPRU!IPTUD IWWVF
BIBLIOGRAPHIE                                                                        ™lxi


                                                                 ©
‘IUT“ gF ƒ™—l—˜rinD sdenti(™—tion —™oustique des espä™es pà l—giques à p—rtir d9—tE
      tri˜uts dis™rimin—nts des ˜—n™s de poissons monospe™i(quesF „häse de ho™E
                       ©
      tor—tD …niversità de fret—gne y™™ident—leD i™ole ho™tor—le des ƒ™ien™es de l—
      werD IWWUF
                                        ©
‘IUU“ tF ‚enou —nd €F „™herni—D hà te™tion des ˜—n™s de poissons p—r ultr—EsonsF
                                                                 ©
      winistäre de l— w—rineF gommuni™—tion sur l9y™Ã —n et les gátesFD ppF
      PI!PWD IWRUF
‘IUV“ ‡F rodgsonD i™hoEsounding —nd the pel—gi™ (sheriesF pish snvestig—tionD
      volF IUD noF PD pF PS ppD IWSHF
                                ©                            ª
‘IUW“ eF €er™ierD ves —™tività s du ˜—te—uEpiloteEdeEpà ™he doni˜—neF ‚evue des
                                    ª
      „r—v—ux de l9snstitut des €Ã ™hes w—ritimesD volF PQD noF PD ppF ITP!IUTD IWSWF
‘IVH“ hF rollid—yD ‚eson—n™e stru™ture in e™hoes from s™hooled pel—gi™ (shF tourn—l
      of the e™ousti™—l ƒo™iety of emeri™—D volF SID noF RD ppF IQPP!IQQPD IWUPF
‘IVI“ uF toh—nnesson —nd ‚F witsonD ƒome results of o˜served —˜und—n™e estim—tions
      in sever—l undpGf—o resour™e survey proje™tsF ƒymposium on e™ousti™ wethods
      in pisheries ‚ese—r™hD volF QD pF UUppD IHUQF
‘IVP“ hF rollid—yD „he use of swim˜l—der reson—n™e in the sizing of s™hooled pel—gi™
                                                ©
      (shF ‚—pport et €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour
      l9ixplor—tion de l— werD ppF IQH!IQSD IWUUF
‘IVQ“ yF x—kken —nd uF ylsenD „—rget strength me—surment of (shF ‚—pport et
                                ©
      €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion
      de l— werD ppF SP!TWD IWUUF
‘IVR“ eF r—wkinsD pish sizing ˜y me—ns of swim˜l—dder reson—n™eF ‚—pport et
                                ©
      €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion
      de l— werD ppF IPP!IPWD IWUUF
‘IVS“ qF ‚ose —nd ‡F veggettD rydro—™ousti™ sign—l ™l—ssi(™—tion of (sh s™hools ˜y
      spe™iesF g—n—di—n tourn—l of pisheries —nd equ—ti™ ƒ™ien™esD ppF SWU!THRD IWVVF
‘IVT“ hF †r—yD qF qimenezD —nd ‚F €ersonD ettempt —t ™l—ssi(™—tion of e™hoEsounder
      sign—ls ˜—sed on the line—r dis™rimin—nt fon™tion of (sherF ‚—pport et €ro™Ã¤sE
                      ©
      †er˜—ux des ‚Ã unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD
      ppF QVV!QWQD IWWHF
‘IVU“ hF ‚eidD ‚eport on e™ho tr—™e ™l—ssi(™—tionF sgiƒ goEoper—tion ‚ese—r™h ‚eport
      PQVD PHHHF
‘IVV“ xF hinerD eF ‡eillD tF go—ilD —nd tF goudevilleD snesEmovies X — new —™ousti™ d—t—
      —™quisition —nd pro™essing systemD sgiƒ tourn—l of w—rine ƒ™ien™eD volF fDRSD
      pF IID IWVWF
‘IVW“ eF ‡eill —nd xF hinerD woviesE˜ X — new softw—re for s™hool ™h—r—™teriz—tionF
      sgiƒ tourn—l of w—rine ƒ™ien™eD pF IQD IWWIF
‘IWH“ eF ‡eillD gF ƒ™—l—˜rinD —nd xF hinerD woviesE˜ X —n —™ousti™ dete™tion des™riptor
      softw—reF —ppli™—tion to s™ho—l spe™ies9 ™l—ssi(™—tionF equ—ti™ viving ‚esour™esD
      volF TD ppF PSS!PTUD IWWQF
™lxii                                                                BIBLIOGRAPHIE




‘IWI“ gF ƒ™—l—˜rinD eF ‡eillD —nd xF hinerD „he stru™ture of multdimension—l d—t— from
      —™ousti™ dete™tion of (sh s™hoolsF iurope—n gonferen™eon …nderw—ter e™ousti™D
      ppF IRI!IRTD IWWPF
                                  ©
‘IWP“ gF ƒ™—l—˜rin —nd tF w—ssà D e™ousti™ dete™tion of the sp—ti—l —nd tempor—l
      distri˜ution of (sh sho—ls in the ˜—y of ˜is™—yD equ—ti™ viving ‚esour™esD volF TD
      ppF PTW!PVQD IWWQF
‘IWQ“ gF ƒ™—l—˜rin —nd ˆF vurtonD pish s™ho—ls —mplitude —n—lysisF iurope—n gonfeE
      ren™eon …nderw—ter e™ousti™D volF PD ppF VHU!VIRD IWWRF
‘IWR“ gF ƒ™—l—˜rinD xF hinerD —nd eF ‡eillD eutom—ti™ sho—l re™ognition —nd ™l—ssi(E
      ™—tion ˜—sed on moviesE˜ softw—reD y™e—ns9WRD volF PD ppF QIW!QPRD IWWRF
‘IWS“ gF ƒ™—l—˜rinD xF hinerD eF ‡eillD eF rillionD —nd wFEgF wou™hotD x—rrowE
      ˜—nd —™ousti™ identi(™—tion of monospe™i(™ (sh sho—lsD sgiƒ tourn—l of w—rine
      ƒ™ien™eD volF SQ@PAD ppF IVI!IVVD IWWTF
‘IWT“ xF hinerD gorre™tion on s™hool geometry —nd density X —ppro—™h ˜—sed on —™ousE
      ti™ im—ge simul—tionD equ—ti™ viving ‚esour™esD volF VP@IEQAD ppF PII!PPPD PHHIF
                                         ©
‘IWU“ pF qerlottoD wF ƒori—D —nd €F prà onD prom two dimensions to three X the use
      of multi˜e—m son—r for — new —ppro—™h in (sheries —™ousti™sF g—n—di—n tourn—l
      of pisheries —nd equ—ti™ ƒ™ien™esD volF STD ppF T!IPD IWWWF
‘IWV“ pF qerlotto —nd tF €—r—moD „he threeEdimension—l morphology —nd intern—l
      stru™ture of ™lupeid s™hools —s o˜served using verti™—lEs™—nningD multi˜e—m soE
      n—rF equ—ti™ viving ‚esour™esD volF ITD ppF IIQ!IPPD PHHQF
‘IWW“ †F „renkelD †F w—z—uri™D —nd fF vFD „he new multi˜e—m (sheries e™hosounder
      meUH X des™ription —nd expe™ted ™ontri˜ution to (sheries rese—r™hF sgiƒ tourn—l
      of w—rine ƒ™ien™eD volF TSD ppF TRS!TSSD PHHVF
‘PHH“ vF fergerD gF €on™eletD —nd †F „renkelD e method for redu™ing un™ert—inty in
      estim—tes of (shEs™hool frequen™y response using d—t— from multifrequen™y —nd
      multi˜e—m e™hosoundersF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TTD ppF IISS!
      IITID PHHWF
‘PHI“ ƒF fourguignonD vF fergerD gF ƒ™—l—˜rinD ‚F p—˜letD —nd †F w—z—uri™D wethodoE
      logi™—l developments for improved ˜ottom dete™tion with the meUH multi˜e—m
      e™hosounderF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TTD ppF IHIS!IHPPD PHHWF
                                                                             ©
‘PHP“ †F „renkelD vF fergerD ƒF fourguignonD wF hor—yD ‚F p—˜letD tF w—ssà D †F w—E
      z—uri™D gF €on™eletD qF uemenerD gF ƒ™—l—˜rinD —nd rF †ill—lo˜osD yverview of
      re™ent progress in (sheries —™ousti™s m—de ˜y ifremer with ex—mples from the ˜—y
      of ˜is™—yF equ—ti™ viving ‚esour™esD volF PPD noF RD ppF RQQ!RRTD PHHWF
‘PHQ“ xF hinerD iv—lu—ting un™ert—inty in me—surement of (sh s™ho—l —ggreg—te ˜—™ksE
      ™—ttering ™rossEse™tion ™—used ˜y sm—ll sho—l size rel—tive to ˜e—m widthF equ—ti™
      viving ‚esour™esD volF PHD ppF IIU!IPID PHHUF
‘PHR“ gF gh—ng —nd vF gFtFD http XGGwwwF™sieFntuFtwG ™jlinGli˜svmGD PHIHF
‘PHS“ wF ‡oillezD tFEgF €oul—rdD tF ‚ivoir—rdD €F €etitg—sD —nd xF fezD sndi™es for
      ™—pturing sp—ti—l p—tterns —nd their evolution in timeD with —ppli™—tion to euroE
      pe—n h—ke @merlu™™ius merlu™™iusA in the ˜—y of ˜is™—yD sgiƒ tourn—l of w—rine
      ƒ™ien™eD volF TRD ppF SQU!SSHD PHHUF
BIBLIOGRAPHIE                                                                        ™lxiii


‘PHT“ tF furgos —nd tF rorneD gh—r—™teriz—tion —n™ ™l—ssi(™—tion of —™ousti™—lly dete™E
      ted (sh distri˜utionD sgiƒ tourn—l of w—rine ƒ™ien™eD volF TSD ppF IPQS!IPRUD
      PHHVF
‘PHU“ qF …pton —nd fF pingletonD ƒp—ti—l d—t— —n—lysis ˜y ex—mple X €oint p—ttern
      —ns qu—ntit—tive d—t—D tF ‡ileyD xE‰D volF ID IWVSF
‘PHV“ xF gressieD ƒt—tisti™s for sp—ti—l d—t—D ‡ileyD xew ‰orkD IWWQF
                              ©
‘PHW“ pF qore—ud —nd ‚F €Ã lisserierD yn expli™it formul—s of edge e'e™t ™orre™tion
      for ripley9s kEfun™tionD tourn—l of †eget—tion ƒ™ien™eD volF IHD ppF RQQ!RQVD IWWWF
‘PIH“ wF ƒ™hl—therD yn the se™ondEorder ™h—r—™teristi™s of m—rked point pro™essesD
      fernoulliD volF UD ppF WW!IIUD PHHIF
‘PII“ hF ƒtoy—n —nd eF €enttinenD ‚e™ent —ppli™—tions of point pro™ess methods in
      forestry st—tisti™sD ƒt—tisti™—l ƒ™ien™eD volF ISD noF ID ppF TI!UVD PHHHF
‘PIP“ ‚F ‡en —nd ‚F ƒindingEv—rsenD ƒto™h—sti™ modelling —nd simul—tion of sm—ll
      f—ults ˜y m—rked point pro™esses —nd krigingD iF‰F f——( —nd xFeF ƒ™hol(eld
      @edsAD qeost—tisti™s ‡ollongongD volF ID ppF QWV!RIRD IWWUF
‘PIQ“ pF ens™om˜eD „he v—lidity of ™omp—r—tive experimentsD tourn—l of the ‚oy—l
      ƒt—tisti™—l ƒo™ietyF ƒeries eFD volF IIID noF QD ppF IVI!PIID IWRVF
‘PIR“ xF fez —nd tF ‚ivoir—rdD „r—nsitive geost—tisti™s to ™h—r—™terise sp—ti—l —ggreg—E
      tions with di'use limits X —n —ppli™—tion on m—™kerel i™htyopl—nktonD pisheries
      ‚ese—r™hD volF SHD ppF RI!SVD PHHIF
               ©
‘PIS“ tF w—ssà D e™ousti™ o˜serv—tions in the ˜—y of ˜is™—y X s™holingD verti™—l disE
      tri˜utionD spe™ies —ssem˜l—ges —nd ˜eh—viourD ƒ™ienti— w—rin—D volF THD noF PD
      ppF PPU!PQRD IWWTF
‘PIT“ pF qerlottoD sdenti(™—tion —ns sp—ti—l str—ti(™—tion of tropi™—l (sh ™on™entr—tions
      using —™ousti™ popul—tionsD equ—ti™ viving ‚esour™esD volF TD ppF PRQ!PSRD IWWQF
‘PIU“ wF hor—yD tF w—sseD —nd €F €etitg—sD €el—gi™ (sh sto™k —ssessment ˜y —™ousti™
      methods —t ifremerD http XGG—r™himerFifremerFfrGdo™GHHHHQGIIRRTGD PHIHF
‘PIV“ hF w—™venn—nD €F pern—ndesD —nd hF tFD e ™onsistent —ppro—™h to de(nitions
      —nd sym˜ols in (sheries —™ousti™sD sgiƒ tourn—l of w—rine ƒ™ien™eD volF SWD ppF
      QTS!QTWD PHHPF
                             ©
‘PIW“ €F €etitg—sD tF w—ssà D €F feilloisD iF ve˜—r˜ierD —nd eF ve g—nnD ƒ—mpling
      v—ri—n™e of spe™ies identi(™—tion in (sheries —™ousti™ surveys ˜—sed on —utom—ted
      pro™edures —sso™i—ting —™ousti™ im—ges —nd tr—wl h—ulsF sgiƒ tourn—l of w—rine
      ƒ™ien™eD volF TH@QAD ppF RQU!RRSD PHHQF
‘PPH“ sF u—rouiD ‚F p—˜letD —nd tFEwF fou™herD p—st m—r™hing —nd —™ousti™ des™riptors
      ˜—sed method for (sh proportion interpol—tionD y™e—ns9HVD PHHVF
‘PPI“ „F r—mmond —nd qF ƒw—rtzm—nD e gener—l pro™edure for estim—ting the ™omE
      position of (sh s™hool ™luster using st—nd—rd —™ousti™ survey d—t—D sgiƒ tourn—l
      of w—rine ƒ™ien™eD volF SVD ppF IIIS!IIQPD PHHIF
‘PPP“ „F u—il—thD „he divergen™e —nd ˜h—tt—™h—rry— dist—n™e me—sure in sign—l seE
      le™tionD siii tr—ns—™tions on gommuni™—tion „e™hnologyD volF ISD noF ID ppF
      SP!THD IWTUF
™lxiv                                                              BIBLIOGRAPHIE




‘PPQ“ ƒF uull˜—™kD snform—tion theory —nd st—tisti™sD tohn ‡iley —nd ƒonsD x‰D IWSWF
‘PPR“ ƒF uull˜—™k —nd ‚F vei˜lerD yn inform—tion —nd su0™ien™yD enn—ls of w—theE
      m—ti™—l ƒt—tisti™sD volF PPD noF ID ppF UW!VTD IWSIF
‘PPS“ yF …llt—ngD pish sto™k —ssessment —nd predi™tions X integr—ting relev—nt knowE
      ledgeF —n overviewF ƒ™ienti— w—rin—D volF TUD noF ID ppF S!IPD PHHQF
‘PPT“ rF ‚o˜oth—mD €F foshD tF qutierrezEistr—d—D tF g—stilloD —nd sF €ulidoEg—lvoD
      e™ousti™ identi(™—tion of sm—ll pel—gi™ spe™ies in ™hile using support m—™hines
      —nd neur—l networksD pisheries ‚ese—r™hD volF IHPD noF IEPD ppF IIS!IPPD PHIHF
‘PPU“ wF iveringh—mD vF †—n qoolD gF ‡illi—msD tF ‡innD —nd eF isserm—nD „he
      p—s™—l visu—l o˜je™t ™l—sses @vo™A ™h—llengeD sntern—tion—l tourn—l of gomputer
      †isionD volF VVD noF PD ppF QHQ!QQVD PHIHF
‘PPV“ †F perr—riD wF w—rinEtimenezD —nd eF isserm—nD €rogressive se—r™h sp—™e reE
      du™tion for hum—n pose estim—tionD gomputer †ision —nd €—ttern ‚e™ognitionD
      ppF I!VD PHHVF
‘PPW“ tF w™euleyD „F g—et—noD —nd eF ƒmol—D ‚o˜ust ne—rEisometri™ m—t™hing vi—
      stru™tured le—rning of gr—pgi™—l modelsD gonferen™e on xeur—l snform—tion €roE
      ™essing ƒystemsD PHHVF
‘PQH“ wF fl—s™hko —nd gF v—mpertD ve—rning to lo™—lize o˜je™ts with stru™tured output
      regressionD iurope—n gonferen™e on gomputer †isionD PHHVF
‘PQI“ „F r—r—d—D rF x—k—y—m—D —nd ‰F uuniyoshiD smproving lo™—l des™riptors ˜y emE
      ˜edding glo˜—l —nd lo™—l sp—ti—l inform—tionD iurope—n gonferen™e on gomputer
      †isionD PHIHF

These lefort

  • 1.
    N° d’ordre :2010telb0164 Sous le sceau de l’Université européenne de Bretagne Télécom Bretagne En habilitation conjointe avec l’Université de Rennes 1 Co-tutelle avec l’Ifremer Ecole Doctorale – MATISSE Apprentissage et classification faiblement supervisée : Application en acoustique halieutique Thèse de Doctorat Mention : Traitement du signal Présentée par Riwal Lefort Département : Signal et Communication Laboratoire : Labsticc Pôle : CID Directeur de thèse : Jean-Marc Boucher Soutenue le 29 novembre 2010 Jury : M. Frédéric Jurie, professeur, université de Caen (Rapporteur) Mme Pascale Kuntz, professeur, université de Nantes (Rapporteur) M. Jean-Marc Boucher, professeur, Telecom Bretagne (Directeur de thèse) M. Laurent Miclet, professeur, université de Rennes1 (Examinateur) M. Ronan Fablet, enseignant-chercheur, Telecom Bretagne (Examinateur) M. Carla Scalabrin, chercheur, Ifemer (Examinateur) M. Laurent Berger, Ifremer (Invité)
  • 3.
    Table des matières Tabledes matières v 1 Introduction générale vii I Classication automatique et apprentissage faiblement su- pervisé xi 2 Les modèles de classication usuels : état de l'art xiii PFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xiii PFP gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F F F F F xiv PFPFI wodèle génér—tif F F F F F F F F F F F F F F F F F F F F F F F F F F xv PFPFP wodèle dis™rimin—nt F F F F F F F F F F F F F F F F F F F F F F F F xvi PFPFQ wodèle hy˜ride X —r˜res de ™l—ssi(™—tion F F F F F F F F F F F F F xix PFQ gl—ssi(™—tion non supervisée F F F F F F F F F F F F F F F F F F F F F F F F xxi PFR gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F F F F F xxii PFS gl—ssi(™—tion semiEsupervisée F F F F F F F F F F F F F F F F F F F F F F F xxiii PFT gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvi 3 Classication faiblement supervisée : modèles proposés xxvii QFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvii QFIFI qénér—lités F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxvii QFIFP xot—tions F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii QFP wodèle génér—tif F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii QFPFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxviii QFPFP gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xxviii QFPFQ gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xxx QFQ wodèle dis™rimin—nt F F F F F F F F F F F F F F F F F F F F F F F F F F F F xxxiii
  • 4.
    iv TABLE DES MATIÈRES QFQFI gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xxxiv QFQFP gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xli QFR er˜res de ™l—ssi(™—tion F F F F F F F F F F F F F F F F F F F F F F F F F F F xlii QFRFI gl—ssi(™—tion supervisée F F F F F F F F F F F F F F F F F F F F F F xlii QFRFP gl—ssi(™—tion f—i˜lement supervisée F F F F F F F F F F F F F F F F xliv QFS gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlv 4 Association de classieurs xlvii RFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlvii RFP insem˜le de ™l—ssi(eurs F F F F F F F F F F F F F F F F F F F F F F F F F F xlvii RFPFI it—t de l9—rt F F F F F F F F F F F F F F F F F F F F F F F F F F F F F xlviii RFPFP ‚—ndom forest X —pprentiss—ge supervisé F F F F F F F F F F F F F xlix RFPFQ ‚—ndom forest X —pprentiss—ge f—i˜lement supervisé F F F F F F F l RFQ gl—ssi(™—tion itér—tive F F F F F F F F F F F F F F F F F F F F F F F F F F F li RFQFI epprentiss—ge itér—tif simple F F F F F F F F F F F F F F F F F F F F li RFQFP epprentiss—ge itér—tif —mélioré F F F F F F F F F F F F F F F F F F F lii RFR gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F liii 5 Evaluations et performances des modèles lv SFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lv SFP €ro™édure de simul—tion F F F F F F F F F F F F F F F F F F F F F F F F F F lv SFQ teux de données F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lvi SFR €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lvii SFRFI ghoix des p—r—mètres F F F F F F F F F F F F F F F F F F F F F F F F lvii SFRFP €erform—n™es en fon™tion de l— ™omplexité des données d9—pprenE tiss—ge F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lix SFRFQ €erform—n™es en fon™tion du nom˜re de ™l—sses d—ns les mél—nges lx SFS gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxiii II Classication automatique en acoustique halieutique lxvii 6 Sondeurs acoustiques et logiciels de traitement lxix TFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxix TFP ƒondeur monof—is™e—u F F F F F F F F F F F F F F F F F F F F F F F F F F F lxx TFQ ƒondeur multif—is™e—ux F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxii TFR gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxiii
  • 5.
    TABLE DES MATIÈRES v 7 Classication et reconnaissance des structures lxxvii UFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxvii UFP it—t de l9—rt F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxviii UFQ gl—ssi(™—tion et re™onn—iss—n™e des ˜—n™s de poissons F F F F F F F F F F lxxix UFQFI hes™ripteurs des ˜—n™s Ph F F F F F F F F F F F F F F F F F F F F F lxxix UFQFP hes™ripteurs des ˜—n™s Qh F F F F F F F F F F F F F F F F F F F F F lxxx UFQFQ €erform—n™es de ™l—ssi(™—tion X f—n™s Ph F F F F F F F F F F F F F lxxxiii UFR gl—ssi(™—tion et re™onn—iss—n™e des ensem˜les de ˜—n™s de poissons F F lxxxiv UFRFI €ré—m˜ule F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F lxxxiv UFRFP hes™ripteur glo˜—l proposé F F F F F F F F F F F F F F F F F F F F F lxxxv UFRFQ €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F x™ UFRFR ƒynthèse F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™i UFS gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™ii 8 Application à l'évaluation des biomasses des espèces halieutiques dans le Golfe de Gascogne cv VFI sntrodu™tion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™v VFP wéthode de l9expert pour l9év—lu—tion de ˜iom—sses F F F F F F F F F F F ™vi VFQ wéthodes —lgorithmiques d9év—lu—tion de ˜iom—sses F F F F F F F F F F F ™ix VFR gl—ssi(™—tion de ˜—n™s de poissons pour l9év—lu—tion de ˜iom—sses F F F ™x VFRFI gomment év—luer l— ˜iomm—sse F F F F F F F F F F F F F F F F F F ™x VFRFP …n ™ritère d9optimis—tion des p—r—mètres des ™l—ssi(eurs F F F F ™xii VFS €erform—n™es F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xiii VFSFI ƒimul—tion d9un s™én—rio F F F F F F F F F F F F F F F F F F F F F F ™xiii VFSFP g—mp—gne €ivqeƒHH F F F F F F F F F F F F F F F F F F F F F F F ™xiv VFSFQ his™ussion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xxi VFT gon™lusion F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F F ™xxvi 9 Conclusion Générale cxxvii III Annexes et Bibliographie cxxxiii
  • 7.
    CHAPITRE 1 Introduction générale gette thèse tr—iteD d9une p—rtD de l— ™l—ssi(™—tion —utom—tique d—ns un ™—dre d9—pE prentiss—ge f—i˜lement superviséD et d9—utre p—rtD de l9—™oustique h—lieutiqueF ve m—E nus™rit est s™indé en deux p—rties prin™ip—les X les méthodes d9—pprentiss—ge d9un point de vue théorique @p—rtie sA et l9—ppli™—tion de ™es méthodes d—ns le ™ontexte de l9—™ousE tique h—lieutique @p—rtie ssAF h—ns ™e premier ™h—pitre introdu™tifD nous ™ommençons p—r dé(nir l— pro˜lém—tique de l9intelligen™e —rti(™ielle d—ns son ensem˜leD puisD ™elle de l9—pprentiss—ge f—i˜lement superviséD ensuiteD nous introduisons le dom—ine de l9—™ousE tique h—lieutiqueD et en(nD le pl—n de ™ette thèse est présentée su™™in™tementF h—ns l9ensem˜le des dom—ines de re™her™heD ™elui de l9intelligen™e —rti(™ielle est ex™essivement proli(queF v9intelligen™e —rti(™ielle ™onsiste à —n—lyser et tr—iter des siE gn—ux numériquesD tels que des photogr—phiesD des vidéosD des sonsD des r—diogr—phiesD des é™hogr—phiesD des im—ges r—d—r @s—tellitesD —éron—utiqueD —utomo˜ileD et™AD des p—ges we˜D des do™uments m—nus™rits @—n—lyse de l— sém—ntiqueAD ou en™oreD toute entité qui se dé™rit de m—nière numériqueF ves méthodes proposées s9inspirent souvent de l9hommeD l9o˜je™tif ét—nt de développer des outils d9—n—lyse et de tr—itement dont les perform—n™es sont —u moins équiv—lentes à ™elles du ™erve—u hum—inF v— question fond—ment—le est résumée d—ns l9exemple suiE v—nt X si l9homme —rrive à di'éren™ier un o˜jet d9un —utre d—ns une im—geD pourquoi un ordin—teur n9y —rriver—itEil p—s c get —™h—rnement s™ienti(que est prin™ip—lement moE tivé p—r le très fort potentiel des outils inform—tiquesF einsiD l9import—n™e de p—rvenir à ™e ˜ut et qui justi(e que l9intelligen™e —rti(™ielle ™on™entre une m—jorité de reg—rds et d9intérêtsD réside d—ns l9énorme ™—p—™ité de ™—l™uls et de mémoires des ordin—teursF ve dom—ine de l9intelligen™e —rti(™ielle peut être s™indé en une multitude de ™—tégoriesF €—rmi les dis™iplines ™ommunesD on peut ™iter le tr—™king @suivi des stru™tures déforE m—˜les ou indéform—˜les d—ns une vidéoAD l— déte™tion de texture d—ns des im—gesD l— ™l—ssi(™—tion @—ttri˜ution d9une ™l—sse à une im—geD à une portion d9im—geD à un pixelD et à toute entité qui peut être ™l—ssée d—ns une ™—tégorieAD l— re™onn—iss—n™e de formes @déte™tion du ™ontour d9un o˜jet d—ns une im—geAD l— rédu™tion de l— dimension des données @p—r exemple en ™ompression de donnéesAD l— fusion de données @l— réponse à une question posée se ˜—se sur une o˜serv—tion multiE™—pteur et ™ontextuelleAD et™F in intelligen™e —rti(™ielleD les ™her™heurs proposent des modélis—tions m—thém—tiques plus ou moins ™omplexes qui donnent l— solution à une question poséeF ges modèles peuvent être représentés p—r une ˜oite noire dont l9entrée est le sign—l issu du ™—pteur et dont l— sortie fournit une réponse à l— question poséeF v— plup—rt des modèles et
  • 8.
    viii CHAPITRE 1. INTRODUCTION GÉNÉRALE des —ppro™hes proposés sont tr—nsverses X ils sont utilisés d—ns plusieurs dis™iplines en même tempsF €—r exempleD le même modèle m—thém—tique de suivi d9o˜jet peut être utilisé pour suivre une ™i˜le d—ns une im—ge r—d—r ou pour suivre un o˜jet d—ns une vidéoF he l— même m—nièreD un modèle m—thém—tique peut servir à l— foisD de ™l—ssiE (eur d9o˜jets d—ns des im—gesD de ™l—ssi(eur de types de sonsD de ™l—ssi(eur de p—ges we˜D de ™l—ssi(eur de do™uments m—nus™ritsD et™F gette rem—rque justi(e le pl—n géE nér—l de l— thèse X plutôt que de proposer des méthodes de tr—itement du sign—l d—ns un ™—dre —ppli™—tifD nous nous pl—çons d9—˜ord d—ns le ™—s génér—l qui —utorise toute tr—nsvers—litéD puis nous étudions une —ppli™—tion possi˜le des méthodes proposéesF h—ns ™ette thèseD d—ns l— p—rtie s dédiée à l9—ppro™he théorique et génér—leD nous nous pl—çons d—ns le ™—s de l— ™l—ssi(™—tion d9o˜jetsD ™euxE™i ét—nt des entités dé(nies p—r un ensem˜le de des™ripteursD p—r exemple les ™—r—™téristiques des formes des o˜E jets pré—l—˜lement déte™tés d—ns une im—geF v— question théorique prin™ip—le que nous nous posons est X gomment r—nger ™es o˜jets d—ns des ™l—sses c yu ™omment —ttri˜uer un l—˜el à ™h—que o˜jet c xous dé(nissons un l—˜el ™omme ét—nt l— ™l—sse —sso™iée à un o˜jetF sm—ginonsEnous une ˜oite noire qui prend un o˜jet s—ns l—˜el en entrée et dont l— sortie renseigne sur les ™l—sses pro˜—˜lesF gette ˜oite noire ™ontient un modèle de ™l—ssi(™—tionF geuxE™i sont très nom˜reux et les —ppro™hes sont très v—ri—˜lesF ges modèles de ™l—ssi(™—tions dépendent de p—r—mètres @propres à ™h—que méthodeA qui sont déterminés lors d9une ph—se d9—pprentiss—geF v9—pprentiss—ge des modèles de ™l—sE si(™—tion est e'e™tué à p—rtir d9un ensem˜le d9o˜jets @ou de donnéesA d9—pprentiss—ge qui sont plus ou moins l—˜élisésF in e'etD il existe plusieurs types d9—pprentiss—ge qui dépendent de l— ™onn—iss—n™e plus ou moins ex—™te des l—˜els des données d9—pprentisE s—geF ƒi tous les l—˜els sont ™onnusD on p—rle d9—pprentiss—ge superviséF in —pprentiss—ge semiEsuperviséD seule une p—rtie des données est l—˜éliséeD l9—utre ne l9est p—sF in —pE prentiss—ge non superviséD les données ne sont p—s l—˜éliséesD l9o˜je™tif est de regrouper les o˜jets en p—quets de données simil—iresF in(nD l9—pprentiss—ge f—i˜lement supervisé génér—lise le ™—s supervisé et semiEsupervisé X les données d9—pprentiss—ge sont —sso™iées à un ve™teur dont ™h—que ™ompos—nte donne l— pro˜—˜ilité — priori d9—ttri˜ution de l9o˜jet ™onsidéré à ™h—que ™l—sse respe™tivementF v9origin—lité de ™ette p—rtie se situe d—ns ™e form—lisme d9—pprentiss—ge f—i˜lement supervisé qui ™onsidère un modèle de ™l—ssi(™—tion dont l9—pprentiss—ge —grège d9—utres formes d9—pprentiss—geF gomme nous l9—vons présenté d—ns le p—r—gr—phe introdu™tifD un gr—nd nom˜re de modélis—tions m—thém—tiques est envis—gé pour ™h—™un des types d9—pprentiss—geF ges gr—ndes f—milles de modèles sont tr—nsverses X le plus souventD moyenn—nt quelques reE formul—tions méthodologiques ou m—thém—tiquesD elles s9—ppliquent pour tous les types d9—pprentiss—geF h—ns ™ette thèseD nous reprenons trois gr—ndes f—milles de modèles X les modèles génér—tifsD les modèles dis™rimin—ntsD et des modèles hy˜rides de ™l—ssi(™—tionF xotre o˜je™tif est de proposerD pour ™h—™une des —ppro™hes m—thém—tiques envis—géesD un modèle de ™l—ssi(™—tion dont les p—r—mètres sont év—lués d—ns le ™—dre de l9—pprenE tiss—ge f—i˜lement superviséD et don™D qui génér—lise toutes les formes d9—pprentiss—geF h—ns le dom—ine de l— ™l—ssi(™—tion d9o˜jetsD d9—utres méthodes ont vu le jourF gellesE ™i exploitent les modèles m—thém—tiques fond—ment—ux pré™édemment dé™rits en les ™om˜in—nt de plusieurs f—çonsF einsiD ils peuvent être ™on™—ténés en ™—s™—de de ™l—ssiE (eursD les résult—ts de ™l—ssi(™—tion issus de plusieurs ™l—ssi(eurs peuvent être fusionnés
  • 9.
    ix pour prodiguer uneseule proposition de ™l—ssi(™—tionD l9estim—tion des p—r—mètres d9un modèle de ™l—ssi(™—tion peut s9e'e™tuer itér—tivementD et™F …ne multitude d9—ppro™hes est envis—ge—˜le pour e'e™tuer une ™om˜in—isonF h—ns ™ette thèse nous —˜ordons les méthodes de ™om˜in—isons les plus ™onnues et nous proposons des solutions pour l9—pE prentiss—ge f—i˜lement superviséF ves perform—n™es de ™l—ssi(™—tion des modèles et des méthodes de ™om˜in—ison proposés d—ns l— p—rtie s sont év—luées sur des jeux de données d9—pprentiss—ge synthétiques dont nous m—itrisons les pro˜—˜ilités — priori de ™l—ssi(™—tionF ge ™ontrôle tot—l des données d9—pprentiss—ge permet de ™omp—rer et d9—n—lyser les di'érentes —ppro™hes rel—tivement à des ™onditions p—rti™ulièresF h—ns l— p—rtie ss de ™ette thèseD nous étudions l9—pprentiss—ge st—tistique d—ns le ™—dre de l9—™oustique h—lieutiqueF v9—™oustique h—lieutique est l—rgement étudiée p—r l9snstitut pr—nç—is de ‚e™her™he pour l9ixploit—tion de l— wi‚ @sp‚iwi‚A qui — (n—n™é en p—rtie ™ette thèseD ™e dom—ine s™ienti(que f—it p—rtie de l— f—mille de l9—™oustique sousEm—rineF €—rmi l9ensem˜le des énergies possi˜les @éle™triqueD éle™troE m—gnétiqueD lumineuseD et™AD seule l9énergie —™oustique possède des ™—r—™téristiques de prop—g—tion —déqu—tes d—ns le milieu sousEm—rinF einsiD d—ns l9environnement —qu—E tiqueD l9—™oustique est utilisée en télé™ommuni™—tion ™omme support de tr—nsmissionD en géos™ien™e pour l9étude des fonds m—rins et de leur sousEsols @les —ppli™—tions ét—nt l— sédimentologieD l— ˜—thymétrie et l— prospe™tion pétrolièreAD en o™é—nogr—phie physique pour l9étude et l— ™—r—™téris—tion des ™our—nts m—rinsD et en ˜iologie —ve™ l9étude du ™omportement des espè™es sousEm—rinesF ge dernier point est tr—ité d—ns ™ette thèse X l9o˜serv—tion —™oustique des espè™es h—lieutiques et l9—n—lyse de ™es o˜serv—tionsF …n sondeur —™oustiqueD pl—™é sous l— ™oque d9un n—vireD est le seul outil qui permet d9o˜tenir une im—ge de résolution ™orre™teD d—ns l—quelle (gure le fond de l— mer et tous les o˜jets présents d—ns l— ™olonne d9e—uF heux f—™teurs prin™ip—ux motivent l9utiE lis—tion des sondeurs —™oustiques en ˜iologie h—lieutiqueF €remièrementD l9exploit—tion des ressour™es h—lieutiques doit être en™—drée —(n d9éviter tout pro˜lème de surexploiE t—tion et don™ de disp—rition des espè™esF h—ns ™e ™ontexteD les sondeurs —™oustiques permettent de dimensionner les sto™ks des espè™es ™on™ernées —(n de (xer des quot—s de pê™heF xotons qu9il existe d9—utres moyens d9év—lu—tion des sto™ksD ™omme l9é™h—nE tillonn—ge en ™riéesF heuxièmementD d9un point de vue ˜iologiqueD pour ™omprendre le fon™tionnement de l9é™osystème sous m—rin d—ns son ensem˜leD et —insi l9étude de l— vie sur terreD il est né™ess—ire d9étudier le ™omportement des espè™es h—lieutiques et du pl—n™tonF €—r exempleD on peut se dem—nder ™omment vont se ™omporter les s—rdines rel—tivement —u ré™h—u'ement ™lim—tique X vontEelles migrer c veur nom˜re v—EtEil évoE luer c „outes ™es questions né™essitent une o˜serv—tion —™oustique de l— ™olonne d9e—uD seul moyen de déterminer l— ™omposition des o™é—nsF ges o˜serv—tions —™oustiques sont e'e™tuées lors de ™—mp—gnes o™é—nogr—phiques dont le proto™ole in™lut un point ™ru™i—l et ™ritique X l9identi(™—tion des stru™tures de l9im—ge —™oustiqueF e™tuellementD ™ette ét—pe d9identi(™—tion est e'e™tuée p—r un expert à p—rE tir des im—ges —™quises p—r un sondeur —™oustique monof—is™e—uD ™epend—ntD il existe une forte dem—nde d9—utom—tis—tion du pro™essus qui se justi(e p—r le f—it que l9expert est ™onfronté à une m—sse d9inform—tions de plus en plus import—nteF €remièrementD il existe plusieurs types de sondeurs monof—is™e—u ™—r—™térisés p—r des fréquen™es d9imE pulsions —™oustiques di'érentesD ™e qui modi(e les morphologies des stru™tures d—ns les
  • 10.
    x CHAPITRE 1. INTRODUCTION GÉNÉRALE im—ges et leurs —ttri˜uts énergétiquesF heuxièmementD l9—rrivée du sondeur multif—isE ™e—ux permet l9—™quisition d9une im—ge en trois dimensions de l— ™olonne d9e—u qui est ˜e—u™oup plus pré™ise et plus ri™he en inform—tionsD m—is qui rend l9—n—lyse des données plus ™omplexeF einsi l9expert est supposé ™onsidérer les inform—tions ™umulées de tous les types de sondeurs à l— foisF wême si le ™erve—u hum—in est puiss—nt et très perforE m—ntD il possède ses limitesD et l9—n—lyse ™onjuguée de l9ensem˜le de ™es inform—tions est ™omplexeF gette —ppli™—tion illustre le tr—nsfert hommeGm—™hine qui — été dé™rit d—ns le p—r—gr—phe pré™édent et justi(e l9—utom—tis—tion du pro™essus d9identi(™—tion des stru™tures d—ns les im—ges —™oustiquesF h—ns ™e ™ontexte de ™l—ssi(™—tion d9im—ges etGou de stru™tures d—ns des im—ges —™ousE tiquesD nous proposerons des méthodes d9—pprentiss—ge de modèles de ™l—ssi(™—tion pour l9—™oustique h—lieutiqueD nous proposerons —ussi des des™ripteurs d9—grég—tion de poissons d—ns les é™hogr—mmesD et une —ppli™—tion à l9év—lu—tion des sto™ks de poissons du qolfe de q—s™ogne ser— présentéeF ge mémoire de thèse est org—nisé en deux gr—ndes p—rties @les p—rties s et ss qui sont ellesEmêmes s™indées en plusieurs ™h—pitresAF €remièrementD l— p—rtie s tr—ite du pro˜lème de l— ™l—ssi(™—tion —utom—tique d9o˜jets d—ns le ™—dre de l9—pprentiss—ge f—iE ˜lement superviséF eprès un ét—t de l9—rt génér—l sur les méthodes de ™l—ssi(™—tion @™h—pitre PAD trois modèles de ™l—ssi(™—tion dont les philosophies sont opposées seront étudiés d—ns le ™h—pitre QF ve ™h—pitre suiv—nt @™h—pitre RA ™on™entre des méthodes de ™om˜in—isons de ™l—ssi(eurs élément—ires et de fusion de ™l—ssi(eursF in(nD des expéE rien™es sont menées d—ns le ™h—pitre S —(n d9—n—lyser et de ™omp—rer les perform—n™es de ™l—ssi(™—tion des modèles et des méthodes proposéesF „outes ™es expérien™es sont e'e™tuées à p—rtir de jeux de données synthétiques qui nous permettent de m—îtriser les ™omplexités des ensem˜les d9—pprentiss—geF heuxièmementD l— p—rtie ss tr—ite de données qui proviennent essentiellement de l9—™oustique h—lieutiqueF h—ns le ™h—pitre TD les ™—r—™téristiques te™hniques des sondeurs —™oustiques sont présentées ˜rièvementD —insi que l— te™hnique d9o˜tention des im—ges de l— ™olonne d9e—uF ves des™ripteurs des —grég—tions sont étudiés d—ns le ™h—pitre UF heux types d9—n—lyses sont envis—gés X une —n—lyse lo™—le qui ™onsiste en l9emploi des des™ripteurs des ˜—n™s de poissons et une —n—lyse glo˜—le pour l—quelle nous ™—l™ulons des des™ripteurs glo˜—ux pour une im—ge de ˜—n™s de poissonsF in(nD une —ppli™—tion à l9év—lu—tion des sto™ks de poissons d—ns le qolfe de q—s™ogne est e'e™tuée @™h—pitre VAF xous en pro(tons pour —ppliquer les méthodes d9—pprentiss—ge f—i˜lement supervisé proposées d—ns l— p—rtie s du mémoire et pour utiliser les des™ripteurs de ˜—n™s de poissons présentés d—ns l— p—rtie ssF …ne ™on™lusion génér—le @™h—pitre WA et une p—rtie qui ™ontient les —nnexes et l— ˜i˜liogr—phie @p—rtie sssA ™los ™e mémoire de thèseF
  • 11.
    Première partie Classication automatique et apprentissage faiblement supervisé
  • 13.
    CHAPITRE 2 Les modèles de classication usuels : état de l'art 2.1 Introduction ve ™h—pitre I est ™ons—™ré à l9ét—t de l9—rt des modèles de ™l—ssi(™—tion usuelsF ves méthodes exist—ntes sont présentées su™™in™tementD l9o˜je™tif n9ét—nt p—s de tout expli™iter en dét—il m—is de f—ire ét—t des ™onn—iss—n™es exist—ntes en ™l—ssi(™—tion d9o˜jets —(n de situer les —pports méthodologiquesF v— pro˜lém—tique porte sur l9—pprentiss—ge st—tistique et l— ™l—ssi(™—tion —utom—E tique pro˜—˜iliste d9un ensem˜le d9o˜jetsF …n modèle de ™l—ssi(™—tion est un outil m—thém—tique qui permet d9—'e™ter une ™l—sse à une entité en fon™tion de ses proE priétés intrinsèquesF v9—ppro™he étudiée d—ns ™e mémoire est purement pro˜—˜iliste X ™h—que o˜jet —pp—rtient à une ™l—sse et nous m—nipulons des ve™teurs qui tr—duisent les pro˜—˜ilités d9—'e™t—tion à ™h—que ™l—sseF xotons queD ™omme notre —ppro™he est pro˜—˜ilisteD etD ™omme nos ™onn—iss—n™es initi—les sur les données d9—pprentiss—ge sont des pro˜—˜ilités de ™l—ssi(™—tion — prioriD nous n9étudierons p—s des méthodes plus géE nér—les ™omme l— théorie de hempsterEƒh—fer ‘I“ qui ™om˜ine des ™onn—iss—n™es — priori distin™tes sur les données d9—pprentiss—geF in ™l—ssi(™—tion —utom—tiqueD on distingue les données d9—pprentiss—ge qui ét—E ˜lissent le modèle de ™l—ssi(™—tionD et les données de test qui sont ™l—ssées à l9—ide du modèleF €our —pprendre un modèle de ™l—ssi(™—tionD il existe plusieurs types d9—pE pro™hes qui dépendent de l— n—ture des données d9—pprentiss—geF ƒi les ™l—sses d9origine des données d9—pprentiss—ge sont ™onnuesD nous p—rlons d9—pprentiss—ge 4 supervisé 4F xous p—rlons d9—pprentiss—ge 4 non supervisé 4 @ou de p—rtitionnement de donnéesA d—ns le ™—s où les ™l—sses d9origine ne sont p—s ™onnuesF …n troisième groupe r—ssem˜le les ™—s pour lesquels il existe une in™ertitude sur le l—˜el des données d9—pprentiss—geD p—r exemplesD le ™—s où seuls les — priori des ™l—sses sont ™onnusD ou le ™—s de l— ™l—ssi(E ™—tion d9o˜jets d—ns des im—ges pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses sont ™onnues ‘P“F h—ns ™e ™—sD nous p—rlons d9—pprentiss—ge 4 f—i˜lement supervisé 4 ou d9—pE prentiss—ge 4 p—rtiellement supervisé 4F v9—pprentiss—ge 4 semiEsupervisé 4 est utilisé qu—nd il y — peu de données l—˜élisées ‘Q“F hes exemples s—ns l—˜el sont —lors —joutés à l9ensem˜le d9—pprentiss—ge qui ne ™ontient que des exemples de ™l—sses ™onnues d—ns
  • 14.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xiv L'ART le ˜ut d9—™™roître l— qu—ntité d9inform—tionsF v9—pprentiss—ge f—i˜lement supervisé génér—lise les ™—s supervisés et semiEsupervisésF ve prin™ipe de l9—pprentiss—ge f—i˜lement supervisé est d9—ttri˜uerD à ™h—que exemple d9—pprentiss—geD un ve™teur qui indique les pro˜—˜ilités — priori d9—'e™t—tion à ™h—que ™l—sseF €—r exempleD en ™onsidér—nt IP o˜jets pour l9—pprentiss—ge et Q ™l—sses possi˜lesD —lors les ve™teurs qui fournissent les pro˜—˜ilités d9—'e™t—tion pourr—ient être X 0.4 1 0.1 0 0 0.33 0.2 0.4 0 0.2 0.4 0 0.6 0 0 0 0.1 0.8 0.5 0.5 1 0 0.33 0.33 0.5 0.3 0.3 0.3 0 1 0.6 .2 0.5 0.1 0 1 @PFIA in —pprentiss—ge superviséD les pro˜—˜ilités d9—'e™t—tion pourr—ient être X 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 1 0 1 0 1 0 0 1 0 1 0 1 0 1 @PFPA in —pprentiss—ge semiEsuperviséD les pro˜—˜ilités d9—'e™t—tion pourr—ient être X 1 1 0 0 0 0 0.33 0.33 0.33 0.33 0.33 0.33 0 0 0 0 1 0 1 0 0 1 0 1 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 0.33 @PFQA €our l— ™l—ssi(™—tion semiEsuperviséeD les exemples initi—lement s—ns l—˜el peuvent être ™onsidérés ™omme l—˜élisés à l9—ide d9un ve™teur qui tr—duit le f—it que les ™l—sses sont équipro˜—˜lesF einsiD les ™ompos—ntes du ve™teurD qui donnent l— pro˜—˜ilité des ™l—ssesD sont ég—lesF v9—pprentiss—ge semiEsupervisé peut —ussi être vu ™omme un ™—s d9—pprenE tiss—ge f—i˜lement supervisé pour lequel on —ur—it e'e™tué un seuill—ge sur les — priori @si les pro˜—˜ilités de ™l—ssi(™—tion — priori sont simil—ires pour un o˜jet d9—pprentisE s—geD —lors les ™l—sses sont ™onsidérées ™omme équipro˜—˜lesD et si une pro˜—˜ilité de ™l—ssi(™—tion — priori domine d—ns l9ensem˜leD —lors l— ™l—sse ™onsidérée est —ttri˜uée à l9exemple ™on™ernéAF in(nD en —pprentiss—ge non superviséD le nom˜re de ™l—sse est in™onnu et —u™un l—˜el n9est disponi˜leF sl v— de soit que l— ™omplexité des modèles d9—pprentiss—ge —ugmente —ve™ l9in™erE titude sur les l—˜elsF gepend—ntD un —lgorithme ™omplexe ou un —pprentiss—ge à p—rtir d9un jeu de données très in™ert—ins n9engendre p—s né™ess—irement de m—uv—ises perE form—n™es de ™l—ssi(™—tionF €—r exempleD d—ns ™ert—ins ™—sD on montre que l9—jout de données s—ns l—˜el —u jeu de donnée d9—pprentiss—ge @—pprentiss—ge semiEsupervisé ‘Q“A permet d9—méliorer les perform—n™es de ™l—ssi(™—tionF €our l9—pprentiss—ge superviséD l9—pprentiss—ge non superviséD l9—pprentiss—ge f—iE ˜lement superviséD et l9—pprentiss—ge semiEsuperviséD respe™tivement étudiés d—ns les se™tions PFPD PFQD PFRD et PFSD nous expli™itons les modèles de ™l—ssi(™—tion —sso™iés et ™—r—™térisons leurs di'éren™esF gh—que méthode présentée est ™l—ssée d—ns une des gr—ndes f—milles de modèlesD à s—voir les modèles génér—tifsD les modèles dis™rimin—nts et les modèles hy˜rides que nous dé(nirons d—ns l— se™tion PFPF 2.2 Classication supervisée ‚—ppelons que l9—pprentiss—ge supervisé ™onsiste à ét—˜lir un modèle de ™l—ssi(™—E tionD à p—rtir d9un ensem˜le d9—pprentiss—ge ™onstitué de données dont les ™l—sses sont p—rf—itement ™onnuesF
  • 15.
    2.2. CLASSIFICATION SUPERVISÉE xv 2.2.1 Modèle génératif €renons l— dé(nition du mot 4 génér—tif 4 X 4 ui engendreD qui — r—pport à l— génér—tion 4 @gentre x—tion—l de ‚essour™e „extuelles et vexi™—lesAF h—ns ™e ™—sD le modèle est pro™he des donnéesF ƒi l— loi ™onsidérée @xorm—leD fêt—D q—mm—D mél—nge de q—ussienneD exponentielleD €oissonD F F F A pour le modèle de ™l—ssi(™—tion est ™onveE n—˜lement ™hoisieD l— seule ™onn—iss—n™e du modèle peut permettre de re™onstituer un ensem˜le d9o˜serv—tions possi˜lesF einsiD pour le modèle génér—tifD le ™l—ssi(eur est une fon™tion m—thém—tique qui dé™rit —u mieux l9org—nis—tion sp—ti—le des données d—ns l9esp—™e des des™ripteursF €—r exempleD si un jeu de données forme un ensem˜le de ˜oules d—ns l9esp—™e des —ttri˜utsD nous pouvons modéliser le nu—ge de points p—r un mél—nge de q—ussiennesF v9o˜je™tif de l9—pprentiss—ge ét—nt —lors de déterminer les positions @moyennesA et les t—illes @v—ri—n™esA de ™h—que modeF €lus génér—lementD l9—pE prentiss—ge ™onsiste à estimer les p—r—mètres d9une loi ™i˜le etD pour l— ™l—ssi(™—tionD l— pro˜—˜ilité — posteriori donne les pro˜—˜ilités de ™h—que ™l—sseF ey—nt ™hoisi une densité de pro˜—˜ilité ™i˜le p—r—métriqueD une te™hnique ™onnue ™onsiste à utiliser le m—ximum de vr—isem˜l—n™e @w†A pour estimer les p—r—mètres ‘R“ ‘S“ ‘T“ ‘U“ ‘V“ ‘W“ ‘IH“ ‘II“ ‘IP“ ‘IQ“F ves p—r—mètres optim—ux sont ™eux qui m—ximisent l— vr—isem˜l—n™eF ve ™—s multimod—l f—it que l— m—ximis—tion est très ™omplexeD d—ns ™e ™—sD on utilise un —utre estim—teur du m—ximum de vr—isem˜l—n™e X l9—lgorithme 4 ixpe™t—tion w—ximiz—tion 4 @iwA ‘IR“ ‘IS“ ‘IT“F gette méthode génér—tive permet de trouver le m—ximum de vr—isem˜l—n™e des p—r—mètres d9un modèle pro˜—˜iliste lorsque le modèle dépend de v—ri—˜les l—tentes non o˜serv—˜les @les proportions des modes du mél—ngeAF €lutôt que de trouver le jeu de p—r—mètres du modèle qui m—ximise l— vr—iE sem˜l—n™eD l9espér—n™e de l— logEvr—isem˜l—n™e ™omplétée p—r l— v—ri—˜le ™—™hée est m—ximisée ™onditionnellement à un jeu de p—r—mètres initi—lF gel— ™onduit —u ™—l™ul itér—tif de ™ette espér—n™e @ét—pe iA et des p—r—mètres qui m—ximisent ™ette espér—n™e @ét—pe wAF v— pro™édure est dét—illée d—ns l— se™tion QFP du ™h—pitre Q et d—ns le t—˜le—u QFIF v— version sto™h—stique de l9—lgorithme ‘IU“D —ppelée —lgorithme ƒiwD préE vient des m—ximums lo™—ux de vr—isem˜l—n™eF h9—utres —mélior—tions de l9—lgorithme portent sur l— r—pidité de ™onvergen™e de l9—lgorithme ‘IV“ ‘IW“F h—ns l9—lgorithme 4 ixpe™t—tion gondition—l w—ximiz—tion 4 @igwA ‘PH“D l9ét—pe w est rempl—™ée p—r une ét—pe de m—ximis—tion ™onditionnelle des p—r—mètresF gh—que p—r—mètre est m—ximisé individuellement ™onditionnellement —ux —utres qui sont (xésF f—sé sur le même prinE ™ipe que l9—lgorithme igwD l9—lgorithme iw 4 génér—lisé 4 @qiwA ‘IR“ ‘IS“ ‘IT“ est une —ltern—tive employée qu—nd l9ét—pe w est di0™ilement ré—lis—˜leD not—mment si le ™—l™ul des dérivées premières est di0™ileF h—ns ™e ™—sD les p—r—mètres ne sont p—s ™eux qui m—ximisent l9espér—n™e de l— logEvr—isem˜l—n™eD m—is n9importe quel jeu de p—r—mètres tel que ™ette espér—n™e soit supérieure à ™elle de l9itér—tion pré™édenteF w—lgré des perform—n™es —ssez moyennesD le ™l—ssi(eur ˜—yésien n—ïf ‘PI“ ‘PP“ ‘PQ“ est souvent utilisé pour ™omp—rer des méthodes de ™l—ssi(™—tion entre ellesD expérimenter les ensem˜les de ™l—ssi(eurs ‘PR“ ou les pro™essus itér—tifs ‘PS“ @™h—pitre RAF ƒ9—ppuy—nt sur le théorème de f—yesD les prédi™tions de toutes les hypothèses sont pondérées p—r les pro˜—˜ilités — prioriF v9—utre p—rti™ul—rité est de supposer l9indépend—n™e entre les des™ripteursF einsiD l— méthode du w—ximum de †r—isem˜l—n™e peut être employée
  • 16.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xvi L'ART pour estimer les p—r—mètres d9une loi liée à ™h—que des™ripteur indépend—mment ‘PT“F gette dépend—n™e est restreinte p—r le ™l—ssi(eur eyhi @4 ever—ge yneEhependen™e istim—tor 4 en —ngl—isA ‘PU“ qui ™hoisit un seul des™ripteur dont il estime l— dépend—n™e —ve™ les —utresF ves perform—n™es sont —lors —™™rues p—r r—pport —u ™l—ssi(eur ˜—yésien n—ïfF v9 4 ello™—tion de hiri™hlet v—tente 4 @vheA ‘PV“ est une nouvelle te™hnique issue de l9 4 en—lyse ƒémentique v—tente €ro˜—˜iliste 4 @€vƒeA ‘PW“F gontr—irement à l— méE thode vheD l— méthode €vƒe est limitée p—r son impossi˜ilité à générer de nouve—ux exemplesD ™el— v— à l9en™ontre du prin™ipe des modèles génér—tifsF ges pro™édures sont utilisées en ™l—ssi(™—tion de do™uments qui sont ™l—ssés p—r 4 ™on™ept 4 @un do™ument pouv—nt être —sso™ié à plusieurs ™on™eptsAF v— te™hnique est ˜—sée sur l— ™orrél—tion entre les termes des do™umentsD les do™uments et les ™on™eptsF v— pro˜—˜ilité des do™uE ments et des termes qui les ™omposent est fon™tion d9un mél—nge de lois @pro˜—˜ilité des ™on™eptsD pro˜—˜ilité de ™h—que terme rel—tivement à ™h—que ™on™eptD et pro˜—˜ilité de ™h—que do™ument rel—tivement à ™h—que ™on™eptAF v9inféren™e ˜—yésienneD qui permet de déduire ™h—™une des distri˜utions et l— distri˜ution — posterioriD peut être e'e™tuée p—r —ppro™he v—ri—tionnelle ‘PV“D à l9—ide d9un é™h—ntillonn—ge de qi˜˜s ‘QH“D ou p—r prop—g—tion de l9espér—n™e @4 ixpe™t—tion €rop—g—tion 4 en —ngl—isA ‘QI“F ve form—E lisme m—thém—tique se r—ppro™he fortement des modèles de mél—ngeD ™epend—ntD en ™l—ssi(™—tion de do™uments ™ette te™hnique trouve de nom˜reux —deptes ét—nt donnée que les o˜serv—tions @les do™umentsA sont projetées d—ns une ˜—se p—rti™ulière qui ™orE respond —u di™tionn—ire des ™on™eptsF …ne —n—logie —ve™ l— ™l—ssi(™—tion d9o˜jets peut être ré—lisée si les o˜jets sont ™ontenus d—ns des im—ges —sso™iées à plusieurs ™l—ssesF ges modèles génér—tifs ont le déf—ut qu9ils né™essitent l— ™onn—iss—n™e de l— loi ™i˜leF in pr—tiqueD une séle™tion su˜je™tive de lois est e'e™tuéeD puis un ™ritère de séle™tion permet de retenir l— loi l— mieux —d—ptée ‘QP“F ve ™ritère le plus utilisé est l— v—lid—tion ™roisée ‘QQ“ @év—lu—tions et st—tistiques des erreurs sur plusieurs expérien™esAD m—is d9—utres ™ritères existent ™omme le 4 gritère d9snform—tion d9ek—ike 4 @esgA ‘QR“ ou le 4 gritère d9snform—tion ˜—yésien 4 @fsgA ‘QS“F 2.2.2 Modèle discriminant v9—ppro™he di'ère pour le modèle dis™rimin—ntF v— dé(nition de l9—dje™tif 4 dis™riE min—nt 4 est X 4 ui ét—˜lit ou permet d9ét—˜lir une distin™tion entre des éléments 4 @gentre x—tion—l de ‚essour™e „extuelles et vexi™—lesAF einsiD d—ns le ™—dre de l— ™l—ssi(™—tion —utom—tique d9o˜jetsD le modèle vise ex™lusivement à l— di'éren™i—tion des ™l—sses entre ellesF …n tel modèle ne dépend p—s de l9org—nis—tion intrinsèque des donnéesF ƒeules l— m—nière et l— ™—p—™ité à di'éren™ier les ™l—sses ™omptentF v— m—E jorité des méthodes dis™rimin—ntes est ˜—sées sur le prin™ipe du ™—l™ul des ™oe0™ients des hyperpl—ns qui sép—rent les ™l—sses entre ellesF v9esp—™e des —ttri˜uts ét—nt s™indé p—r les hyperpl—nsD il su0t de déterminer de quelle ™ôté de l9hyperpl—n se situe un exemple pour ™onn—ître s— ™l—sseF eprès un ˜ref invent—ire de ™es méthodes @4 l9en—E lyse his™rimin—nte de pisherD les ƒ†wD l— régression logistiqueD F F F AD nous évoquerons des modèles dis™rimin—nts plus singuliers ™omme les rése—ux de neurones et les 4 k plus pro™hes voisins 4F
  • 17.
    2.2. CLASSIFICATION SUPERVISÉE xvii v9 4 en—lyse his™rimin—nte de pisher 4 ‘QT“ ‘QU“ ‘QV“ @ou vhe pour 4 vine—r his™riE min—nt en—lysis 4A f—it p—rtie des méthodes popul—iresF f—sée sur un ™ritère st—tistique du se™ond ordreD ™ette te™hniqueD optim—le d—ns le ™—s q—ussienD p—rt du prin™ipe que les moments du se™ond ordre sont identiques d9un groupe à l9—utreF v— pro™édure ™onsiste à trouver les ™oe0™ients de l9hyperpl—n qui m—ximisent le r—pport entre l— v—ri—n™e inter ™l—sse et l— v—ri—n™e intr— ™l—sseF v— méthode est dét—illée d—ns l— se™tion QFQFI du ™h—pitre QF …n —utre modèle très ™élè˜re est l— méthode des ƒ†w @4 ƒupport †e™tor w—™hine 4A ‘QW“ ‘RH“ qui est dét—illée d—ns l— se™tion QFQFI du ™h—pitre QF ille résulte de l— ™om˜in—ison de deux —ppro™hes X l9idée de m—ximiser les m—rges @dist—n™e entre l9hyE perpl—n sép—r—teur et l9exemple le plus pro™heA ‘RI“ ‘RP“ et l9idée des fon™tions noy—ux ‘RQ“ ‘RR“ qui déforment l9esp—™e des des™ripteurs et permettent de p—sser des ™—s non liné—irement sép—r—˜les —ux ™—s liné—irement sép—r—˜lesF sl existe une méthode dite des 4 m—rges souples 4 qui tolère une ™ert—ine qu—ntité d9erreurs lors de l— re™her™he de l9hyperpl—n optim—l et qui permet de résoudre les ™—s de re™ouvrement entre ™l—sses ‘RS“ ‘RT“F €—rmi les méthodes de régressionD l— 4 régression logistique 4 ‘RU“ ‘RV“ ‘RW“ ‘SH“ se distingue p—r le f—it que l— v—ri—˜le à prédire est une ™l—sseD iFeF une v—leur dis™rète et non une v—leur ™ontinue ™omme en régression liné—ireF h—ns le ™—s de deux ™l—ssesD l9équ—tion de l9hyperpl—n sép—r—teur s9exprime en fon™tion du log—rithme du r—pport des pro˜—˜ilités — posteriori des o˜serv—tionsF hi'érentes méthodes ™omme l9—lgorithme du m—ximum de vr—isem˜l—n™e ‘RV“ peuvent —lors être utilisées pour estimer les ™oe0™ients de l9hyperpl—n sép—r—teurF gette méthode — pour —v—nt—ge de ne p—s être p—r—métrique et de modéliser dire™tement une pro˜—˜ilitéF in rev—n™heD elle ne s9—pplique qu9—ux données s—ns v—leur m—nqu—ntes et elle est sensi˜le —ux individus hors normeF ges trois méthodes @vheD ƒ†wD régression logistiqueA sont développées d—ns le ™—s ˜in—ireD iFeF seulement deux ™l—sses sont ™onsidéréesF gomment f—ire d—ns le ™—s de plusieurs ™l—sses c heux prin™ip—les —ppro™hes existentF v— méthode 4 oneEversusE—ll 4 ™onsiste à —ttri˜uer un ™l—ssi(eur à ™h—que ™l—sse @le ™l—ssi(eur dis™rimine l— ™l—sse ™onsidérée de toutes les —utresAF v— ™l—sse —ttri˜uée à un exemple test est l— plus proE ˜—˜le —u sens des ™l—ssi(eursF v9—utre méthodeD —ppelée 4 oneEversusEone 4D ™onsiste à ét—˜lir un ™l—ssi(eur pour ™h—que ™ouple de ™l—sses possi˜leF v— ph—se de test ét—nt simil—ire à l— méthode oneEversusE—llF h—ns ‘SI“D le ™—s des ™l—sses non m—jorit—ires est tr—itéD iFeF le ™—s où —près l— ™l—ssi(™—tion de l9exemple testD plusieurs ™l—sses sont équipro˜—˜lesF …ne méthode ‘SP“ propose de résoudre le pro˜lème en s9—ppuy—nt sur les te™hniques employées pour les ™odes ™orre™teurs d9erreursF …ne —utre propose l9utiE lis—tion des ƒ†w d—ns le ™—s multiE™l—sses en ™h—nge—nt le ™ritère d9optimis—tion en un ™ritère m—tri™iel ‘SQ“F …ne m—jorité de méthodes de ™l—ssi(™—tion ˜—sées sur les fon™tions noy—ux est préE sentée d—ns le livre 4 ve—rning with uernel 4 ‘RT“F v— méthode uEp™— @4 uernel €rin™ip—l gomponent en—lysis 4A ‘SR“ ‘SS“ y (gure not—mmentF gette te™hnique n9est p—s un moE dèle de ™l—ssi(™—tion à p—rt entièreD m—is un moyen d9—méliorer les perform—n™es de ™l—ssi(™—tion des modèles liné—ires déjà exist—ntF v9idée est simple X en —sso™i—nt les fon™tions noy—ux —ve™ une 4 —n—lyse en ™ompos—nte prin™ip—le 4 @€geA ‘ST“D l9esp—™e des des™ripteurs est tr—nsformé tel que des groupes non liné—irement sép—r—˜les d—ns
  • 18.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xviii L'ART l9esp—™e de dép—rt puissent le devenir d—ns l9esp—™e d9—rrivéeF hès que l9on dispose d9un ™l—ssi(eur dis™rimin—nt liné—ireD à l9inst—r du modèle vheD de l— régression logistiqueD ou de n9importe quel ™l—ssi(eur à m—ximum de m—rgeD —lors l— méthode uEp™— peut être —ppliquée en —mont et permet —insi de p—sser d9un ™l—ssi(eur liné—ire à un ™l—ssi(eur non liné—ireF ves dét—ils de l— méthode sont donnés d—ns l— se™tion QFQFI du ™h—pitre QF ves premiers rése—ux de neurones —™™omplis @on p—rle —lors de rése—ux multi ™ou™hesA ‘SU“ ‘SV“ ‘SW“ sont —pp—rus à p—rtir de IWVS et sont utilisés depuis en ™l—sE si(™—tion —utom—tique d9o˜jetsF …n neurone prend en entrée les sorties des neurones pré™édentsF v— sortie est une fon™tionD —ppelée 4 fon™tion d9—™tiv—tion 4D d9une ™om˜iE n—ison liné—ire des entréesF €lusieurs neurones peuvent être mis en p—r—llèle et plusieurs ™ou™hes de neurones peuvent être ™onsidéréesF …ne ™—r—™téristique import—nte d9un réE se—u de neurones est le ™ompromis entre l— ™omplexité de son —r™hite™tureD dé(nie p—r le nom˜re de ™ou™hes et le nom˜re de neurones p—r ™ou™heD et entre s— ™—p—™ité d9—pE prentiss—ge qui est liée —u sur —pprentiss—geF xotons que les rése—ux de neurones sont sujets —ux sur —pprentiss—gesD il est —lors né™ess—ire de supprimer des ™onnexions @—lE gorithme 4 optim—l ˜r—in d—m—ge4 ‘TH“ ou —lgorithme 4 optim—l ˜r—in surgeon 4 ‘TI“AF …ne fois que l9—r™hite™ture du rése—u est ™hoisieD l9—pprentiss—ge ™onsiste à trouver les v—leurs des poids de l— ™om˜in—ison liné—ire des entrées de ™h—que neuroneF €our ™el—D une minimis—tion de l— fon™tion de ™oût @souvent l9erreur qu—dr—tiqueAD qui détermine l9o˜je™tif à —tteindreD est e'e™tuéeF v— di'éren™e entre les méthodes proposées porte sur le ™hoix de l— fon™tion ™oûtD sur l— m—nière de minimiser ™ette fon™tionD sur le ™hoix de l9—r™hite™ture du rése—u ou sur le ™hoix de l— fon™tion d9—™tiv—tionF €—r exempleD d—ns ‘SV“D une des™ente de gr—dient est e'e™tuéeD l9origin—lité ét—nt l— f—çon de ™—l™uler le gr—dient de l— fon™tion de ™oûtF xotons que l9—n—lyse dis™rimin—nte de pisher ou les ƒ†w liné—ires sont des rése—ux de neurones à un seul neurone dont les poids —'e™tés à ™h—que entrée ™orrespondent —ux ™oe0™ients de l9hyperpl—n sép—r—teurF v— méthode des 4 K plus pro™hes voisins 4 ‘TP“ di'ère des —utres modèles dis™rimiE n—nts p—r l9—˜sen™e d9hyperpl—ns sép—r—teursD l9unique idée génér—tri™e reste ™epend—nt d9—'e™ter une ™l—sse à un individu in™onnuF v— pro™édure est très simple X il f—ut trouE verD d—ns l9ensem˜le d9—pprentiss—geD l— ™l—sse m—jorit—ire p—rmi les K plus pro™hes voisins de l9exemple à ™l—sserF gel— p—sse p—r l— dé(nition d9une dist—n™e entre o˜jets ‘TQ“D qui dépend de l— n—ture des des™ripteurs de l9o˜jetF €—r exempleD une dist—n™e euE ™lidienne peut ™onvenir pour des des™ripteurs pren—nt leur v—leur d—ns l9ensem˜le des réelsD m—is d—ns le ™—s de des™ripteurs formés de densités de pro˜—˜ilité une dist—n™e de fh—tt—™h—ryy— ‘TR“ ou de uull˜—™kEvei˜ler ‘TS“ est préfér—˜leF v— di0™ulté se trouve d—ns l— pro™édure de re™her™he des plus pro™hes voisinsD not—mment si l9ensem˜le d9—pE prentiss—ge est volumineuxD entr—în—nt des longueurs d—ns le temps de ™—l™ulF €our ™el— des —lgorithmes de re™her™he ont été développés ‘TT“ ‘TU“D leur prin™ipe ét—nt de sto™ker les exemples pro™hes en dist—n™e et de pro™éder p—r regroupement hiér—r™hique des donnéesF €—rmi les méthodes dis™rimin—ntesD l— méthode ƒ†w est ™elle qui remporte le plus fr—n™ su™™ès d—ns le dom—ine de l— vision p—r ordin—teurF gel— est prin™ip—lement dû —u f—it que le modèle de ™l—ssi(™—tion est non liné—ireD produis—nt de très ˜onnes perE form—n™es de ™l—ssi(™—tion pour l— plup—rt des expérien™esF gepend—ntD les ƒ†w sont dépend—nts d9un gr—nd nom˜re de p—r—mètres liés à l— souplesse des m—rgesD l— dyE
  • 19.
    2.2. CLASSIFICATION SUPERVISÉE xix n—mique de pro˜—˜ilis—tionD et le ™hoix du noy—uD p—r ™onséquentD ™ert—ins dom—ines s™ienti(ques préfèrent l9emploi de modèles plus —utonomes ™omme les régressions loE gistiques @™9est le ™—s des études st—tistiques d—ns le dom—ine ˜—n™—ireD d—ns ™elui des —ssur—n™es ou des sond—gesD et en méde™ineAF 2.2.3 Modèle hybride : arbres de classication hes modèles hy˜rides existentF veur dém—r™he s9—ppuie à l— fois sur les —ppro™hes génér—tives et dis™rimin—ntesF €—rmi euxD on trouve les modèles ˜—sés sur les —r˜res de ™l—ssi(™—tion @ou de dé™isionAF €remièrementD l— méthode est fondée sur un é™h—nE tillonn—ge de l9esp—™e des —ttri˜uts à l9—ide d9hyper volumes d9é™h—ntillonn—ge de t—ille di'érente et de dimension (nie ou in(nieF v9é™h—ntillonn—ge dé™rit l9o™™up—tion de l9enE vironnement et dépend dire™tement de l— forme des nu—ges de points des di'érentes ™l—ssesF ejoutons queD ™omme pour un histogr—mmeD le nom˜re d9individus est ™onnu d—ns ™h—que volume d9é™h—ntillonn—geD ™e qui —utorise l— génér—tion —lé—toirement des données d—ns ™es volumes élément—iresF ge™i permet de nous positionner d—ns le ™—s génér—tifF heuxièmementD les volumes é™h—ntillonnés sont o˜tenus p—r dis™rimin—tions su™™essives de sous ensem˜les de donnéesD le prin™ipe ét—nt de s™inder un volume de l9esp—™e en deux p—rties homogènes en ™l—sseF gette s™ission n9— qu9un seul o˜je™tif X sép—rer les ™l—sses entre ellesF gel— nous positionne d—ns le ™—s dis™rimin—ntF …n —r˜re de ™l—ssi(™—tion ™omporte des noeuds qui sont —sso™iés à des règles de dé™isionF v— tot—lité forme un ensem˜le de ™hemins qui p—rtent du noeud prin™ip—l vers les noeuds termin—ux —uxquels sont —ttri˜ués des ™l—ssesF …n noeud donné renvoie vers des noeuds (ls en fon™tion de l— règle de dé™ision (xéeF ge même noeud est engendré p—r un noeud p—rentF ve prin™ipe de ™onstru™tion d9un —r˜re repose sur l— s™ission d9un groupe d9exemples pour un des™ripteur donnéF eu noeud ™onsidéréD l— meilleure —sso™i—tion entre un des™ripteur et une v—leur de ™oupureD est ™elle qui m—ximise le g—in d9inform—tionF eutrement ditD l— s™ission doit donner des groupes qui sont homogènes en ™l—ssesF in pr—tiqueD ™h—que v—leur de ™oupure est testée pour ™h—que des™ripteurD puis le ™ouple formé p—r le des™ripteur et l— v—leur de ™oupure qui m—ximise le g—in d9inform—tion est retenu et —sso™ié —u noeud ™onsidéréF …n noeud est ™hoisi ™omme ét—nt un noeud (n—l si son nive—u d9 4 impureté 4 est f—i˜leD iFeF si une ™l—sse domine l—rgementF …ne fois l9—r˜re ™onstruitD un exemple test p—r™ourt l9—r˜re jusqu9—u noeud termin—l qui dé(nit l— ™l—sse —ttri˜uéeF ve form—lisme et les dét—ils m—thém—tiques sont présentés d—ns l— se™tion QFRFI du ™h—pitre Q pour le ™—s usuel de l9—pprentiss—ge superviséF ves méthodes ™onnues di'èrent p—r le ™hoix du ™ritère de g—in d9inform—tionF gerE t—ins ™her™hent à m—ximiser le ™ritère de qini ‘TV“ @méthode ge‚„ X 4 gl—ssi(™—tion end ‚egression „rees 4AD d9—utres pré™onisent l9entropie de ƒh—nnon ‘TW“ ‘UH“ @méthode shQ et gRFSAD et ™ert—ines méthodes proposent d9utiliser un test st—tistique fondé sur l— loi du χ2 @méthode gresh ‘UI“ X 4 griEsqu—re eutom—ti™ snter—™tion hete™tion 4 et méthode …iƒ„ ‘UP“ X 4 ui™kD …n˜i—sedD i0™ientD ƒt—tisti™—l „ree 4AF v— méthode …iƒ„ permet de ™onstruire un —r˜re de dé™ision plus r—pidementF h—ns …iƒ„D le meilleur des™ripteur est d9—˜ord ™hoisi en ™om˜in—nt une —n—lyse de l— v—ri—n™e @4 exy†e 4A —ve™ le test du χ2 ou le test de vevene ‘UQ“ @en fon™tion de l— n—ture disE
  • 20.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xx L'ART ™rète ou ™ontinue du des™ripteurF xotons que gRFS est une évolution dire™te de shQD les —mélior—tions port—nt sur l— gestion des données numériquesD sur l— prise en ™ompte des données m—nqu—ntes et sur l— r—pidité d9exé™utionF €lutôt que de ™her™her l— v—leur de ™oupure sur ™h—que des™ripteur indépend—mE mentD des méthodes proposent des ™ritères de 4 sép—r—tion o˜liques 4 ‘UR“ qui s9—ppuient sur un modèle de ™l—ssi(™—tion à plusieurs des™ripteursF ve modèle ™hoisi peut être de type ƒ†w ‘US“ ‘UT“ ou s9—ppuyer sur l9—n—lyse dis™rimin—nte liné—ire de pisher ‘UU“F uelques p—piers —˜ordent les —r˜res de ™l—ssi(™—tion d—ns le ™—dre de l— logique 4 )oue 4F €—r exempleD un —r˜re est ™onstruit à l9—ide de l— méthode ge‚„D puis des règles de dé™isions )oues sont él—˜orées à p—rtir des frontières des é™h—ntillons d9hyper volumes ‘UV“F ve même pro™édé est employé pour l9—lgorithme shQ ‘UW“F €our d9—utres exemples ‘VH“D l— logique )oue intervient d—ns le ™—l™ul des v—leurs de ™oupureF €lutôt que d9—voir une s™ission nette et pré™iseD l— frontière est in™ert—ine telle que le degré d9—pp—rten—n™e à un groupe dépend de l— dist—n™e entre l9exemple ™onsidéré et l— v—leur de ™oupure ™onsidéréeF ves règles de dé™ision sont —lors dire™tement liées à l9—ppli™—tion ™onsidérée ‘VI“F v9un des déf—uts m—jeurs des —r˜res de ™l—ssi(™—tion est leur disposition à ne ™onsiE dérer que les ™l—sses m—jorit—irement représentées d—ns l9ensem˜le d9—pprentiss—geF €—r exempleD l— méthode ge‚„ privilégie les ™l—sses domin—ntes d9un jeu de données disE tri˜uées inég—lement ‘VP“F ƒi le modèle d9une ™l—sse sousEreprésentée est m—l év—luéD —lors ™ette ™l—sse est souvent ™l—ssée p—rmi l— ™l—sse m—jorit—ire de l9ensem˜le d9—pE prentiss—geF €our remédier à ™e pro˜lèmeD le ™ritère de s™ission peut être —mélioré en ™hoisiss—ntD p—r exempleD une entropie dé™entrée ‘VQ“D ou en e'e™tu—ntD soit un surE é™h—ntillonn—ge de l9ensem˜le sousEreprésenté ‘VR“D soit un sousEé™h—ntillonn—ge de l9enE sem˜le surEreprésenté ‘VS“F hes tr—v—ux ‘TV“ ont montré qu9—près ™onstru™tionD il est souvent né™ess—ire d9él—guer l9—r˜reF in e'etD lors de l9—pprentiss—geD une ™ontr—inte permet de déterminer si un noeud est r—isonn—˜lement homogène @si tel est le ™—sD —lors le noeud est un noeud termin—lAF h—ns le ™—s où ™ette ™ontr—inte est trop forte et qu9il y — du re™ouvrement entre ™l—ssesD ™ert—ins volumes élément—ires sont insigni(—nts et n9impliquent qu9un seul exempleF h—ns ™e ™—sD il —pp—r—ît des phénomènes de surE—pprentiss—ge et de surE é™h—ntillonn—ge de l9esp—™e des des™ripteursF geuxE™i sont résolus grâ™e à l9él—g—geF sl existe deux gr—ndes f—milles de méthodes ‘VT“ ‘VU“ X soit l9—r˜re o˜tenu est simpli(é en ™oup—nt toutes les ˜r—n™hes d9un noeudD soit un noeud est rempl—™é p—r l9un des sousE—r˜res qui en des™endD les exemples des sousE—r˜res disp—rus ét—nt re™l—ssésF sl est génér—lement —dmis qu9—u™une de ™es propositions @™hoix du ™ritère de s™isE sionD —r˜res o˜liquesD logique )oueD él—g—ge F F F A ne dev—n™e une —utre de m—nière sysE tém—tique en termes de perform—n™e de ™l—ssi(™—tionF gel— dépend du jeu de données employéD de l— n—ture dis™rète ou ™ontinue des v—ri—˜lesD de l9org—nis—tion intrinsèque des ™l—sses d—ns l9esp—™e des des™ripteursD du f—it d9être en gr—nde dimension ou nonD de l— t—ille de l9ensem˜le d9—pprentiss—geD de l— distri˜ution des ™l—sses F F F
  • 21.
    2.3. CLASSIFICATION NON SUPERVISÉE xxi 2.3 Classication non supervisée in —pprentiss—ge non superviséD seules les v—leurs données p—r les des™ripteurs sont o˜serv—˜lesF ves exemples ne disposent d9—u™un étiquet—ge et le nom˜re de ™l—sses est in™onnuF gel— ™onstitue les prin™ip—les interrog—tions X ™om˜ien y —EtEil de ™l—sses c itD en suppos—nt le nom˜re de ™l—sses (xéD ™omment ét—˜lir un ™l—ssi(eur c v— première question trouve peu de réponseF ve nom˜re de ™l—sses réellement o˜serE vées est di0™ilement détermin—˜le s—ns inform—tions — priori et il dépend de l9—ppli™—E tion ™onsidéréeF v— di0™ulté se résume d—ns le pro˜lème suiv—nt X ™omment di'éren™ier le ™—s de plusieurs regroupements de données qui ™orrespondent à plusieurs ™l—sses et le ™—s de regroupements qui ™orrespondent à des modes d9une seule ™l—sseF ƒ—ns —uE ™une inform—tion — priori ou ™ontextuelleD ™el— sem˜le impossi˜leF in rev—n™heD des ™ritères de qu—lité mesurent l— pertinen™e du ™hoix du nom˜re de ™l—sses ‘VV“F €—rmi ™es ™ritèresD ™ert—ins s9—ppuient sur l9indi™e fsg @4 f—yesi—n snform—tion griterion 4A ‘QS“ ou sur le ™ritère esg @4 ek—ike9s snform—tion griterion 4A ‘VW“D ou en™ore sur des ™ritères st—tistiques de dist—n™es ‘WH“ ‘WI“ F F F in(nD d9—utres méthodes sont ˜—sées sur le prin™ipe de l— v—lid—tion ™roisée ‘WP“F v— deuxième question trouve ˜e—u™oup de solutionsF ves premiers tr—v—ux ‘WQ“ ‘WR“ en regroupement non supervisé de données ™onduisent à des méthodes de ™l—ssi(™—tion hiér—r™hiquesF ve prin™ipe est de ™onsidérer l— p—rtition à une seule ™l—sse qui ™omprend toutes les o˜serv—tions jusqu9à l— p—rtition où ™h—que o˜serv—tion est une ™l—sseF intres les deux extrémitésD l9utilis—teur doit ™hoisir l— p—rtition l— plus ré—listeF €our ™el—D les ™ritères de qu—lité qui mesurent l— pertinen™e du ™hoix du nom˜re de ™l—sses sont utilisés ‘VV“ ‘QS“ ‘VW“ ‘WH“ ‘WI“F ge type de ™l—ssi(™—tion hiér—r™hique est simil—ire —ux —r˜res de ™l—ssi(™—tionsF freim—n ‘WS“ propose une méthode d9—pprentiss—ge non supervisé pour les —r˜res de ™l—ssi(™—tionF v9idée est origin—le X p—rt—nt d9un ensem˜le de points s—ns l—˜el qui ™onstitue l— première ™l—sseD une se™onde ™l—sse est ™réée —rti(™iellement sur l— ˜—se d9un tir—ge —lé—toire des des™ripteurs de l— première ™l—sseF in ™onstruis—nt un —r˜re qui sép—re les deux ™l—ssesD on espère que l— première ™l—sse ser— s™indée en groupes homogènes qui ™onstituent les 4 ™lusters 4 souh—itésF v— te™hnique ™onsiste ensuite à déterminer quels sont les groupes qui sont reliés entre euxD p—r exemple vi— une m—tri™e de proximité ‘WT“F €eu d9—rti™les ont été pu˜liés à ™e sujet et le pro™édé est di0™ilement —ppli™—˜le pour les ™—s de données dont l9org—nis—tion sp—ti—le n9est p—s trivi—leF €—rmi les modèles de mél—ngesD l— méthode l— plus ™élè˜re d9—pprentiss—ge non suE pervisé est l— méthode des 4 uEmoyennes 4 ‘WU“ ‘WV“F €—rt—nt d9un nom˜re de points d9initi—lis—tion ég—l —u nom˜re de regroupements souh—itésD on ™her™he simplement à regrouper les exemples en groupes homogènes —u sens des des™ripteursF v— méE thode ™onsiste à étiqueter itér—tivement les individus en fon™tion de leur dist—n™e —ve™ les points d9initi—lis—tion qui ™h—ngent d9une itér—tion à l9—utreF hivers modi(™—tions ™ontri˜uent à l9—™™élér—tion de l9—lgorithme ‘WW“ ou ™her™hent l— meilleure initi—lis—tion ‘IHH“F v— méthode des 4 uEmoyennes 4 est étendue à l— logique )oue à l9—ide l9—lgoE rithme pgw @4 puzzy gEwe—ns 4A ‘IHI“F eprès —voir regroupé les données p—r p—quets à l9—ide de l9—lgorithme des uEmoyennesD l9—spe™t )ou se ™—r—™térise p—r l— possi˜ilité d9—ttri˜uer plusieurs ™l—sses p—r élément ‘IHP“F h9—utres méthodes mél—ngent l9—lgoE
  • 22.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xxii L'ART rithme pgw —ve™ des —ppro™hes )oues de l9estim—tion du m—ximum de vr—isem˜l—n™e ‘IHQ“F v9—lgorithme iw ‘IR“ ‘IS“ ‘IT“ et ses dérivées ƒiwD igwD qiw ‘IU“ ‘IV“ ‘IW“ ‘PH“ ™onstituent l9extension pro˜—˜iliste des 4 uEmoyennes 4F sls permettent de trouver les proportions et les p—r—mètres des modes d9une loi ™i˜leF w—isD ™ontr—irement —u ™—s de l9—pprentiss—ge supervisé qui ™onsidère que ™h—que ™l—sse peut être modélisée p—r un mél—nge de loisD en —pprentiss—ge non supervisé une ™l—sse ™orrespond à l9un des modes du mél—ngeF v9—pprentiss—ge ™onsiste don™ à —pprendre les p—r—mètres des lois de ™h—que ™l—sse —insi que les pro˜—˜ilités — priori de f—çon à m—ximiser l— vr—isem˜l—n™e des donnéesF in(nD les rése—ux de neurones possèdent —ussi leur version de ™l—ssi(™—tion non superviséeF sniti—lisés p—r les tr—v—ux de qross˜erg ‘IHR“D les v† @4 ve—rning †e™tor u—ntiz—tion 4A sont un ™—s p—rti™ulier des rése—ux de neuronesF v— méthode qui en résulte @ƒyw pour 4 ƒelfEyrg—niz—tion w—p 4 ou en™ore —ppelée les 4 g—rtes de uoE honen 4A ‘IHS“ ‘IHT“ ‘IHU“D forme un rése—u ™omposé de deux ™ou™hesD l9une pour les entréesD l9—utre qui dé™rit l9org—nis—tion des neurones de m—nière topologiqueF vors de l9—pprentiss—geD les neurones ™i˜les de l— se™onde ™ou™he for™ent leurs voisins à modi(er leurs poids en f—veur de l9exemple ™on™ernéF pin—lementD les poids dé™rivent l— densité et l— stru™ture de l— rép—rtition des ve™teurs d9entréeF v9utilis—tion de l9une ou l9—utre de ™es méthodes dépend de l9—ppli™—tion visée et de l9org—nis—tion intrinsèques des données d—ns l9esp—™e des des™ripteursF he m—nière géE nér—leD l9—lgorithme des uEmoyennes est le plus utiliséD pour s— simpli™ité et s— r—piditéD m—is —ussi ™—r il n9est p—s sujet à —ux sou™is d9optimis—tionsF 2.4 Classication faiblement supervisée in ™l—ssi(™—tion f—i˜lement superviséeD il existe une in™ertitude sur l— ™l—sse des exemples d9—pprentiss—geF gette in™ertitude se ™—r—™térise p—r un ve™teur dont les ™omE pos—ntes sont les pro˜—˜ilités de ™l—ssi(™—tion — priori de ™h—que ™l—sseF v9ensem˜le d9—pprentiss—ge est don™ ™onstitué des exemples d—ns l9esp—™e des des™ripteurs et des ve™teurs de pro˜—˜ilité de ™l—ssi(™—tion —sso™iés @™fF équ—tion PFIAF €eu de p—piers —˜ordent le ™—s de l9—pprentiss—ge f—i˜lement supervisé sous ™e forE m—lisme pro˜—˜ilisteF ve ™—s le plus popul—ireD le plus tr—itéD et —y—nt f—it l9o˜jet d9une m—jorité de pu˜li™—tionsD est le ™—s p—rti™ulier des —nnot—tions qui indiquent quelles ™l—sses sont possi˜les de m—nière équipro˜—˜leF €—r exempleD on p—rle du ™—s 4 préE sen™eG—˜sen™e 4 en index—tion d9im—ges X ét—nt donnée une ˜—se d9im—ges dont l— présen™e ou l9—˜sen™e de 4 ™on™epts 4 @™l—ssesA est ™onnue d—ns ™h—que im—ge ‘IHV“ ‘IHW“D un modèle de ™l—ssi(™—tion des o˜jets doit être ét—˜liF hes modèles pro˜—˜ilistes génér—tifs s9—ppuy—nt sur l9—lgorithme iw ‘P“ ‘IIH“ ‘IHV“ ‘IHW“ ou sur les ™h—mps de w—rkov —lé—toires g—ussien ‘III“ ont été développésD m—is —ussi des modèles dis™rimiE n—nts qui emploient des te™hniques de type ƒ†w ‘IIP“ ‘IIQ“D ou en™ore des modèles ˜—sés sur du 4 ˜oosting 4 ‘IIR“ ‘IIS“ @voir ™h—pitre R pour le ˜oostingAF ves di'éren™es entre ™es méthodes portent sur le nom˜re de ™on™epts tr—ités d—ns les im—gesD sur le nom˜re d9exemples d9—pprentiss—geD sur l— ™omplexité des im—gesD et sur les hypothèses retenues rel—tivement —ux tr—nsform—tions des fr—gments d9une im—ge à l9—utreF €—r
  • 23.
    2.5. CLASSIFICATION SEMI-SUPERVISÉE xxiii exempleD ™ert—ins ™onsidèrent que les régions d9intérêts sont ™onst—ntes en é™helle m—is qu9elles su˜issent des rot—tions et des tr—nsl—tions ‘IIT“ ‘IIU“D d9—utres ‘IIV“ ‘IIW“D sous les mêmes hypothèsesD ex—minent les inter—™tions sp—ti—les entre fr—gment d9im—ges —(n de p—rf—ire le modèleF hes modèles génér—tifs plus ™omplets ‘IPH“ ‘IPI“ permettent de lo™—liser l9o˜jet tout en pren—nt en ™ompte s— tr—nsl—tionD s— rot—tion et son é™helle d—ns les im—ges d9—pprentiss—geF e l9inst—r de l9—pprentiss—ge semiEsuperviséD ‚osen˜erg ‘IPP“ montre qu9en —jout—nt des im—ges —nnotées en présen™eG—˜sen™e @f—i˜lement suE perviséeA à des im—ges —nnotées de m—nière pré™ise @superviséeAD —lors les perform—n™es de ™l—ssi(™—tion peuvent être —mélioréesF ves mêmes modèles génér—tifs sont utilisés en segment—tion d9im—ges ‘IPQ“ ou pour l— déte™tion de ™on™epts d—ns des vidéos —nnotées ‘IPR“F h9—utres exemples p—rti™uliers proposent un —pprentiss—ge f—i˜lement superviséF ges le ™—s d9o˜jets d9—pprentiss—ge dire™tement —nnotés p—r des experts ‘IPS“D ou en™oreD des —ppli™—tions en télédéte™tionD et not—mment en interprét—tion d9im—ges ‘VI“F ve ™—s de l9—™oustique h—lieutique est un ™—s typique d9—pprentiss—ge f—i˜lement supervisé ‘IPT“D il est étudié d—ns l— p—rtie ssF in(nD ™ert—ins ™—s d9—sso™i—tions de ™l—ssi(eurs né™essitent l9utilis—tion d9un —pE prentiss—ge f—i˜lement superviséF €—r exempleD en —pprentiss—ge semiEsupervisé itér—tif ‘Q“D les p—r—mètres du ™l—ssi(eur d9une itér—tion donnée sont estimés sur l— ˜—se des pro˜—˜ilités de ™l—ssi(™—tion issues de l9itér—tion pré™édenteF gomme d—ns l— plup—rt des pro˜lèmes de ™l—ssi(™—tionD il n9existe p—s un modèle qui est meilleur que les —utresD ™h—que jeu de données ™orrespond à un type de ™l—ssi(eur en fon™tion des ses ™—r—™téristiques propresF he plusD en ™l—ssi(™—tion f—i˜lement suE perviséeD il existe l— notion de ™omplexité de l9ensem˜le d9—pprentiss—geD qui est dé(nit p—r l— n—ture des pro˜—˜ilités de ™l—ssi(™—tion — prioriF ƒi ™es pro˜—˜ilités — priori sont f—i˜lesD —lors le jeu de données est ™omplexe ™—r les inform—tions sur les ™l—sses sont peu inform—tivesD en rev—n™heD —ve™ un — priori fortD le jeu de données d9—pprentiss—ge est peu ™omplexe du f—it de l— pré™ision forte des inform—tions liés —ux l—˜elsF ves tr—v—ux ™ités pré™édemment ne font p—s d9étude des réponses des ™l—ssi(eurs rel—tivement à l— ™omplexité des l—˜elsD l9idée ét—nt plutôt de trouver le meilleur ™l—ssi(eur pur un ensem˜le d9—pprentiss—ge donnéeF h—ns le ™h—pitre SD nous —pportons des éléments de réponsesF 2.5 Classication semi-supervisée get ét—t de l9—rt est l—rgement inspiré du livre de gh—pelle ‘Q“ et de l9étude ˜iE ˜liogr—phique de hu ‘IPU“F gepend—ntD leurs ét—ts de l9—rt ne font p—s mention des méthodes d9—pprentiss—ge semiEsupervisé utilisées pour l— ™l—ssi(™—tion des données ™orrélées @tr—du™tion de l9—ngl—is 4 rel—tion—l d—t— 4AD dont les prin™ip—les —ppli™—tions sont l— ™l—ssi(™—tion de p—ges we˜F v9—pprentiss—ge semiEsupervisé est utilisé qu—nd peu de données l—˜élisées sont disE poni˜lesF h—ns ™e ™—sD il — été montré que l9introdu™tion de données s—ns l—˜el d—ns l9ensem˜le d9—pprentiss—ge peut —méliorer les perform—n™es de ™l—ssi(™—tion ‘Q“F sl existe plusieurs f—milles de méthodesD à s—voirD les modèles génér—tifsD les modèles qui s9—pE
  • 24.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xxiv L'ART puient sur des gr—phesD les modèles dis™rimin—nts et les modèles itér—tifs qui s9—ppuient sur n9importe quel ™l—ssi(eur de ˜—seF v— première f—mille de méthodes regroupe les modèles génér—tifs ‘Q“F ve modèle employé usuellement se ˜—se sur l9—lgorithme iwF ve prin™ipe est d9estimer l— denE sité de pro˜—˜ilité jointe des o˜serv—tions et des l—˜elsF gomme en ™l—ssi(™—tion non supervisée @™fF l— se™tion PFQ du ™h—pitre PAD on suppose que ™h—que ™l—sse suit une denE sité de pro˜—˜ilité p—r—métriqueD dont on estime les p—r—mètresF w—is ™ontr—irement —u ™—s non superviséD les ™l—sses sont ™onnuesD il su0t don™ de ™onn—ître un exemple l—˜élisé p—r ™l—sse pour déduire les p—r—mètres —sso™iés à ™h—™une des ™l—ssesF xous pouvons ™iter les —rti™les de xig—m qui proposeD vi— l9—lgorithme iwD d9estimer les p—r—mètres de modèles f—yésien n—ïf q—ussien d—ns le ™—s mono mod—l ‘IPV“ ou multi mod—l ‘IPW“D et dont les méthodes sont regroupées d—ns le ™h—pitre 4ƒemiEsupervised text ™l—ssi(™—tion using iw4 du livre 4ƒemiEsupervised le—rning4 ‘Q“F xotons que l9—lE gorithme génér—tif d9—pprentiss—ge f—i˜lement supervisé de l— se™tion QFPFQ du ™h—pitre Q est l9un de ™es modèles génér—tifs qui peut être —ppliqué —u ™—s de l9—pprentiss—ge semiEsuperviséF ges modèles possèdent l9—v—nt—ge d9—voir ˜e—u™oup été étudiés d—ns l— littér—ture et d9être —ppré™iés pour leur stru™ture pro˜—˜ilisteF in rev—n™heD il est di0™ile d9év—luer l— justesse des modèles génér—tifs et il f—ut ™onn—ître l— loi ™i˜le pour ™h—que jeux de donnéesF he plusD l9—lgorithme iw est sujet à l— question des minim—s lo™—ux et ™ert—ines org—nis—tions intrinsèques des données ™onduisent l9—lgorithme vers de m—uv—ises solutions ‘IQH“F v— deuxième gr—nde f—mille de modèles est l9—ppro™he dis™rimin—nteF €—rmi les méE thodes dis™rimin—ntesD l— méthode des m—™hines à ve™teurs de support semiEsupervisée est l— plus utilisée ‘Q“F in —ngl—isD on trouve les termes 4 semiEsupervised ƒ†w 4 @ƒQ†wA ou en™ore 4 „r—nsdu™tive ƒ†w 4 @„ƒ†wAF v— méthode ™onsiste à trouver les ™oe0™ients de l9hyperpl—n qui sép—re les ™l—sses entre elles et tel que l— m—rge soit m—xim—le @™fF l— se™tion QFQ du ™h—pitre QAF €—r r—pport à l9—pprentiss—ge superviséD un terme de régul—ris—tion est —jouté d—ns l9équ—tion d9optimis—tionF geluiE™i tient ™ompte des données non l—˜éliséesF ves premières propositions ‘IQI“ m—nqu—ient de ro˜ustesseD not—mment visEàEvis de l— qu—ntité d9exemples s—ns l—˜elF to—™hims ‘IQP“ propose l— première version ro˜usteF h9—utres p—piers proposent des —mélior—tionsD ™omme p—r exempleD une —d—pt—tion —u ™—s multiE™l—sses ‘IQQ“D un —lgorithme r—pide pour les ƒQ†w liné—ires ‘IQR“D une dyn—mique de pro˜—˜ilis—tion g—ussienne à l— pl—™e d9une dyn—mique liné—ire ‘IQS“ F F F w—lgré un form—lisme m—thém—tique —ppré™i—˜le et de ˜onnes perform—n™esD not—mment pour les jeux de données pour lesquels les ƒ†w supervisés sont très perform—ntsD ™ette méthode reste sujette —ux points optim—ux loE ™—ux et donne des perform—n™es modestes pour ˜e—u™oup de jeux de donnéesF gh—pelleD ƒindhw—ni et ueerthi ‘IQT“D proposent une ˜i˜liogr—phie et ™omp—re les résult—ts des méthodes d9—pprentiss—ge semiEsupervisé qui emploient les ƒ†wF ves modèles ˜—sés sur les gr—phes de simil—rité ™onstituent une —utre gr—nde f—mille de méthodes d9—pprentiss—ge semiEsupervisé ‘Q“F sl existe plusieurs f—çons de ™onstruire un gr—phe ‘IQU“ ‘IQV“ ‘IQW“F sm—ginez des noeuds de l9esp—™e reliés entre eux p—r des ˜r—n™hesF ves noeuds représentent les exemples —ve™ et s—ns l—˜elsD t—ndis que les ˜r—n™hes représentent les simil—rités entre exemplesF v9—lgorithme des kEplusEpro™hesE voisins ‘TP“ ‘TT“ ‘TU“ peut être vu ™omme un ™—s p—rti™ulier des gr—phes de simil—ritéD l—
  • 25.
    2.5. CLASSIFICATION SEMI-SUPERVISÉE xxv ™l—sse —ttri˜uée ™orrespond—nt à l— ™l—sse m—jorit—ire des k exemples l—˜élisés les plus simil—iresF eve™ les gr—phes de simil—ritéD s9—joute l— notion de dist—n™e entre données s—ns l—˜elF €—r exempleD le jeu des simil—rités f—it qu9une o˜serv—tion s—ns l—˜elD éloignée en dist—n™e de tout exemple l—˜éliséD peut être ™onsidérée ™omme pro™he de l9un d9entre eux p—r l9intermédi—ire d9une —utre o˜serv—tion s—ns l—˜elF v9o˜je™tif est de trouver une fon™tion de ™l—ssi(™—tion pour le gr—pheF v— méthode ™onsiste en un pro˜lème de régul—ris—tion où le premier terme de l— fon™tion de ™oût porte sur les données l—˜élisées et le se™ond terme permet de lisser les solutions sur l9ensem˜le du gr—phe à l9—ide des exemples s—ns l—˜elF v— di'éren™e entre les méthodes se situe sur l— forme des fon™tions de ™oûtF €—r exempleD l— fon™tion de ™oût peut s9exprimer en fon™tion de l9erreur qu—dr—tique de ™l—ssi(™—tion pondérée pour une ™l—ssi(™—tion dite 4 dure 4 @non pro˜—˜ilisteA ‘IRH“F he l— même f—çonD l— version pro˜—˜iliste exprime le ™oût en fon™tion des ™h—mps —lé—toires q—ussiens ‘IRI“ ‘IRP“F …n p—pier propose d9utiliser l9—lgorithme de régul—ris—tion de „ikhonov ‘IRQ“F ve gr—phe peut —ussi être modélisé ™omme un ™h—mp de w—rkov dis™ret ‘IRR“F sl existe ˜e—u™oup de propositions pour les modèles ˜—sés sur les gr—phes de simil—ritéF v9invent—ire présent n9est p—s exh—ustif m—is donne une idée des —ppro™hes possi˜lesF xotons queD ™omme pour les modèles dis™rimin—ntsD ™es modèles sont ˜in—ires et peuvent s9étendre —u ™—s multiE™l—sses en utilis—nt une —ppro™he 4 oneEversusE—ll 4F w—lgré l9élég—n™e des modèles m—thém—tiques et les ˜onnes perform—n™es de ™l—ssi(™—tionD ™e modèle possède quelques déf—utsF „out d9—˜ord ™es modèles sont fortement dépend—nts de l— f—çon dont sont ™onstruits les gr—phsF ƒ9ils ne sont p—s ™orre™tement édi(ésD ™el— peut entr—îner de très m—uv—ises perform—n™esF in(nD ™es modèles ont le déf—ut d9être perform—nts en ™l—ssi(™—tion uniquement sur les données d9—pprentiss—ge ‘Q“D p—s sur les données de testD ™el— né™essite de ré—pprendre un ™l—ssi(eur pour ™h—que nouvelle donnéeF v— dernière gr—nde f—mille de méthodes d9—pprentiss—ge semiEsupervisé repose sur l9emploi itér—tif de ™l—ssi(eursF v— version simpliste est le 4 self tr—ining 4 introduit d—ns les —nnées UH ‘IRS“ et qui est employé d—ns quelques —ppli™—tions de vision p—r ordin—teurF €—r exempleD un p—pier ‘IRT“ propose de ™om˜iner un ™l—ssi(eur génér—tif @vi— l9—lgorithme iwA —ve™ un pro™essus de self tr—iningF ve prin™ipe est le suiv—ntF e une itér—tion donnéeD les exemples l—˜élisés de l9ensem˜le d9—pprentiss—ge ét—˜lissent un modèle de ™l—ssi(™—tionF ves exemples s—ns l—˜el sont ™l—ssés à l9—ide de ™e ™l—ssi(eurD de làD les exemples s—ns l—˜el deviennent l—˜élisésF €—rmi ™es exemples fr—i™hement l—˜éliE sésD les plus pro˜—˜les —u sens de l— pro˜—˜ilité de ™l—ssi(™—tionD sont ™onsidérés ™omme dé(nitivement l—˜élisés et ils ™ontri˜ueront à l9él—˜or—tion du ™l—ssi(eur de l9itér—tion suiv—nteF v9—lgorithme est présenté plus en dét—il d—ns l— se™tion RFQ du ™h—pitre RF ves —v—nt—ges de ™ette méthode sont l— simpli™ité de l9—lgorithme et l9—ppli™—˜ilité à tout ™l—ssi(eur pro˜—˜ilisteF ves in™onvénients sont l— possi˜le prop—g—tion d9une erE reur ™ommise lors des premières itér—tions et l— di0™ulté de l9étude de l— ™onvergen™e ‘IRU“ ‘IRV“ et du ™omportement de l9—lgorithmeF ve modèle génér—tif qui s9—ppuie sur l9—lgorithme iw peut être vu ™omme un ™—s p—rti™ulier du self tr—ining d—ns le sens où le modèle de ™l—ssi(™—tion évolue à ™h—que itér—tionD —u fur et à mesure que les exemples sont ™orre™tement ™l—ssésF v— di'éren™e se situe d—ns l9—ttri˜ution d9un l—E ˜el à tous les exemples à ™h—que itér—tionD t—ndis que pour le self tr—iningD seuls les exemples dont l9indi™e de ™on(—n™e de ™l—ssi(™—tion est su0s—mment élevé se voient
  • 26.
    CHAPITRE 2. LES MODÈLES DE CLASSIFICATION USUELS : ÉTAT DE xxvi L'ART —ttri˜uer une ™l—sseF v9—lgorithme itér—tif le plus ™élè˜re est le 4 ™oEtr—ining 4 ‘IRW“F €—r r—pport —u self tr—iningD le ™oEtr—ining suppose que l9esp—™e des des™ripteurs peut être s™indé en deux sousEesp—™es indépend—nts tels queD à ™h—que itér—tionD deux ™l—ssiE (eurs —pprennent ™h—™un un modèle de ™l—ssi(™—tion sur l— ˜—se des deux sous esp—™esF v— s™ission est e'e™tuée pour réduire l— ™omplexitéD surtout si l9un des deux sousE ensem˜les est fortement ˜ruitéF h9—utres versions du ™oEtr—ining proposent de s™inder —lé—toirement l9esp—™e des des™ripteurs à ™h—que itér—tion ‘ISH“F €ier™e et g—rdie ‘ISI“ emploient un ™l—ssi(eur f—yésien n—ïf —ve™ un pro™essus de ™oEtr—iningF sls proposent —ussi quelques modi(™—tions ™ommeD p—r exempleD le ™hoix —lé—toire d9une ™l—sse @—u sens de l— distri˜ution des ™l—sses des exemples l—˜élisésA pour l—quelle on ™her™he l9exemple le plus pro˜—˜le p—rmi les exemples fr—i™hement ™l—ssi(ésF gette proposition est dis™ut—˜le d—ns le ™—s des —r˜res de ™l—ssi(™—tion dont on s—it qu9ils f—vorisent les ™l—sses m—jorit—ires @™fF l— se™tion PFPFQ du ™h—pitre PAF €our ™on™lureD les perform—n™es de toutes ™es méthodes sont liées à l— n—ture des jeux de données @nom˜re de des™ripteursD nom˜re d9exemples l—˜élisés et nom˜re d9exemples s—ns l—˜elD re™ouvrement entre ™l—ssesD org—nis—tion sp—ti—le des données F F F AF sl n9y — p—s vr—iment de méthode idé—le qui domine les —utres et une étude doit être menée à ™h—que foisF he plusD l9—pprentiss—ge semiEsupervisé fon™tionne m—l qu—nd le jeu de données est ™omplexe en terme de re™ouvrement entre ™l—sseF einsiD d—ns l— plup—rt des p—piersD les méthodes sont testées sur des jeux de données pour lesquels l— ™l—ssi(™—tion est —isée en —pprentiss—ge superviséF h—ns l— ™ommun—uté de l— ™l—ssi(™—tion de p—ges we˜ ‘PS“ ‘ISP“D on emploie les termes 4 données ™orrélées 4 pour p—rler d9—pprentiss—ge semiEsuperviséF …n p—pier ‘ISQ“ montre que les deux méthodes utilisées p—r ™ette ™omE mun—uté sont les modèles ˜—sés sur les gr—phes de simil—rité et les modèles itér—tifsF h—ns ™e même p—pierD pour un jeu de données p—rti™ulierD on montre que les gr—phes sont plus perform—nts que les modèles itér—tifs si l— qu—ntité d9individus l—˜ellisés est très f—i˜leF 2.6 Conclusion h—ns ™et ét—t de l9—rtD nous —vons présenté les qu—tre types d9—pprentiss—ge ™ouE r—mment utilisés X l9—pprentiss—ge superviséD l9—pprentiss—ge non superviséD l9—pprentisE s—ge f—i˜lement supervisé et l9—pprentiss—ge semiEsupervisé qui se dé™linent en gr—ndes f—milles de modèles @génér—tifsD dis™rimin—ntsD hy˜ridesAF ve ˜ut ét—nt d9éto'er les ™onn—iss—n™es et de se situer méthodologiquementD les méthodes —sso™iées à ™h—™un de ™es —pprentiss—ges ont été présentées su™™in™tement et nous —vons exposé les prin™ip—les di'éren™esF ve ™h—pitre Q est plus formel qu—nt à l— ™ompréhension des méthodes et —ux déE veloppements m—thém—tiquesF xous —llons ™hoisir trois modèles de ˜—se @un génér—tifD un dis™rimin—nt et un hy˜rideA que nous dé™linerons sous leurs formes supervisées et f—i˜lement superviséesF
  • 27.
    CHAPITRE 3 Classication faiblement supervisée : modèles proposés 3.1 Introduction 3.1.1 Généralités v9o˜je™tif de ™e ™h—pitre est de déterminer quelle méthode usuelle répond —u mieux en —pprentiss—ge f—i˜lement supervisé et de ™omprendre le fon™tionnement propre à ™h—™une de ™es méthodesF xous ™hoisissons don™ volont—irement un l—rge spe™tre de méthodes @d—ns le sens où les —ppro™hes méthodologiques se distinguent fortementAF xous —vons ™hoisi un modèle génér—tifD un modèle dis™rimin—nt et un modèle hy˜ride que nous dé™linons sous leur forme ™onnue d9—pprentiss—ge superviséD puis sous une forme d9—pprentiss—ge f—i˜lement superviséF ves deux types d9—pprentiss—ge sont préE sentés ™onjointement de m—nière à ˜ien ™omprendre les fondements des méthodes et les liens étroits exist—nt entre l9—pprentiss—ge supervisé et l9—pprentiss—ge f—i˜lement superviséF ve ™—s de l9—pprentiss—ge f—i˜lement supervisé ™onsidéré d—ns ™e ™h—pitre est di'éE rent de ™elui ren™ontré h—˜ituellement d—ns l— littér—tureF gontr—irement —ux données d9—pprentiss—ge dont l9inform—tion sur les ™l—sses est donnée p—r des ve™teurs ˜in—ires qui indiquent quelles sont les ™l—sses possi˜lesD nous nous pl—çons d—ns le ™—s génér—l d9un ve™teur qui donne les pro˜—˜ilités de ™l—ssi(™—tion — priori pour ™h—que ™l—sseF €lus génér—lement en™oreD nous ™onsidérons un ensem˜le d9im—ges ou de do™uments ™onten—nt des o˜jetsD telles que les distri˜utions — priori des ™l—sses sont ™onnues d—ns les im—ges ou les do™umentsF ev—nt de présenter les modèles de ™l—ssi(™—tion d—ns les se™tions QFP QFQ QFRD les not—tions seront introduitesF ves perform—n™es de ™l—ssi(™—tion de ™es modèles seront présentées d—ns le ™h—pitre S pour plusieurs jeux de données du dom—ine pu˜li™F
  • 28.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xxviii MODÈLES PROPOSÉS 3.1.2 Notations in ™l—ssi(™—tion superviséeD l9ensem˜le d9—pprentiss—ge est noté {xn , yn }1≤n≤N D où xn représente l9o˜serv—tion d—ns l9esp—™e des des™ripteursD t—ndis que yn = i indique que xn est de l— ™l—sse iF h—ns le ™—s des ™l—ssi(eurs ˜in—ires @™l—ssi(™—tion à deux ™l—ssesAD yn peut prendre les v—leurs +1 ou −1F in ™l—ssi(™—tion f—i˜lement superviséeD K indique le nom˜re d9im—ges d9—pprentisE s—geF v9im—ge d9—pprentiss—ge indi™ée p—r k ™ontient N (k) o˜jets dé™rits d—ns l9esp—™e des des™ripteurs p—r {xkn }1≤k≤K,1≤n≤N (k) F gh—que im—ge d9—pprentiss—ge est —sso™iée à un ve™teur l—˜el πk F ves ™ompos—ntes πki du ve™teur l—˜el donnent l— proportion de l— ™l—sse i d—ns l9im—ge k F ges proportions peuvent être vues ™omme l9— priori de l— ™l—sse i d—ns l9im—ge k telle que πki = p (ykn = i)D ∀nF xous notons ykn = i si l9o˜jet xkn est —sso™ié à l— ™l—sse iF xotons que i πki = 1F v9étiquette glo˜—le de l9im—ge est r—menée à l9é™helle de l9o˜jetD donn—nt un l—˜el individuel — prioriF v9ensem˜le d9—pprentiss—ge peut don™ s9é™rire X {xkn , πk }1≤k≤K,1≤n≤N (k) F v9o˜je™tif des méthodes est d9ét—˜lir un modèle de ™l—ssi(™—tion des o˜jets à p—rtir du jeu de données d9—pprentiss—geF ƒi Θ sont les p—r—mètres du modèleD —lors nous ˆ év—luons Θ d—ns un premier tempsD puis l— pro˜—˜ilité de ™l—ssi(™—tion p y = i|x, Θ ˆ ét—nt donné l9exemple test xF 3.2 Modèle génératif 3.2.1 Introduction h—ns le ™h—pitre QFPD nous étudions un modèle génér—tif ˜—sé sur l9—lgorithme iwF v— méthode ™onsiste à ™onsidérer que les données sont ™onstituées de modes g—ussiens dont nous ™her™hons à év—luer les moments d9ordre I et PF „out d9—˜ordD d—ns l— se™tion QFPFPD nous présentons l— méthode sous s— forme l— plus ™onnue X d—ns le ™—s de l9—pprentiss—ge superviséF €uisD d—ns l— se™tion QFPFQD l— pro™édure est étendue —u ™—s de l9—pprentiss—ge f—i˜lement superviséF 3.2.2 Classication supervisée in guise de modèle génér—tifD nous étudions les mél—nges de q—ussiennes dont les p—r—mètres sont estimés à l9—ide de l9—lgorithme iw qui m—ximise l— vr—isem˜l—n™e à ™h—que itér—tionF yn se pl—™e d—ns le ™—s de N ré—lis—tions {x1 , . . . , xN } d9une v—ri—˜le —lé—toire X dont l— densité est un mél—nge de g—ussiennesF gel— suppose que nous ™onsidérons les données d9une ™l—sse rép—rties de m—nière mod—leD ™h—que mode ét—nt modélisé p—r une g—ussienneF v9o˜je™tif de l9—pprentiss—ge est d9estimer les p—r—mètres de ™h—™une des g—ussiennesF ƒoit l— v—ri—˜le —lé—toire S telle que snim = 1 si l— ré—lis—tion xn provient du mode m de l— ™l—sse iD et snim = 0 sinonF xous en déduisons que ρim = p (sim )D —ve™ M m=1 ρim = 1F
  • 29.
    3.2. MODÈLE GÉNÉRATIF xxix ƒoit Θ = {ρim , µim , Σim }i,m les p—r—mètres d9un modèle de mél—nge g—ussienD où M est le nom˜re de modes p—r ™l—sseD ρim est l— proportion du mode m de l— ™l—sse iD µim est l— moyenne du mode m de l— ™l—sse i et Σim est l— m—tri™e de ™ov—ri—n™e du mode m de l— ™l—sse iF v— fon™tion densité s9é™rit X M p (x|y = i, Θ) = ρim N (x|µim , Σim ) @QFIA m=1 X est une o˜serv—tion in™omplète que l9on peut ™ompléter p—r l— v—ri—˜le ™—™hée S F einsi f—itD le ™ritère du m—ximum de vr—isem˜l—n™e — posteriori peut être employéF gepend—ntD l— m—ximis—tion de l— logEvr—isem˜l—n™e ™omplétée est di0™ileF v9—stu™e de l9—lgorithme iw est de ™ontourner ™e ™—l™ul vi— l— m—ximis—tion de l9espér—n™e ™onditionnelle de l— logEvr—isem˜l—n™e ™omplétée p—r r—pport à ΘF in not—nt Θc les p—r—mètres ™our—nts o˜tenus soit p—r ™—l™ulD soit p—r initi—lis—tionD l9estimé des p—r—E mètres à l9itér—tion suiv—nte s9é™rit don™ X ˆ Θ = arg max {Q(Θ, Θc )} @QFPA Θ où Q(Θ, Θc ) = E [log p (x, s|Θ) |x, Θc ] = p(s|x, Θc ) log p(x, s, Θ) @QFQA s F yrD en suppos—nt les o˜serv—tions {xn } indépend—ntesD nous pouvons é™rire X  N N   log p(x, s, Θ) = log   p(xn , sn , Θ) = log [N (x|µ, Σ)p(sn )]  N n=1 n=1 . @QFRA  c  p(s|x, Θc ) =   p(sn |xn , Θ )  n=1 pin—lementD en su˜stitu—nt les éléments de l9équ—tion @QFQA et en se fo™—lis—nt sur l— ™l—sse iD nous o˜tenons l9expression suiv—nte X N M c Q(Θ, Θ ) = log [ρim N (x|µim , Σim )] p(snim |xn , Θc ) @QFSA n=1 m=1 xous voulons m—ximiser Q(Θ, Θc ) p—r r—pport à ΘF einsiD en ™onsidér—nt Θc ™omme un p—r—mètre ™onst—ntD et ™omme prélimin—ire à l— m—ximis—tion nous ™—l™ulons p(snim |xn , Θc ) d—ns une première ét—peF v— règle d9inversion de f—yes donne X ρim p (xn |snim , Θc ) p(snim |xn , Θc ) = M @QFTA ρil p (xn |snil , Θc ) l=1 €our trouver le p—r—mètre ρim qui m—ximise Q(Θ, Θc )D nous utilisons les multipliE ™—teurs de v—gr—nge —ve™ l— ™ontr—inte M ρim = 1F xous o˜tenons X m=1 N 1 ρim = p(snim |xn , Θc ) @QFUA N n=1
  • 30.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xxx MODÈLES PROPOSÉS ves moyennes et v—ri—n™es sont o˜tenues p—r dériv—tion X N p (snim |xn , Θc ) xn n=1 µim = N @QFVA c p (snim |xn , Θ ) n=1 N p (snim |xn , Θc ) (xn − µim ) (xn − µim )T n=1 Σim = N @QFWA p (snim |xn , Θc ) n=1 €uis les p—r—mètres ™our—nts sont estimés à nouve—uD et le pro™essus est itéré jusqu9à ™onvergen™eF v9—lgorithme est résumé d—ns le t—˜le—u QFIF vors de l— ph—se de testD l— pro˜—˜ilité pour qu9un individu quel™onque x soit de l— ™l—sse i est donnée p—r l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori X M p(y = i|x, Θ) = ρim N (x|µim , Σim ) @QFIHA m=1 sl existe une version sto™h—stique de ™et —lgorithmeF v9—lgorithme ƒiw ‘IU“ — pour o˜je™tif d9éviter d9—˜outir à un m—ximum lo™—l de vr—isem˜l—n™eF €our ™el—D entre les ét—pes i et wD les individus sont ™l—ssés p—r r—pport —ux di'érents modes à l9—ide d9un tir—ge —lé—toire suiv—nt l— densité de pro˜—˜ilité dis™rète {p(snim |xn )}i F 3.2.3 Classication faiblement supervisée €our le ™—s de l9—pprentiss—ge f—i˜lement superviséD nous nous sommes —ppuyés sur les tr—v—ux développés d—ns ‘ISR“F ge p—pier propose de résoudre l9—lgorithme iw pour des données f—i˜lement l—˜elliséesF ge dernier tr—ite uniquement le ™—s d9o˜serv—tion dont le l—˜el indique l— présen™e ou l9—˜sen™e de ™l—sses d—ns un groupe d9o˜jetsF xous —vons —d—pté l9—lgorithme —u ™—s des l—˜els qui indiquent l— proportion des ™l—sses d—ns un groupe d9o˜jetsF ƒoit Θ = {ρim , µim , Σim }i,m les p—r—mètres d9un modèle de mél—nge de g—ussiennes X M p (x|y = i, Θ) = ρim N (x|µim , Σim ) @QFIIA m=1 €our un ensem˜le d9—pprentiss—ge de l— forme {xkn , πk } qui est l—˜ellisé en proportionD le ™ritère de m—ximis—tion de l— vr—isem˜l—n™e peut être dé(nit p—r X K N (k) ˆ Θ = arg max p(π|x, Θ) = arg max p(πk |xkn , Θ) @QFIPA Θ Θ k=1 n=1
  • 31.
    3.2. MODÈLE GÉNÉRATIF xxxi IG sniti—lis—tion des p—r—mètres Θc F PG tusqu9à ™onvergen™eD e'e™tuer su™™essivement les ét—pes i et w X Etape E X ρim p (xn |snim , Θc ) γnim = M ρil p (xn |snil , Θc ) l=1 Etape M X @wise à jour des p—r—mètres Θc A N 1 ρim = γnim N n=1 N N γnim xn γnim (xn − µim ) (xn − µim )T n=1 n=1 µim = N Σim = N γnim γnim n=1 n=1 Tableau 3.1 Algorithme EM dans le cas de l'apprentissage supervisé. gomme d—ns l— se™tion QFPFPD nous m—ximisons l9espér—n™e de l— logEvr—isem˜l—n™e ™omplétée qui s9é™rit X Q(Θ, Θc ) = E [log p (x, y|Θ) |x, π, Θc ] = p(y|x, Θc ) log p(x, y, Θ) @QFIQA y ƒoit K im—gesD ™omposées de N (k) o˜jetsF in suppos—nt les o˜serv—tions {xkn } indéE pend—ntesD nous pouvons é™rire X     K N (k) K N (k)   log p(x, y, Θ) = log     p(xkn , ykn , Θ)= log [p(xkn |ykn , Θ)p(ykn |Θ)] k=1 n=1 k=1 n=1 .   K N (k)  p(y|x, Θc ) = p(ykn |xkn , Θc )    k=1 n=1 @QFIRA €—r su˜stitution d—ns l9équ—tion @QFIQAD nous o˜tenons X K N (k) c Q(Θ, Θ ) = p (ykn = i|xkn , Θc ) log [πki p (x|ykn = i, Θ)] @QFISA k=1 n=1 i einsiD qu—nd l— proportion d9individus d—ns ™h—que im—ge ™onstitue l— l—˜ellis—tionD ™ette proportion donne un — priori sur ™h—que im—ge pour ™h—que ™l—sseD de telle sorte que l9ét—pe i de l9—lgorithme iw prendre en ™ompte l9— priori πki X πki p (xkn |ykn = i, Θc ) p (ykn = i|xkn , Θc ) = @QFITA πkl p (xkn |ykn = l, Θc ) l
  • 32.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xxxii MODÈLES PROPOSÉS €our l9ét—pe w de l9—lgorithmeD l— log vr—isem˜l—n™e ™omplétée @QFISA est optimisée en fon™tion de ΘF ‚em—rquons que l— dépend—n™e de @QFISA p—r r—pport à Θ porte essentiellement sur p (x|ykn = i, Θ) X K N (k) Q(Θ, Θ ) =c p (ykn = i|xkn , Θc ) log p (x|ykn = i, Θ) + cste @QFIUA k=1 n=1 i ge point ™onstitue l— di'éren™e prin™ip—le —ve™ ‘ISR“F €our notre pro˜lém—tiqueD le p—r—mètre πki est ™onnu puisqu9il ™onstitue le l—˜el des individus xkn F h—ns ‘ISR“D les proportions ne sont p—s ™onsidérées ™onnues et doivent être estimées lors de l9ét—pe wF in sép—r—nt le pro˜lème en I pro˜lèmes élément—iresD m—ximiser QFIU revient à m—ximiser l— log vr—isem˜l—n™e d9un mél—nge de g—ussiennes pondérées p—r le terme p (ykn = i|xkn , Θc ) X K N (k) p (ykn = i|xkn , Θc ) log p (x|ykn = i, Θ) @QFIVA k=1 n=1 …ne nouvelle foisD l— m—ximis—tion de @QFIVA est e'e™tuée vi— l9—lgorithme iwF v— méE thode ™onsiste don™ à insérer un —lgorithme iw d—ns l9ét—pe w d9un —utre —lgorithme iwF yn peut voir d—ns ™e pro™édé ™omme l9expression d9un 4mél—nge de mél—nge4F gomme pré™édemmentD plutot que de m—ximiser l9expression de l— logE vr—isem˜l—n™e pondérée @QFIVAD nous m—ximisons ™elle de l9espér—n™e de l— logE vr—isem˜l—n™e ™omplétée X K N (k) M c c Q (Θ, Θ ) = p (ykn = i|xkn , Θ ) log [ρim N (xkn |µim , Σim )] p(sknim |xkn , Θc ) k=1 n=1 m=1 @QFIWA yù sknim D dé(nie p—r p(sim ) = ρim D indique l— pro˜—˜ilitéD pour l9o˜jet n de l9im—ge k D d9être —pp—renté —u mode m de l— distri˜ution de l— ™l—sse iF v9ét—pe i de ™e se™ond —lgorithme iw est —lors donnée p—r X ρim p (xkn |sknim , Θc ) p (sknim |xkn , Θc ) = M @QFPHA ρknil p (xkn |sknil , Θc ) l ves nouve—ux p—r—mètres sont o˜tenus à l9—ide de l— méthode des multipli™—teurs de v—gr—nge ou p—r dériv—tion de l9espér—n™e de l— log vr—isem˜l—n™e ™omplétéeD leurs expressions sont X p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) k n ρim = @QFPIA p (ykn = i|xkn , Θc ) k n p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) xkn k n µim = @QFPPA p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) k n
  • 33.
    3.3. MODÈLE DISCRIMINANT xxxiii p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) (xkn − µim )(xkn − µim )T k n σim = @QFPQA p (ykn = i|xkn , Θc ) p (sknim |xkn , Θc ) k n v9—lgorithme est résumé d—ns le t—˜le—u QFPF vors de l— ph—se de testD l— pro˜—˜ilité pour qu9un individu quel™onque x soit de l— ™l—sse i est donné p—r l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori X M p(y = i|x, Θ) = ρim N (x|µim , Σim ) @QFPRA m=1 xotons que ™et —lgorithme est peu ro˜uste pour des jeux de données ™omplexesD dont le re™ouvrement entre ™l—sses est élevéF he plusD d—ns le ™—s de distri˜utions multi mod—les —ve™ des m—tri™es de ™ov—ri—n™es ™omplexesD l9—lgorithme peine à ™onvergerF in pr—tiqueD pour g—gner en perform—n™eD les m—tri™es de v—ri—n™eE™ov—ri—n™e sont ™onsidéE rées di—gon—lesF gel— suppose que les des™ripteurs sont indépend—ntsF ƒi pour ™ert—ins types de données ™e n9est p—s le ™—sD le f—it de ™hoisir un modèle de mél—nge peut ™ompenser ™e type de simpli(™—tionF €—r exempleD un nu—ge de points di—gon—l d—ns un esp—™e à deux dimensions pourr—it être représenté p—r plusieurs nu—ges de points ™ir™ul—ires iFeF p—r un mél—nge de g—ussiennes dont les m—tri™es de ™ov—ri—n™e sont di—E gon—lesF in ™onsidér—nt I = 4 ™l—ssesD M = 5 modes et D = 20 des™ripteursD le nom˜re de p—r—mètres à estimer s9élève à IM D 1 + D = 4400 d—ns le ™—s d9une m—tri™e de 2 v—ri—n™eE™ov—ri—n™e pleineD et à 2IM D = 800 p—r—mètres d—ns le ™—s d9une m—tri™e di—E gon—leF in ™omp—r—nt —ux ID = 80 p—r—mètres qui représentent les ™oe0™ients d9un hyperpl—n sép—r—teur d9un modèle dis™rimin—ntD et en suppos—nt que plus il y — de p—E r—mètres moins les —lgorithmes sont ro˜ustes et plus les perform—n™es de ™l—ssi(™—tion diminuesD ™el— nous l—isse entrevoir les futurs perform—n™es des —lgorithmesF 3.3 Modèle discriminant ve ™h—pitre QFQ est ™ons—™ré à l9él—˜or—tion de modèles dis™rimin—ntsF h—ns un premier tempsD des méthodes ™l—ssiques d9—pprentiss—ge supervisé sont présentées d—ns l— se™tion QFQFIF xous verrons not—mment l9—n—lyse dis™rimin—nte de pisherD puis l— méthode uEp™— qui permet d9étendre l9—n—lyse de pisher du ™—s liné—ire —u ™—s non liné—ireD les m—™hines à ve™teur de support seront ensuite étudiées d—ns le ™—s liné—ireD et en(n d—ns le ™—s non liné—ireF h—ns un se™ond tempsD nous proposons des modèles de ™l—ssi(™—tion pour le ™—s de l9—pprentiss—ge f—i˜lement superviséF xous proposons d9—d—pter l9—n—lyse dis™rimin—nte de pisher —u ™—s des pro˜—˜ilités de ™l—ssi(™—tion — prioriD en(nD nous indiquons ™omment o˜tenir une version non liné—ire du modèleF
  • 34.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xxxiv MODÈLES PROPOSÉS IG sniti—lis—tion des p—r—mètres Θc F PG tusqu9à ™onvergen™eD e'e™tuer su™™essivement les ét—pes i et w X Etape E X πki p (xkn |ykn = i, Θc ) τkni = πkl p (xkn |ykn = l, Θc ) l Etape M X Etape M-E X ρim N (xkn |skni = m, Θc ) γknim = M ρil p (xkn |skni = l, Θc ) l=1 Etape M-M X τkni γknim τkni γknim xkn ρim = k n et µim = k n τkni τkni γknim k n k n τkni γknim (xkn − µim )(xkn − µim )T 2 k n σim = τkni γknim k n Tableau 3.2 Algorithme EM dans le cas de l'apprentissage faiblement su- pervisé. 3.3.1 Classication supervisée Le modèle ge modèle est une p—r—métris—tion dire™te de l— ™l—ssi(™—tionF hé(ni ™omme une version pro˜—˜iliste du modèle dis™rimin—ntD iFeF à l9inst—r de ™elui proposé d—ns ‘ISR“D le modèle liné—ire peut être exprimé de l— m—nière suiv—nte X p (y = i|x, Θ) ∝ F ( ωi , x + bi |{ωi }) @QFPSA yù ωi , x +bi est l— dist—n™e entre l9o˜jet à ™l—sser et l9hyperpl—n qui sép—re l— ™l—sse i des —utres ™l—ssesF v9équ—tion de ™et hyperpl—n est donnée p—r ωi , x +bi = 0 d—ns l9esp—™e des des™ripteursF F est une fon™tion positive et ™roiss—nte qui permet d9—juster l— dyn—mique de pro˜—˜ilis—tionF h—ns ™e m—nus™ritD F est ™hoisie ™omme ét—nt l— fon™tion exponentielle X exp( ωi , x + bi ) p (y = i|x, Θ) = @QFPTA exp( ωl , x + bl ) l
  • 35.
    3.3. MODÈLE DISCRIMINANT xxxv Figure 3.1 L'objectif de l'analyse discriminante de Fisher est de trouver un axe de projection Zω qui minimise le recouvrement des nuages de points entre classes. e ™h—que ™l—sseD ™orrespond un hyperpl—n qui sép—re l— ™l—sse ™onsidérée des —utres ™l—ssesF €our un individu test xD ™el— permet d9ét—˜lir un ve™teur de pro˜—˜ilité de ™l—ssi(™—tionF v— ™l—sse l— plus pro˜—˜le est —ttri˜uée à l9individu xF sl existe plusieurs méthodes d9—pprentiss—ge pour o˜tenir les ™oe0™ients Θ = {ωi , bi } des hyperpl—nsF xous étudions i™i l9—n—lyse dis™rimin—nte de pisher qui est un moE dèle liné—ireD puis l— méthode uEp™— @kernel prin™ip—l ™omponent —n—lysisA qui permet d9étendre l9—n—lyse de pisher —u ™—s non liné—ireF in(nD l— méthode des ƒ†w @ƒupport w—™hine †e™torA ser— présentéeD et pour (nirD l— version non liné—ire des ƒ†wF Analyse discriminante de Fisher h—ns ™ette se™tionD l9—pprentiss—ge est e'e™tué à l9—ide de l9—n—lyse dis™rimin—nte de pisherF v— philosophie de l— méthode est résumée d—ns l— (gure QFIF h—ns ™et exempleD nous souh—itons trouver l9hyperpl—n qui sép—re les los—nges des étoiles qui sont exprimés d—ns un esp—™es de deux des™ripteurs @X1 et X2 AF €our ™el—D nous —llons ™her™her l9—xe Zω D porté p—r le ve™teur ω D qui minimise le re™ouvrement des proje™tions des nu—ges de points sur ™et —xeF v— première ét—pe ™onsiste à trouver ω D il f—ut ensuite positionner le ve™teur d—ns l9esp—™eF he m—nière plus formelleD pour un ensem˜le d9—pprentiss—ge {xn , yn }n∈[1...N ],yn ∈[1...I] D en dé(niss—nt X
  • 36.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xxxvi MODÈLES PROPOSÉS le nom˜re d9individus p—r ™l—sse X Ni N le point moyen glo˜—l X µ= 1 N xn n=1 le point moyen de l— ™l—sse i X µi = 1 Ni xn n/yn =i I Ni l— v—ri—n™e inter groupe X U= (µi − µ)(µi − µ)T i=1 N l— m—tri™e de v—ri—n™eE™ov—ri—n™e mesurée pour l— ™l—sse i X Σi I ˆ Ni l— v—ri—n™e intr— groupe X Σ= Σi i=1 N —lorsD sur l9—xe Zw engendré p—r le ve™teur ω D les v—ri—n™es inter et intr— ™l—sses ont ˆ ˆ respe™tivement pour expression X U (ω) = ω T U ω et Σ(ω) = ω T Σω F €—r prin™ipeD le ™ritère de pisher ™onsiste à trouver le ve™teur ω qui m—ximise le r—pport entre l— ˆ v—ri—n™e inter ™l—sse U (ω) et l— v—ri—n™e intr— ™l—sse Σ(ω) X ωT U ω arg max @QFPUA ω ˆ ω T Σω ve ™ritère @QFPUA est résolu à l9—ide des multipli™—teurs de v—gr—ngeD sous l— ™ontr—inte ˆ ˆ de norm—lis—tion ω T Σω = 1F xous o˜tenons l— solution génér—le X Σ−1 U ω = λω F yrD le modèle dé(ni p—r l9expression @QFPSA est un modèle de ™l—ssi(™—tion à deux ™l—sses @une ˆ ™l—sse ™ontre toutes les —utresAF h—ns ™e ™—sD l— m—tri™e Σ−1 U n9— qu9une seule v—leur propre λ et un seul ve™teur propre —sso™ié X ω = (Σ1 + Σ2 )−1 (µ1 − µ2 ) @QFPVA xous en déduisons —isément l— v—leur de bi X (µ1 + µ2 ) b=ω @QFPWA 2 ve prin™ip—l —v—nt—ge de ™ette méthode est son f—i˜le ™oût de ™—l™ulF xous —vons vu que l9—pprentiss—ge du modèle se résume —u ™—l™ul de @QFPVA et @QFPWAF w—is l9inE ™onvénient m—jeur se situe d—ns l— f—i˜le ™omplexité du modèle et not—mment d—ns l— liné—rité du modèleF Kernel-principal component analysis (K-pca) v9—n—lyse dis™rimin—nte de pisher est présentée d—ns le p—r—gr—phe pré™édent pour le ™—s liné—ireD m—is ™ert—ines situ—tions ne permettent p—s de trouver de telle solutionF xous présentons d—ns ™e p—r—gr—phe l— méthode uEp™— qui permet d9étendre un modèle de ™l—ssi(™—tion liné—ire —u ™—s non liné—ireF
  • 37.
    3.3. MODÈLE DISCRIMINANT xxxvii Figure 3.2 Pour des modèles non-linéaires, l'espace des observations est transformé an que, dans l'espace d'arrivée, il existe une solution linéaire. €lutôt que d9im—giner un —utre modèle de ™l—ssi(™—tionD le prin™ipe est de tr—nsE former l9esp—™e des o˜serv—tions pour queD d—ns le nouvel esp—™eD il existe une solution liné—ireF €—r exempleD d—ns l— pigure QFPD d—ns l9esp—™e des des™ripteurs {X1 , X2 } il n9existe p—s d9hyperpl—n sép—r—teur pour les los—nges et les étoilesF …ne tr—nsform—tion de l9esp—™e est e'e™tuéeD vi— l— fon™tion (X1 , X2 ) = ϕ (X1 , X2 )D telle qu9il existe un hyperpl—n sép—r—teur d—ns le nouvel esp—™e (X1 , X2 )F ƒi l— fon™tion ϕ est ™onnueD —lors le modèle de ™l—ssi(™—tion s9é™rit X p (y = i|ϕ(x), Θ) ∝ F ( ωi , ϕ(x) + bi |{ωi }) @QFQHA v9origin—lité de l— méthode réside d—ns le f—it qu9il n9est p—s né™ess—ire d9expli™iter l— fon™tion ϕ m—is uniquement le produit s™—l—ire —sso™iéF v9idée est d9e'e™tuer une en—lyse en gompos—nte €rin™ip—le @eg€A d—ns le nouvel esp—™e —(n d9extr—ire les ™ompos—ntes les plus signi(™—tivesF €our ™el—D nous devons déterminer les v—leurs propres λ ≥ 0 et les ve™teurs propres non nuls v qui s—tisfont X λv = Cv @QFQIA où C est l— m—tri™e de ™ov—ri—n™e qui s9é™rit X N 1 C= ϕ(xn ), ϕ(xn ) @QFQPA N n=1 pour N exemples d9—pprentiss—geF v est une ™om˜in—ison liné—ire des {ϕ(xn )} que nous notons X N v= αn ϕ(xn ) @QFQQA n=1
  • 38.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xxxviii MODÈLES PROPOSÉS in inje™t—nt l9expression de v ™—l™ulée d—ns l9équ—tion @QFQQA et en e'e™tu—nt un produit s™—l—ire sur l9équ—tion @QFQIA ™omme suit X λ ϕ(xn ), v = ϕ(xn ), Cv , ∀n @QFQRA —lors l9équ—tion @QFQIA peut être réé™rite de l— m—nière suiv—nte X N N N 1 λ ϕ(xn ), ϕ(xn ) = αn ϕ(xn ), ϕ(xm ), ϕ(xm ), ϕ(xn ) @QFQSA n=1 N n=1 m=1 ƒoit K l— m—tri™e de qr—m dont les ™ompos—ntes sont Kmn = ϕ(xm ), ϕ(xn ) D —lors @QFQSA prend l— forme X N λKα = K 2 α @QFQTA où α est un ve™teur ™olonne de ™ompos—ntes {αn }F €our trouver les solutions de @QFQTAD nous résolvons le pro˜lème du—l X N λα = Kα @QFQUA ve ™—l™ul des v—leurs propres λ1 ≥ λ2 ≥ . . . ≥ λN et des ve™teurs propres ™orresE pond—nts {αn } est e'e™tuéD puis l— nEième ™ompos—nte ϕ(x)n d9un ve™teur test ϕ(x) est donnée p—r proje™tion sur le ve™teur v n qui est engendré p—r αn X N N ϕ(x)n = v n , ϕ(x) = n αm ϕ(xm ), ϕ(x) = n αm K(xm , x) @QFQVA m=1 m=1 où αm sont les ™ompos—ntes du neme ve™teur propreF n ve nouvel esp—™e peut être réduit en ne ™onsidér—nt que les Npca premières v—leurs propres {λn }F gel— revient à ™onsidérer que les v—leurs propres inférieures à λNpca ont des v—leurs très f—i˜les et sont don™ néglige—˜lesF ve produit s™—l—ire K(x1 , x2 ) est une fon™tion noy—u ‘RT“F €—rmi les noy—ux les plus employés ‘RT“D on trouve le noy—u liné—ire X K(x1 , x2 ) = x1 T x2 @QFQWA et le noy—u g—ussien X ||x1 − x2 | |2 K(x1 , x2 ) = exp @QFRHA 2σ 2 v— tr—nsform—tion de l9esp—™e des o˜serv—tions dépend dire™tement du ™hoix du noy—uF €our le ™—s de l— (gure QFPD si les données sont ™entrées et si le p—r—mètre σ est ™orre™tement ™hoisiD —lors le noy—u g—ussien peut être très perform—ntF gel— s9explique p—r l— forme des nu—ges de points @d—ns le ™—s où les données sont ™entréesA qui f—it que les mesures de simil—rités sont sensi˜lement équiv—lentes —u sein des los—nges et —u sein des étoiles d—ns le ™—s du noy—u g—ussienF get exemple montre que les perform—n™es de ™l—ssi(™—tion sont fortement liées —u ™hoix du noy—u et des p—r—mètres —sso™iésF
  • 39.
    3.3. MODÈLE DISCRIMINANT xxxix Figure 3.3 Exemple de 4 classes qui ne sont pas linéairement séparables (gure de gauche) dans un processus one-versus-all . Après application de la méthode Kpca avec un noyau gaussien (gure de droite), les données deviennent linéairement séparables. h—ns l— (gure QFQD un exemple pr—tique montre ™omment R ™l—sses qui ne sont p—s liné—irement sép—r—˜les d—ns un pro™essus 4 oneEversusE—ll 4 le deviennent —près —ppli™—tion de l— méthodeF v— méthode uEp™— peut dire™tement être —ppliquée pour des données f—i˜lement l—˜elliséesF in e'etD l— méthode ne requière p—s l— ™onn—iss—n™e de l—˜elsF sl s9—git uniE quement d9e'e™tuer une tr—nsform—tion non liné—ire de l9esp—™e des —ttri˜utsF einsiD une fois l— tr—nsform—tion e'e™tuéeD l9—n—lyse dis™rimin—nte de pisher peut être —ppliE quée d—ns le ™—s f—i˜lement superviséD et d9un modèle f—i˜lement supervisé liné—ireD nous o˜tenons un modèle f—i˜lement supervisé nonEliné—ireF SVM v— méthode ƒ†w est une —utre te™hnique de ™—l™ul des ™oe0™ients d9un hyperpl—n sép—r—teurF ƒ†w veut dire 4w—™hine à †e™teur de ƒupport4F xous dé(nissons l— m—rge ™omme ét—nt l— dist—n™e entre l9hyperpl—n sép—r—teur et les points les plus pro™hes de l9hyperpl—nF ges points sont —ppelés 4ve™teurs de support4F …n exemple est représenté d—ns l— pigure QFRD le ˜ut ét—nt de dis™riminer deux ™l—sses @les los—nges et les étoilesAF ves ve™teurs supports sont entourés d9un ™er™le pointilléF v9idée fond—ment—le de l— méthode ƒ†w est de trouver l9hyperpl—n qui m—ximise l— m—rgeF ƒoit l9ensem˜le d9—pprentiss—ge {xn , yn }n∈[1...N ] D où yn = +1 si xn est de ™l—sse i et yn = −1 sinonF in ™hoisiss—nt de norm—liser Θ = {ωi , bi } de telle sorte que ωi x+bi = 1 T si x est le ve™teur support de l— ™l—sse i et que ωi x + bi = −1 sinonD —lors le ™ritère T prim—l qui donne l9hyperpl—n sép—r—teur de m—rge m—xim—le est X ˆ 1 Θ = arg min ||ωi ||2 @QFRIA Θ 2
  • 40.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xl MODÈLES PROPOSÉS Figure 3.4 L'objectif de la méthode SVM est de trouver l'hyperplan qui maximise la marge. ƒous l— ™ontr—inteD yn ωi xn + bi ≥ 1D ∀nF T …ne formul—tion du—le du ™ritère est o˜tenue en introduis—nt les multipli™—teurs de v—gr—nge pour ™h—que ™ontr—inte @une ™ontr—inte p—r exemple d9—pprentiss—geA ‘QW“ X 1 α = arg max ˆ αn − αp αq yp yq xp , xq @QFRPA α n 2 p,q sous les ™ontr—intesD αn ≥ 0D ∀n et n αn yn = 0F xotons que les dérivées p—rtielles du l—gr—ngien donnent l— rel—tion suiv—nte X α n y n xn = ω ˆ @QFRQA n v— fon™tion de dé™ision est (n—lement o˜tenue p—r su˜stitution de l— v—leur estimée de ω d—ns l9équ—tion @QFPSA X N p (y = i|x, Θ) ∝ F αn yn x, xn + bi ˆ @QFRRA n=1 gomme pour l9—n—lyse dis™rimin—nte de pisherD le p—r—mètre bi est o˜tenu en utilis—nt l9expression @QFPWAF SVM non linéaire v9extension de l— méthode ƒ†w —u ™—s non liné—ire suit l— même philosophie que l— méthode uEp™—F v9exemple de l— (gure QFP peut à nouve—u être ™onsidéréF einsiD s9il n9existe p—s de solution dis™rimin—nte liné—ire d—ns l9esp—™e des —ttri˜utsD ™eluiE ™i est tr—nsformé vi— une fon™tion ϕ telle que le nouvel esp—™e propose des solutions
  • 41.
    3.3. MODÈLE DISCRIMINANT xli liné—irement sép—r—˜lesF v9extension —u ™—s non liné—ire est intrinsèquement plus dire™te d—ns le ™—s des ƒ†wF „out d9—˜ordD nous rem—rquons que l— fon™tion de dé™ision @QFRRA du modèle liE né—ire s9exprime en fon™tion du produit s™—l—ire entre l9individu test x et l9ensem˜le des données d9—pprentiss—ge {xn }F v9idée est de rempl—™er ™e produit s™—l—ire p—r un produit s™—l—ire qui est dé(nit d—ns un —utre esp—™e des —ttri˜utsF ge nouvel esp—™e est en f—it l9esp—™e ™i˜le d—ns lequel des solutions liné—ires seront possi˜lesF ve produit s™—l—ire est une fon™tion noy—u que nous notons K(x1 , x2 ) = ϕ(x1 ), ϕ(x2 ) F ves rem—rques e'e™tuées sur le ™hoix de l— fon™tion noy—u sont les mêmes que pour l— méthode uEp™— X le ™hoix du noy—u et les p—r—mètres —sso™iés doivent ™orrespondre à l9org—nis—tion sp—ti—le des donnéesF 3.3.2 Classication faiblement supervisée h—ns ™ette se™tion nous proposons une méthode d9—pprentiss—ge f—i˜lement superE visé des p—r—mètres du modèle dis™rimin—ntF …ne méthode ™onsiste à développer un ™l—ssi(eur ƒ†w f—i˜lement superviséD —u lieu de ç—D nous proposons une méthode plus trivi—le X l— modi(™—tion du ™ritère de pisherF ve ™—s non liné—ire est ensuite o˜tenu à l9—ide de l— méthode uEp™—F pin—lementD l— seule di'éren™e qu9il existe entre le ™l—sE si(eur ƒ†w non liné—ire et l9—n—lyse de pisher non liné—ire réside d—ns le ™—l™ul des ™oe0™ients de l9hyperpl—n sép—r—teur liné—ireD l— tr—nsform—tion de l9esp—™e des —ttriE ˜uts ét—nt e'e™tuée de l— même m—nière pour les deux —ppro™hesF Optimisation de Fisher xous —vons vu que pour un jeux de données d9—pprentiss—ge supervisé {xn , yn }D où yn = i si xn est de l— ™l—sse iD l9—n—lyse dis™rimin—nte de pisher d—ns le ™—s de P ™l—sses ™onsiste à ™—l™uler les moyennes µ1 et µ2 D et les m—tri™es de ™ov—ri—n™es Σ1 et Σ2 D respe™tivement de l— ™l—sse i et du regroupement des —utres ™l—ssesF ves p—r—mètres du modèle dis™rimin—nt Θ = {ωi , bi } sont —lors ™—l™ulés ™omme indiqué d—ns les expressions @QFPVA et @QFPWAF in —pprentiss—ge f—i˜lement superviséD le jeu de données est ™onstitué d9o˜jets —sso™iés à un ve™teur d9— priori sur les ™l—sses X {xkn , πk }F it—nt donné que les ™l—sses des o˜jets ne sont p—s ™onnuesD nous ne pouvons p—s ™—l™uler dire™tement les points moyens et les m—tri™e de ™ov—ri—n™esF €our le ™—l™ul des momentsD nous proposons de ™—l™uler une espér—n™e ™onditionnelle rel—tive —ux — prioriF einsiD l— moyenne µ1 et l— m—tri™e de ™ov—ri—n™e Σ1 de l— ™l—sse i prennent respe™tivement pour expression X K N (k) πki xkn k n µ1 = @QFRSA K N (k) πki k n
  • 42.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xlii MODÈLES PROPOSÉS et K N (k) πki (xkn − µ1 )(xkn − µ1 )T k n Σ1 = @QFRTA K N (k) πki k n „—ndis que l— moyenne µ2 et l— m—tri™e de ™ov—ri—n™e Σ2 du regoupement des —utres ™l—sses prennent respe™tivement pour expression X K N (k) (1 − πki )xkn k n µ2 = @QFRUA K N (k) (1 − πki ) k n et K N (k) (1 − πki )(xkn − µ2 )(xkn − µ2 )T k n Σ2 = @QFRVA K N (k) (1 − πki ) k n gette méthode présente trois —v—nt—gesF „out d9—˜ordD seules les inform—tions dispoE ni˜les sont exploitées X le ™—l™ul des moyennes et des m—tri™es de ™ov—ri—n™e est e'e™tué à l9—ide des toutes les données d9—pprentiss—geF h9—utre p—rtD l— méthode proposée est très simple puisqu9elle ne modi(e en rien l— démonstr—tion de l9—n—lyse de pisherF inE (nD une —n—lyse plus (ne du modèle —™™rédite le ™hoix d9une telle pondér—tionF €—r exempleD pour le ™—l™ul de l— moyenne µ1 d—ns l9expression @QFRSAD les individus qui ont un — priori fort ™ontri˜uent d—v—nt—ge —u ™—l™ul de l— moyenne ™ontr—irement à ™eux dont l9— priori est plus f—i˜leF gel— permet de donner d9—v—nt—ge de poids —ux données dont les inform—tions sur l— ™l—sse d9origine sont plus import—ntesF 3.4 Arbres de classication h—ns le ™h—pitre QFRD nous tr—itons le ™—s des —r˜res de ™l—ssi(™—tionD en™ore —ppelés —r˜res de dé™isionF h—ns un premier tempsD d—ns l— se™tion QFRFID nous dét—illons le ™—s de l9—pprentiss—ge superviséF ve ™—s de l9—pprentiss—ge f—i˜lement supervisé ser— tr—ité d—ns l— se™tion QFRFP et une méthode de ™onstru™tion d9un —r˜re de ™l—ssi(™—E tionGdé™ision est proposée pour des données f—i˜lement l—˜elliséesF 3.4.1 Classication supervisée ve prin™ipe de l9—pprentiss—ge des —r˜res de ™l—ssi(™—tion repose sur un é™h—ntillonE n—ge de l9esp—™e tel que l— t—ille des é™h—ntillons dépend de l9org—nis—tion des donnéesF
  • 43.
    3.4. ARBRES DE CLASSIFICATION xliii Figure 3.5 Exemple en deux dimensions d'un arbre de classication qui sépare les étoiles et les losanges. €—rt—nt d9un jeu de données ™ontenu d—ns un hyper volume de t—ille in(niD l— méthode ™onsiste à ™réer des sousEé™h—ntillons de l9esp—™e des des™ripteurs itér—tivementF v— s™isE sion d9un volume é™h—ntillonné est e'e™tuée de telle sorte que les sousEvolumes o˜tenus soient les plus homogènes possi˜les visEàEvis des ™l—ssesF ƒi un volume n9est p—s —ssez homogèneD il est s™indé à son tourF u—nd un sous esp—™e est su0s—mment homogène en ™l—ssesD on lui —ttri˜ue l9étiquette de l— ™l—sse l— plus fréquenteF pin—lementD lors de l— ™l—ssi(™—tionD tout individu test ™ontenu d—ns ™e volume élément—ire est ™onsidéré ™omme ét—nt de l— ™l—sse ™orrespond—nteF v9exemple de l— (gure QFS illustre ™es proposF h—ns ™ette (gureD l9o˜je™tif est de sép—rer les étoiles et les los—nges représentés d—ns un esp—™e de dimension deuxF v9—pE prentiss—ge produit l9—r˜re représenté p—r ™inq noeudsF ve premier noeud est un noeud 4père4 qui — deux noeuds 4(ls4 —sso™iésD dont l9un est un noeud 4termin—l4 et l9—utre est —ussi un noeud père qui est —sso™ié à deux noeuds (ls termin—uxF v9—r˜re —insi ™réé produit une s™ission de l9esp—™e in(ni en trois sousEé™h—ntillons in(nisF ve premier volume é™h—ntillonné est l9esp—™e X2 c2 qui est —sso™ié —ux los—ngesD t—ndis que les deux —utres sont les esp—™es (X2 c2 , X1 c1 ) et (X2 c2 , X1 c1 ) respe™tivement —sso™iés —ux los—nges et —ux étoilesF v9exemple pré™édent signi(e que l— ™onstru™tion d9un —r˜re revient à ét—˜lir une su™™ession de ™onditions liées à des v—leurs de ™oupure pour di'érents —ttri˜utsF €lus pré™isémentD en un noeud donnéD il f—ut déterminer l— v—leur de ™oupure cd —sso™iée —u des™ripteur d telle que les noeuds (ls soient le plus homogènes possi˜le en ™l—sseF ƒi G est le g—in d9inform—tion mesurée entre le noeud père et les noeuds (lsD —lors l— meilleur v—leur de ™oupure cd ser— ™elle qui m—ximise ™e g—inF sl en ressort le ™ritère de séle™tion de d et cd X arg max G @QFRWA {d,cd } v— mesure de l9homogénéité des ™l—sses est une qu—ntité d9inform—tions que nous notons
  • 44.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xliv MODÈLES PROPOSÉS I m —u noeud (ls m et I 0 —u noeud pèreF ve g—in d9inform—tions se ™—l™ule —lors de l— m—nière suiv—nte X G= Im − I0 @QFSHA m h—ns l— méthode gRFS ‘UH“D l— qu—ntité d9inform—tions Im du noeud m ™orrespond à l9entropie de ƒh—nnon X Im = − pmi log(pmi ) @QFSIA i où pmi est l— pro˜—˜ilité de l— ™l—sse i d—ns le noeud mF h—ns l— méthode gFeF‚F„F ‘TV“D ™ette qu—ntité d9inform—tions s9exprime en fon™tion de l9indi™e de qini ‘ISS“ X Im = − pmi (1 − pmi ) @QFSPA i v— lisi˜ilité des règles de dé™isionD ˜—sée sur de simples seuilsD f—it que les —r˜res de ™l—ssi(™—tion ont l9—v—nt—ge de dé™rire expli™itement les donnéesF v— r—pidité d9exéE ™ution et l— f—™ilité d9implément—tion sont d9—utres —touts import—ntsF w—lgré toutD ™es méthodes sont très inst—˜les d9une expérien™e à l9—utreF ves —r˜res o˜tenus et les perform—n™es de ™l—ssi(™—tion di'èrent fortement si le jeu de données d9—pprentiss—ge su˜it quelques v—ri—tionsF €—r exempleD d—ns l— (gure QFSD l9—r˜re o˜tenu n9est p—s exE ™lusifD une multitude d9—r˜res —ur—ient pu ™onvenirF xous verrons que les te™hniques d9ensem˜le de ™l—ssi(eurs ™onstituent une solution à ™e pro˜lème @™fF ™h—pitre RAF 3.4.2 Classication faiblement supervisée ves —r˜res de ™l—ssi(™—tion ont été développés d—ns un ™—dre d9—pprentiss—ge superE viséF xous souh—itons développer une te™hnique d9—r˜res de ™l—ssi(™—tion —d—ptée —ux données d9—pprentiss—ge du type {xkn , πk }1≤k≤K,1≤n≤N (k) D où n indi™e les o˜jets d—ns l9im—ge k F v9—ppro™he ™onsiste à ét—˜lir un nouve—u ™ritère de s™ission des données lors de l9—pprentiss—geF in s9—ppuy—nt sur l— méthode gRFS ‘UH“D un ™ritère de sép—r—tion des données ˜—sé sur l9— priori des ™l—sses est proposéF xous ™her™hons toujours à m—ximiser le g—in d9inform—tion p—r r—pport à l— v—leur de ™oupure cd et —u des™ripteur d —sso™iéD et en exprim—nt l— qu—ntité d9inform—tion Im —u noeud (ls m ∈ (N )∗ tel que X Im = − pmi log(pmi ) @QFSQA i où pmi est l— pro˜—˜ilité de ™l—sse i d—ns le noeud mF h—ns le ™—s de l9—pprentiss—ge superviséD pmi est l— proportion d9individus de l— ™l—sse i —u noeud (ls m p—r r—pport à l9ensem˜le des individus de l— ™l—sse i —u noeud pèreF h—ns le ™—s f—i˜lement superviséD le nom˜re d9individus de l— ™l—sse i est indéterminéF xous proposons don™ d9estimer l— pro˜—˜ilité pmi plutôt en ten—nt ™ompte des — priori πkn F €our un —ttri˜ut dD en not—nt xd l— proje™tion de xkn sur l9—ttri˜ut dD —lors d—ns le premier noeud (ls m1 qui est tel kn
  • 45.
    3.5. CONCLUSION xlv xd ≤ cd où cd est l— v—leur de ™oupure du des™ripteur dD l— pro˜—˜ilité de l— ™l—sse i kn s9exprime —insi X (πki )α {k,n}|{xkn }≤cd pm 1 i =   @QFSRA I   (πkj )α   j=1 {k,n}|{xkn }≤cd h—ns le se™ond noeud (ls m2 D tel que xd ≥ cd D l— pro˜—˜ilité de l— ™l—sse i s9exprime kn —insi X (πki )α {k,n}|{xkn }≥cd pm 2 i =   @QFSSA I   (πkj )α   j=1 {k,n}|{xkn }≤cd α ∈ R+ est un p—r—mètre de pondér—tion qui — pour o˜je™tif de diminuer l9—pport des exemples dont l9— priori est f—i˜le etD inversementD d9—ugmenter l— ™ontri˜ution des exemples dont l9— priori est fortF gel— revient à f—ire ™on(—n™e —ux individus dont on est presque sûr de l— ™l—sseD p—r exemple des individus dont l— pro˜—˜ilité est voisine de πkn = 0, 8D et à négliger ™eux dont l— pro˜—˜ilité est voisine de πkn = 0F ƒi α tend vers 0D les exemples de pro˜—˜ilité nulle ont une ™ontri˜ution nulleD les ™ontri˜utions des —utres ét—nt sensi˜lement équiv—lentes entre ellesF ƒi α tend vers l9in(niD seuls les exemples de pro˜—˜ilité très pro™hes de 1 ™ontri˜uent —u ™—l™ul de pmi F gette proposition est inspirée de l9entropie de ‚ényi ‘IST“D qui qu—nti(e l— diversité et l— ™omplexité d9un systèmeD et qui utilise un p—r—mètre α de f—çon simil—ireF ve ™hoix de l— somme d—ns les expressions @QFSRA et @QFSSA se justi(e p—r l— volonté de n9ex™lure —u™une ™l—sse possi˜leF in e'etD si le produit est ™hoisi et s9il existe —u moins un individu p—r ™l—sse dont l9— priori est nulD —lors l9inform—tion Im est nulle quelque soit αF …n gr—nd nom˜re d9individus l—˜élisés très pro˜—˜lement peuvent —insi voir leur ™ontri˜ution —nnulée du f—it de quelques exemples dont les — priori sont nulsF ves dénomin—teurs des équ—tions @QFSRA et @QFSSA sont des ™oe0™ients de norm—lis—tionF in ™l—ssi(™—tion superviséD lors de l— ph—se de testD iFeF —près l9—pprentiss—geD à ™h—que noeud est —sso™iée une ™l—sse @qui ™orrespond à l— ™l—sse m—jorit—ire d—ns le noeudAF in ™l—ssi(™—tion f—i˜lement superviséeD ™omme les ™l—sses ne sont p—s ™onnuesD nous —ttri˜uons un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion à ™h—que noeud dont les ™ompos—ntes sont pmi F ge™i est d9—ut—nt plus import—nt que l9étiquette (n—le —sso™iée —u dernier noeudD ™elle qui ser— —ttri˜uée —ux exemples de testD est don™ un ve™teur de pro˜—˜ilité de ™l—ssi(™—tionD et non plus dire™tement l— ™l—sse ™omme d—ns le ™—s de l9—pprentiss—ge superviséF 3.5 Conclusion h—ns ™e ™h—pitreD nous —vons étudié trois méthodes élément—ires de ™l—ssi(™—tion très étudiés d—ns l— littér—tureF ges modèles proviennent de notions et d9—ppro™hes
  • 46.
    CHAPITRE 3. CLASSIFICATION FAIBLEMENT SUPERVISÉE : xlvi MODÈLES PROPOSÉS nettement opposéesF xous —vons présenté les form—lismes m—thém—tiques et proposé des extensions —ux ™—s de l9—pprentiss—ge f—i˜lement superviséF in termes de perform—n™es de ™l—ssi(™—tionD pour ™h—que modèleD il existe —u moins un jeu de données tel que les perform—n™es du ™l—ssi(eur ™onsidéré soient supérieuresF gepend—ntD d9—utres méthodes utilisent ™es modèles élément—ires pour —™™roitre les perform—n™es de ™l—ssi(™—tionF ges te™hniques ™onstituent l9o˜jet du ™h—pitre R X l9étude de l9—sso™i—tion de ™l—ssi(eurs sous l— forme de ™l—ssi(™—tion itér—tive ou de fusion de pro˜—˜ilitéF
  • 47.
    CHAPITRE 4 Association de classieurs 4.1 Introduction h—ns ™ette thèseD plutôt que de m—nipuler des l—˜elsD des ve™teurs de pro˜—˜ilités de ™l—ssi(™—tion dé™rivent l— n—ture des o˜jetsF v9introdu™tion des pro˜—˜ilités induit des notions usuelles d9—pprentiss—ge itér—tif et de fusion d9inform—tions @™fF —lgorithme iw ‘IR“D —pprentiss—ge semiEsupervisé itér—tif ‘IRW“D et™AF ejoutons que le ™—dre génér—l de l9—sso™i—tion de ™l—ssi(eurs multiples est l—rgement exploité d—ns le dom—ine de l— ™l—ssi(™—tion —utom—tique @‚—ndom forest ‘WS“D foosting ‘ISU“D et™AF h—ns ™e ™h—pitreD nous étudions ™es deux —spe™ts de ™om˜in—isons de ™l—ssi(eurs X l9—sso™i—tion de ™l—sE si(eurs multiples et l9—pprentiss—ge itér—tifD le point ™ommun ét—nt que des ™l—ssi(eurs sont ™om˜inés entre euxF €remièrementD d—ns l— se™tion RFPD nous étudions les ensem˜les de ™l—ssi(eurs qui font p—rtie des méthodes qui remportent —™tuellement un fr—n™ su™™ès dû —ux ex™elE lentes perform—n™es de ™l—ssi(™—tionF v9idée est de générer un ensem˜le de ™l—ssi(eurs qui proposent ™h—™un une solutionD puis une pro˜—˜ilité de ™l—ssi(™—tion (n—le est proE posée en fusionn—nt ™h—que solution élément—ireF yn distingue deux gr—ndes f—milles de méthodes X ™elles fondées sur le 4 ˜—gging 4 @les ™l—ssi(eurs générés sont indépend—ntsA et ™elles fondées sur le 4 ˜oosting 4 qui ™onsidère une modi(™—tion dyn—mique des ™l—sE si(eurs @l9—pprentiss—ge d9un ™l—ssi(eur donnée dépend des perform—n™es du ™l—ssi(eur pré™édentAF heuxièmementD d—ns l— se™tion RFQD nous étudions les s™hém—s itér—tifsF ves ™l—ssiE (eurs peuvent être ™om˜inés de m—nière itér—tiveD l9idée ét—nt d9utiliser l9inform—tion intrinsèque donnée p—r un ™l—ssi(eur à une itér—tion donnée —(n de renfor™er l9—pprenE tiss—ge du ™l—ssi(eur suiv—ntF …n ™l—ssi(eur à une itér—tion donnée peut —lors être vu ™omme un (ltre X si l— ™onn—iss—n™e pro˜—˜iliste du l—˜el est peu inform—tiveD iFeF les pro˜—˜ilités — priori de ™l—ssi(™—tion sont f—i˜lesD —lors le ™l—ssi(eur est utilisé pour fournir une nouvelle pro˜—˜ilité de ™l—ssi(™—tion qui est plus pro˜—˜le et moins ˜ruitéeF 4.2 Ensemble de classieurs xous ™ommençons p—r un ˜ref ét—t de l9—rt d—ns lequel nous donnons quelques dé(nitionsF gette présent—tion synthétique — pour o˜je™tif d9introduire les méthodes les plus ™onnues et les plus perform—ntesF in rev—n™heD d—ns les se™tions RFPFP et RFPFQD
  • 48.
    xlviii CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS nous ™hoisissons un type de méthode X les forêts —lé—toiresD que nous développons plus en dét—il respe™tivement pour les ™—s de l9—pprentiss—ge supervisé et f—i˜lement superviséF 4.2.1 Etat de l'art ves ™l—ssi(eurs sont plus ou moins perform—ntsD plus ou moins st—˜lesF he m—nière génér—leD les ensem˜les de ™l—ssi(eurs exploitent l9inst—˜ilité de ™ert—ins modèles de ™l—ssi(™—tionF h—ns ™e ™—sD un ™l—ssi(eur très inst—˜le est préféré à un ™l—ssi(eur très perform—ntD st—˜le et ro˜usteF …n ™l—ssi(eur peu perform—ntD seulD n9est p—s ˜éné(que m—is qu—nd plusieurs de ™es ™l—ssi(eurs sont regroupés ensem˜leD ils deviennent ™omE pétitifsF €lus ils sont inst—˜lesD plus l— qu—ntité d9inform—tions est ri™heD le ˜ut ét—nt de s—voir s—isir l9inform—tion utile fournie p—r ™h—™un des ™l—ssi(eursF ge™i justi(e l9emploi de ™l—ssi(eurs dits 4 f—i˜les 4 @peu ro˜ustes et peu perform—ntsA tels que les —r˜res de ™l—ssi(™—tion et les ™l—ssi(eurs ˜—yésiens n—ïfs @voir se™tion PFPFI du ™h—pitre PAF v— première f—mille de méthodes — pour origine l— proposition de freim—n de ™omE ˜iner des ™l—ssi(eurs à l9—ide du f—gging ‘ISV“F v9idée est de générer un ensem˜le de ™l—ssi(eurs qui sont ™h—™un o˜tenus à p—rtir d9un sous ensem˜le —lé—toire des données d9—pprentiss—geF v— séle™tion —lé—toire d9un sous ensem˜le d9—pprentiss—ge — ˜ut de ™réer de l9inst—˜ilité entre ™l—ssi(eursF ve ™hoix de ™l—ssi(™—tion (n—l est o˜tenu en vot—nt sur l9ensem˜le des propositionsF ƒi freim—n utilise des ensem˜les d9—r˜res de ™l—ssi(™—tionD d9—utres méthodes mêlent ˜—gging et modèles dis™rimin—nts ou ˜—gging et modèles génér—tifsF €—r exempleD uim ‘ISW“ et h—ng ‘ITH“ proposent de ™om˜iner des ™l—ssi(eurs ƒ†w à l9—ide du ˜—ggingD d—ns d9—utres p—piers ‘ITI“ ‘ITP“D des modèles ˜—yésiens n—ïfsD issus de sous é™h—ntillons de données d9—pprentiss—ge sont —sso™iés entre euxF ve ˜—gging — montré que l9—sso™i—tion de ™l—ssi(eurs pouv—it —méliorer nettement les perform—n™es de ™l—ssi(™—tionF gepend—ntD le pro™essus de fusion du ˜—gging ™orresE pond à une règle extrêmement simpleF einsi sont —pp—rues d9—utres méthodes qui sont regroupées sous le nom de 4 ˜oosting 4F ve prin™ipe génér—l est de générer un ensem˜le de ™l—ssi(eurs dont les résult—ts de ™l—ssi(™—tion sont pondérés en fon™tion du pouvoir dis™rimin—nt de ™h—que ™l—ssi(eurF v9—lgorithme le plus ™élè˜re est 4 —d—˜oost 4 ‘ISU“ ‘ITQ“ ‘ITR“ @en —ngl—isD —˜révi—tion de 4 ed—ptive foosting 4AF v9idée est de ™—l™uler une pro˜—˜ilité de ™l—ssi(™—tion qui résulte d9une somme pondérée des pro˜—˜ilités de ™l—ssi(™—tion de ™h—que ™l—ssi(eur élément—iresF ves poids sont déterminés en fon™tion des perform—n™es de ™l—ssi(™—tion du ™l—ssi(eur élément—ire ™onsidéréF ve pro™essus est itér—tif tel queD d9une itér—tion à l9—utreD les ™l—ssi(eurs ™on™entrent leur f—™ulté de dis™rimin—tion sur les exemples di0™iles issus du re™ouvrement entre ™l—ssesF einsiD les ™l—ssi(eurs issus des premières itér—tions —uront de ˜onnes perform—n™es glo˜—lesD t—nE dis que les ™l—ssi(eurs issus des dernières itér—tions seront uniquement perform—nts sur les exemples di0™ilesF ve meilleur ™l—ssi(eur Cr d9une itér—tion r donnée est ™elui qui minimise une fon™tion de ™oût qui est fon™tion des poids —ttri˜ués à ™h—que exempleF v9—lgorithme ™omplet est donné d—ns le t—˜le—u RFI d—ns le ™—s de l9—pprentiss—ge suE pervisé et pour P ™l—ssesF he nom˜reuses —utres versions et extensions sont issues de —d—˜oostF €—r exempleD 4 logit˜oost 4 ‘ITS“ est l— version sto™h—stique d9—d—˜oostF €lutôt que d9—ttri˜uer une ™l—sse ˜in—ire —ux exemples @l9exemple 4 —pp—rtient 4 ou
  • 49.
    4.2. ENSEMBLE DE CLASSIFIEURS xlix 4 n9—pp—rtient p—s 4 à l— ™l—sse ™onsidéréeAD une régression logistique donne une v—E leur intermédi—ire pro˜—˜ilisteF €—r exempleD des ™l—ssi(eurs ˜—yésiens n—ïfs ‘PR“ ou des —r˜res de ™l—ssi(™—tion ‘ITT“ peuvent être employés d—ns le ™—dre de logit˜oostF hivers —lgorithmes @4 ˜rown˜oost 4 ‘ITQ“D 4 m—d—˜oost4 ‘ITU“D hyyw ‘ITV“A sont ™onçus pour être plus ro˜ustes —ux ˜ruits de ™ert—ins jeux de données @™eux dont le t—ux de re™ouE vrement entre ™l—sses est élevéAF ves di'éren™es p—r r—pport à —d—˜oost et logit˜oost se situent d—ns l— fon™tion de ™oût qui peut être exponentielle ‘ISU“ ‘ITS“D sigmoïd—le ‘ITV“D exponentielle ˜ornée ‘ITU“D monotone ‘ITQ“D F F F hes tr—v—ux ‘ITW“ montrent que ˜rownE ˜oost est meilleur qu9—d—˜oost pour des jeux de données ˜ruitéesD m—is glo˜—lementD ™es méthodes ne donnent p—s de g—in signi(™—tifF ƒoit l9ensem˜le d9—pprentiss—ge {xn , yn }1≤n≤N tel que yn = {+1, −1} et M itér—tionsD IF sniti—lis—tion uniforme des poids des exemples X P1 (n) = 1/N PF €our r —ll—nt de I à R X ! „rouver le ™l—ssi(eur Cr qui minimise l9erreur de ™l—ssi(™—tion en fon™tion de l— di0™ulté des exemples Pr X N r = arg minCr Pr (n) [δ (yn , Cr (xn ))] où Cr (xn ) = {+1, −1} indique l— ™l—sse n=1 estimée p—r Cr et δ (y1 , y2 ) = 1 si y1 = y2 F ! ƒi m ≥ 0, 5 —ller à l9ét—pe QF ! ghoix du poids du ™l—ssi(eur X αr = 1 ln 1−r r 2 ! wise à jour de l— pondér—tion des exemples d9—pprentiss—ge X Pr+1 = Pr (n)exp[−αrr yn Cr (xn )] Z où Zr est un ™oe0™ient de norm—lis—tionF QF ve ™l—ssi(eur (n—l C(x) qui —ttri˜ue une ™l—sse à l9exemple x est X R C(x) = sign αr Cr (x) r=1 Tableau 4.1 Algorithme adaBoost. h—ns les se™tions suiv—ntesD nous ™hoisissons l9une de ™es méthodes d9—sso™i—tion de ™l—ssi(eurs que nous développons d—ns le ™—s de l9—pprentiss—ge supervisé et f—i˜leE ment superviséF xous ™hoisissons les forêts —lé—toiresF xotons que des tr—v—ux ‘IUH“ ont montré que les méthodes fondées sur le ˜—gging donnent de meilleurs résult—ts pour des jeux de données ˜ruitées que les méthodes de ˜oostingF ‚é™iproquement on préfère employer des te™hniques de ˜oosting pour des données f—i˜lement ˜ruitéesF 4.2.2 Random forest : apprentissage supervisé h—ns le ™—dre du ˜—gging —ve™ des —r˜res de dé™isionD ro propose d9—méliorer l— méthode en ™ré—nt en™ore plus d9inst—˜ilité entre les —r˜res ‘IUI“F €our ™el—D il propose d9utiliser un sousEé™h—ntillon des des™ripteurs en ™h—que noeud de ™h—que —r˜re de l— forêtF ve nom˜re de v—ri—˜le ™hoisi en un noeud est dé(ni de m—nière empirique
  • 50.
    l CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS Figure 4.1 Dans le cadre des forêts aléatoires, les frontières imprécises et grossières des classieurs faibles sont moyennées pour donner une frontière plus précise. √ ‘IUP“ ‘WS“F gert—ins pré™onisent D ‘IUP“D d9—utres round(log2 (D) + 1) ‘WS“D où D est le nom˜re tot—l d9—ttri˜uts et round() séle™tionne l9entier le plus pro™heF qlo˜—lementD les perform—n™es dé™roissent si le nom˜re d9—ttri˜uts ™hoisit pour ™h—que noeud est soit trop f—i˜leD soit trop élevéF v9—sso™i—tion du ˜—gging d9—r˜re de dé™ision —ve™ le ™hoix d9un sousEé™h—ntillon de des™ripteurs en ™h—que noeud forme les 4 forêts —lé—toires 4F hes extensions de l— méthode permettent de g—gner en inst—˜ilités et en r—piditéF €—r exempleD les 4 extr—Etrees 4 ‘IUP“ proposent de prendre le premier sousEé™h—ntillon —lé—toire de des™ripteurs en un noeud donnéD ™ontr—irement —ux forêts —lé—toires qui séle™tionnent le meilleur des sousEé™h—ntillons de des™ripteursF he m—nière intuitiveD l— forte v—ri—˜ilité des —r˜res o˜tenus et l— fusion des ™l—sE si(eurs font qu9il se dét—™he une frontière moyenne qui réduit les pro˜lèmes de surE —pprentiss—ge intrinsèques —ux —r˜res de ™l—ssi(™—tion @se™tion QFRAF v9exemple de l— (gure RFI illustre le pro™édéF h—ns ™et exempleD les frontières générées individuellement p—r les —r˜res de l— forêt sont impré™ises et grossièresD —lors que l— frontière moyenneD issue de l— fusion des ™l—ssi(eursD est ˜e—u™oup plus —ppropriéeF „out exemple test est ™l—ssé p—r ™h—™un des —r˜res de l— forêt qui lui —ttri˜ue un l—˜elD puis l— fusion des ™l—ssi(eurs est e'e™tuée p—r un simple vote en f—veur de l— ™l—sse m—jorit—ireF 4.2.3 Random forest : apprentissage faiblement supervisé xous ™onsidérons i™i une forêt d9—r˜res ™omme ™eux dé™rits d—ns l— se™tion QFRFP du ™h—pitre QD iFeF des —r˜res o˜tenus à l9—ide de données d9—pprentiss—ge dont l9inform—tion sur les l—˜els est données p—r un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion — prioriF ges —r˜res prennent un ve™teur de pro˜—˜ilités en entréeD iFeF pour l9—pprentiss—geD et ils proposent un ve™teur de pro˜—˜ilités de ™l—ssi(™—tion en sortieD iFeF pour l— ph—se de
  • 51.
    4.3. CLASSIFICATION ITÉRATIVE li testF ve pro˜lème est de fusionner ™es pro˜—˜ilitésF h—ns le ™—s superviséD un vote est e'e™tué entre les —r˜res de l— forêt pour déterminer quelle est l— ™l—sse m—jorit—ireF he m—nière très —n—logueD d—ns le ™—s de l9—pprentiss—ge f—i˜lement superviséD nous proposons d9e'e™tuer l— moyenne des pro˜—˜ilités des ™l—sses proposées p—r ™h—™un des —r˜res de l— forêtF in not—nt pt = [pt1 . . . ptI ]D l9étiquette —ttri˜uée à l9individu test x p—r l9—r˜re de l— forêt indi™é p—r tD l— pro˜—˜ilité — posteriori de ™l—ssi(™—tion s9é™rit X T 1 p(y = i|x) = pti @RFIA T t=1 où T est le nom˜re d9—r˜res de l— forêtF v9ét—pe de ™l—ssi(™—tion ™onsiste à séle™tionner l— ™l—sse l— plus pro˜—˜le —u sens de l— pro˜—˜ilité — posteriori @RFIAF xotons que si nous ™onsidérons un seul —r˜reD le f—it d9—ttri˜uer un ve™teur de pro˜—˜ilité de ™l—ssi(™—tion peut poser pro˜lème si le l—˜el o˜tenu donne une situ—tion d9équipro˜—˜ilitéF uelle ™l—sse —ttri˜uer —lors à l9individu test c ves forêts —lé—toires résolvent le pro˜lème si —u moins un des —r˜res de l— forêt ne donne p—s une situ—tion d9équipro˜—˜ilitéF in(nD de m—nière génér—leD l— di0™ulté est d9ét—˜lir un ™l—ssi(eur élément—ire dont les p—r—mètres sont estimés à p—rtir de pro˜—˜ilités de ™l—ssi(™—tion — prioriF …ne fois ™ette tâ™he —™™omplieD des ™l—ssi(eurs élément—ires peuvent être ™om˜inés vi— les forêts —lé—toires ou le ˜oostingF s™iD nous —vons ™hoisi i™i les forêts —lé—toires qui se prêtent d—v—nt—ge à l— ™l—ssi(™—tion de données ™omplexes qui se ™—r—™térisent p—r un fort t—ux de re™ouvrent inter ™l—sse ‘IUH“F 4.3 Classication itérative h—ns ™ette se™tionD nous proposons un pro™essus itér—tif inspiré de l9—pprentiss—ge semiEsuperviséD plus p—rti™ulièrement du 4 selfEtr—ining 4F ve 4 selfEtr—ining 4 est étendu —u ™—s de l9—pprentiss—ge f—i˜lement superviséF heux méthodes sont envis—géesD une méthode simple et n—ïve qui présente des pro˜lèmes de surE—pprentiss—ge @se™tion RFQFIA et une méthode —méliorée qui élimine les e'ets de surE—pprentiss—ge @se™tion RFQFPAF 4.3.1 Apprentissage itératif simple xous proposons un —pprentiss—ge itér—tif du ™l—ssi(eurF ve pro™essus est uniqueE ment —ppliqué à l9ensem˜le d9—pprentiss—geD l9idée ét—nt de modi(er itér—tivement les pro˜—˜ilités de ™l—ssi(™—tion — priori de l9ensem˜le d9—pprentiss—geF in utilis—nt les inform—tions fournies p—r ™h—que ™l—ssi(eurD les l—˜els ™onvergent vers les ™l—sses réelles des exemples d9—pprentiss—geF einsiD le ™l—ssi(eur à une itér—tion donnée peut être vu ™omme un (ltre qui —git sur les l—˜els ˜ruités et —™™roit les pro˜—˜ilités de ™l—ssi(E ™—tionF gette idée vient de l9—pprentiss—ge semiEsuperviséD —ve™ le 4 selfEtr—ining 4F e ™h—que itér—tionD les données l—˜élisées génèrent un ™l—ssi(eur pro˜—˜iliste qui —ttri˜ue une ™l—sse —ux données s—ns l—˜elF ves données qui ont les plus fortes pro˜—˜ilités de ™l—ssi(™—tion sont —joutées —ux données l—˜ellisées pour l9itér—tion suiv—nteF
  • 52.
    lii CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS ves pro™édures itér—tives sont —ppliquées d—ns di'érents ™ontextesD m—is le ™l—ssi(eur utilisé est souvent un ™l—ssi(eur pro˜—˜iliste génér—tif ‘PS“ ‘Q“ qui prend des ™l—sses en entrée @pour l9—pprentiss—geA et fournit des pro˜—˜ilités à l— sortieF ve point nég—tif de ™ette —ppro™he est l— possi˜ilité de prop—ger des erreurs dès les premières itér—tions @du f—it de l9—'e™t—tion d9une ™l—sse sur l— ˜—se des pro˜—˜ilités de ™l—ssi(™—tionAF €our réduire les e'ets de prop—g—tion d9erreursD nous n9—ttri˜uons p—s de ™l—sse dé(nitive —ux exemples s—ns l—˜elsD m—is les pro˜—˜ilités de ™l—ssi(™—tion sont ™onservéesF †oi™i ™omment est implémentée l— pro™édure itér—tive d9—pprentiss—ge que nous —pE pelons 4 sterI 4F e l9itér—tion rD ét—nt donné l9ensem˜le d9—pprentiss—ge f—i˜lement supervisé {xn , πn }D un ™l—ssi(eur Cr est ™onstituéF ve ™l—ssi(eur Cr est ensuite utilisé r pour mettre à jour les données d9—pprentiss—ge {xn , πn } et fournir de nouvelles proE r ˜—˜ilités de ™l—ssi(™—tion π F gette mise à jour des l—˜els pro˜—˜ilistes π r+1 doit r+1 exploiterD à l— fois les inform—tions fournies p—r le ™l—ssi(eur Cr D iFeF l— pro˜—˜ilité de ™l—ssi(™—tion — posteriori p(xn |yn = i, Cr )D et l9inform—tion — priori initi—le π 1 F v— mise à jour des l—˜els est —insi donnée p—r l9expression suiv—nte X r+1 1 πn ∝ πn p(yn = i|xn , Cr ) @RFPA v9—lgorithme est présenté d—ns le t—˜le—u RFPF xotons que le ™l—ssi(eur (n—l est —ppris à l9—ide de l9ensem˜le d9—pprentiss—ge {xn , πn }F R+1 ƒoit l9ensem˜le d9—pprentiss—ge T1 = {xn , πn } et R itér—tionsD 1 IF €our r —ll—nt de I à R X ! epprendre un ™l—ssi(eur Cr à l9—ide de l9ensem˜le d9—pprentiss—ge Tr F ! gl—sser l9ensem˜le d9—pprentiss—ge Tr en utilis—nt le ™l—ssi(eur Cr F ! wise à jour de l9ensem˜le d9—pprentiss—ge Tr+1 = {xn , πn } r+1 —ve™ πn ∝ πn p(yn = i|xn , Cr )F r+1 1 PF epprendre le ™l—ssi(eur (n—l —ve™ l9ensem˜le d9—pprentis—ge TR+1 F Tableau 4.2 Procédure itérative simple pour l'apprentissage faiblement su- pervisé (Iter1). 4.3.2 Apprentissage itératif amélioré ve prin™ip—l déf—ut de l— pro™édure itér—tive sterID présentée d—ns l— se™tion RFQFID est le surE—pprentiss—geD iFeF le ™l—ssi(eur (n—l est uniquement perform—nt pour les données d9—pprentiss—ge et les perform—n™es de ™l—ssi(™—tion sont m—uv—ises pour les données de l9ensem˜le de testF €our l— pro™édure itér—tive sterID l9origine de ™e phénomène vient du f—it que les données qui sont ™l—ssées p—r le ™l—ssi(eur Cr sont —ussi ™elles qui permettent d9—pprendre le ™l—ssi(eur Cr F einsiD l9optimis—tion des ™l—ssi(eurs n9est p—s —ssez génér—le ™—r elle se fo™—lise uniquement sur les données d9—pprentiss—geF e(n de résoudre le pro˜lèmeD une —utre pro™édure itér—tive est proposéeD nous l9—pE pelons sterPF v9idée est de sép—rer l— mise à jours des pro˜—˜ilités de ™l—ssi(™—tion — priori et l— règle d9—pprentiss—ge de l— pro˜—˜ilité de ™l—ssi(™—tion — posterioriF xous proposons de sép—rer —lé—toirement l9ensem˜le d9—pprentiss—ge en deux sousEensem˜lesD
  • 53.
    4.4. CONCLUSION liii l9un ét—nt employé pour —pprendre un ™l—ssi(eurD et les données de l9—utre ét—nt ™l—ssées p—r ™e ™l—ssi(eurF €lus pré™isémentD nous pro™édons de l— f—çon suiv—nteF e l9itér—tion rD l9ensem˜le d9—pprentiss—ge Tr = {xn , πn } est s™indé —lé—toirement en deux sousE r ensem˜les X le sousEensem˜le d9—pprentiss—ge T rr et le sous ensem˜le de test T tr F T rr permet d9—pprendre le ™l—ssi(eur pro˜—˜iliste Cr F ves données de T tr se voit —ttri˜uer des pro˜—˜ilités de ™l—ssi(™—tion — posteriori à l9—ide de Cr et les pro˜—˜ilités de ™l—ssiE (™—tion — priori sont mises à jour en utilis—nt l— même règle de mis à jour que pour le pro™essus itér—tif sterI @expression @RFPAAF v— s™ission de Tr est e'e™tuée rel—tivement à β qui donne l— proportion des exemples pl—™és d—ns le sousEensem˜le d9—pprentiss—ge T rr D —lors que l— proportion des exemples pl—™és d—ns le sousEensem˜le de test T tr est (1 − β)F ve ™hoix de β mène —u ™ompromis suiv—ntF e(n que le ™l—ssi(eur Cr soit ™orre™tement éstiméD le nom˜re d9exemples qui ™onstitue T rr doit être su0s—mment élevéF w—is si β est trop gr—ndD seuls quelques exemples verront leur l—˜el mis à jour à ™h—que itér—tion et le temps de ™onvergen™e peut —lors être longF v9—lgorithme est présenté d—ns le t—˜le—u RFQF xotons que le ™l—ssi(eur (n—l est —ppris à l9—ide de l9ensem˜le d9—pprentiss—ge {xn , πn }F R+1 ƒoit l9ensem˜le d9—pprentiss—ge T1 = {xn , πn } et R itér—tionsD 1 IF €our r —ll—nt de I à R X ! ƒ™inder —lé—toirement Tr en deux groupes X T rr = {xn , πn } et T tr = {xn , πn } r r selon l— proportion β F ! epprendre un ™l—ssi(eur Cr à l9—ide de l9ensem˜le d9—pprentiss—ge T rr F ! gl—sser l9ensem˜le d9—pprentiss—ge T tr en utilis—nt le ™l—ssi(eur Cr F ! wise à jour de T tr+1 = {xn , πn } r+1 —ve™ πn ∝ πn p(yn = i|xn , Cr )F r+1 1 ! ‚eformer l9ensem˜le d9—pprentiss—ge Tr+1 tel que Tr+1 = {T rr , T tr+1 }F PF epprendre le ™l—ssi(eur (n—l —ve™ l9ensem˜le d9—pprentis—ge TR+1 F Tableau 4.3 Procédure itérative améliorée pour l'apprentissage faiblement supervisé (Iter2). xotons que le pro™essus itér—tif proposé est dou˜lement —ssoupli p—r r—pport —ux méthodes de 4 selfEtr—ining 4 utilisées en —pprentiss—ge semiEsuperviséF h9une p—rt les ™l—ssi(eurs employés sont pro˜—˜ilistes t—nt à l9entrée qu9à l— sortieD et d9—utre p—rtD tous les exemples p—rti™ipent à l9él—˜or—tion d9un ™l—ssi(eurD le poids de ™h—que exemple d—ns l9—pprentiss—ge ét—nt lié à l— n—ture intrinsèque des ™l—ssi(eursF 4.4 Conclusion v— m—nipul—tion des pro˜—˜ilités de ™l—ssi(™—tion — priori ™omme inform—tions sur les l—˜els implique l9emploi de ™l—ssi(eurs élément—ires dont l9—pprentiss—ge est f—i˜leE ment superviséF h—ns le ™—s de l— ™l—ssi(™—tion f—i˜lement superviséD ™es ™l—ssi(eurs élément—iresD étudiés d—ns le ™h—pitre QD peuvent —ussi être ™om˜inés entre euxF ge fut l9o˜jet de ™e ™h—pitreF
  • 54.
    liv CHAPITRE 4. ASSOCIATION DE CLASSIFIEURS „rois types de ™om˜in—ison ont été étudiés X les ensem˜les de ™l—ssi(eurs qui ™omE prennent les deux gr—ndes f—milles du 4 ˜oosting 4 et du 4 ˜—gging 4D et l9—pprentisE s—ge itér—tif pour lequel nous —vons proposé une méthode qui supprime les e'ets de surE—pprentiss—geF h—ns le ™h—pitre suiv—ntD nous ™omp—rons toutes ™es méthodes sur di'érents jeux de donnéesF
  • 55.
    CHAPITRE 5 Evaluations et performances des modèles 5.1 Introduction h—ns ™e ™h—pitreD nous présentons des résult—ts de simul—tions sur des jeux de données ™onnus proven—nt de l— ˜—se de données …gs ‘IUQ“F gomme les perform—n™es de l— ™l—ssi(™—tion f—i˜lement supervisée dépendent l—rgement de l— ™omplexité des données d9—pprentiss—geD nous devons m—itriser ™e p—r—mètreF einsiD à p—rtir d9un jeu de données superviséesD des ensem˜les d9—pprentiss—ge f—i˜lement supervisés sont simulés —ve™ plusieurs nive—ux d9in™ertitude qui s9exprime p—r les pro˜—˜ilités de ™l—ssi(™—tion — priori des données d9—pprentiss—geF ve proto™ole de simul—tionD qui in™lut l— génér—tion d9un ensem˜le d9—pprentiss—ge et d9un ensem˜le de testD est présenté d—ns l— se™tion SFP et les jeux de données supervisées sont présentés d—ns l— se™tion SFQF ves perform—n™es de ™l—ssi(™—tion sont év—luées en termes de t—ux de ˜onne ™l—sE si(™—tion et en termes de ro˜ustesse du modèle visEàEvis du nive—u de ˜ruit d—ns les l—˜elsF in e'etD le ™l—ssi(eur idé—l est perform—nt en t—ux de réussite et ses résult—ts de ™l—ssi(™—tion sont identiques en —pprentiss—ge supervisé et en —pprentiss—ge f—i˜lement superviséF einsiD deux types de résult—ts sont présentés X les perform—n™es de ™l—ssi(™—E tion en fon™tion du nive—u de ˜ruit @se™tion SFRFQA et les perform—n™es de ™l—ssi(™—tion en fon™tion du nom˜re de ™l—sses possi˜les pour ™h—que exemple @se™tion SFRFPAF xotons queD en plus des S modèles présentés d—ns les ™h—pitres pré™édents @l— proE ™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure itér—tive —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD les forêts —lé—toires seules @peAD le modèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAAD nous propoE sons l9emploi de l— pro™édure itér—tive simple qui ™om˜ine deux ™l—ssi(eurs @d9—˜ord le modèle dis™rimin—nt non liné—ireD puis les forêts —lé—toiresA sur deux itér—tions @piE sherCpeAF 5.2 Procédure de simulation …ne p—rt import—nte de l9év—lu—tion ™onsiste à mesurer l— réponse des modèles de ™l—ssi(™—tion en fon™tion du nive—u de ™omplexité des données d9—pprentiss—geF ge nive—u de ™omplexité est dé(ni p—r r—pport à l9in™ertitude lié à l— ™onn—iss—n™e des l—˜els
  • 56.
    lvi CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLES des données d9—pprentiss—geD représentée p—r les v—leurs des pro˜—˜ilités de ™l—ssi(™—tion — priori —sso™iées —ux données d9—pprentiss—geF …n jeu de données dont les pro˜—˜ilités — priori de ™l—ssi(™—tion sont fortes est peu ™omplexeD et un jeu de données pour lequel les ™l—sses sont équipro˜—˜les est très ™omplexeF sl est don™ né™ess—ire de m—itriser le nive—u de ™omplexité pour ™h—que expérien™eF €our ™el—D un jeu de données supervisées est ™hoisi à p—rtir duquel nous ™réons un enE sem˜le d9—pprentiss—ge f—i˜lement l—˜éliséF ves données sont regroupées p—r groupes de proportions de ™l—sses tels que les proportions indiquent le l—˜el pro˜—˜iliste —ttri˜ué à ™h—que mem˜re du groupeF €lus pré™isémentD l— première ét—pe ™onsiste à ™hoisir un jeu de proportions {πk } pour ™h—que groupe {k} d9exemplesD puis les exemples sont distri˜ués d—ns les groupes pour —tteindre les proportions souh—itéesF in(nD l9enE sem˜le d9—pprentiss—ge {xn , πn } est ™onstruit en —ttri˜u—nt à ™h—que exemple le l—˜el ™orrespond—nt à l— proportion de ™l—sses de son groupe d9—pp—rten—n™eF xotons qu9il est préfér—˜le de ™hoisir un jeu de données équili˜ré en ™l—sses @qui ™ontient le même nom˜re d9exemples p—r ™l—sseA —(n de f—™iliter l— rép—rtition des données d—ns les groupes et de pouvoir ™réer un gr—nd nom˜re de mél—nges @plus l— ˜—se de données ™ontient d9exemplesD plus on peut ™réer de mél—nges di'érentsAF heux types d9expériment—tions sont présentésF „out d9—˜ord @se™tion SFRFPAD nous év—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nive—u de ˜ruit du l—˜elD —ll—nt du ™—s supervisé —u ™—s tot—lement ˜ruitéF h—ns un deuxième temps @se™tion SFRFQAD nous év—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nom˜re de ™l—sses présentes d—ns le mél—ngeF ves jeux de données sont présentés d—ns l— se™tion SFQF …ne fois qu9un jeu de données est ™hoisiD une v—lid—tion ™roisée permet d9év—luer le t—ux moyen de ˜onnes ™l—ssi(™—tionsF v— v—lid—tion ™roisée ™onsiste à s™inder le jeu de données plusieurs fois pour générer l9ensem˜le d9—pprentiss—ge et l9ensem˜le de testF eprès ™h—que s™issionD un t—ux de ˜onne ™l—ssi(™—tion est extr—it pour ™h—que modèleF ves résult—ts fournis d—ns ™e m—nus™rit sont les t—ux moyens de ˜onnes ™l—ssi(™—tions sur l9ensem˜le de dix expérien™esF 5.3 Jeux de données ves jeux de données proviennent de l— ˜—se de données …gs ‘IUQ“F u—tre jeux de données ont été séle™tionnés en fon™tion de ™ritères p—rti™uliersF „out d9—˜ordD ils doivent ™ontenir plusieurs ™l—sses —(n de ™réer des — priori ™omplexes impliqu—nt un gr—nd nom˜re de ™l—ssesF „ypiquementD nous —vons ™hoisi des jeux de données ™onten—nt entre P et U ™l—ssesF insuiteD l— ˜—se de données doit ™ontenir su0s—mment d9exemples p—r ™l—sse pour ™réer un gr—nd nom˜re de mél—nges et une gr—nde v—riété de types de proportions @se™tion SFPAF in(nD les jeux de données doivent être équili˜rés en ™l—sses pour que les mél—nges o˜tenus suivent les proportions imposées p—r les proportions ™i˜les @se™tion SFPAF ges ™ritères spé™i(ques nous ont permis de retenir qu—tre jeux de données dont les ™—r—™téristiques sont données d—ns le t—˜le—u SFIF hI est un jeu de données proven—nt de l— ™ommun—uté de vision p—r ordin—teurF sl ™ontient sept ™l—sses de texture d9im—ges @mur de ˜riquesD ™ielD feuill—geD ™imentD feE nêtreD ™heminD et her˜eAD qui sont représentées p—r IW des™ripteurs de texture @intensitéD
  • 57.
    5.4. PERFORMANCES lvii s—tur—tionD F F F AF v9intérêt de ™e jeu de données est l— possi˜ilité de ™réer des mél—nges ™omplexes à sept ™l—ssesF hP est une ˜—se de données ™onten—nt des mesures extr—ites sur une )eur @srisAF „rois ™l—sses d9sris sont représentées p—r les dimensions des pét—les et des sép—les port—nt à qu—tre le nom˜re de des™ripteursF ve jeu de données hQ est ™omposé de gr—phiques @™our˜esAF ves ™our˜es des gr—phiques sont ™l—ssées p—rmi T ™l—sses X norm—lesD périodiquesD plutôt dé™roiss—ntesD plutôt ™roiss—ntesD dis™ontinues vers le h—utD ou dis™ontinues vers le ˜—sF gh—que ™our˜es est représentées p—r un ve™E teur de TH v—leursF gomme pour hID l9intérêt de ™e jeu de données se situe d—ns le gr—nd nom˜re de ™l—sses proposéF in(nD hR est le jeu de données proposé p—r freim—n ‘TV“D formé des des™ripteurs de formes d9ondesF IW des™ripteurs ™ontinus dé™rivent Q ™l—sses d9ondes formées de l— ™om˜in—ison de plusieurs ˜—ses d9ondes —uxquelles s9—joute du ˜ruit q—ussienF Base de Nature Nombre Exemples Descripteurs données de classes par classe hI „exture U QQH IW @gontinusA hP †égét—l Q SH R @gontinusA hQ qr—phique T IHH TH @™ontinusA hR porme d9onde Q PHH IW @gontinusA Tableau 5.1 Caractéristiques des jeux de données avec leur nature (thème de classication), I (le nombre de classe), le nombre d'exemples par classe, et le nombre de descripteurs. 5.4 Performances 5.4.1 Choix des paramètres v— première expérien™e ™onsiste à ™hoisir les v—leurs des p—r—mètres des modèles de ™l—ssi(™—tionF v— pro™édure repose sur l9év—lu—tion des perform—n™es de ™l—ssi(™—tion à p—rtir d9un ensem˜le de points possi˜les @™ette —ppro™he empirique est souvent e'e™tuée qu—nd il n9existe p—s de méthode formelle pour le ™—l™ul des p—r—mètres ‘IQT“AD puis le ™hoix de l— meilleure v—leur du p—r—mètre résulte du ™—l™ul des moyennes sur les jeux de donnéesF ves résult—ts sont donnés d—ns l9—nnexe IF xotons qu9il est n—turel de ™onsidérer que l9—pprentiss—ge supervisé ™onstitue une référen™e @˜orne supérieureA pour l9év—lu—tion des perform—n™esF einsiD tous les p—r—mètres sont év—lués sur l— ˜—se d9un —pprentiss—ge superviséD puis ils sont utilisés pour l9—pprentiss—ge f—i˜lement superviséF gel— est e'e™tué pour l9ensem˜le des expérien™es à suivreF h—ns le t—˜le—u WFI de l9—nnexe ID nous év—luons les perform—n™es de ™l—ssi(™—tion supervisée pour le modèle génér—tif en fon™tion du p—r—mètre M D le nom˜re de q—usE siennes ™onsidérées d—ns ™h—que mél—ngeD iFeF le nom˜re de q—ussiennes p—r ™l—sse @™fF se™tion QFP et t—˜le—u QFPAF v— moyenne des perform—n™es de ™l—ssi(™—tion sur l9ensem˜le des jeux de donnéesD nous in™ite à ™hoisir M = 5F
  • 58.
    lviii CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLES €our l9év—lu—tion du p—r—mètre N pcaD l— dimension de l9esp—™e non liné—ire du modèle dis™rimin—nt @™fF l— méthode up™— d—ns l— se™tion QFQFIAD et du p—r—mètre σ 2 D le p—r—mètre d9é™helle du noy—u q—ussien @™fF équ—tion QFRHAD une —n—lyse ™onjointe est e'e™tuéesF h—ns les t—˜le—ux WFP et WFQ de l9—nnexe ID nous reportons les ™our˜es illustr—nt les sensi˜ilités des p—r—mètresF pin—lementD nous ™hoisissons N pca = 50 et σ 2 = 5F €our l9év—lu—tion du p—r—mètre T D le nom˜re d9—r˜res d—ns un forêt @™fF se™tion RFPFQAD et de l— proportion d9exemples d9—pprentiss—ge utilisés pour l— ™onstru™tion d9un —r˜re de l— forêt p—r r—pport —u nom˜re tot—l d9exemples d9—pprentiss—ge @™fF se™tion RFPFQAD une —n—lyse ™onjointe est e'e™tuéesF h—ns les t—˜le—ux WFR et WFS de l9—nnexe ID nous reportons les ™our˜es illustr—nt les sensi˜ilités des p—r—mètresF pin—lementD nous ™hoisissons T = 100 et une proportion de l9ensem˜le d9—pprentiss—ge de HDV pour l9—pprentiss—ge d9un —r˜reF h—ns le t—˜le—u WFT de l9—nnexe ID nous év—luons les perform—n™es de ™l—ssi(™—tion supervisée pour les forêts —lé—toiresD en fon™tion de αD le p—r—mètre de pondér—tion des pro˜—˜ilités — priori d—ns le ™—l™ul des entropies en ™h—que noeud des —r˜res de dé™ision @™fF se™tion QFR et les équ—tions @QFSRA et @QFSSAAF €our ™ette expérien™eD ét—nt donné que α n9— —u™un imp—™t si le jeu de données est superviséD nous —vons généré —rti(™iellement des jeux de données pour l9—pprentiss—ge f—i˜lement supervisé dont les pro˜—˜ilités — priori impliquent Q ™l—sses possi˜les @™es expérien™es sont expliquées plus en dét—ils d—ns l— se™tion SFRFQD ils ™orrespondent —ux résult—ts o˜tenus d—ns l— ™olonne 4 Q 4 du t—˜le—u SFQAF v— moyenne des perform—n™es de ™l—ssi(™—tion sur l9ensem˜le des jeux de donnéesD nous in™ite à ™hoisir α = 1F xotons que ™e p—r—mètre est peu in)uent sur les résult—ts de ™l—ssi(™—tionD en e'et α imp—™te sur l— dyn—mique des pro˜—˜ilités qui ™onservent m—lgré tout l— même org—nis—tion hiér—r™hiqueF xotons que le p—r—mètre αD rel—tif à l9—pprentiss—ge f—i˜lement superviséD est le seul p—r—mètre supplément—ire qui est introduit p—r r—pport à l9—pprentiss—ge superviséF ve nom˜re R d9itér—tions pour les pro™essus itér—tifs @se™tion RFQA est (xé de m—nière empirique en se référ—nt —ux résult—ts expériment—ux @(gure SFI de l— se™tion SFRFQAF ves résult—ts indiquent que l— ™onvergen™e est r—pideD nous ™hoisissons don™ R = 15 en g—ge de réussiteF in(nD le ™hoix du p—r—mètre β @se™tion RFQFP du ™h—pitre RA résulte d9un ™ompromis entre le temps de ™onvergen™e de l— pro™édure itér—tive et l— qu—ntité d9exemples pour l9—pprentiss—geF €our les expérien™es à suivreD nous ™hoisissons de mettre en —v—nt l— pré™ision de l— ™l—ssi(™—tion —u détriment du temps de ™—l™ulD —lors nous (xons β = 0, 75F ge ™hoix se justi(e prin™ip—lement en fon™tion du jeu de données hP qui ne ™ontient que SH exemples p—r ™l—sse @™fF t—˜le—u SFIAD —insiD —ve™ β = 0, 75D les ™l—ssi(™—teurs seront ™onstitués à p—rtir d9un jeu de données qui ™ontient environ QU exemples p—r ™l—sseF ƒi nous —vions ™hoisi β = 0.5D —lors le jeu de données p—rtiel d9une itér—tion donnée ne ™ontiendr—it que PS exemples p—r ™l—sseF ge ™hoix est en f—it une m—nière évidente d9o˜tenir à ™h—que fois des t—ux de ˜onne ™l—ssi(™—tion qu—siE optim—ux pour le ™l—ssi(™—teur donnéF
  • 59.
    5.4. PERFORMANCES lix 5.4.2 Performances en fonction de la complexité des données d'apprentissage h—ns un se™ond tempsD nous étudions les perform—n™es de ™l—ssi(™—tion en fon™tion de l— ™omplexité de l9ensem˜le d9—pprentiss—geF u—tre nive—ux de ™omplexité sont déE (nisD —ll—nt du ™—s de l9—pprentiss—ge supervisé —u ™—s où l— distri˜ution des ™l—sses est uniformeF h—ns l9—nnexe PD nous donnons l9exemple des pro˜—˜ilités — priori générées pour un jeu de données qui ™ontient R ™l—ssesF h—ns le ™—s de l9—pprentiss—ge f—i˜lement superviséD une seule ™l—sse est présente d—ns le mél—ngeF h—ns ™elui de l9—pprentiss—ge f—i˜lement supervisé @IAD une ™l—sse domine d—ns les mél—nges m—is ™ert—ines ™l—sses sont pro˜—˜lesF h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @PAD le nive—u d9inE ™ertitude est supérieur à ™elui de l9—pprentiss—ge f—i˜lement supervisé @IAD ™el— se tr—duit p—r une distri˜ution des pro˜—˜ilités — priori de ™l—ssi(™—tion qui tend vers une distriE ˜ution uniforme @™fF —nnexe PAF €our éviter un quel™onque déséquili˜reD ™h—que ™l—sse domine —u moins une fois d—ns un ensem˜le de donnéesF in(nD le dernier ™—s tr—ité est ™elui où les ™l—sses ont l— même pro˜—˜ilité — priori de ™l—ssi(™—tionF gette expérien™e montre ˜ien ™omment le form—lisme de l9—pprentiss—ge f—i˜lement supervisé présenté d—ns ™e mémoire génér—lise les —utres types d9—pprentiss—geF ves résult—ts sont reportés d—ns le t—˜le—u SFP pour T modèles de ™l—ssi(™—tion X l— pro™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure itér—E tive —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD l— pro™édure itér—tive simple qui ™om˜ine deux ™l—ssi(eurs @d9—˜ord le modèle dis™rimin—nt non liné—ireD puis les forêts —lé—toiresA sur deux itér—tions @pisherCpeAD les forêts —lé—toires seules @peAD le modèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAF he m—nière prévisi˜leD les perform—n™es de ™l—ssi(™—tion dé™roissent qu—nd le nive—u de ™omplexité des l—˜els —ugmenteD p—ss—nt de WH7 de t—ux de réussite moyen d—ns le ™—s de l9—pE prentiss—ge superviséD à PR7 de t—ux de réussite moyen d—ns le ™—s équipro˜—˜leF gel— montre l9import—n™e des v—leurs des pro˜—˜ilités — priori des ™l—ssesF port logiquementD s—ns inform—tion — priori sur les ™l—ssesD les modèles répondent très di0™ilementF ƒeule l— ™onn—iss—n™e d9un — priori permet d9—méliorer nettement les perform—n™es de ™l—sE si(™—tion p—r r—pport —u ™—s équipro˜—˜leF einsiD d—ns le ™—s de 4 f—i˜lement supervisé @IA pour lequel une ™l—sse domine d—ns le mél—ngeD les perform—n™es de ™l—ssi(™—tion ne sont dégr—dées que de II7 en moyenne p—r r—pport —u ™—s de l9—pprentiss—ge suE perviséF in termes de ™omp—r—ison des modèles de ™l—ssi(™—tionD l— pro™édure itér—tive —sso™iée —ux forêts —lé—toires @peCsterPA est l— plus pertinente pour l94 —pprentiss—ge f—i˜lement supervisé @IA 4 et l94 —pprentiss—ge f—i˜lement supervisé @PA 4F in rev—n™heD l9—lgorithme iw est moins ro˜uste à l9introdu™tion d9in™ertitudes liées —u l—˜elF ve model dis™rimin—nt se situe entre les deuxF xous proposons de ™om˜iner le modèle dis™rimin—nt et les forêts —lé—toires @piE sherCpeA pour deux r—isonsF v— première est que les forêts —lé—toires sont très perE form—ntes en ™l—ssi(™—tion superviséeD il sem˜le don™ pertinent d9ess—yer d9o˜tenir des résult—ts équiv—lents pour des —pprentiss—ges plus ™omplexesF v— se™onde vient de l— ™onst—t—tion d9une ™ert—ine ro˜ustesse du modèle dis™rimin—nt @pisherA visEà vis de l— ™omplexité de l9ensem˜le d9—pprentiss—geD p—r exempleD nous rem—rquons que l9é™—rt des perform—n™es diminue —ssez peu entre le ™—s de l9—pprentiss—ge supervisé et ™elui
  • 60.
    lx CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLES de l9—pprentiss—ge f—i˜lement superviséF v— ™onjug—ison de ™es deux propriétés peut être pro(t—˜le pour ™ert—ins jeux de donnéesF h9—illeursD nous verrons d—ns le ™h—pitre U que les meilleures perform—n™es de ™l—ssi(™—tion de ˜—n™s de poissons sont o˜tenues —ve™ ™e modèleF Type Supervisé Faiblement Faiblement Non d'apprentissage supervisé (1) supervisé (2) supervisé FA+Iter1 0.96 0.85 0.72 0.14 FA+Iter2 0.96 0.91 0.89 0.14 D1 Fisher+FA 0.96 0.89 0.74 0.14 FA 0.96 0.85 0.73 0.14 Fisher 0.90 0.87 0.86 0.14 EM 0.83 0.83 0.82 0.19 FA+Iter1 0.97 0.80 0.64 0.33 FA+Iter2 0.97 0.92 0.81 0.33 D2 Fisher+FA 0.97 0,88 0.72 0,33 FA 0.97 0,78 0.60 0,33 Fisher 0,89 0,82 0.54 0,33 EM 0,94 0,72 0.36 0,38 FA+Iter1 1 0.74 0.63 0.16 FA+Iter2 1 0.95 0.90 0.16 D3 Fisher+FA 1 0.82 0.74 0.16 FA 1 0.76 0.63 0.16 Fisher 0.78 0.63 0.57 0.17 EM 0.77 0.48 0.38 0.18 FA+Iter1 0.79 0.81 0.33 0.33 FA+Iter2 0.79 0.82 0.78 0.33 D4 Fisher+FA 0.87 0.75 0.78 0.33 FA 0.79 0.81 0.69 0.33 Fisher 0.85 0.82 0.64 0.33 EM 0.82 0.48 0.63 0.23 Moyennes 0.90 0.79 0.67 0.24 Tableau 5.2 Evolution du taux moyen de classication en fonction de la complexité des labels de l'ensemble d'apprentissage. La complexité des données d'apprentissage évolue du cas de l'apprentissage supervisé au cas équiprobable, en passant par des cas d'apprentissage faiblement supervisé plus ou moins com- plexes (cf. annexe 2). 5.4.3 Performances en fonction du nombre de classes dans les mélanges €our ™ette nouvelle expérien™eD nous év—luons les perform—n™es de ™l—ssi(™—tion en fon™tion du nom˜re de ™l—sses possi˜les qui dé(nit —ussi le nive—u de ™omplexité des pro˜—˜ilités — prioriF gette foisD une gr—nde v—riété de proportions ™i˜les est ™réée de telle sorte à trouver des situ—tions de l—˜els f—i˜lement ˜ruités et fortement ˜ruités à l— foisD l— seule v—ri—˜le ét—nt le nom˜re de ™l—sses présentes d—ns ™h—que mél—ngeF h—ns l9—nnexe QD nous donnons un exemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF gomme pré™édemmentD un nom˜re su0s—nt de groupes est ™onsidéré —(n que ™h—que ™l—sse domine —u moins une fois d—ns un mél—ngeF ves résult—ts sont —0™hés d—ns le t—˜le—u SFQF ve t—ux moyen de ˜onne ™l—ssi(™—tion est reporté pour ™h—que jeu de données en fon™tion du nom˜re de ™l—sses pro˜—˜les d—ns le mél—nge pour ™h—que exemple de l9ensem˜le d9—pprentiss—geF v— moyenne des t—ux de réussite et l9é™—rt type des t—ux de réussite sont reportés pour T modèles de ™l—ssi(™—tion X l— pro™édure itér—tive simple —sso™iée —ux forêts —lé—toires @peCsterIAD l— pro™édure —méliorée —sso™iée —ux forêts —lé—toires @peCsterPAD l— pro™édure itér—tive qui
  • 61.
    5.4. PERFORMANCES lxi ™om˜ine le modèle dis™rimin—nt et les forêts —lé—toires sur deux itér—tions @pisherCpeAD les forêts —lé—toires seules @peAD le modèle dis™rimin—nt non liné—ire @pisherAD et le modèle génér—tif @iwAF ves résult—ts sont positifs si ™ette moyenne est élevéeD ™e qui indique que les perform—n™es glo˜—les sont ˜onnesD et si l9é™—rt type des t—ux de réussite est f—i˜leD ™e qui signi(e que le ™l—ssi(eur est ro˜uste visEàEvis de l— ™omplexité des données d9—pprentiss—geF qlo˜—lementD ™on™ern—nt l— moyenne des t—ux de réussiteD l— méthode peCsterP est l— plus perform—nte pour tous les jeux de donnéesF in termes de ro˜ustesse rel—tivement à l— ™omplexité des données d9—pprentiss—geD l— méthode peCsterP est —ussi l— plus perform—nteD s—uf pour le jeu de données hI pour lequel le modèle dis™rimin—nt produit l9é™—rt type des t—ux de ˜onne ™l—ssi(™—tion le plus f—i˜le @HDHI ™ontre HDHR pour le modèle peCsterPAF v9—n—lyse des résult—ts o˜tenus à l9—ide des ™l—ssi(eurs élément—ires montre que le modèle dis™rimin—nt et les forêts —lé—toires présentent des perform—n™es sensi˜leE ment équiv—lentesF €—r exempleD pour le jeu de données hID le modèle dis™rimin—nt est meilleur —ve™ une moyenne des t—ux de réussite v—l—nt HDVV @™ontre HDVT pour les forêts —lé—toiresAD et un é™—rt type des t—ux de réussite qui v—ut HDHI @™ontre HDII pour les forêts —lé—toiresAF snversementD pour le jeu de données hPD l— moyenne des t—ux de ˜onne ™l—ssi(™—tion —tteint VW7 pour les forêts —lé—toiresD ™ontre UW7 pour le modèle dis™rimin—ntD et l9é™—rt type des t—ux de ˜onne ™l—ssi(™—tion est de V7D ™ontre IH7 pour le modèle de ™l—ssi(™—tionF gel— s9explique p—r l9org—nis—tion intrinsèque des données qui requière l9emploi d9un ™l—ssi(eur p—rti™ulierF h—ns le dom—ine de l— ™l—ssi(™—tion —utom—tiqueD il est —dmis queD à un jeu de donnéesD ™orrespond un type de ™l—ssi(eurF einsiD le ™hoix du noy—u est essentielD si les perform—n™es de ™l—ssi(™—tion sont moins ˜onnes —ve™ le modèle dis™rimin—ntD ™el— peut venir du f—it que les simil—rités sp—E ti—les induites p—r le noy—u q—ussien ne ™orrespondent p—s à l— distri˜ution sp—ti—le des donnéesF v— ™om˜in—ison de ™l—ssi(eursD soit p—r un pro™essus itér—tif @peCsterPAD soit p—r l— ™om˜in—ison de ™l—ssi(eurs pro˜—˜ilistes @pisherCpeAD permet d9—méliorer nettement les perform—n™es de ™l—ssi(™—tionF in e'etD si les perform—n™es des forêts —lé—toires dé™roissent —ve™ l— ™omplexité de l9ensem˜le d9—pprentiss—geD l— ™om˜in—ison de ™l—sE si(eurs g—r—ntit d9—v—nt—ge de ro˜ustesseD diminu—nt l9é™—rt type des t—ux de réussiteD et en ™onséquen™eD —ugment—nt le t—ux de réussite moyenF gel— est dû —u f—it que les pro˜—˜ilités — priori sont ™orrigéesD soit de m—nière itér—tive @pour les modèles sterI et sterPAD soit en ™om˜in—nt les pro˜—˜ilités — posteriori des ™l—ssi(eurs @pour le modèle pisherCpeAF €—r exempleD pour le jeu de données hID l9é™—rt type des t—ux de réussite diminue de T7 pour peCsterP @p—r r—pport à peAD t—ndis qu9il diminue de U7 pour pisherCpe @p—r r—pport à peAD ˜éné(™i—nt —insi de l9—pport de ro˜ustesse du modèle dis™rimin—nt @l9é™—rt type des t—ux de réussite v—ut HDHI pour le modèle dis™rimin—ntAF xotons que les ™om˜in—isons de modèles dis™rimin—nts ou de modèles génér—tifsD vi— des pro™édures itér—tives n9ont p—s donné de résult—ts ™onv—in™—ntsD ét—nt données les perform—n™es rel—tivement moyennes o˜tenues en ™l—ssi(™—tion supervisée @les résult—ts de ™l—ssi(™—tion f—i˜lement supervisée sont logiquement inférieurs à ™eux o˜tenus en ™l—ssi(™—tion superviséeAF in rev—n™heD pour ™es jeux de donnéesD les perform—n™es o˜tenues à l9—ide du modèle
  • 62.
    lxii CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLES génér—tif sont moins ˜onnesD en moyenneD que ™elles o˜tenues à l9—ide des —utres moE dèlesF gel— peut s9expliquer p—r l— distri˜ution sp—ti—le des données qui ne ™orrespond p—s à une org—nis—tion de mél—nge de q—ussiennesF gepend—ntD pour le jeu de données hPD m—lgré l— supériorité des modèles ˜—sés sur les forêts —lé—toiresD les perform—n™es de ™l—ssi(™—tion du modèle génér—tif sont meilleures que ™elles du modèle dis™rimin—ntD —tteign—nt WH7 de t—ux de réussite moyen et un é™—rt type des t—ux de réussite de S7F Nombre de Moyennes / classes dans 1 2 3 4 5 6 7 Ecart type le mélange FA+Iter1 0.96 0.90 0.88 0.88 0.85 0.75 0.55 0.80 - 0.13 FA+Iter2 0.96 0.96 0.96 0.94 0.94 0.92 0.81 0.92 - 0.05 Fisher+FA 0.96 0.95 0.94 0.93 0.93 0.92 0.81 0.92 - 0.04 D1 FA 0.96 0.92 0.91 0.88 0.88 0.84 0.62 0.86 - 0.11 Fisher 0.90 0.89 0.89 0.89 0.89 0.89 0.84 0.88 - 0.01 EM 0.83 0.83 0.84 0.83 0.83 0.83 0.75 0.82 - 0.03 FA+Iter1 0.97 0.97 0.84 0.90 - 0.09 FA+Iter2 0.97 0.97 0.92 0.94 - 0.03 Fisher+FA 0.97 0.95 0.88 0.93 - 0.04 D2 FA 0.97 0.90 0.81 0.89 - 0.08 Fisher 0.89 0.80 0.69 0.79 - 0.10 EM 0.94 0.95 0.85 0.90 - 0.05 FA+Iter1 1 0.90 0.91 0.82 0.74 0.74 0.86 - 0.07 FA+Iter2 1 1 0.99 0.98 0.97 0.98 0.98 - 0.01 Fisher+FA 1 0.96 0.93 0.84 0.90 0.91 0.92 - 0.05 D3 FA 1 0.9 0.89 0.75 0.82 0.88 0.87 - 0.08 Fisher 0.78 0.72 0.68 0.62 0.62 0.73 0.69 - 0.06 EM 0.77 0.62 0.62 0.45 0.47 0.58 0.58 - 0.11 FA+Iter1 0.79 0.74 0.35 0.54 - 0.27 FA+Iter2 0.79 0.83 0.81 0.82 - 0.01 Fisher+FA 0.87 0.83 0.80 0.81 - 0.02 D4 FA 0.79 0.83 0.81 0.81 - 0.02 Fisher 0.85 0.81 0.77 0.81 - 0.04 EM 0.82 0.8 0.74 0.79 - 0.04 Tableau 5.3 Evolution du taux moyen de classication en fonction du nombre de classes dans chaque mélange. Des jeux de proportions sont créés, allant du cas supervisé au cas où toutes les classes sont probables (annexe 3). …ne ™omp—r—ison entre les pro™essus itér—tifs sterI et sterP est e'e™tuée @se™tion RFQAF sterI est une méthode simple d9—pprentiss—ge des l—˜els qui peut introduire un e'et de surE—pprentiss—geF v— méthode —méliorée sterP élimine ™e phénomène de surE —pprentiss—geF v— ™omp—r—ison s9e'e™tue en tr—ç—nt l9évolution du t—ux de ˜onnes ™l—sE si(™—tions en fon™tion des itér—tions pour les deux —ppro™hesF gel— est proposé d—ns l— (gure SFI pour les deux jeux de données hI et hQF e ™h—que itér—tionD les données d9—pprentiss—ge sont mises à jourD un modèle de ™l—ssi(™—tion est —pprisD et (n—lement les données de test sont ™l—ssées pour fournir un t—ux de ˜onnes ™l—ssi(™—tionsF v— mise à jour des l—˜els permet une meilleure estim—tion des modèles de ™l—ssi(™—tionF €—r exempleD en ™onsidér—nt l— méthode sterPD un g—in de IH7 de réussite est o˜tenu entre l9itér—tion I et l9itér—tion IS pour le jeu de données hQF he l— même f—çonD sterP permet d9—méliorer les perform—n™es de ™l—ssi(™—tion d9environ R7 pour hIF v9imporE t—n™e d9éviter les e'ets de surE—pprentiss—ge induit p—r l— pro™édure itér—tive sterI est ™l—irement justi(ée d—ns ™ette (gureF in e'etD pour sterPD —lors que les perform—n™es sont —méliorées à ™h—que itér—tionD ™elles produites p—r sterI sont qu—siErégulières et peu ™onv—in™—ntesF ge résult—t justi(e les perform—n™es de ™l—ssi(™—tion o˜tenues d—ns les t—˜le—ux SFP et SFQF
  • 63.
    5.5. CONCLUSION lxiii (a) D1 (b) D3 Figure 5.1 Evolution du taux moyen de classication en fonction des ité- rations. 5.5 Conclusion Synthèse. h—ns ™e ™h—pitreD pour plusieurs jeux de donnéesD nous testons les perform—n™es de ™l—ssi(™—tion des modèles d9—pprentiss—ge f—i˜lement superviséeF e(n de mesurer le ™omportement des ™l—ssi(eurs visEàEvis de l— ™omplexité de l9ensem˜le d9—pprentiss—ge @en termes de ™onn—iss—n™e des l—˜elsAD nous —vons ™hoisi de générer —rti(™iellement des ensem˜les d9—pprentiss—ge dont l— ™onn—iss—n™e des l—˜els est donnée p—r des ve™E teurs de pro˜—˜ilités de ™l—ssi(™—tion — prioriF gel— nous permet d9—juster l— ™omplexité du jeu de données pour mieux ™omp—rer les méthodes entre ellesF v9—n—lyse des perforE m—n™es de ™l—ssi(™—tion montre que les forêts —lé—toires —sso™iées à un pro™essus itér—tif donnent souvent les meilleurs résult—ts en termes de ™ompromis entre les perform—n™es de ™l—ssi(™—tion et l— ro˜ustesse visEàEvis de l— ™omplexité des données d9—pprentisE s—geF v— ™ondition prin™ip—le de réussite de l9—pprentiss—ge f—i˜lement supervisé @tel que les perform—n™es de ™l—ssi(™—tion soient simil—ires à ™elle o˜tenue en —pprentiss—ge superviséA est l— présen™e d9— priori forts —sso™iés —ux données d9—pprentiss—geF Points à améliorer. €remièrementD il f—ut envis—ger une étude théorique du ™ritère de ™onvergen™e qui
  • 64.
    lxiv CHAPITRE 5. EVALUATIONS ET PERFORMANCES DES MODÈLES permette de dé(nir le ™—dre qui v—lideD ou nonD l— ™onvergen™e du pro™essusF …n ™ritère d9—rrêt sem˜le —ussi essentiel pour que l— méthode soit tr—nsfér—˜le d—ns le dom—ine de l9—ppli™—tionF heuxièmementD nos modèles de ™l—ssi(™—tion sont très dépend—nts des pro˜—˜ilités de ™l—ssi(™—tion — prioriF €—r exempleD nous ™onst—tons queD qu—nd les pro˜—˜ilités de ™l—ssi(™—tion — priori tendent vers le ™—s équipro˜—˜leD les perform—n™es des ™l—ssi(eurs sont très m—uv—ises @™—s équipro˜—˜le d—ns le t—˜le—u SFPAF einsiD nos méthodes sont d—v—nt—ge fondées sur le (ltr—ge des exemples dont les — priori de ™l—ssi(™—tion sont f—i˜lesD le plus souvent en utilis—nt le prin™ipe des sommes pondéréesF „roisièmementD ™ert—ines —mélior—tions peuvent être —pportées sur les méthodes d9—pE prentiss—geF €—r exempleD le ™ritère de fusion des pro˜—˜ilités de ™h—que —r˜re d9une forêt pourr—it prendre en ™ompte un p—r—mètre de pondér—tion issu du ™hemin p—rE ™ouru p—r les exemples de l9ensem˜le de test d—ns ™h—que —r˜re de l— forêtF in outreD l— méthode itér—tive —méliorée proposée repose sur un prin™ipe de s™ission —lé—toire des données qui permet d9éviter le surE—pprentiss—geF gel— peut poser pro˜lème si les exemples d9—pprentiss—ge sont peu nom˜reuxF h9—utres méthodes permettr—ient de séE p—rer l— mise à jour des pro˜—˜ilités de ™l—ssi(™—tion — priori et l— règle d9—pprentiss—ge de l— pro˜—˜ilité de ™l—ssi(™—tion — posterioriD not—mmentD les exemples d9—pprentiss—ge pourr—ient être séle™tionnés en fon™tion de leur degré de ™on(—n™eF in(nD nous présentons l9—pprentiss—ge f—i˜lement supervisé ™omme ét—nt une généE r—lis—tion de l9—pprentiss—ge semiEsuperviséF sl est don™ né™ess—ire de montrer le ™omE portement des modèles d—ns ™e ™—dreF h—ns l— (gure SFPD nous —0™hons des résult—ts qui mettent en —v—nt l9utilis—tion de notre —ppro™he p—r r—pport —u 4 selfEtr—ining 4D il reste ™epend—nt à ™omp—rer les perform—n™es de ™l—ssi(™—tion à ™elles des modèles de l9ét—t de l9—rtF
  • 65.
    5.5. CONCLUSION lxv (a) D2 (b) D3, classe normale contre classe cyclique Figure 5.2 Pour l'apprentissage semi-supervisé, évolution du taux moyen de classication en fonction des itérations pour D2 et D3. Cinq modèles de classi- cation sont comparés : le processus itératif amélioré avec les forêts aléatoires assouplies (FA+Iter2), l'algorithme self-training (ST) (cf. section 2.5 du chapitre 2) associé aux forêts aléatoires assouplies (FA+ST), l'algorithme ST associé aux forêts aléatoires usuelles qui ne prennent pas de probabilités en en- trées (hard FA+ST), l'algorithme ST associé à l'algorithme EM (EM+ST), et l'algorithme EM présenté dans la section 3.2.3 du chapitre 3.
  • 67.
  • 69.
    CHAPITRE 6 Sondeurs acoustiques et logiciels de traitement 6.1 Introduction ve sondeur —™oustique est —™tuellement l9outil le plus —d—pté pour o˜server le miE lieu sous m—rinF €—rmi les di'érents types d9ondes ™omme les ondes éle™trom—gnétique ou ™elles fondées sur l9énergie éle™triqueD seule les ondes —™oustiques possèdent des ™—E r—™téristiques de prop—g—tion —déqu—tes d—ns le milieu —qu—tiqueF xon seulement les ™onditions de prop—g—tion sont ™orre™tesD m—is les ™i˜les potentielles ™omme les poisE sonsD le pl—n™tonD ou le fond de l— merD ré)é™hissent une p—rtie des ondes —™oustiquesF ves ondes —™oustiques sont —lors émises depuis le sondeur et une p—rtie se ré)é™hit sur ™h—que ™i˜le telle que l9é™h—ntillonn—ge des sign—ux issus des di'érents é™hos des ™i˜les permet de ™onstruire une im—ge —ppelée é™hogr—mmeF einsiD ™h—que pixel de l9im—ge représente un é™h—ntillon de l9esp—™e sous m—rin tel que l— v—leur du pixel est fon™tion de l9énergie moyenne qui est ré)é™hie d—ns ™et é™h—ntillon sp—ti—l @on p—rle d9énergie rétrodi'usée p—r ™et é™h—ntillonAF ves —ppli™—tions du sondeur —™oustique sont multiplesF in ˜iologieD le sondeur trouve de nom˜reuses —ppli™—tionsF geluiE™i peut être un outil de pê™he séle™tiveD le pê™heur ™hoisiss—nt p—r exemple de séle™tionner une espè™e de poissons rent—˜le tout en préserE v—nt une espè™e protégéeF ves ™—mp—gnes d9év—lu—tion des sto™ks de ™ert—ines espè™es h—lieutiques sont —ussi e'e™tuées à l9—ide des sondeurs —™oustiques ‘IPT“F v— ˜iom—sse de ™h—que espè™e est —lors déduite de l9o˜serv—tion des é™hogr—mmes et de l— ™l—ssi(™—tion des im—gesF ve sondeur —™oustique est ég—lement très utilisé en géos™ien™e ‘IUR“ X pour l— ™—r—™téris—tion verti™—le des sédimentsD p—r exemple pour l— prospe™tion pétrolièreD ou en ˜—thymétrieD p—r exemple pour mesurer le relief et déterminer l— n—ture du fondF in o™é—nogr—phie physiqueD en utilis—nt l9e'et hopplerD le sondeur —™oustique permet de mesurer l— vitesse et l— stru™ture des m—sses d9e—u ‘IUS“F in(nD l— ™—t—strophe —éE ron—utique de juin PHHWD d—ns l—quelle un —vion — disp—ru en plein o™é—n —tl—ntiqueD — montré que le sondeur —™oustique reste l9un des prin™ip—ux outils @—ve™ le son—rA utilisés pour l— fouille des o™é—ns @l9idée ét—it de retrouver les ˜oites noires de l9—pp—reil à l9—ide des sondeurs —™oustiquesAF h—ns ™e ™h—pitreD nous présentons les ™—r—™téristiques essentielles des sondeurs —™oustiquesF ges ™—r—™téristiques doivent être —ppréhendées —(n de ™omprendre ™omE ment sont ™onstruites les im—ges et quelles sont les ™ontr—intes liées —ux sondeursF heux
  • 70.
    CHAPITRE 6. SONDEURS ACOUSTIQUES ET LOGICIELS DE lxx TRAITEMENT Figure 6.1 Diagramme de rayonnement des sondeurs acoustiques mono- faisceau. types de sondeur sont présentés X le sondeur monof—is™e—u @se™tion TFPA et le sondeur multif—is™e—ux @se™tion TFQAF 6.2 Sondeur monofaisceau ves sondeurs —™oustiques monof—is™e—u sont (xés sur l— ™oque des n—vires et émettent une onde —™oustique verti™—le du ˜—te—u vers le ™entre de l— terreF €lus préE ™isémentD à l9inst—r des —ntennes éle™trom—gnétiquesD l9onde se prop—ge d—ns toutes les dire™tions m—is —ve™ des g—ins d9—tténu—tion plus ou moins v—ri—˜les en fon™tion de l9orient—tionF einsiD ™omme illustré d—ns l— (gure TFID le lo˜e prin™ip—l du di—gr—mme de r—yonnement qui ™ontient l— m—jeure p—rtie de l9énergie —™oustique émise et reE çueD est orienté du sondeur vers le ™entre de l— terre @—xe Z AF ves lo˜es se™ond—ires du di—gr—mme de r—yonnement produisent du ˜ruit —™oustique que nous ™onsidérons néglige—˜le d—ns ™e m—nus™ritF in ne ™onsidér—nt que l— p—rtie du di—gr—mme de r—yonE nement ™omprise d—ns l9—ngle d9ouverture à EQdfD ™el— revient à voir le di—gr—mme de r—yonnement de l9—ntenne ™omme un ™ône dont le sommet est situé sur l— ˜—se du sondeurD dont l— droite génér—tri™e est p—r—llèle à l9—xe Z et dont l9—ngle ™orrespond à l9—ngle d9ouverture à EQdf du di—gr—mme de r—yonnement réel @™fF (gure TFIAF xotons que d—ns tout le do™umentD X représente le dépl—™ement du n—vireD Y l— tr—nsvers—le —u n—vireD et Z l9—xe qui v— du n—vire vers le fond de l— merF v9onde —™oustique est un pulse d9une fréquen™e donnéeF €—r exempleD sur le n—vire „h—l—ss—D il existe S sondeurs monof—is™e—u qui se distinguent p—r l— fréquen™e des pulses @IVkrzD QV krzD UH krzD IPH krzD et PHHkrzAF v9intérêt d9une —n—lyse multiE fréquentielle réside d—ns le f—it que les ™i˜les répondent di'éremment en fon™tion de l— fréquen™eF €—r exempleD les m—quere—uxD qui n9ont p—s de vessie n—t—toire @po™he d9—ir qui permet —ux poissons de modi(er leur )ott—˜ilité en fon™tion de l— profondeurAD
  • 71.
    6.2. SONDEUR MONOFAISCEAU lxxi rétrodi'usent plus f—™ilement l9énergie —™oustique des impulsions de fréquen™es élevéesF s™iD nous supposons que le sondeur émet une onde —™oustique homogène d—ns le ™ône d9émission @(gure TFIAF eprès émission d9un pulseD le sondeur se pl—™e en mode d9é™oute et —™quière le sign—l ré)é™hiF ves inst—nts des é™hos du sign—l ré)é™hi renseignent sur l— dist—n™e de l— ™i˜le p—r r—pport —u sondeur t—ndis que l9—mplitude des é™hos du sign—l ré)é™hi donne le pouvoir ré)é™hiss—nt de l— ™i˜le ‘IPT“F ve sign—l ré)é™hi est ™onverti en énergie éle™triqueD puis il est —mpli(é et é™h—ntillonnéF v— fréquen™e d9é™h—ntillonn—ge donne dire™tement l— h—uteur du volume élément—ire de l9esp—™eF ge volume élément—ire est un mor™e—u de ™ôneD tel que son di—mètre ™roît —ve™ l— profondeurF €—r exempleD l— fréquen™e d9é™h—ntillonn—ge v—ut UDSkrzD soit une h—uteur ™onst—nte du volume élémenE ° t—ire de HDImF €our le sondeur à QVkrzD l9—ngle d9ouverture à EQdf est de U ™onduis—nt à un di—mètre de TDIm pour une profondeur de SHm et un di—mètre de IPDPm pour une profondeur de IHHmF v9—mplitude de ™h—que é™h—ntillon du sign—l éle™trique est don™ proportionnelle à l9énergie rétrodi'usée d—ns le volume élément—ire ™onsidéré en pren—nt en ™ompte les pertes de prop—g—tionF xous —ppellons 4 ping 4 l9émission d9un pulseF €—r pings su™™essifsD —ve™ l— proE gression du ˜—te—uD une im—ge peut être ™onstruiteF ves pixels représentent les volumes sp—ti—ux élément—iresF gh—que ™olonne de l9im—ge représente un ping et ™h—que ligne reE présente une pl—ge de profondeur @de t—ille HDImAD de telle sorte que les v—leurs des pixels soient proportionnelles à l9énergie rétrodi'usée d—ns le volume élément—ireF einsiD pour une im—ge en nive—u de grisD l9intensité des pixels est rel—tive à l9énergie rétrodi'usée d—ns le volume élément—ire ™onsidéréF h—ns l— (gure TFPD nous représentons un exemple d9im—ges o˜tenues —près plusieurs pings de deux sondeurs monof—is™e—u @un sondeur de fréquen™e d9impulsion IVkrz et un sondeur de fréquen™e d9impulsion PHHkrzAF e(n de dis™erner les formesD un seuil de EUHdf est —ppliquéD iFeF les v—leurs d9énergie inféE rieures à EUHdf sont for™ées à une v—leur d9énergie très ˜—sse @EIPHdfAF pin—lementD on distingue d—ns les im—ges le fond de l— merD des t—™hes qui ™orrespondent à des —gréE g—tions de poissonsD et des ™ou™hes de pl—n™tonsF xous rem—rquons ég—lement que les nive—ux de gris ont ™h—ngé pour ™ert—ins pixels d9une im—ge à l9—utreF gel— est dû à l— réponse —™oustique des ™i˜les qui di'ère en fon™tion de l— fréquen™e des pulsesF einsiD les ™ou™hes de pl—n™tonsD ˜ien visi˜les à PHHkrzD ont qu—siment disp—rues à IVkrzF he mêmeD ™omme l9—ngle d9ouverture est v—ri—˜le d9une fréquen™e à l9—utre @IH pour ° ° IVurz et U pour PHHurzAD des —grég—tions ne sont plus intégrées d—ns le f—is™e—u à PHHurz —lors qu9elles le sont à IVkrzF sl existe plusieurs ™—s —m˜igus liés —u systèmeF €remièrementD il se peut que le volume élément—ire ™ontienne seulement une p—rtie d9un o˜jet rétrodi'us—ntD l9—utre p—rtie ét—nt vide d9o˜jetF h—ns ™e ™—sD l9énergie rétrodi'usée ne ™orrespond p—s réelleE ment à ™elle de l9o˜jetD m—is elle est sousEestiméeF €—r exempleD il se peut que l9énergie rétrodi'usée soit l— même d—ns le ™—s d9un volume élément—ire qui ™ontient quelques poissons ép—rs rép—rtis d—ns le volume et d—ns le ™—s d9un volume élément—ire o™™upé p—rtiellement p—r un ˜—n™ très denseF get e'et de résolutionD qui est —™™entué d—ns les gr—ndes profondeurs pour lesquelles l— t—ille du volume élément—ire —ugmenteD provoque une forte impré™ision horizont—le sur les mesures des o˜jets de ™es im—gesF heuxièmeE mentD le ˜—te—u se dépl—™e suiv—nt l9—xe des X en émett—nt des pings à interv—lles réguliersF it—nt donnée l— forme ™onique du di—gr—mme de r—yonnementD ™ert—ines
  • 72.
    CHAPITRE 6. SONDEURS ACOUSTIQUES ET LOGICIELS DE lxxii TRAITEMENT Figure 6.2 Exemple d'une image obtenue après plusieurs pings d'un sondeur monofaisceau. zones de l9esp—™e sont invisi˜les @™elles qui sont situées pro™hes de l— ™oque du n—E vireAD et d9—utres sont vues plusieurs fois p—r plusieurs pings su™™essifs @™elles qui sont pro™hes du fondAF …n ™ompromis est (xé p—r l— fréquen™e des pings qui est fon™tion de l— profondeurF v9e'et de ™hev—u™hement des di—gr—mmes de r—yonnement des pings su™™essifs entr—ine une impré™ision sur l— mesure de l9énergie rétrodi'usée p—r l9o˜jetF €our les ˜—n™s de poissonsD l9énergie —sso™iée à un ˜—n™ est o˜tenue en moyenn—nt les énergies rétrodi'usées de ™h—que ping du ˜—n™ de poissons ™onsidéréF hon™D pour un ˜—n™D plus il y — de pings et plus il y — de ™hev—u™hement interEpingD plus l9énergie est ™orre™tement estiméeF 6.3 Sondeur multifaisceaux ve prin™ipe du sondeur multif—is™e—ux est très pro™he de ™elui du sondeur monoE f—is™e—uF yutre ™ert—ines ™—r—™téristiques te™hniques internes à l9—pp—reilD l— di'éren™e se situe d—ns le di—gr—mme de r—yonnement qui ™ontient plusieurs ™ônes indépend—ntsF v9idée est de juxt—poser plusieurs sondeurs monof—is™e—u tel que une plus gr—nde p—rtie de l9esp—™e sous le n—vire soit ™ouvertF gh—™un des sondeurs est respons—˜le d9une zone sous le n—vire et à ™h—que pingD ™h—que sondeur renvoie un sign—l ré)é™hiF einsiD p—r pings su™™essifs une im—ge en trois dimensions est ™onstruiteF gomme d—ns l— (gure TFID nous ™onsidérons que ™h—que f—is™e—u est un ™ôneF h—ns l— (gure TFQD à g—u™heD nous présentons le ™—s d9un di—gr—mme de r—yonnement d9un sondeur à S f—is™e—uxF ve ˜—te—u se dépl—™e suiv—nt les X D l9—xe Y représente l— tr—nsvers—le —u ˜—te—uD et l9—xe Z v— du ˜—te—u jusqu9—u ™entre de l— terreF in pr—tiqueD d—ns les ™on(gur—tions usuelles du système utiliséD il y — PI f—is™e—ux tels que les —ngles d9ouverture à EQdf v—rient ° ° entre Q et T D et tels que l9—ngle formé p—r les —xes des deux f—is™e—ux extrêmes soit ° ° d9environ VS D iFeF ΦaRPDS F €our éviter que les f—is™e—ux inter—gissent entre eux @un
  • 73.
    6.4. CONCLUSION lxxiii f—is™e—u pourr—it ™—pter l9é™ho produit p—r un f—is™e—u voisinAD l— fréquen™e des pulses est di'érente d9un f—is™e—u à l9—utreF …n (ltre p—sse ˜—nde est don™ —sso™ié à ™h—que f—is™e—u pour ne g—rder que l— fréquen™e ™orrespond—nteF in pr—tiqueD l9ensem˜le des sousE˜—ndes s9ét—lent sur une pl—ge de fréquen™e de SHkrzF h—ns l— p—rtie droite de l— (gure TFQD l— zone insoni(ée est représentée en pointillé d—ns le pl—n (Y, Z)F h—ns ™ette zoneD deux p—rties sont dis™ern—˜les X une zone qui ne ™ontient que du sign—l utile et une zone qui ™ontient du sign—l utile et du ˜ruitF ve ˜ruit est produit p—r les f—is™e—ux dépointésD iFeF les f—is™e—ux qui ne sont p—s orientés p—r—llèlement à l9—xe Z D et plus p—rti™ulièrement p—r leurs lo˜es se™ond—iresF ° in e'etD prenons l9exemple d9un f—is™e—u orienté à ΦaRS D —lors les lo˜es se™ond—ires sont orientés verti™—lement —ve™ un m—ximum de rétrodi'usionF €our ™e f—is™e—uD les é™hos du fond de l— mer reçu p—r les lo˜es se™ond—ires p—rviennent —v—nt ™eux perçus p—r le lo˜e prin™ip—lD ™el— — pour e'et de ™réer une zone demiEsphérique d—ns l—quelle du ˜ruit se mél—nge —u sign—lF xotons que ™e ˜ruit disp—r—ît si l9im—ge est seuillée à un ™ert—in nive—u d9énergieF gomme pour le sondeur monof—is™e—uD les pings su™™essifs du sondeur multif—is™e—ux permettent de ™onstruire une im—ge en trois dimensionsF …n exemple d9im—ge en trois dimensions est montré d—ns le h—ut de l— (gure TFRF sl s9—git de l— même zone insoni(ée que d—ns l— (gure TFPF €remièrementD nous ™onst—tons que l— qu—ntité d9inform—tion est ˜e—u™oup plus import—nte pour le sondeur multif—is™e—uxF gel— est dû —u f—it que l— zone insoni(ée est plus l—rge et —u f—it que le sondeur monof—is™e—u p—sse à ™ôté de ™ert—ines —grég—tions de poissonsF einsiD l9im—ge fournie p—r le sondeur multif—is™e—ux est plus ri™he en inform—tionsF heuxièmementD l9im—ge o˜tenue à l9—ide des sondeurs multif—is™e—ux est ˜e—u™oup plus pré™ise qu—nt à l— forme des —grég—tions de poissonsF €—r exempleD d—ns le zoom de l— p—rtie ˜—sse à g—u™he de l— (gure TFRD —lors que l9im—ge révèle des formes ™omplexes et p—rti™ulières des —grég—tions de poissonsD ™elle o˜tenue à l9—ide du sondeur monof—is™e—u @(gure TFPA ne donne qu9un —perçu d9une ™oupe longitudin—le d—ns le pl—n (X, Z)F ves —pports du sondeur multif—is™e—ux p—r r—pport —u sondeur monof—is™e—u sont don™ l— meilleure représent—tion de l— distri˜ution sp—ti—le des —grég—tions et un —perçu plus inform—tif de l— morphologie des —grég—tions de poissonsF sl existe des pro˜lèmes de résolution sp—ti—leF „out d9—˜ordD on trouve les mêmes pro˜lèmes que pour le sondeur monof—is™e—u X les zones invisi˜les pro™hes du ˜—te—u entre ™h—que pingD les zones où les f—is™e—ux se ™hev—u™hent d9un ping à l9—utre à p—rtir d9une ™ert—ine profondeurD et l— t—ille du volume élément—ire qui —ugmente —ve™ l— profondeurF ƒ9—joute à ™el— le ™—s des f—is™e—ux extérieurs pour lesquels les volumes élément—ires sont in™linés d9un —ngle Φ ™orrespond—nt à l9orient—tion de l9—xe du ™ône de r—yonnementF ge phénomène est visi˜le d—ns le ˜—s à droite de l— (gure TFQF v— meilleure résolution n9est don™ p—s verti™—le m—is suiv—nt l9—xe du ™ône de r—yonnementF 6.4 Conclusion gomme entrevu d—ns l— se™tion TD il est indispens—˜le de développer des outils (—˜les et ro˜ustes d9o˜serv—tion du milieu sous m—rinF ves r—isons peuvent être d9ordre
  • 74.
    CHAPITRE 6. SONDEURS ACOUSTIQUES ET LOGICIELS DE lxxiv TRAITEMENT Figure 6.3 Diagramme de rayonnement des sondeurs acoustiques multifais- ceaux. Figure 6.4 Exemple d'un échogramme acquis à l'aide d'un sondeur multi- faisceaux. é™ologiqueD environnement—lD ™ommer™i—lD ou s™ienti(queF h—ns ™e ™ontexteD le sonE deur —™oustique monof—is™e—u est un instrument d9o˜serv—tion idé—l qui permetD vi— un é™h—ntillonn—ge de l9esp—™eD de ™onstruire une im—ge d—ns l—quelle sont visi˜les les —grég—tions de pl—n™tonsD les ˜—n™s de poissonsD et le fond de l— merF ve sondeur mulE tif—is™e—ux f—it en™ore mieux X l9im—ge o˜tenue est en trois dimensions et les volumes élément—ires sont plus petitsF ges progrèsD en termes de résolution d9im—geD donnent lieu à une meilleure des™ription morphologique et énergétique des —grég—tionsF e(n de générer des im—ges exploit—˜lesD le sondeur —™oustique est —sso™ié à un logi™iel de tr—itement du sign—l qui met en forme les im—ges et en extr—it des p—r—mètres ™omme
  • 75.
    6.4. CONCLUSION lxxv ™eux des ˜—n™s de poissonsF h—ns ™e ™h—pitreD les outils d9o˜serv—tions utilisés pour ™ette thèse sont présentés grossièrementF v9o˜je™tif est de ˜ien ™on™eptu—liser le ™ontexte d9—™quisition des im—gesF xous —vons volont—irement peu développé ™ert—ins —spe™ts liés —ux ™—pteurs ™omme le pro˜lème des lo˜es se™ond—ires des sondeurs —™oustiquesD ou ™elui de l— déte™tion du fondD ou en™ore les pro˜lèmes liés à l9ét—lonn—ge des —pp—reilsF h—ns les pro™h—ins ™h—pitresD nous mettrons l9—™™ent sur les des™ripteurs —sso™iés —ux ˜—n™s de poissons extr—its de ™es im—ges @™h—pitre UA et nous tr—iterons le ™—s pr—tique des év—lu—tions de sto™ks @™h—pitre VAF
  • 77.
    CHAPITRE 7 Classication et reconnaissance des structures 7.1 Introduction ves —ppli™—tions usuelles de tr—itement d9é™hos —™oustiques sontD p—r exempleD l— ™l—ssi(™—tion des ˜—n™s de poissons @à ™h—que —grég—tion ™orrespond une espè™e de poisE son ou un regroupement d9espè™es de poissonsAD l— ™l—ssi(™—tion des im—ges @à ™h—que im—ge ™orrespond une proportion de ˜iom—sse p—r espè™e ou d9énergie p—r espè™eAD ou en™ore l9étude des distri˜utions des —gré—tions @soit sp—ti—lementD soit d—ns l9esp—™e des des™ripteurs des ˜—n™s de poissonsAD l9o˜je™tif ét—nt d9e'e™tuer des —n—lyses génér—les d9un é™osystème ‘IPT“F h—ns ™ette thèseD nous nous pl—çons d—ns le ™—s de l— ™l—ssi(E ™—tion des ˜—n™s de poissonsF gel— né™essite d9extr—ire pré—l—˜lement des des™ripteurs pour ™h—que ˜—n™ de poissonsF ges des™ripteurs sont les p—r—mètres morphologiques des ˜—n™sD les p—r—mètres rel—tifs à l9énergie rétrodi'uséeD et les ™—r—™téristiques de positionnement sp—ti—l des —grég—tionsF …n ˜ref ét—t de l9—rt sur l— ™—r—™téris—tion des stru™tures est e'e™tué d—ns l— se™tion UFPF insuiteD d—ns l— se™tion UFQD nous étudions les des™ripteurs —sso™iés —ux ˜—n™s de poissons et dis™utons des —pproxim—tions e'e™tuéesF …n test de re™onn—iss—n™e des ˜—n™s Ph est e'e™tué pour retrouverD et étendre les résult—ts présentés d—ns l— thèse de g—rl— ƒ™l—l—˜rin ‘IUT“F v— dimension 4 ˜—n™s 4 sem˜le trop élément—ire pour —ppréhender une org—nis—tion sp—ti—le des ˜—n™s de poissons à l9é™helle d9un é™osystème ou plus simplement d9une régionF gel— devient d9—ut—nt plus import—nt —ve™ les données issues du sondeur mulE tif—is™e—ux pour lesquelles l— notion de ˜—n™s de poissons est moins fondéeF h—ns ™e ™ontexteD nous préférons une —n—lyse glo˜—le de l9im—ge et nous proposons un des™ripE teur st—tistique qui modélise à l— fois l9org—nis—tion sp—ti—le des ˜—n™s de poissonsD et l— ™omposition du mél—nge d9espè™es @se™tion UFRAF
  • 78.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES lxxviii STRUCTURES 7.2 Etat de l'art ves premiers tr—v—ux sur l9—n—lyse des réponses —™oustiques des ˜—n™s de poissons sont e'e™tués de m—nière m—nuelleF €—r exempleD ‚enouD „™herni—D rodgson et €erE ™ier ‘IUU“ ‘IUV“ ‘IUW“ montrent de m—nière qu—ntit—tive que les réponses —™oustiques des ˜—n™s de poissons sont fon™tion des espè™es insoni(éesF ves tr—v—ux ét—ient e'e™E tués à p—rtir de l9étude des formes des é™hotr—™es o˜tenusF e l9époqueD il n9y —v—it p—s de logi™iels inform—tiques et les p—r—mètres expli™—tifs des ˜—n™s ét—ient extr—its m—nuellement à p—rtir du gr—phique fourni p—r une t—˜le tr—ç—nteF h—ns les —nnées UHD une —v—n™ée ™onsidér—˜le est ré—lisée qu—nt à l— modélis—tion des indi™es de rétrodi'usion des ™i˜les individuelles et des ˜—n™s de poissons ‘IVH“ ‘IVI“ ‘IVP“ ‘IVQ“ ‘IVR“F ges tr—v—ux mettent en rel—tion l— t—ille du poissonD l9espè™e du poissonD et l— densité du ˜—n™ de poissonsD —ve™ l9indi™e de rétrodi'usion de l9énergie —™oustiqueF €—r exempleD ™onn—iss—nt l9intensité de l9é™hoD le type et l— t—ille du poissonD —lors l9expert est en mesure d9év—luer l— ˜iom—sse du ˜—n™ de poissons insoni(éF ves —nnées VH et l9—vènement de l9inform—tique ont permis l9é™h—ntillonn—ge du sign—l issu du sondeur et le sto™k—ge des é™h—ntillonsF he làD les premiers tr—v—ux postE extr—™tion ‘IVS“ ‘IVT“ sont —pp—rus X à l9inst—r des tr—v—ux de pisher sur les sris ‘QT“D des p—r—mètres sont extr—its m—nuellement des ˜—n™s de poissons @longueurD h—uteurD position d—ns l— ™olonne d9e—uD énergie moyenne rétrodi'uséeD F F F A et des pro™essus de ™l—ssi(™—tion permettent l9—n—lyse des donnéesF ve développement de logi™iels d9extr—™tion —utom—tiques des ˜—n™s de poissons et de tr—itement des données ™onstitue une ét—pe import—nte en —™oustique h—lieutiqueF €—rmi ™es logi™iels ‘IVU“D on peut ™iter des logi™iels fr—nç—is ™omme woviesC ‘IVV“ et ™es divers évolutions ‘IVW“ ‘IWH“D des logi™iels utilisés p—r l— ™ommun—uté intern—tion—l ™omme i™ho†iew 1 D fergen sntegr—tor @fsA 2 D F F F hès lorsD le pro™essus de tr—itement n9— j—m—is ™essé de s9—méliorer et des proto™oles de ™l—ssi(™—tion d9espè™es ou d9estim—tion de ˜iom—sse sont ét—˜lis ‘IVU“F €—r exempleD d—ns ses tr—v—uxD g—rl— ƒ™—l—˜rin dé(nit le ˜—n™ de poissons et propose une liste exE h—ustive de des™ripteurs —sso™iés —ux sondeurs monof—is™e—u ‘IWI“ ‘IWP“ ‘IWQ“ ‘IWR“ ‘IWS“ ‘IUT“F ƒes tr—v—ux m—rquent —ussi le dé˜ut de l9—utom—tis—tion ™omplète du pro™essus de re™onn—iss—n™eD —ll—nt de l9extr—™tion —utom—tique des ˜—n™s de poissonsD jusqu9à l— ™l—ssi(™—tion —utom—tique p—r espè™eF xoël hinerD vi— des outils de simul—tion d9—gréE g—tionsD propose des méthodes de ™orre™tion des des™ripteurs des ˜—n™s de poissons ‘IWT“F eve™ l9—vènement du sondeur multif—isse—uxD l— ™—r—™téris—tion des stru™tures ™onn—ît un renouve—uF ves développements te™hnologiques ré™ents permettent d9—méE liorer en résolution et en dimension l9o˜serv—tion de l— ™olonne d9e—uF v9—n—lyse de ™es im—ges en Q dimensions ont déjà f—it l9o˜jet de pu˜li™—tions ‘IWU“ ‘IWV“F ‚é™emmentD de nouve—ux outils sont —pp—rus pour l9—0™h—ge des —grég—tions en trois dimensions ‘IWW“ ‘PHH“F €—r exempleD on peut ™iter le logi™iel wovies QhD développé p—r l9sfremerD 1 www.echoview.com 2 BI est développé par l'IMR ( Institut of Marine Research , en Norvège) et commercialisé par la société norvégienne SIMRAD qui conçoit la majorité des sondeurs actuellement utilisés.
  • 79.
    7.3. CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS lxxix qui ™ontient des modules ™omme l— déte™tion du fond ‘PHI“ ou l9extr—™tion —utom—tique des des™ripteurs des ˜—n™s de poissons en trois dimensions ‘PHP“F 7.3 Classication et reconnaissance des bancs de pois- sons 7.3.1 Descripteurs des bancs 2D h—ns ™ette se™tionD les des™ripteurs de ˜—n™s de poissons qui sont extr—its d9une —n—lyse p—r sondeur monof—ise—u sont présentés su™™in™tementF …ne —n—lyse plus —pE profondie de ™es des™ripteurs est disponi˜le d—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“F xotons que les p—r—mètres des ˜—n™s de poissons sont liés à l— notion de seuil d9extr—™tion X l9ensem˜le des pixels de l9im—ge sont seuillés —(n d9ex™lure les inform—E tions ™onsidérées ™omme ét—nt rel—tives à du ˜ruit @poissons isolésD pl—n™tonD F F F dont l9énergie —™oustique rétrodi'usée est f—i˜leA et de ne ™onserver que ™elles liées à une —grég—tion de poissons @—ve™ une forte énergie rétrodi'usée qui ™orrespond à des niE ve—ux d9intensité de pixels élevés d—ns l9im—geAF v— forme et l— t—ille des —grég—tions sont fortement liées —u seuil d9extr—™tionF in e'etD des ˜—n™s distin™ts à un ™ert—in seuilD peuvent ne former qu9une seule et même entité à un seuil inférieurF he mêmeD à ™—use des v—ri—˜ilités de rétrodi'usion inter espè™esD ™ert—ines espè™es de poissons sont invisi˜les pour un seuil donnéD —lors que d9—utres restent déte™t—˜lesF in pr—tiqueD pour les ™—mp—gnes d9év—lu—tion de sto™ks d9espè™esD le seuil d9extr—™tion est (xé à Sv =ETHdfF …ne fois le seuill—ge e'e™tuéD les ˜—n™s de poissons regroupent les pixels voisinsF „out d9—˜ordD à ™h—que ˜—n™D sont —sso™iés des p—r—mètres temporels et géogr—E phiques X —nnéeD moisD jourD heureD l—titude et longitudeF ves des™ripteurs morpholoE giques ™—r—™térisent l— forme du ˜—n™ de poissonsF in deux dimensionsD les p—r—mètres sont l— longueurD l— h—uteurD le périmètreD l9—ireD l9élong—tionD et l— dimension fr—™t—leF v— troisième ™l—sse de des™ripteurs ™ontient les p—r—mètres ˜—thymétriques X l— sondeD l— profondeur du ˜—n™D l9—ltitude du ˜—n™D et l9indi™e d9—ltitude qui exprime l— position rel—tive du ˜—n™ d—ns l— ™olonne d9e—uF in(nD les des™ripteurs énergétiques sont des p—r—mètres dire™tement issus des é™h—ntillons du sign—l numérisé fourni p—r le sondeurF he ™ette su™™ession d9é™h—ntillons sont extr—its l— v—leur m—xim—le d9—mplitudeD l— moyenne des v—leurs d9—mplitudeD l9é™—rt type des v—leurs d9—mplitudeD le ™oe0™ient de v—ri—tion des v—leurs d9—mplitude ‘IWP“D l9énergie glo˜—le rétrodi'usée ‘IWP“D et l9indi™e de rétrodi'usion de volume ‘IWP“F v9indi™e de rétrodi'usion de volume ser— étudié plus pré™isément d—ns le ™h—pitre VF sl ser— —lors utilisé pour ™onvertir l9énergie —™oustique en ˜iom—sseF uelques des™ripteurs morphologiques et ˜—thymétriques sont représentés de m—E nière s™hém—tique à g—u™he de l— (gure UFIF he mêmeD à droite de l— (gure UFID nous représentons l9enveloppe simpli(ée du sign—l é™h—ntillonnéF gette enveloppe f—it —pp—E r—ître les é™hos dus —u ˜—n™ de poissons et ™eux dus —u fond de l— merF ƒeuls les é™hos —sso™iés —u ˜—n™ de poissons sont utilisés pour l9extr—™tion des p—r—mètresD ™omme p—r
  • 80.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES lxxx STRUCTURES Figure 7.1 A gauche, quelques descripteurs morphologiques et bathymé- triques. A droite, l'enveloppe temporelle simpliée du signal rétrodiusé corres- pondante et quelques descripteurs énergétiques. exemple le ™—l™ul des moments d9ordre I et P de l— distri˜ution des v—leurs d9—mplitudeF sl existe ™ert—ines impré™isions ˜ien ™onnues en —™oustique h—lieutiqueF xous —vons —˜ordé d—ns l— se™tion TFP le ™—s des énergies rétrodi'usées sousEestimées à ™—use de l9o™™up—tion p—rtielle des volumes élément—ires p—r les ˜—n™s de poissonsF get é™h—nE tillonn—ge de l9esp—™e entr—îne —ussi une impré™ision d—ns les mesures des longueurs des ˜—n™sF in e'etD il est impossi˜le de s—voir à quel endroit ex—™t sont positionnés les ˜—n™s d—ns le volume élément—ireF €lus l— sonde est gr—ndeD plus le di—mètre du volume élément—ire —ugmenteD et plus ™es phénomènes d9impré™ision prennent de l9—mE pleurF einsiD si L est l— longueur réelle du ˜—n™D et D3dB le di—mètre du f—is™e—u à l— profondeur ™onsidéréeD —lors l— longueur mesurée du ˜—n™ de poissons Lm est une v—ri—˜le —lé—toire de densité de pro˜—˜ilité uniforme sur l9interv—lle ]L, L+2D3dB [F gel— entr—ine une erreur de mesure —ll—nt de 0 à 2D3dB D iFeF l— longueur est surestiméeF in repren—nt l9exemple de l— se™tion TFPD pour une profondeur de SHmD l9erreur de mesure peut —tteindre IPDPmD et pour profondeur de IHHmD elle peut —tteindre PRDRmF he plusD notons que l9—ugment—tion du volume élément—ire —ve™ ™elle de l— sondeD provoque l— ™orrél—tion des des™ripteurs 4 profondeur du ˜—n™ de poissons 4 et 4 longueur du ˜—n™ de poissons 4D m—is —ussi des des™ripteurs 4 profondeur du ˜—n™ de poissons 4 et 4 énergie du ˜—n™ de poissons 4F ges pro˜lèmes d9impré™ision des mesures liée —ux ˜—n™s de poissons ont l—rgement été évoqués d—ns des tr—v—ux —ntérieurs ‘IUT“ ‘IWT“ ‘IPT“ ‘PHQ“F 7.3.2 Descripteurs des bancs 3D v9exploit—tion et le tr—itement des données —™quises p—r ™es sondeurs sont des thèmes émergents ‘IWU“ ‘IWV“ ‘IWW“ ‘PHH“ ‘PHP“F h—ns ™ette se™tionD l— méthode d9extr—™tion des
  • 81.
    7.3. CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS lxxxi Figure 7.2 A gauche, un exemple d'agrégation intra-ping. A droite, deux exemples successifs d'agrégation intra-ping qui illustrent l'agrégation inter-ping. ˜—n™s de poissons p—r le sondeur multif—is™e—ux est présentée de m—nière simpli(éeF insuiteD nous présentons les des™ripteurs —sso™iés à ™h—que ˜—n™F †oi™i les prin™ip—les ét—pes ™onstitutives de l9extr—™tion des ˜—n™s de poissons X IF Extraction des données 1D (intra-faisceau). in un ping donnéD d—ns ™h—que f—is™e—u indépend—mmentD on ™her™he à relier entre eux les é™h—ntillons d9un même ˜—n™F €our un ™ert—in seuil d9extr—™tion @™fF se™tion UFQAD ™el— est e'e™tué à l9—ide d9un ™ritère de ™ontiguïtéD iFeF deux é™h—ntillons sont ™onsidérés ™omme ét—nt issus du même ˜—n™ de poissons si leur dist—n™e rel—tive n9ex™ède p—s une v—leur donnéeF PF Agrégation des données 2D (intra-ping ou inter-faisceau). in un ping donnéD les ˜lo™s indépend—nts identi(és à l9ét—pe I sontD ou ˜ien regroupés entre eux d9un f—is™e—u à l9—utreD ou ˜ien identi(és ™omme ne f—is—nt p—s p—rtie du même ˜—n™ de poissonsF v9uni(™—tion de deux ensem˜les de données dépend de ™ritères de ™ontiguïté verti™—ux et horizont—uxF €—r exempleD d—ns l— p—rtie g—u™he de l— (gure UFPD trois ˜—n™s de poissons ont été identi(ésF ve ˜—n™ I regroupe ™inq ˜lo™s pré—l—˜lement dé(nis à l9ét—pe ID tel que le regroupement implique des ˜lo™s issus du même f—is™e—u ou de f—is™e—ux voisinsF in rev—n™heD à l9inst—r du ˜—n™ PD ™ert—ins ˜lo™s identi(és à l9ét—pe I peuvent rester isolésD iFeF ils ne sont regroupés —ve™ —u™une —utre entitéF QF Agrégation des données 3D (inter-ping). gette ét—pe ™onsiste à identi(er les ˜—n™s de poissons qui peuvent être fusionnés d9un ping à l9—utreF ƒoit deux pings i et j issus de l9ét—pe PD iFeF pour lesquels les —grég—tions Ph sont ™onnuesF elorsD un ™ritère de ™ontiguïté permet d9uni(er une —grég—tion identi(ée d—ns le ping i —ve™ une —grég—tion identi(ée d—ns le ping j F sl se peut même qu9une —grég—tion du ping i f—sse le lien entre deux —grég—tions du ping j qui n9ét—ient p—s réunies ensem˜le lors de l9ét—pe PF €—r exempleD d—ns l— p—rtie droite de l— (gure UFPD le ˜—n™ R du ping i est —sso™ié —ux ˜—n™s I et P du ping j pour ne former qu9un seul
  • 82.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES lxxxii STRUCTURES Figure 7.3 Les descripteurs morphologiques sont ceux de la boîte englobante. Cette gure montre un banc de poissons avec sa boîte englobante. et même ˜—n™ de poissonsF €lus simplementD les ˜—n™s S et QD respe™tivement des pings i et j D sont —grégés pour ne former qu9un seul et même ˜—n™F gette méthode est étendue à l9ensem˜le des pings de l9é™hogr—mmeD de telle sorte qu9un ˜—n™ de poissons peut in™lure un gr—nd nom˜re de pings @—ut—nt que né™ess—ireAF gette ét—pe ™lôt l9extr—™tion de ˜—n™sD il reste m—inten—nt à extr—ire les p—r—mètres de ™h—que ˜—n™F ves formes des ˜—n™s de poissons pouv—nt être p—rti™ulièrement ™omplexes et —lé—E toiresD il — été ™onvenu qu9une ˜oîte englo˜—nte orientée servir—it de référen™e pour les dimensions prin™ip—les des —grég—tionsF v9orient—tion de l— ˜oîte est ™—l™ulée en moyenn—nt les —ngles des ve™teurs qui relient entre elles les sousEzones identi(ées lors de l9ét—pe P de l9extr—™tion des ˜—n™s de poissonsF gomme représentés d—ns l— (gure UFQD d—ns l—quelle un ˜—n™ de poissons est représenté —ve™ s— ˜oîte englo˜—nteD les p—E r—mètres de longueurD de h—uteurD et de l—rgeur de l9—grég—tion sont ™eux de l— ˜oîte englo˜—nteF in rev—n™heD le volume et le périmètre du ˜—n™ de poissons sont extr—its dire™tement des positions des volumes élément—ires du ˜—n™ de poissonsF g9est —ussi le ™—s des des™ripteurs ˜—thymétriquesD énergétiquesD temporelsD et géogr—phiques qui sont dé(nis ™omme pour le sondeur monof—is™e—u @se™tion UFQAF gomme pour le sondeur monof—is™e—uD l— t—ille des volumes élément—ires ™roît —ve™ l— profondeurD ™onduis—nt à une possi˜le surEestim—tion de l— longueur et de l— l—rgeur des ˜—n™s de poissonsD et à une possi˜le sousEestim—tion des des™ripteurs énergétiquesF he plusD ˜ien que l— zone insoni(ée soit import—nte et ˜ien é™h—ntillonnéeD il se peut que seule une p—rtie in(me d9un ˜—n™ de poissons soit o˜servée p—r le sondeurF einsiD ™omme pour le sondeur monof—is™e—uD l9im—ge représent—tive de l— zone de prospe™tion dépend de l— tr—je™toire du n—vireF €—r l— suiteD nous négligeons ™e phénomène en ™onsidér—nt que l9—ppro™he sto™h—stique permet m—lgré tout de f—ire v—loir les v—ri—˜ilités entre plusieurs groupes de poissonsF
  • 83.
    7.3. CLASSIFICATION ET RECONNAISSANCE DES BANCS DE POISSONS lxxxiii 7.3.3 Performances de classication : Bancs 2D h—ns ™ette se™tionD —(n d9illustrer le pouvoir dis™rimin—nt des des™ripteurs de ˜—n™s de poissons PhD nous retrouvons les résult—ts o˜tenus d—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“ pour le jeu de données hSF ve jeu de données hS est ™elui utilisé p—r g—rl— ƒ™—l—E ˜rin d—ns s— thèse ‘IUT“F sl est issu de II ™—mp—gnes de pê™hes et d9o˜serv—tions —™ousE tiques @sondeur monof—is™e—uA d—ns le golfe de q—s™ogne X wi„i†eg @HPGIIGIWVWD PP ™h—lut—gesAD heeq @IQGHRGIWWHD PV ™h—lut—gesAD e…‚e @IIGHVGIWWHD PT ™h—luE t—gesAD i„e€ @HQGHWGIWWHD PR ™h—lut—gesAD heeq @IHGHRGIWWID QQ ™h—lut—gesAD i„e€ @PTGHTGIHHID PQ ™h—lut—gesAD e…‚e @HVGIHGIWWID PR ™h—lut—gesAD heeq @IRGHRGIWWPD QV ™h—lut—gesAD i„e€ @HRGIIGIWWPD PH ™h—lut—gesAD i„e€ @PIGHSGIWWQD IT ™h—lut—gesAD i‚eq @HSGHTGIWWQD PU ™h—lut—gesAF gh—™un des ˜—n™s de l— ˜—se de données — été idenE ti(é p—r un expert de l— m—nière suiv—nteF it—nt donné un ™h—lut—ge monospé™i(queD les —grég—tions des é™hogr—mmes —™quis —u moment du ™h—lut—ge sont ™onsidérées ™omme ét—nt des ˜—n™s de poissons de l9espè™e pê™héeF he ™ette f—çonD à p—rtir des TH ™h—luE t—ges monospé™i(ques des II ™—mp—gnesD IRIW ˜—n™s de poissons ont été identi(és @IUW ˜—n™s de s—rdineD RUV ˜—n™s d9—n™hoisD TTU ˜—n™s de ™hin™h—rdD et WS ˜—n™s de merl—n ˜leuAF v— simul—tion ™onsiste à s™inder —lé—toirement l9ensem˜le des données en un sous ensem˜le d9—pprentiss—ge et sous ensem˜le de testF …ne fois l— ™l—ssi(™—tion e'e™tuéeD un t—ux de ˜onne ™l—ssi(™—tion est ™—l™uléF gette s™ission —lé—toire —ve™ remise est e'e™tuée IHH fois et un t—ux moyen de ˜onne ™l—ssi(™—tion est déterminéF h—ns s— thèseD g—rl— ƒ™—l—˜rin utilis—it un ™l—ssi(eur simple X une —n—lyse dis™rimin—nte liné—ire de pisherF h—ns le t—˜le—u UFID les t—ux moyens de ˜onne ™l—ssi(™—tion sont —0™hés pour l9—n—lyse dis™rimin—nte liné—ire de pisher @ehvpA @p—ge xxxv du présent m—nus™ritAD l9—lgorithme iw @p—ge xxviii du présent m—nus™ritAD les m—™hines à ve™teur de support @ƒ†wA @p—ge xxxix du présent m—nus™ritAD et les forêts —lé—toires @peA @p—ge xlix du présent m—nus™ritAF ve ™ode ƒ†w @4 vi˜Eƒ†w 4A est disponi˜le en ligne sur internet ‘PHR“F ve p—r—mètre du noy—u v—ut SD ™elui qui —utorise des erreurs sur les m—rges est (xé à IHHF ev—nt tout tr—itementD les données sont normées et ™entréesF ADLF EM SVM FA UHDT7 TTDW7 VRDW7 VWDQ7 Tableau 7.1 Comparaison des performances de classication du jeu de don- nées de bancs de poissons D5 pour diérents classieurs. Le taux moyen de bonne classication est reporté pour l'analyse discriminante linéaire de Fisher (ADLF) , l'algorithme EM (EM), les machines à vecteur de support (SVM), et les forêts aléatoires (FA). „out d9—˜ordD ™es résult—ts montrent à quel point le ™hoix du ™l—ssi(eur est imporE t—ntF in e'etD les ™on™lusions génér—les —près l9utilis—tion de l9—n—lyse dis™rimin—nte de pisher @ehvpA sont —ssez pessimistes X seuls UH7 des ˜—n™s de poissons sont ™orE re™tement ™l—ssésF sl est —lors légitime de se dem—nder si l— ™l—ssi(™—tion de ˜—n™s est possi˜leF in rev—n™heD les résult—ts o˜tenus —ve™ les forêts —lé—toires @peA sont ˜e—uE ™oup plus optimistes X W ˜—n™s de poissons sur IH sont ™orre™tement l—˜ellisésF h—ns ™e
  • 84.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES lxxxiv STRUCTURES ™—sD l— ™l—ssi(™—tion de ˜—n™s de poissons sem˜le don™ être une voie prometteuseF ges résult—ts montrent —ussi l— pertinen™e du ™hoix des forêts —lé—toires ™omme ™l—ssi(eur pour ™es données p—r r—pport à des ™l—ssi(eurs du type iw ou ƒ†wF gel— justi(e le f—it que nous —yons développé un ™l—ssi(eur f—i˜lement supervisé qui s9—ppuie sur les —r˜res de dé™ision et les forêts —lé—toiresF h—ns l— thèse de g—rl— ƒ™—l—˜rin ‘IUT“D les m—E tri™es de ™onfusion ét—ient représentéesF xous f—isons de même d—ns l— (gure UFR pour l9—n—lyse dis™rimin—nte de pisher et pour les forêts —lé—toiresF gon™ern—nt le modèle de ™l—ssi(™—tion ehvpD les ™on™lusions sont qu—siment les mêmes que d—ns l— thèse de g—rl— ƒ™—l—˜rin X les t—ux de ™l—ssi(™—tion sont ˜—s et l— ™onfusion l— plus forte se situe entre l9—n™hois et le ™hin™h—rd @PU7 des —n™hois sont ™l—ssés p—rmi les ™hin™h—rdsAF in rev—n™heD l— m—tri™e de ™onfusion o˜tenue —ve™ les forêts —lé—toires donne un tout —utre reg—rd des perform—n™es de ™l—ssi(™—tion @à droiteD d—ns l— (gure UFRAF gette foisD les t—ux de ™l—ssi(™—tion intr— espè™es sont élevés et l— ™onfusion l— plus import—nte se situe entre l— s—rdine et le ™hin™h—rd @IS7 des ˜—n™s de s—rdines sont ™l—ssés p—rmi les ˜—n™s ™hin™h—rdsAF einsiD nous ™onst—tons de m—nière qu—ntit—tive queD sous ™ondition du ™hoix d9un ™l—ssi(eur ™orre™tD les des™ripteurs de ˜—n™s de poissons fournis p—r le sondeur monoE f—is™e—u permettent d9e'e™tuer une ™l—ssi(™—tion —utom—tique plus qu9—™™ept—˜leF ge t—ux de re™onn—iss—n™e @VWDQ7A est —™™ept—˜le du point de vue du dom—ine —ppli™—tifF in e'etD —ve™ un t—ux d9erreur d9environ IH7D les méthodes —utom—tiques permettent de ™onsolider une expertise ou d9e'e™tuer un ™hoixF gepend—ntD l— ™l—ssi(™—tion de ˜—n™s de poissons p—r —pprentiss—ge supervisé —utoE m—tique possède des limites intrinsèquesF €remièrementD l— représent—tivité des ˜—n™s est di'érentes dur—nt les périodes de ™h—lut—ge et de prospe™tion @l— vitesse du n—vire est di'érente ™e qui ™h—nge l— résolution des im—gesAF heuxièmementD ™ette —ppro™he est restreinte —ux ™h—lut—ges monoEspé™i(ques dont l9o˜tention est di0™ile et qui ne permettent p—s de modéliser les mél—nges d9espè™esF 7.4 Classication et reconnaissance des ensembles de bancs de poissons 7.4.1 Préambule v— ™—mp—gne gveƒƒHV3 —v—it pour ˜ut d9—™quérir de l— donnée multif—is™e—ux —(n de mieux —ppréhender ™e nouve—u type d9inform—tions et d9en extr—ire des ™ompos—ntes des™riptivesF gepend—ntD l9—n—lyse visuelle des é™hogr—mmes Qh o˜servés — ™h—ngé l— per™eption de l9org—nis—tion des ˜—n™s de poissonsF sl est —dmis que l— distri˜ution sp—E ti—le des ˜—n™s de poissons est fond—ment—le pour des o˜je™tifs de dis™rimin—tions ‘IWS“D m—is le sondeur multif—is™e—ux intensi(e ™ette idéeF elors que les ˜—n™s de poissons —pE p—r—iss—ient distin™ts et dé(nis —ve™ le sondeur monof—is™e—uD l9—jout d9une troisième dimension sp—ti—le f—it —pp—r—ître une multitude de ˜—n™s s—tellites di'us et des formes 3 Campagne océanographique d'une semaine opérée par l'Ifremer en juin 2008 à bord du Thalassa, l'objectif était l'acquisition de données multifaisceaux.
  • 85.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS lxxxv Figure 7.4 Matrices de confusion obtenues après la classication du jeu de données monofaisceau D5 pour deux classieurs : l'analyse discriminante linéaire de Fisher (ADLF) et les forêts aléatoires (FA). insoupçonnéesF v— notion même de ˜—n™s est remise en ™—useD l—iss—nt l— pl—™e à un ™on™ept plus génér—le X les 4 —grég—tions 4F €—r exempleD d—ns l— (gure UFSD plusieurs ™—s d9—grég—tions sont représentés X l— grosse ˜oule dense @en h—utD à g—u™heAD les n—ppes de ˜—n™s de poissons tors—dés de formes —lé—toires @en h—utD à droiteAD l— nuée de poissons @en ˜—sD à g—u™heAD et les petits ˜—n™s denses ép—rses @en ˜—sD à droiteAF v— vision du sondeur monof—is™e—u ser— pertinente pour l— ˜oule denseD p—s pour les —utres ™—s X à l— pl—™e des ˜—n™s tors—désD le sondeur monof—is™e—u peut déte™ter des petites t—™hes —™™oléesD et à l— pl—™e d9une nuée de werl—ns fleusD le sondeur monof—is™e—u peut déte™ter un ˜—n™ ™entr—l environné de ˜ruitF €our mieux —ppréhender l9inform—tion ™ontenue d—ns les im—gesD on peut envis—E ger une —ppro™he —ltern—tive qui tient ™ompte à l— fois de l9org—nis—tion sp—ti—le des —grég—tions et des ™—r—™téristiques des ˜—n™s de poissonsF gontr—irement —ux —n—lyses —ntérieures PhD toute l9inform—tion doit être exploitéeF einsiD nous n9e'e™tuons p—s de (ltr—ge des ˜—n™s trop petitsF gel— permet de prendre en ™onsidér—tion les é™hos isolés qui peuvent être des poissons éloignés du ˜—n™ ™entr—lF in outreD si ™es é™hos isolés sont du pl—n™tonD il f—ut les prendre en ™ompte d—ns l9—n—lyse glo˜—le ™—r ils peuvent être représent—tifs de l9é™osystème lo™—l qui f—it que ™ert—ines espè™es sont présentes et qui ™ontr—int le ™omportement de ™es espè™esF h—ns le ™omportementD sont in™lues l— position des ˜—n™s d—ns l— ™olonne d9e—uD l— t—ille des ˜—n™sD leur morphologieD et leur distri˜ution sp—ti—leF 7.4.2 Descripteur global proposé gert—ins tr—v—ux proposent l9—n—lyse de des™ripteurs glo˜—ux simples à p—rtir de données issues du sondeur monof—is™e—u ‘PHS“ ‘PHT“F €—r exempleD d—ns ‘PHT“D l9extr—™E
  • 86.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES lxxxvi STRUCTURES Figure 7.5 Il existe diérents types d'agrégations allant de la grosse sphère dense, à la nuée de voxels. tion prélimin—ire des ˜—n™s de poissons est rejetée ™—r le (ltr—ge des ˜—n™s trop petits est vu ™omme une suppression d9inform—tions dis™rimin—ntesF e l— pl—™eD une —utre méE thode pour extr—ire des stru™tures est proposée @on ne p—rle —lors plus de ˜—n™s m—is de 4 p—t™h 4AF insuiteD des des™ripteurs glo˜—ux sont suggérés et —sso™iés à l9im—ge ™onsidéréeF €—rmi ™es des™ripteurs glo˜—uxD on peut ™iter l9énergie moyenne rétrodi'uE sée p—r tous les p—t™hs de l9im—geD l— dist—n™e moyenne entre les p—t™hs de l9im—geD l— densité des p—t™hsD l9o™™up—tion sp—ti—le des p—t™hsD et™F xous proposons une —ppro™he —n—logue qui repose sur l9—n—lyse st—tistique de l— disE tri˜ution de stru™tures élément—ires —u sens d9un ™ritère de seuill—ge et de ™ontigüitéF v9org—nis—tion sp—ti—le de ™es stru™tures élément—ires @les ˜—n™s de poissonsA dépend de l— n—ture des poissons o˜servésF €—r exempleD l— distri˜ution des ˜—n™s d—ns l9im—ge peut être homogène ou hétérogèneF einsiD l9im—ge des —grég—tions peut être vue ™omme une ré—lis—tion d9un pro™essus sto™h—stique pon™tuelD ™h—que point du pro™essus repréE sent—nt le ™entre de gr—vité d9un ˜—n™ de poissonsF h—ns ™e ™ontexteD nous proposons un des™ripteur st—tistique qui ™—r—™térise l9org—nis—tion sp—ti—le du pro™essus pon™tuelF he plusD les ˜—n™s peuvent être ™—tégorisésD en fon™tion de leur n—tureD de telles sortes qu9une —n—lyse plus (ne de l— distri˜ution est e'e™tué X il s9—git —lors de ™—r—™térisé l— distri˜ution de ˜—n™s de même ™—tégorieD ou de ™—tégorie di'érenteF gette extension de l— méthode ™orrespond à l9étude d9un pro™essus pon™tuel m—rquéF K de Ripley. ve K de ‚ipley ‘PHU“ ‘PHV“ regroupe une f—mille de méthodes qui exprime des st—E tistiques sur les dist—n™es entre les exemples du pro™essusF €—r exempleD l9—n—lyse de voisin—ge du premier ordre ‘PHU“ ™onduit à re™her™her l— qu—ntité moyenne de points @KA d—ns un volume élément—ire B de l9esp—™e X K= ρ(v)dv @UFIA B
  • 87.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS lxxxvii où ρ(v)dv est l— pro˜—˜ilité du nom˜re de points d—ns un volume in(nitésim—l dv ™entré en v F gette —n—lyse du premier ordre m—nque de (nesseF einsiD il existe une perte d9inform—tion sur les dist—n™es interEexemplesF he plusD les inform—tions essentielles des stru™tures ™omplexesD qui impliquent des distri˜utions hétérogènes —ve™ plusieurs motifs em˜oités à plusieurs é™hellesD sont noyées d—ns l— moyenneF v9—n—lyse de voisin—ge du se™ond ordre ‘PHW“ ‘PIH“D qui ™onsidère des st—tistiques sur les p—ires de pointsD est mieux —d—ptée pour l— ™—r—™téris—tion des stru™tures ™omplexesF gette foisD l9—n—lyse ™onsiste à re™her™her l— qu—ntité moyenne de ™ouple de points d—ns un volume élément—ire B X 1 K= ρ(2) (x1 , x2 )dx1 dx2 @UFPA V V B où ρ(2) (x1 , x2 )dx1 dx2 est l— densité du nom˜re de p—ires de points d—ns les volumes in(nitésim—ux dx1 et dx2 ™entrés en x1 et x2 F † est le volume tot—l de l9esp—™e d9—n—lyseF v— densité ρ(2) (x1 , x2 ) exprime l— ™orrél—tion entre les pointsF ƒi le pro™essus —lé—toire est isotrope @inv—ri—n™e en tr—nsl—tionA et st—tionn—ire —u se™ond ordreD —lors l— densité ρ(2) (x1 , x2 ) ne dépend que de l— dist—n™e entre les points X ||x1 − x2 | |F in pr—tique B est une ˜oule de r—yon r et l— st—tistique K(r) peut être estimée ™omme suit X N 1 K(r) = δij (||xi − xj | | ≤ r) @UFQA V i=j où δij est une fon™tion qui renvoie I si l— ™ondition ||xi − xj | | ≤ r est respe™téeD H sinonF Processus ponctuel marqué. v9—ppro™he pré™édente peut être étendue —u ™—s des pro™essus pon™tuels m—rqués ‘PIH“F ƒoit {xn }1≤N une ré—lis—tion p—rti™ulière d9un pro™essus —lé—toireF ƒi une étiquette est —ttri˜uée à ™h—que point xn D —lors le pro™essus est m—rquéF …ne ré—lis—tion du pro™essus m—rqué est notée {xn , mn }1≤N F …n m—rqu—ge est o˜tenu p—r ™—tégoris—tion des o˜jets en sous ™l—ssesF €—r exemple ‘PII“D pour l9—n—lyse de l— distri˜ution des zones forestièresD les —r˜res sont pré—l—˜lement ™l—ssés d—ns des ™—tégories distin™tesF he ™ette f—çonD il est ™on™ev—˜le de r—nger les —r˜res p—r ™—tégorie de t—illeF e l9inst—r de ‡en ‘PIP“ qui mêle les pro™essus pon™tuels m—rqués —ve™ du urige—ge @une méthode d9interpol—tionAD nous envis—geons d9e'e™tuer une ™l—ssi(™—tion non supervisée —(n de regrouper les points o˜servés en ™—tégoriesF †oi™i ™omment nous pro™édonsF gh—que ˜—n™ de poissons est ™—r—™térisé p—r un ™entre géogr—phique dont les ™oordonnées sont xn D et p—r un ensem˜le de des™ripteurs @les p—r—mètres morphologiques et énergétiquesAF ges des™ripteurs prennent leur v—leur d—ns l9ensem˜le ™ontinu des réelsF e(n d9o˜tenir un ensem˜le dis™ret de m—rquesD nous —ppliquons l9—lgorithme des uEmoyennes qui est présenté d—ns l— se™tion PFQ du ™h—pitre PF pin—lement les ˜—n™s de poissons ne sont plus —sso™iés à un ve™teur de p—r—mètres ™ontinusD m—is un entier n—turel résume ses ™—r—™téristiquesF v9expression @UFQA du K de ‚ipley d—ns le ™—s s—ns m—rque est —d—ptée —u ™—s des pro™essus pon™tuels m—rquésF gette foisD plutôt que d9év—luer le nom˜re moyen d9exemples d—ns le volume élément—ire B D l— m—tri™e de ™oo™™urren™e des ™ouples de m—rques d—ns le volume élément—ire est estiméeF gel— revient à estimer le nom˜re
  • 88.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES lxxxviii STRUCTURES Figure 7.6 Volume d'intersection entre une boule et un prisme trapézoïdal. d9o™™urren™e moyen de ™h—que ™ouple de m—rque d—ns un volume élément—ire B F ƒoit Γ(r) = {Γp,q (r)}1≤p,q≤M l— m—tri™e de ™oo™™urren™e —ve™ M le nom˜re de m—rquesD —lors les ™ompos—ntes de l— m—tri™e de ™oo™™urren™e s9expriment ™omme suit X N N 1 Γp,q (r) = δi (mi = p)δj (mj = q)δij (||xi − xj | | ≤ r) @UFRA i Vi (r) j=i où δij est une fon™tion qui renvoie I si l— ™ondition ||xi − xj | | ≤ r est respe™téeD H sinonD et δi est une fon™tion qui renvoie I si l— ™ondition mi = p est respe™téeD H sinonF Vi (r) est un ™oe0™ient de norm—lis—tionD il représente l9interse™tion entre le volume V et l— ˜oule B de r—yon rF v9—v—nt—ge du m—rqu—ge est de regrouper ensem˜le des données simil—iresF vors de l— ™onstru™tion de l— m—tri™e de ™oo™™urren™eD l— question est de s—voir quels sont les groupes qui inter—gissent entre euxF €—r exempleD il n9est p—s —˜surde de penser qu9une ™l—sse d9im—ges implique plusieurs types de groupes d9exemplesF Correction des eets de bord. ve ™oe0™ient de pondér—tion Vi (r) d—ns l9expression @UFRA permet de ™onsidérer les e'ets de ˜ordF h—ns le ™—s du sondeur monof—is™e—uD le volume V peut être estimé p—r un re™t—ngle et le volume B est un disque ™entré en xi D —lors il existe des formules pour ™—l™uler Vi (r) pour tout xi ‘PHW“F h—ns le ™—s du sondeur multif—is™e—uxD ™e ™—l™ul est moins évidentF in e'etD une fois que les zones —veugles générées p—r le sondeur multif—is™e—ux sont suppriméesD V est un prisme à ˜—se de tr—pèze ™omme représenté d—ns l— (gure UFTF B est une ˜oule ™entrée en xi F €lusieurs ™—s de (gure sont possi˜les en fon™tion du r—yon r de l— ˜oule et de l— position du ™entre xi de l— ˜ouleF „rois exemples sont représentés d—ns le h—utD à droiteD de l— (gure UFT d—ns le pl—n {Y, Z} X le ™—s de l— ˜oule qui ™oupe à l— fois le pl—n inférieur et un pl—n l—tér—l du prisme tr—pézoïd—lD le ™—s de l— ˜oule qui ™oupe les deux pl—ns l—tér—ux et le pl—n supérieur du prisme tr—pézoïd—leD et le ™—s de l— ˜oule qui ™oupe tous les pl—ns à l— foisF h9—utres
  • 89.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS lxxxix exemples pourr—ient être sign—lésD ™omme l— ˜oule qui englo˜e tot—lement le prisme tr—pézoïd—lF ges di'érents ™—s posent pro˜lème pour le ™—l™ul de Vi (r) et nous voulons éviter de tr—iter ™h—que ™—s indépend—mmentF he ™e f—itD nous proposons une formule génér—le qui permetD quelque soit l— t—ille de l— ˜oule et quelque soit l— position xi d—ns le prisme tr—pézoïd—lD de ™—l™uler le volume Vi (r)F †oi™i l— méthodeF €l—çonsEnous d—ns le pl—n {Y, Z} tr—nsverse —u n—vireD nous dé(nissons les gr—ndeurs suiv—ntes X IF S11 : ƒurf—™e extérieure du disque B p—r r—pport —u premier pl—n l—tér—l du prisme tr—pézoïd—lF PF S12 : ƒurf—™e extérieure du disque B p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF QF S13 : ƒurf—™e extérieure du disque B p—r r—pport —u deuxième pl—n l—tér—l du prisme tr—pézoïd—lF RF S14 : ƒurf—™e extérieure du disque B p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF SF S21 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du premier pl—n l—tér—l et p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF TF S22 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du premier pl—n l—tér—l et p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF UF S23 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du deuxième pl—n l—tér—l et p—r r—pport —u pl—n supérieur du prisme tr—pézoïd—lF VF S24 : ƒurf—™e intérieure du disque B p—r r—pport à l9interse™tion du deuxième pl—n l—tér—l et p—r r—pport —u pl—n inférieur du prisme tr—pézoïd—lF S11 D S12 D S13 D S14 D S21 D S22 D S23 et S24 sont représentées d—ns l— (gure UFTF yn montre —isément que l— surf—™e d9interse™tion Ai (r) entre le disque ™entré en xi de r—yon r et l— ™oupe tr—nsvers—le du prisme tr—pézoïd—le @d—ns le pl—n {Y, Z}AD s9exprime en fon™tion de {Sij }1≤i≤2,1≤j≤4 de l— m—nière suiv—nte X 2 4 Ai (r) = −3S + Sij @UFSA i=1 j=1 yù S est l— surf—™e du disque de r—yon rF sl reste ensuite à intégrer sur l— troisième dimension @X A pour o˜tenir le volume d9interse™tion (n—l X Vi (r) = Ai (r(x))dx @UFTA X Interprétation et sens physique. v— première ™on™lusion qui se dég—ge des o˜serv—tions —™oustiques est queD en fon™E tion des espè™es de poissons présentes d—ns les im—ges et des spé™i(™ités environnemenE t—les et géogr—phiquesD les ˜—n™s de poissons se ™—r—™térisent p—r des formesD des t—illesD des réponses énergétiquesD et des positions v—ri—˜lesF he plusD l— plup—rt des im—ges sont ™onstituées de mél—nges d9espè™es donn—nt n—iss—n™e à des im—ges qui ™on™entrent des mél—nges de ˜—n™s de poissons de n—ture di'érenteF €—r exempleD ™ert—ins é™hoE gr—mmes sont ™onstitués à l— fois de gros ˜—n™s de s—rdines très rétrodi'us—nts et de
  • 90.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES x™ STRUCTURES petits ˜—n™s de ™hin™h—rds moins énergétiques et plus di'usF ve m—rqu—ge permet de modéliser ™es o˜serv—tionsF in e'etD le ™lustering est un moyen d9—gréger entre eux des ˜—n™s d9une même ™—tégorieD p—r exemple des ˜—n™s sem˜l—˜les en t—ille et en énergieF einsiD l9histogr—mme des ™lusters permet d9identi(er quels sont les types de ˜—n™s préE sents d—ns les im—gesF €—r exempleD d—ns le ™—s idé—lD des im—ges monoEspé™i(ques ne sont ™omposées que d9un seul type de ˜—n™s de poissonsD —lors que des im—ges pluriE spé™i(ques regroupent plusieurs types d9—grég—tionsF v9histogr—mme des ™lusters doit don™ être représent—tif des mél—nges de types d9—grég—tionsD et p—r ™onséquent des mél—nges d9espè™esF v— se™onde ™on™lusion des expertsD rel—tivement —ux o˜serv—tions des im—ges —™ousE tiquesD ™on™erne l— distri˜ution des —grég—tionsF €remièrementD ils ont ™onst—té que l9org—nis—tion sp—ti—le des ˜—n™s de poissons dépend des espè™es présentes d—ns les im—ges et des ™—r—™téristiques environnement—les et géogr—phiquesF €—r exempleD les mél—nges d9—n™hois et de ™hin™h—rds peuvent s9org—niser p—r ™ou™hesD les ˜—n™s d9—nE ™hois ét—nt —uEdessus des ˜—n™s de ™hin™h—rdsF ges ™ou™hes sont plus ou moins dé(niesD pouv—nt être l— sour™e de ™ou™hes pluriEspé™i(quesF heuxièmementD les é™hogr—mmes montrent que l— densité des ˜—n™s de poissons d—ns les im—ges peut être v—ri—˜le X homogène ou hétérogène p—r endroitF €—r exempleD l— distri˜ution sp—ti—le des ˜—n™s de s—rdines est —ssez homogène d—ns les im—gesD —lors que ™elle des mél—nges d9—n™hois et de ™hin™h—rds peut se ™—r—™tériser p—r une densité qui dé™roît du fond vers l— surf—™e de l— merF v9utilis—tion du u de ‚ipleyD étendu —u ™—s d9un pro™essus m—rquéD permet non seulement de ™—r—™tériser l9existen™e de ™ert—ines ™l—sses de ˜—n™s de poissons d—ns les im—gesD m—is —ussi de modéliser l— v—ri—˜ilité des distri˜utionsF in e'etD ™ette te™hE nique exprime quels types de ˜—n™s de poissons sont regroupés entre eux et —ve™ quelle fréquen™e moyenneF €renons le ™—s idé—l de deux ™ou™hes de poissons dont les ˜—n™s sont m—rqués distin™tementD —lors le u de ‚ipley permet de spé™i(er les densités d—ns ™h—™une des ™ou™hesD m—is —ussi l— densité de l9interse™tion des deux ™ou™hes vi— les ™oo™™urren™esF 7.4.3 Performances Jeu de données ve jeu de données hT provient de l— ™—mp—gne gveƒƒHV d9o˜serv—tion —™oustique et de pê™he d—ns le golfe de q—s™ogneF v9—v—nt—ge de ™es données est l9insoni(™—tion de l9esp—™e p—r les deux types de sondeur en même temps @sondeur monof—is™e—u et sonE deur multif—is™e—uxAF gel— permet de ™omp—rer le pouvoir dis™rimin—nt des des™ripteurs Qh proposés p—r r—pport à des —ppro™hes Ph ™l—ssiquesF „rois ™l—sses d9é™hogr—mme ont été identi(éesD et pour que l— ˜—se d9—pprentiss—ge soit su0s—mment volumineuseD les é™hogr—mmes sont divisés p—r qu—rts de millesF einsiD l— ˜—se de données est ™omposé de X @—A TQ im—ges de s—rdines et de ™hin™h—rdsD @˜A UP im—ges d9—grég—tions denses et tors—dées d9—n™hois et de ™hin™h—rdsD et @™A VU im—ges ™orrespond—nts à des —grég—tions d9—n™hois et de ™hin™h—rds peu denses et ép—rsesF h—ns l— (gure UFUD nous donnons des exemples d9im—ges pour ™h—™une de ™es trois ™l—ssesF xotre o˜je™tif est que le des™ripE teur glo˜—l puisse di'éren™ier des im—ges en fon™tion de l9org—nis—tion des —grég—tions
  • 91.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS x™i Figure 7.7 En bas à droite : Histogramme des sondes moyennes pour la classe (a) (gros bancs de sardines bien dénis), la classe (b) (bancs épars pou- vant être très denses mais plutôt de forme sphérique), et la classe (c) (bancs diormes tels que la densité des bancs dans l'image est importante). m—is —ussi en fon™tion de l— forme des —grég—tions des im—gesF einsiD l— ™l—sse @—A se ™—r—™térise p—r des gros ˜—n™s de s—rdines ˜ien dé(nis noyés d—ns des nuées de voxels isolés qui ™orrespondent à des poissons isolésD des petits ˜—n™s de poissons isolés ou des nuées de pl—n™tonF v— ™l—sse @˜A est ™onstituée de ˜—n™s ép—rs pouv—nt être très denses m—is plutôt de forme sphériqueF in(nD l— ™l—sse @™A est ™omposée de ˜—n™s di'ormes tels que l— densité de ˜—n™s d—ns l9im—ge soit import—nteF v9o˜je™tif est d9—voir un desE ™ripteur glo˜—l qui renseigne à l— fois sur l— n—ture des ˜—n™s de l9im—geD m—is —ussi sur l9org—nis—tion des ˜—n™s d—ns l9im—geD don™ si le des™ripteur glo˜—l —rrive à di'éren™ier ™es trois ™l—ssesD notre o˜je™tif est —tteintF €our inform—tionD d—ns l— (gure UFUD l9histoE gr—mme des sondes moyennes des im—ges est tr—™é pour ™h—™une des trois ™l—ssesF he mêmeD pour mieux se représenter l— donnéeD nous —0™hons les distri˜utions sp—ti—les et temporelles d—ns l— (gure UFVF h9ores et déjàD l9o˜serv—tion des sondes moyennes et des distri˜utions sp—ti—les et temporelles nous permet de ™on™lure qu9une ™l—sse se dét—™he des —utres X l— s—rdineD —lors que les deux —utres ™l—ssesD ™omposées d9—n™hois et de ™hin™h—rdsD sont simil—ires en distri˜utions sp—ti—lesD temporellesD et de sondesF Analyse statistique des descripteurs h—ns un premier tempsD —(n de mesurer l9import—n™e de ™h—que des™ripteur d—ns le pro™essus de dis™rimin—tionD nous e'e™tuons une —n—lyse de l— v—ri—n™e ‘PIQ“ @enov— en —ngl—is pour 4 ex—lysis yf †—ri—n™e 4AF ƒous ™onditions que les v—ri—n™es des disE tri˜utions de ™h—que ™l—sse sont ég—les et que les o˜serv—tions sont indépend—ntesD ™e test permet de qu—nti(er l9é™—rt des moyennes des distri˜utions de ™h—que ™l—sse pour un des™ripteur donnéF einsiD plus ™et é™—rt est import—ntD plus le des™ripteur est disE ™rimin—nt pour les ™l—sses ™onsidéréesF ve prin™ipe est le suiv—ntF …n test d9hypothèse
  • 92.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES x™ii STRUCTURES Figure 7.8 Distribution spatiale (à gauche) et temporelle (à droite) du jeu de données D6 issu de la campagne CLASS08. A gauche, un zoom est eectué pour montrer la distribution spatiale des deux classes composées de mélange d'an- chois et de chinchards, l'une étant composée d'images denses avec des bancs torsadés (représentées par des points), l'autre d'images peu denses avec des bancs dius (représentées par des cercles). st—tistique permet de tester l9ég—lité entre l— v—ri—n™e interE™l—sses et l— v—ri—n™e intr—E ™l—sses @™fF se™tion QFQFI du ™h—pitre QAF ve r—pport F entre ™es deux v—ri—n™es donne une idée de l— sép—r—tion des distri˜utions de ™h—que ™l—sseF €lus F est gr—ndD plus l9hypothèse d9ég—lité des moyennes des distri˜utions est f—i˜leD et plus l— ™h—n™e qu9une ™l—sse se dét—™he des —utres est élevéeF in outreD un t—ux d9erreur de S7 est (xé tel que F ne peut p—s dép—sser un seuil théoriqueF euEdelà de ™e seuil théoriqueD l9hypothèse d9ég—lité des moyennes est rejetéeF v— pro˜—˜ilité que F soit inférieur —u seuil théorique est donnée p—r l— v—leur pF ƒi p est pro™he de ID —lors les moyennes des distri˜utions de ™h—que ™l—sse sont identiques pour le des™ripteur ™onsidéréF ƒi p est pro™he de HD —lors —u moins une des moyennes des distri˜utions des ™l—sses di'ère des —utresF pin—lementD une enov— se résume en deux ét—pes X @—A véri(er l— v—leur p pour év—luer l— (—˜ilité du test st—tistique et @˜A mesurer F qui renseigne sur le degré de sép—r—tionF xotons que le résult—t de l9étude est ˜i—isé si les distri˜utions sont multiEmod—lesD si les v—ri—n™es des distri˜utions ne sont p—s ég—les entre les ™l—sses et si les o˜serv—tions ne sont p—s indépend—ntesF ves résult—ts sont —0™hés d—ns le t—˜le—u UFPF €our le jeu de données hTD nous ™omp—rons le pouvoir dis™rimin—nt de quelques des™ripteurs issus des im—ges Qh et des im—ges Ph ™orrespond—ntesF ginq des™ripteurs glo˜—ux sont extr—its X l— densité @le nom˜re de ˜—n™s de poissons divisé p—r le volume de l9é™hogr—mmeAD le pour™ent—ge d9o™™up—tion sp—ti—le @le volume tot—l o™™upé p—r les ˜—n™s de poissons divisé p—r le volume de l9é™hogr—mmeAD l— dist—n™e médi—ne entre les ˜—n™s de poissonsD l9indi™e de
  • 93.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS x™iii sm—ge sm—ge sm—ge sm—ge hes™ripteur x—ture QhD PhD QhD PhD ™l—sses ™l—sses ™l—sses ™l—sses {IDPDQ} {IDPDQ} {IDP} {IDP} Densité glo˜—l p=0 p = 1e − 16 p = 0.1 2e − 5 F = 172 F = 45 F =2 F = 19 Occupation glo˜—l p = 1e − 8 p = 2e − 6 p = 1e − 9 p = 1e − 16 spatiale F = 19 F = 13 F = 42 F = 93 globale Distance glo˜—l p = 1e − 14 p = 0.6 p = 0.8 p = 0.8 médiane F = 37 F = 0.5 F = 1e − 2 F = 4e − 2 Indice de glo˜—l p = 1e − 11 p = 7e − 5 p = 1e − 7 p = 6e − 6 fragmentation F = 29 F =9 F = 30 F = 22 Sonde glo˜—l p=0 p=0 p = 9e − 8 p = 2e − 8 moyenne F = 526 F = 410 F = 32 F = 35 Profondeur lo™—l p=0 p=0 p=0 p=0 F = 6900 F = 778 F = 2300 F = 140 Longueur lo™—l p=0 p=0 p = 1e − 4 p = 1e − 3 F = 247 F = 44 F = 14 F = 10 Largeur lo™—l p=0 p=0 p=0 p = 1e − 6 F = 484 F = 1900 F = 124 F = 23 Hauteur lo™—l p=0 p = 2e − 16 p=0 p = 0.8 F = 217 F = 36 F = 74 F = 5e − 2 Volume lo™—l p=0 p = 1e − 5 p = 0.4 p = 3e − 5 F = 73 F = 11 F = 0.5 F = 12 Occupation lo™—l p=0 p=0 p = 0.2 p = 4e − 7 spatiale F = 242 F = 60 F =1 F = 25 locale Sv lo™—l p=0 p=0 p = 1e − 7 p = 0.4 F = 612 F = 45 F = 28 F = 0.6 Tableau 7.2 Analyse de la variance (Anova) sur le jeu de données D6, en considérant les classes Anchois-chinchard peu dense , Anchois-chinchard dense et Sardine , respectivement annotées 1, 2, et 3. fr—gment—tion de l9é™hogr—mme X vi 1− @UFUA i V D où vi est le volume du ˜—n™ i et V le volume de l9é™hogr—mme @pour une même o™™up—tion sp—ti—leD l9im—ge peut ™ontenir un gros ˜—n™ de poissons ou plusieurs petits ˜—n™sAD et l— profondeur moyenne de l9é™hogr—mmeF ƒept des™ripteurs lo™—uxD iFeF des des™ripteurs de ˜—n™s de poissonsD sont extr—its X l— profondeurD l— longueurD l— l—rgeurD l— h—uteurD le volumeD l9o™™up—tion sp—ti—le lo™—le @le volume du ˜—n™ divisé p—r le volume de l9é™hogr—mmeAD et l9énergie rétrodi'usée @ƒvAF €—rmi les trois ™l—sses testées @4 en™hoisEghin™h—rd peu dense 4D 4 en™hoisEghin™h—rd dense 4D et 4 ƒ—rdine 4AD on s—it que l— s—rdine donner— peu d9erreurs de ™l—ssi(™—tionF gel— se véri(e en rem—rqu—nt queD d—ns l9histogr—mme des sondes moyennes des é™hogr—mmes @(gure UFUAD nous ™onst—tons que l— distri˜ution des sondes des é™hogr—mmes ™onten—nt des —grég—tions de s—rdines est l—rgement é™—rtée des distri˜utions des deux —utres ™l—ssesF einsiD ™omme le test st—tistique est positif si —u moins une des ™l—sses se dét—™he des —utresD —lors nous e'e™tuons le test à l— fois pour l9ensem˜le des ™l—sses @™l—sses {IDPDQ} d—ns l— (gure UFPA et pour les ™l—sses di0™ilement sép—r—˜les @™l—sses {IDP} d—ns l— (gure UFPAF qlo˜—lementD les résult—ts sont positifs visEàEvis de l9—pport d9inform—tions dis™rimiE n—ntes p—r le sondeur multif—is™e—uxF gomme supposéD l9—jout d9une troisième dimenE sion sp—ti—le —ugmente l— (nesse de l— des™ription des —grég—tionsD et p—r ™onséquen™eD
  • 94.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES x™iv STRUCTURES le pouvoir dis™rimin—ntF gel— se véri(e en o˜serv—nt que l— st—tistique F est souvent supérieure d—ns le ™—s des im—ges Qh p—r r—pport —ux im—ges PhD et en not—nt que l— v—leur p est souvent inférieure d—ns le ™—s des im—ges QhF gomme —ttenduD une fois que l— ™l—sse f—™ilement sép—r—˜le des s—rdines est retirée du testD nous ™onst—tons que les pro˜—˜ilités d9erreurs —ugmententF gel— est dû —u f—it que les ™l—sses I et P sont di0™ilement sép—r—˜lesF €lus pré™isémentD pour le jeu de données hTD les des™ripteurs de ˜—n™s de poissons les plus dis™rimin—nts sem˜lent être l— profondeur et l— l—rgeur des ˜—n™s de poissons @l— l—rgeur des ˜—n™s de poissons ét—nt fortement ™orrélée à l— profondeurD ™e résult—t est justeAD et les des™ripteurs glo˜—ux les plus dis™rimin—nts sont l9o™™up—tion sp—ti—le et l— sonde moyenneF …ne illustr—tion est proposée d—ns l— (gure UFWF €our le sondeur multif—is™e—ux @im—ge QhAD nous représentons en h—ut à g—u™he de l— (gure UFW l9hisE togr—mme de l— profondeur des ˜—n™s de poissons qui présente une st—tistique F très f—vor—˜le @F = 2300AD et nous représentons en ˜—s à g—u™he de l— (gure UFW l9histoE gr—mme de l9énergie rétrodi'usée p—r les ˜—n™s @ƒvA dont l— st—tistique F est moins f—vor—˜le @F = 28AF gomme —ttenduD pour l9énergie rétrodi'usée @ƒvA il y — superpoE sition des distri˜utionsD et pour l— profondeur des ˜—n™s de poissonsD les distri˜utions ne se re™ouvrent p—sF gepend—ntD nous ™onst—tons que l— distri˜ution de l— ™l—sse 4 en™hoisEghin™h—rd dense 4 est multiEmod—le ™e qui f—usse le testF w—is si une —n—lyse glo˜—le est ™onsidéréeD ™e des™ripteur est p—rti™ulièrement intéress—nt ™—r il ™onduit à l9idée suiv—nte X si des ˜—n™s de poissons sont présents d—ns les deux modes à l— foisD —lors l9im—ge est ™l—ssée d—ns l— ™—tégorie 4 en™hoisEghin™h—rd dense 4F ge prin™ipe justi(e l9emploi d9un ™lustering qui ™onstitue l— première ét—pe pour o˜tenir le desE ™ripteur glo˜—l que nous —vons proposé d—ns l— se™tion UFRF he l— même f—çonD m—is ™ette fois pour le sondeur monof—is™e—uD nous tr—çons en h—ut à droite de l— (gure UFW les histogr—mmes de l9o™™up—tion sp—ti—le glo˜—le d—ns les im—ges qui présente une st—tistique F élevée @F = 93AD et nous tr—çons en ˜—s à droite de l— (gure UFW les histoE gr—mmes des dist—n™es médi—nes d—ns les im—ges qui présentent une st—tistique F très f—i˜le @F = 0.04AF ves ™on™lusions sont les mêmes que pour le sondeur multif—is™e—uxF gette —n—lyse st—tistique donne une idée génér—le de l— rel—tion entre les ™l—sses d9espè™es ™onsidérées p—r le jeu de données hT et des des™ripteurs glo˜—ux ou lo™—uxF gel— nous permet —ussi de qu—nti(er l9—pport d9inform—tions des im—ges Qh p—r r—pport —ux im—ges PhF gepend—ntD n9ou˜lions p—s queD en plus des ™onditions né™ess—ires et propres à ™ette —n—lyse st—tistique @—˜sen™e de prise en ™ompte des ™orrél—tions entre des™ripteurs et monoEmod—lité des distri˜utionsAD nous —vons dû équili˜rer les ™l—sses en termes de ™—rdin—lité ™e qui peut produire des ™h—ngements moyens d—ns les histogr—mmes et qui produit quelques impré™isionsF gette —n—lyse de l— v—ri—n™e est utilisée d—ns l— se™tion suiv—nte pour justi(er les résult—tsF Application à la reconnaissance des ensembles de bancs h—ns un deuxième tempsD nous proposons d9e'e™tuer une étude qu—ntit—tive du pouvoir dis™rimin—nt du des™ripteur glo˜—l proposéF gette foisD plutôt que de ™l—sser des ˜—n™s de poissonsD nous ™l—ssons des im—ges ™omposées de ˜—n™s de poissonsF ves tests
  • 95.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS x™v Figure 7.9 Pour le sondeur multifaisceaux et le sondeur monofaisceau, his- togrammes de quelques descripteurs dont le test de Fisher est soit très positif, soit très négatif. sont e'e™tués —ve™ le jeu de données hT pour les im—ges Ph et QhF gomme pré™édementD une v—lid—tion ™roisée permet de ™—l™uler un t—ux moyen de ˜onne ™l—ssi(™—tionF ve prin™ipe d9év—lu—tion des des™ripteurs est le suiv—nt X nous ™onsidérons que le meilleur des™ripteur est ™elui qui propose le meilleur t—ux de ˜onne ™l—ssi(™—tionF €lusieurs des™ripteurs sont ™omp—rés X IF Sonde moyenne (Sonde). e ™—use de l— géométrie des f—is™e—ux des sondeursD les des™ripteurs sont souvent ™orrélés à l— sonde d9o˜serv—tionF v— di'éren™e entre le t—ux de re™onn—iss—n™e o˜tenu —ve™ l— sonde et ™elui o˜tenu à l9—ide d9un des™ripE teur donné est une mesure qui permet d9év—luer l9—pport de pouvoir dis™rimin—nt du des™ripteur ™onsidéréF einsiD de ™h—que im—geD les profondeurs moyennes sont extr—itesD et elles ™onstituent l9unique des™ripteur pour l9—pprentiss—ge du ™l—ssiE (eurF €—r —illeursD l— sonde est un indi™—teur ro˜uste de l9h—˜it—t d9une espè™eF PF Descripteurs globaux proposées par Burgos et Horne ‘PHT“ (Burgos). furgos propose d9—sso™ier plusieurs des™ripteurs st—tistiques à ™h—que im—ge Ph X l— densité des ˜—n™s d—ns l9im—geD le pour™ent—ge d9o™™up—tion sp—ti—leD l9indi™e de fr—gment—tion de l9im—ge @pour une même o™™up—tion sp—ti—leD l9im—ge peut ™ontenir un gros ˜—n™ de poissons ou plusieurs petits ˜—n™sAD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9—ire des ˜—n™s de poissonsD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9—ire rel—tive des ˜—n™s de poissons @rel—tivement à l9—ire tot—le des im—gesAD les IHeme D SHeme D et WHeme ™enE tiles de l— densité de pro˜—˜ilité de l— profondeur pondérée des ˜—n™s de poissons @pondérée p—r le r—pport entre l— densité de l9énergie volumique rétrodi'usée et l— sondeAD l— dist—n™e médi—ne des ˜—n™s de poissonsD l9énergie rétrodi'usée voE lumique moyenneD les IHeme D SHeme D et WHeme ™entiles de l— densité de pro˜—˜ilité de l9énergie rétrodi'usée volumique des ˜—n™s de poissonsF furgos présente —ussi deux p—r—mètres qui sont liés à l— densité de poissons d—ns un volume élément—ire
  • 96.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES x™vi STRUCTURES ‘PIR“F gepend—ntD pour estimer ™ette densitéD il est né™ess—ire de ™onn—ître l9espè™e du poisson d—ns le ˜—n™F itD ™omme nous ess—yons de prédire l— ™l—sse des ˜—n™s de poissonsD nous supposons que ™ette donnée est in™onnueF ges deux des™ripteurs ne sont don™ p—s utilisésF „ous ™es p—r—mètres sont f—™ilement étendus —ux ™—s d9im—ge QhF ges IU p—r—mètres forment un ve™teur qui est —sso™ié à ™h—que im—ge et qui permet d9—pprendre des ™l—ssi(eursF QF Histogramme des descripteurs (Hist-Descr). gh—que ˜—n™ est p—r—métré p—r un ™ert—in nom˜re de des™ripteurs @se™tions UFQ et UFQFPAF €our ™h—™un des des™ripteursD d—ns ™h—que im—geD un histogr—mme disjoint est ™—l™uléF in ™onsidéE r—nt l9histogr—mme ™omme un ve™teur de p—r—mètres et en ™on™—tén—nt les histoE gr—mmes de ™h—que des™ripteurD nous o˜tenons un ve™teur qui dé™rit ™h—que im—ge et qui permet d9—pprendre un ™l—ssi(eurF RF Histogramme des clusters (Hist-Clust). v9—ppro™he est l— même que pour le des™ripteur pré™édentF h—ns l— se™tion UFRFPD les ˜—n™s sont regroupés p—r ™lusterF h—ns ™h—que im—geD l9histogr—mme des ™lusters est e'e™tuéD donn—nt un ve™teur de des™ripteurs —sso™ié à ™h—que im—geF ges ve™teurs permettent d9e'e™tuer l9—pE prentiss—ge d9un ™l—ssi(eurF SF K de Ripley (Ripley). ve des™ripteur proposé d—ns l— se™tion UFRFP permet d9o˜tenir une m—tri™e de ™oo™™urren™e —sso™iée à ™h—que im—geF in ™on™—tén—nt les lignes @ou les ™olonnesA de ™es m—tri™esD nous o˜tenons un ve™teur qui permet d9—pprendre un ™l—ssi(eurF furgos ‘PHT“ montre qu9une —n—lyse multiEseuils est plus pertinente qu9une —n—lyse qui s9—ppuie sur plusieurs v—leurs de ™ontiguïtés @lors de l— déte™tion des ˜—n™s de poissonsD ™fF se™tions UFQ et UFQFPAF einsiD pour deux v—leurs de seuill—ge distin™tes @™fF se™tion UFQAD les formes des —grég—tions ™h—ngentD deux pixels isolés peuvent être —grégés ensem˜le si le nive—u de seuil ˜—isseF he plusD ™omme l— réponse —™oustique des poissons di'ère d9une espè™e à l9—utreD ™ert—ine espè™e voit leur énergie rétrodi'usée fortement modi(ée d9un nive—u de seuill—ge à l9—utreF get —spe™t produit des éléments de dis™rimin—tion entre les espè™es de poissonsF ves des™ripteurs proposés sont don™ —sso™iés à une —n—lyse multiEseuilsF ve ve™teur de des™ripteurs —sso™ié à une im—ge pour un seuil donné est ™on™—téné —ux ve™teurs de des™ripteurs issus de seuill—ges di'érentsF v9—pprentiss—ge et l— ™l—ssi(™—tion sont e'e™tués à p—rtir du ve™teur (n—l qui ™ontient les inform—tions de ™h—que seuilF €our ™ette expérien™eD sous ™onseil de l9expertD nous ™hoisissons les seuils −60dB et −54dB @l9—n—lyse de sensi˜ilité montre une gr—nde v—ri—˜ilité entre ETHdf et ESRdfAF he l— même f—çonD pour le des™ripteur 4 u de ‚ipley 4D plusieurs t—illes de ˜oules sont ™hoisiesD donn—nt plusieurs m—tri™es de ™oo™™urren™es dont les v—leurs sont ™on™—ténées pour ™onstruire le ve™teur des des™ripteursF ve ™hoix de l— t—ille des ˜oules est e'e™tué en tr—ç—nt l9histogr—mme des dist—n™es entre les individus @(gure UFIHAF heux types de dist—n™es se dég—gent X les dist—n™es très pro™hes inférieures à S mètres et des dist—n™es plus import—ntes inférieures à PH mètresF einsiD nous ™hoisissons deux types de ˜oules X une dont le r—yon v—ut PDS mètresD et l9—utre dont le r—yon v—ut IH mètresF ves résult—ts sont —0™hés d—ns le t—˜le—u UFQ pour le sondeur monof—is™e—u et d—ns le t—˜le—u UFR pour le sondeur multif—is™e—uxF ves ™l—ssi(eurs ™hoisis sont les forêts —lé—toiresF h—ns ™e t—˜le—uD le t—ux moyen de ˜onne ™l—ssi(™—tion issu d9une v—lid—tion
  • 97.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS x™vii Figure 7.10 Histogramme des distances entre individus d'une même image pour chaque classe. ™roisée est représenté en fon™tion du nom˜re d9im—ges utilisées pour —pprendre un ™l—sE si(eurF sl est prévisi˜le que les perform—n™es de ™l—ssi(™—tion ™roissent —ve™ le nom˜re d9im—ges ™onsidérées pour l9—pprentiss—ge @plus il y — d9exemples l—˜élisésD meilleure est l9estim—tion du ™l—ssi(eurAF in ordonnéeD le t—ux moyen de ˜onne ™l—ssi(™—tion est —0™hé pour ™h—™un des des™ripteurs utilisés @€rofD furgosD ristEhes™rD ristEglustD ‚ipleyAF Cardinal de l'ensemble 30 60 90 120 d'apprentissage furgos 79,5% 83,8% 85,7% 87,0% ristEglust UVDI7 VIDU7 VRDQ7 VTDH7 ristEhes™r SPDS7 TQDH7 TWDW7 UQDP7 ‚ipley UTDU7 UWDW7 VQDQ7 VRDH7 ƒonde UIDQ7 UPDR7 UPDW7 UIDH7 Tableau 7.3 Pour le sondeur monofaisceau (images 2D), comparaison du pourvoir discriminant des descripteurs globaux. Le taux moyen de bonne clas- sication est représenté en fonction de la taille de l'ensemble d'apprentissage. Les descripteurs résultent d'une analyse multi seuils (-60dB et -54dB). gommençons p—r une —n—lyse glo˜—le des résult—tsF €remièrementD les perform—n™es des méthodes rel—tivement —u ™—rdin—l de l9ensem˜le d9—pprentiss—ge renseignent sur l— ro˜ustesse des méthodesF s™i les perform—n™es —ugmentent —ve™ l— t—ille de l9ensem˜le d9—pprentiss—geF v— ™on™lusion logique est queD plus nous disposons d9im—ges —nnotéesD meilleures sont les t—ux de ™l—ssi(™—tionF heuxièmementD ™omme pour le test st—tistique de l— se™tion UFRFQD l9—pport d9inform—tions dis™rimin—ntes p—r le sondeur multif—is™e—ux
  • 98.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES x™viii STRUCTURES Cardinal de l'ensemble 30 60 90 120 d'apprentissage furgos VWDV7 WHDW7 WIDQ7 WIDQ7 ristEglust WIDP7 WPDU7 WQDV7 WQDU7 ristEhes™r UWDT7 VQDU7 VSDP7 VSDS7 ‚ipley 91,4% 93,4% 94,3% 94,4% ƒonde UIDQ7 UPDR7 UPDW7 UIDH7 Tableau 7.4 Pour le sondeur multifaisceaux (images 3D), comparaison du pourvoir discriminant des descripteurs globaux. Le taux moyen de bonne clas- sication est représenté en fonction de la taille de l'ensemble d'apprentissage. Les descripteurs résultent d'une analyse multi seuils (-60dB et -54dB). ne f—it —u™un douteF €our ™h—™une des méthodes d9—n—lyse glo˜—leD le g—in moyen de perform—n™e de ™l—ssi(™—tion de l9—n—lyse Ph à l9—n—lyse Qh —ugmente signi(™—tivement @—ll—nt de U7 d9—mélior—tion pour le des™ripteur glo˜—l 4 furgos 4 à PH7 d9—mélior—tion pour le des™ripteur ristEhes™rAF …n troisème point import—nt est l— ™ontri˜ution des des™ripteurs visEàEvis de l— sondeF fien que les des™ripteurs glo˜—ux soient ™orrélés à l— sonde @plus l— sonde est gr—ndeD plus l— profondeur des ˜—n™s de poissons —ugmenteD ™e qui imp—™te à l— fois sur l9histogr—mme des des™ripteurs des ˜—n™s de poissonsD et sur l9histogr—mme des ™lustersAD les des™ripteurs glo˜—ux introduisent d9—utres inforE m—tions dis™rimin—ntes qui ™ontri˜uent à —méliorer l—rgement le t—ux de ™l—ssi(™—tion p—r r—pport à ™elui de l— sonde @PQDR7 d—ns le meilleur des ™—sAF w—inten—nt nous —pportons quelques éléments d9—n—lyse qui expliquent les di'éE ren™es entre furgos et les des™ripteurs ˜—sés sur les histogr—mmes des ™lusters @ristE glust et ‚ipleyAF in e'etD nous ™onst—tons que les des™ripteurs glo˜—ux de furgos sont meilleurs pour des im—ges issues du sondeur monof—is™e—uD t—ndis que le des™ripteur proposé @‚ipleyA produit les meilleurs résult—ts de ™l—ssi(™—tion d—ns le ™—s d9im—ge QhF v9expli™—tion vient du ™ontenu et de l— n—ture des im—ges X les im—ges Qh sont plus denses et ˜e—u™oup plus ri™hes en inform—tions que les im—ges Ph @il su0t de ™omp—rer les im—ges des (gures TFP @monof—is™e—uA et TFR @multif—is™e—uxAAF einsiD les des™ripteurs de furgos sont plus —d—ptés à des im—ges simples dont l— densité des ˜—n™s de poissons est f—i˜leD en rev—n™he le des™ripteur proposé @‚ipleyA né™essite d—v—nt—ge d9inform—tionsD not—mment pour le ™—l™ul des ™oo™™urren™es @plus l9im—ge est ™omplexeD plus les ™oo™™urren™es portent de l9inform—tion dis™rimin—nteAF …ne —utre expli™—tion est donnée à p—rtir de l9—n—lyse des des™ripteursF „out d9—˜ordD notons que le des™ripE teur furgos ™ontient des inform—tions ™ommunes —ve™ les des™ripteurs ˜—sés sur les histogr—mmes des ™lusters @ristEhes™r et ‚ipleyAF in e'etD les inform—tions de densitéD de volumeD d9énergie et de profondeur des ˜—n™s de poissons sont ™ommunes —ux deux des™ripteursF ejoutons queD même si le des™ripteur ‚ipley est plus pré™isD l9inform—tion de dist—n™e entre ˜—n™s de poissons est ™ommune —ux deux —ppro™hesF in rev—n™heD seul furgos ™onsidère le pour™ent—ge d9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tionD et seules les méthodes ˜—sées sur les histogr—mmes ™onsidèrent l— longueurD l— l—rgeur et l— h—uteur des ˜—n™s de poissonsF yrD si nous nous référons —u t—˜le—u UFP d—ns lequel
  • 99.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS x™ix (gurent les résult—ts de l9exy†eD nous ™onst—tons que les p—r—mètres morphologiques des ˜—n™s de poissons @h—uteurD longueurD l—rgeurA sont ˜e—u™oup plus dis™rimin—nts que l9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tion d—ns le ™—s Qh pour les ™l—sses {1, 2} @les v—leurs de l— st—tistiques F sont respe™tivement {F = 14, F = 124, F = 74} ™ontre {F = 42, F = 30}AF gel— explique que les méthodes ˜—sées sur les histogr—mmes sont meilleures que furgos d—ns le ™—s des im—ges Qh @t—˜le—u UFRAD tout simplement ™—r les des™ripteurs élément—ires sont plus dis™rimin—ntsF snversementD d—ns le ™—s PhD pour les ™l—sses {1, 2} les st—tistiques F deviennent {F = 10, F = 23, F = 0, 05} pour l— longueurD l— l—rgeurD et l— h—uteur des ˜—n™s de poissons et {F = 93, F = 22} pour l9o™™up—tion sp—ti—le et l9indi™e de fr—gment—tionF gel— justi(e que furgos soit meilleur d—ns le ™—s Ph @t—˜le—u UFQAF e(n d9expliquer les ˜onnes perform—n™es o˜tenues —ve™ l9histogr—mme des ™luster @ristEglustA et les ™oo™™uren™es des ™lusters d—ns les ˜oules @‚ipleyAD pour les im—ges QhD nous tr—çons l9histogr—mme des ™lusters pour ™h—que ™l—sse @(gure UFIIAF ge résulE t—t n9est p—s —˜soluD d—ns le sens où le ™lustering résulte d9une initi—lis—tion —lé—toire de l— position des ™lustersD —insi deux ™lustering di'érents peuvent produire des résulE t—ts tot—lement éloignésF gepend—ntD l— (gure UFII montre ˜ien ™omment l9ét—pe de ™lustering est détermin—nte et —joute du pouvoir dis™rimin—nt @not—mment p—r r—pE port à l9histogr—mme des des™ripteurs ristEhes™rAF h—ns ™ette (gureD on rem—rque que les distri˜utions sont rel—tivement ˜ien dét—™hées les unes des —utresD et que les ™l—sses sont —sso™iées à plusieurs ™lustersF €—r exempleD pour les im—ges de ƒ—rdineD les ™lusters {1, 2, 5, 11, 12, 13} sont m—jorit—irement présentsD t—ndis que pour les en™hoisE ghin™h—rd peu denses et les en™hoisEghin™h—rd densesD les ensem˜les de ™lusters m—E jorit—irement présents sont {17, 18, 19, 20} et{11, 12, 18, 19}F h—ns ™es ensem˜lesD pluE sieurs p—ires de ™lusters peuvent être ™hoisis pour dé(nir une ™l—sse X l— p—ire de ™luster {11, 18} est pro˜—˜lement —sso™iée à l— ™l—sse 4 en™hoisEghin™h—rdD dense 4D l— p—ire {18, 20} est pro˜—˜lement —sso™iée à l— ™l—sse 4 en™hoisEghin™h—rdD peu dense 4D et ™omme dernier exempleD l— p—ire {2, 12} est pro˜—˜lement —sso™iée à l— ™l—sse 4 ƒ—rE dine 4F gel— explique que les ™ouples de ™lusterD qui sont l— ˜—se de notre des™ripteur glo˜—l qui s9—ppuie sur les m—tri™es de ™oo™™urren™esD sont déjà lo™—lisés à l9—ide du ™lusteringF gepend—ntD l9—n—lyse d9une inform—tion de dist—n™e entre ™es ™ouplesD vi— le u de ‚ipleyD produit une légère —mélior—tion des perform—n™es de ™l—ssi(™—tionF gel— illustre ™omment le ™lustering produit de très ˜onnes perform—n™es et pourquoi l— m—rge d9—mélior—tion des perform—n™es de ™l—ssi(™—tion reste peu import—nte @de HDP7 à HDU7A —ve™ le des™ripteur proposé @4 ‚ipley 4AF ixpliquons m—inten—nt pourquoi le ™lustering produit de meilleurs résult—ts que l9histogr—mme des des™ripteurs des ˜—n™s de poissonsF v— question est légitime ™—r ™es deux des™ripteurs glo˜—ux prennent les mêmes des™ripteurs de ˜—n™s de poissons en enE tréeF v— di'éren™e se situe d—ns l— prise en ™ompteD ou nonD du ™—r—™tère 4 dépend—nt 4 des des™ripteursF in e'etD les histogr—mmes des des™ripteurs sont o˜tenus pour ™h—que des™ripteur indépend—mment en ™onsidér—nt qu9ils sont disjointsF eu ™ontr—ireD le ™lusE tering permet de prendre en ™ompte toutes les ™orrél—tions possi˜les entre des™ripteursD quelle que soit l— dimension de l9esp—™e des des™ripteursF einsiD ét—nt données les fortes ™orrél—tions qui existent entre tous les des™ripteurs ™onsidérés @™fF se™tion UFQD se™tion UFQFPD et ™h—pitre TAD l— prise en ™ompte du ™—r—™tère 4 dépend—nt 4 des des™ripteurs
  • 100.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES ™ STRUCTURES Figure 7.11 Pour un clustering donné, histogramme des clusters dans les images pour chaque classe. d9—grég—tions est un plus non néglige—˜leF gette expli™—tion est —ussi v—lide visEàEvis des des™ripteurs glo˜—ux proposés p—r furgosF €—r exempleD l— prise en ™ompte de ™ert—ins qu—ntiles de l9énergie rétrodi'usée @ƒvAD n9exprime en rien les di'érentes ™orrél—tions possi˜les entre le ƒv et les —utres des™ripteurs qui peuvent être dis™rimin—ntesF h—ns le t—˜le—u UFSD nous reportons les t—ux moyens de ˜onne ™l—ssi(™—tion pour les des™ripteurs furgosD ristEglustD et ‚ipleyD en fon™tion du seuil d9extr—™tion des ˜—n™s de poissons d—ns l9im—geF v— moyenne est e'e™tuée sur l— v—lid—tion ™roisée m—is —ussi sur l— t—ille de l9ensem˜le d9—pprentiss—geF he m—nière génér—leD l— première ™onst—t—E tion est que les perform—n™es ™hutent —ve™ l9—ugment—tion du seuilF gel— est ™ohérent X plus le seuil d9extr—™tion —ugmenteD moins il y — de ˜—n™s de poissons d—ns l9im—ge et don™ d9inform—tions dis™rimin—ntesF heuxièmementD nous o˜servons moins de st—˜ilité que sur l— ™l—ssi(™—tion multi seuils de l— (gure UFRF in e'etD même si l9histogr—mme des des™ripteurs donne les meilleurs résult—ts pour les seuils ETHdfD ESIdfD et ERVdfD —u™une méthode ne domine vr—iment les —utresF pin—lementD ™es résult—ts tr—duisent l9import—n™e d9une —n—lyse multi seuilsF in e'etD l— ™on™—tén—tion des des™ripteurs issus d9—n—lyses multi seuils @t—˜le—u UFRA permet d9—méliorer les résult—ts de ™l—ssi(™—E tionF gel— est p—rti™ulièrement vr—i pour le des™ripteur proposé @‚ipleyA pour lequel le meilleur t—ux de ™l—ssi(™—tion @WHDI7A en —n—lyse mono seuil @t—˜le—u UFSA est —tteint pour le seuil ETHdfD et pour lequel les perform—n™es sont nettement —méliorées @WQDQ7 en moyenneD t—˜le—u UFRA en —n—lyse multi seuils @™on™—tén—tion des des™ripteurs des seuils ETHdf et ESRdfAF €our ™on™lureD l9—n—lyse multi seuils est très f—vor—˜le à notre des™ripteurD et permet de g—gner en st—˜ilitéF
  • 101.
    7.4. CLASSIFICATION ET RECONNAISSANCE DES ENSEMBLES DE BANCS DE POISSONS ™i Seuil -60dB -58dB -54dB -51dB -48dB d'extraction furgos VSDT7 90,2% VVDV7 VRDR7 VHDW7 ristEglust 91,7% WHDI7 VVDQ7 85,6% 81,2% ‚ipley WHDI7 VWDQ7 89,0% VQDW7 VHDQ7 Tableau 7.5 Pour le sondeur multifaisceaux (images 3D), comparaison du pouvoir discriminant des descripteurs globaux. Le taux moyen de bonne classi- cation est représenté en fonction du seuil d'extraction des bancs de poissons dans les images (-60db, -57dB, -54dB, -51dB, -48dB). 7.4.4 Synthèse ves nouvelles te™hnologies d9—™oustique sous m—rineD sym˜olisées p—r le sondeur multif—is™e—uxD permettent de dé™rire les zones insoni(ées de m—nière ˜e—u™oup plus pré™iseF xot—mmentD l— for™e du sondeur multif—is™e—ux est l9—jout d9une troisième dimension de l9esp—™e qui révèle des formes ™omplexesD inst—˜les et diversesF h—ns ™ette se™tionD nous —vons ™omp—ré des des™ripteurs glo˜—ux de ™es im—ges qui se ˜—sent sur une —n—lyse multi seuilsF v— première ™on™lusion issue de l9exy†e est que les im—ges Qh ™ontiennent ˜e—u™oup plus d9inform—tions dis™rimin—ntes que les im—ges PhD ™el— est ™on(rmé p—r les perform—n™es de ™l—ssi(™—tion qui sont l—rgement en f—veur d9une —n—lyse multif—is™e—ux plutôt qu9une —n—lyse monof—is™e—uF v— se™onde ™on™lusion est que le des™ripteur proposéD qui dé™rit l9org—nis—tion sp—ti—le des ˜—n™s de poissons d—ns l9im—geD permet d9—méliorer les perform—n™es de ™l—ssi(™—tion p—r r—pport à des des™ripteurs issus de l9ét—t de l9—rtF gette —mélior—tion est ™onst—té pour des im—ges QhD en rev—n™heD le m—nque d9inform—tions des im—ges issues des sondeurs monof—is™e—u ne permet p—s d9—méliorer les perform—n™esF gepend—ntD l9év—lu—tion des méthodes dem—nde à être —pprofondieF €lus p—rti™ulièE rementD le prin™ipe selon lequel des des™ripteurs fortement dis™rimin—nts présentent un fort t—ux de ™l—ssi(™—tion pose quelques pro˜lèmesF in e'etD les ™l—ssi(eurs sont sujets à des phénomènes de ˜ruitsF €our résumerD nous —vons ™onst—té p—r simul—tion queD plus nous —joutons de des™ripteursD moins les perform—n™es sont ˜onnesF v9idée ét—it initi—lement de ™on™—téner les m—tri™es de ™oo™™urren™es pour une gr—nde v—riété de seuils et de t—illes de ˜oulesD m—is nous étions —lors sujets à des pro˜lèmes de ™—p—™ité mémoire et de s—tur—tion des ™l—ssi(eursF v9exemple le plus signi(™—tif se trouve d—ns le t—˜le—u UFS X l— ™on™—tén—tion des histogr—mmes des ™lusters @ristEglustA —ve™ les m—tri™es de ™oo™™urren™es @‚ipleyA produit de moins ˜ons résult—ts que l9emploi des histogr—mmes seulsF „outefoisD l9—n—lyse multiEseuils permet d9—méliorer les résult—tsF v— ™on™lusion est que le ™l—ssi(eur employé n9est p—s —ssez ro˜usteD l9—jout de des™ripE teur ne doit p—s —ltérer les perform—n™esF h—ns le futurD si ™es des™ripteurs sont utilisésD une —n—lyse des perform—n™es plus (ne devr— être envis—géD soit en utilis—nt un ™l—ssiE (eur plus ro˜usteD soit en ™h—nge—nt l— méthode d9év—lu—tionF €—r exempleD plutôt que de ™on™—téner les ensem˜les de des™ripteurs pour ne former qu9un seul des™ripteurD on peut im—giner plusieurs ™l—ssi(eurs —sso™iés à ™h—que ™on(gur—tion de seuil ou de t—ille de ˜oule @pour les st—tistiques de ™oo™™urren™esAD puis un vote ser—it e'e™tué à l9inst—r
  • 102.
    CHAPITRE 7. CLASSIFICATION ET RECONNAISSANCE DES ™ii STRUCTURES des méthode de 4 ˜oosting 4 et de 4 ˜—gging 4F v9—n—lyse de l9exy†e et des perform—n™es de ™l—ssi(™—tions ont montré que les di'éren™es de perform—n™es entre les des™ripteurs peuvent venir des —spe™ts méthodoE logiques des des™ripteurs m—is —ussi des inform—tions ™ontenus d—ns les des™ripteursF einsiD si en Qh notre des™ripteur est plus perform—nt du f—it de l9utilis—tion de des™ripE teurs morphologiques ™omme l— longueur ou l— l—rgeurD —lors ™euxE™i doivent être in™lus d—ns l— méthode de furgosF he mêmeD si en Ph les des™ripteurs proposés p—r furgos sont meilleurs que notre des™ripteurD les inform—tions ™omplément—ires ™ontenues d—ns furgos doivent être in™lues d—ns les histogr—mmesF gel— ™onstitue les futurs tr—v—ux et —pprofondissements de ™ette thém—tiqueF in(nD les perform—n™es de ™l—ssi(™—tion peuvent être —méliorées en ™onsidér—nt une —n—lyse multiErésolutions et multiEfréquentiellesF €—r exempleD l9exy†e montre que ™ert—ins des™ripteurs Ph sont plus dis™rimin—nts que ™ert—ins des™ripteurs Qh @™9est le ™—s du volume des ˜—n™s de poissons pour les ™l—sses {1, 2} pour lequel les st—tisE tiques F v—lent F = 0, 5 et F = 12 respe™tivement pour l— Qh et l— PhAF in ré—litéD ™omme l9é™h—ntillonn—ge du sondeur multif—is™e—ux est plus pré™is que ™elui du sonE deur monof—is™e—uD l9inform—tion Ph peut être retrouvé d—ns les im—ges QhD le tout est ™omprendre quelle inform—tion doit être sous é™h—ntillonnéeF €—r exempleD l9extr—™E tion Ph des ˜—n™s de poissons peut donner une multitude de ˜—n™sD là où le sondeur multif—is™e—ux n9en verr—it qu9un @l9inform—tion de volume des ˜—n™s et de fr—gment—E tion est —lors ™omplètement di'érente pour les im—ges PhAF he mêmeD m—lgré l9—˜sen™e d9—n—lyse multiEfréquentielleD il est ˜ien ét—˜li qu9une —n—lyse multiEfréquentielle @PhA permet de dis™riminer plus f—™ilement les espè™es ‘IPT“F pin—lementD l— ™om˜in—ison de tous les —spe™ts multiErésolutionsD multiEfréquentiellesD multiEseuilsD lo™—ux et gloE ˜—uxD ™onstitue l9enjeu m—jeur qui permettr—it d9o˜tenir une des™ription optim—le des —grég—tionsF 7.5 Conclusion v— des™ription des ˜—n™s de poissons est un sujet v—steD qui né™essite de l9—ttenE tion et de l— retenueF €lusieurs —ppro™hes peuvent être ™onsidérées X une des™ription lo™—le de l9—grég—tion @p—r—mètres morphologiquesD p—r—mètres énergétiquesD et™AD ou plusieurs é™helles glo˜—les @à l9é™helle d9une portion d9é™hogr—mmeD ou à l9é™helle d9une région géogr—phiqueD et™AF „outes les inform—tions possi˜les et disponi˜les ™onstituent un des™ripteur potentiellement intéress—nt et dis™rimin—nt pour le ˜—n™ de poissonsD le voxel d—ns l9im—geD ou l9im—ge elleEmêmeF h—ns ™e ™ontexteD d—ns ™e ™h—pitreD nous —vons montré ™omment peuvent se mêler les des™ripteurs lo™—ux et les des™ripteurs glo˜—uxF in utilis—nt des des™ripteurs usuels de ˜—n™s de poissons et des des™ripteurs usuels glo˜—ux —uxquels nous —vons —jouté nos propres propositions de des™ripteursD nous —vons montré ™omment peuvent être dé™rites des im—ges qui ™ontiennent des —grég—tions de l— même espè™eD m—is dont les formes sont di'érentesF ges des™ripteurs glo˜—ux peuvent être envis—gés pour l— ™l—ssi(™—tion des ˜—n™s de poissonsF in plus des des™ripteurs lo™—ux des ˜—n™s de poissonsD sont —joutées des
  • 103.
    7.5. CONCLUSION ™iii ™ompos—ntes des™riptives de l9environnement des ˜—n™s de poissonsF ge pro™édé est utilisé d—ns le ™h—pitre suiv—ntD d—ns lequel nous e'e™tuons une ™l—ssi(™—tion de ˜—n™s de poissonsD à p—rtir de des™ripteurs à l— fois lo™—ux et glo˜—uxF
  • 105.
    CHAPITRE 8 Application à l'évaluation des biomasses des espèces halieutiques dans le Golfe de Gascogne 8.1 Introduction h—ns les ™h—pitres pré™édentsD des méthodes —utom—tiques ont été suggérées pour —pprendre des modèles de ™l—ssi(™—tion d9o˜jets dont le l—˜el est impré™is @™fF p—rtie s du présent m—nus™ritAF insuiteD —près —voir présenté les des™ripteurs usuels des —grég—E tions de poissonsD et le nouve—u sondeur multif—is™e—uxD de nouve—ux des™ripteurs ont été proposés @™h—pitre T et ™h—pitre UAF gomme l9—n—lyse première du ™omportement des modèles de ™l—ssi(™—tionD ou des des™ripteurs d9im—gesD requiert des —ppro™hes simples et élément—iresD toutes ™es méthodes sou'rent d9un m—nque de v—lid—tionF xot—mmentD ™el— est dû —u f—it que des s™én—rios ont été générés pour év—luer les perform—n™es glo˜—les des méthodes de ™l—ssi(™—tion et leurs réponses rel—tivement —ux ™omplexités des ensem˜les d9—pprentiss—ge @™fF ™h—pitre SAF sl — —ussi f—llu tester les nouve—ux desE ™ripteurs sur un jeu de données p—rtielles qui n9est p—s représent—tif de l9étendu des o˜serv—tions possi˜les en —™oustique h—lieutiqueD m—is dont l— ™on(gur—tion permet m—lgré tout d9entériner l— ™ontri˜utionF sl est don™ légitime de se dem—nder si toutes ™es méthodes fon™tionnent sur des ™—s pr—tiquesD réelsD et exh—ustifsF in guise d9—ppli™—tionD d—ns ™e ™h—pitreD nous proposons une étude expériment—le qui v—lide à l— fois l9utilis—tion des méthodes d9—pprentiss—ge et ™elle des des™ripteurs des —grég—tionsF ves outils développés sont —insi —ppliqués à l9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques d—ns le qolfe de q—s™ogne qui est pr—tiquée de m—nière exE perteF gette —ppli™—tion permet de juger les perform—n™es de ™l—ssi(™—tion des ˜—n™s de poissons rel—tivement —ux méthodes de ™l—ssi(™—tion employées et —ux des™ripteurs utilisésF v9idée génér—le est queD si les ˜—n™s de poissons sont ™onven—˜lement ™l—ssésD —lors l— ˜iom—sse déterminée doit être l— même que ™elle estimée p—r l9expertF h—ns un premier tempsD nous exposons l— méthode de l9expert et le fon™tionneE ment d9une ™—mp—gne de pê™he —™oustique @se™tion VFPAF h—ns un se™ond tempsD les méthodes —utom—tiques d9év—lu—tion de ˜iom—sse sont présentées @se™tion VFQAF €uisD d—ns un troisième tempsD nous présentons l— méthode pour —ppliquer les —lgorithmes
  • 106.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™vi ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE de ™l—ssi(™—tion de ˜—n™s de poissons à l9év—lu—tion de ˜iom—sse @se™tion VFRAF in(nD une —n—lyse des perform—n™es d9estim—tion de ˜iom—sse est e'e™tuée d—ns l— se™tion VFSF 8.2 Méthode de l'expert pour l'évaluation de bio- masses ve qolfe de q—s™ogneD ™omme d9—utres régions du mondeD est soumis à l— surexploiE t—tion de ses ressour™es h—lieutiquesF v— forte pression médi—tique qui en dé™ouleD vientD pour une p—rtie de l— popul—tionD de l— peur de voir disp—r—ître de leurs —ssiettes des mets de ™hoixD pour les pê™heursD de voir leur métier disp—r—itreD pour les é™ologistesD de l— ™r—inte de voir disp—r—ître à tout j—m—is une espè™e de l— surf—™e du glo˜eD et pour les politiquesD de devoir proposer des solutions qui ™onviennent à l9ensem˜le des p—rtiesF h—ns ™e ™ontexteD des ™—mp—gnes —nnuelles d9év—lu—tion des sto™ks des espè™es h—lieutiques ont vu le jourF illes permettent de rendre ™ompte de l9ét—t des ressour™es et de suivre —insi l9évolution et les tend—n™es des qu—ntités o˜servées ™h—que —nnéeF v9évolution fond—ment—le qui suit le développement des outils d9o˜serv—tions —™ousE tiquesD est l9estim—tion des sto™ks d9espè™esF v— première ét—pe ™onsiste à ™l—sser les —grég—tions o˜servées p—r ™—tégorie qui représentent des ™l—sses d9espè™es ‘IWP“F h—ns le ™—s de mél—nges d9espè™esD l— proportion de ˜iom—sse des espè™es qui est o˜tenue p—r ™h—lut—geD est r—menée —u nive—u de l9im—ge pour dé(nir l— proportion d9énergie —™oustique p—r espè™e ‘PIS“F €our —méliorer l— ™l—ssi(™—tion d—ns le ™—s des mél—nges d9espè™esD ™ert—ins des™ripteurs glo˜—ux ont été développés ‘PIT“F ve livre de ƒimmonds et w—™venn—n ‘IPT“ f—it o0™e de référen™e qu—nt à l— méthodologie d9év—lu—tion des sto™ks des espè™es h—lieutiquesF v— méthode utilisée p—r l9sfremer ‘PIU“ s9en inspire l—rE gementF e(n de ™onn—ître les —spe™ts essentiels de l— pro™édure d9év—lu—tion et pour mieux —n—lyser le ™omportement des méthodes —utom—tiquesD l— méthode experte est présentée d—ns ™ette se™tionF ƒoit une région du glo˜e d—ns l—quelle nous souh—itons e'e™tuer une év—lu—tion du sto™k de ™ert—ines espè™es de poissons @(gure VFIAF †oi™i les ét—pes essentielles de l— méthode d9év—lu—tion de l— ˜iom—sse X IF v— première ét—pe est l— ™—mp—gne d9—™quisition des données de pê™he et des données —™oustiquesF gh—que —nnéeD un n—vire o™é—nogr—phique e'e™tue le même p—r™ours tel que représenté d—ns l— p—rtie g—u™he de l— (gure VFIF v9év—lu—tion de sto™k est e'e™tuée sur ™ette ™—mp—gne de RS joursF hes ™h—lut—ges sont e'e™tués à ™h—que nouvelle déte™tionF ƒi l— même déte™tion ™ontinue —près l— pê™heD il n9y — p—s de nouve—u ™h—lut—geD s—uf si l— déte™tion ™h—ngeF eprès tout ™h—ngement de tr—nsvers—le @™fF p—rtie g—u™he de l— VFIAD pour toute déte™tionD même si ™ette déte™tion est ™onnue et prolonge une o˜serv—tionD un ™h—lut—ge est e'e™tuéF in prospe™tion @période d9—™quisition et d9—n—lyse de l— donnée —™oustiqueAD le ˜—te—u se dépl—™e à IH noeudsD et —u moment des ™h—lut—gesD le ˜—te—u se dépl—™e à R noeuds @™fF l— p—rtie droite de l— (gure VFIAF ves ˜—n™s ne sont don™ p—s les mêmes en prospe™tion et en période de pê™heF ge™i est dû —ux pertur˜—tions —pportées
  • 107.
    8.2. MÉTHODE DE L'EXPERT POUR L'ÉVALUATION DE BIOMASSES ™vii Figure 8.1 An d'estimer la biomasse des espèces halieutiques dans le Golfe de Gascogne, le navire océanographique acquière de la donnée acoustique et eectue des chalutages suivant un protocole précis. p—r le ™h—lut et à l— vitesse du ˜—te—u réduite @le ˜—te—u reste plus longtemps —u dessus du ˜—n™ de poissons qui plongeAF gomme les —grég—tions sont ™l—ssées en période de prospe™tionD les inform—tions de ™h—lut—ge sont r—menées à l— zone de prospe™tion ™orrespond—nteF in pr—tiqueD une fois que l— dé™ision de pê™her est priseD le ˜—te—u f—it demiEtour ™omme illustré d—ns l— p—rtie droite de l— (gure VFID et le ™h—lut—ge est e'e™tué d—ns l— zone de prospe™tion viséeF eprès le ™h—lut—geD un dernier demiEtour permet de reprendre l— tr—nsvers—le à l9endroit où elle — été quittéeF PF v— se™onde ét—pe est l— ™l—ssi(™—tion des é™hos p—r ™l—sses d9espè™esF ves ˜—n™s extr—its p—r le logi™iel movies @™h—pitre TA sont ™l—ssés p—r ™l—sses qui dé(nissent des espè™es de poissons ou des groupements d9espè™es de poissonsF €—r exempleD d—ns l— p—rtie g—u™he de l— (gure VFPD l— ™—tégorie hI de ˜—n™s di'us regroupe le ghin™h—rd et le w—quere—u ™ollés —u fondD hP r—ssem˜le les ˜—n™s souvent denses de ƒ—rdineD d9en™hois ou de ƒpr—t qui sont d—ns le milieu de l— ™olonne d9e—u ou ™ollés —u fondD hQ est ™onstitué de ˜—n™s de werl—n fleu —u ˜ord du pl—te—u ™ontinent—lD et hR réunit les ˜—n™s surf—™iques d9en™hois et de ƒ—rdineF ges groupes sont sus™epti˜les de ™h—nger d9une ™—mp—gne à l9—utreD —u gré des situ—tions nouvelles et indé™isesF h9—utres peuvent être ™réésF QF v— troisième ét—pe est l— str—ti(™—tion de l— zone de prospe™tion @p—rtie droite de l— (gure VFPAF gel— ™onsiste à s™inder ™ette zone en str—tes à l— fois homogènes en t—ille de poissons p—r espè™e et en proportion d9espè™esF in pr—tiqueD les experts dé(nissent les str—tes homogènes de m—nière empiriqueD l9une des ™ontr—intes ét—nt qu9une str—te soit ™omposée d9—u moins deux ™h—lut—gesF …n ve™teur de t—illes de poissons et un ve™teur de proportions d9espè™es sont —sso™iés à ™h—que str—te en moyenn—nt les données de ™h—lut—ge de l— str—te ™onsidérée ‘IPT“ ‘PIU“F v— signi(™—tion ˜iologique est l— notion d9h—˜it—t homogène X l9en™hois se situe plutôt
  • 108.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™viii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE Figure 8.2 Dans le processus d'estimation de la biomasse des espèces ha- lieutiques, les bancs de poissons observés sont classés par catégories, et la zone de prospection est divisée en strates homogènes. en f—™e de l— qirondeD t—ndis que le werl—n fleu se trouve sur le ˜ord du pl—te—u ™ontinent—lF gh—que iƒh… 1 d9une str—te est —sso™ié —u ve™teur moyen de t—illes de poissons d—ns l— str—te et —u ve™teur moyen de proportions d9espè™esF xotons queD d—ns une str—teD il peut y —voir plusieurs ™h—lut—ges moyens qui ™orE respondent à des ™h—lut—ges p—rti™uliersD ™omme p—r exemple les ™h—lut—ges de surE f—™eF einsiD tous les ˜—n™s d9un iƒh… ne sont p—s for™ément —sso™iés —ux mêmes ™—r—™téristiques de t—illes de poissons et de proportion d9espè™esF €—r exempleD pour les ™h—lut—ges surf—™iquesD seuls les ˜—n™s —sso™iés à l— ™—tégorie hR sont ™on™erE nésF he mêmeD si —u moment du ™h—lut—geD le ™h—lut est positionné —u milieu de l— ™olonne d9e—uD seuls les ˜—n™s de l— ™—tégorie hP sont —sso™iés à ™e ™h—lut—geF gette note justi(e l— se™onde ét—peF RF v— qu—trième ét—pe estD pour ™h—que iƒh…D l— ™onversion de l9énergie —™oustique p—r espè™e en ˜iom—sse p—r espè™eF gonn—iss—nt l9énergie tot—le —™oustique rétrodifE fusée p—r un groupe de ˜—n™s de poissonsD et ™onn—iss—nt l— proportion rel—tive de ˜iom—sse p—r espè™eD nous en déduisons l— ˜iom—sse tot—le p—r espè™e d—ns l9iƒh… ™onsidéré ‘PIU“F it—nt donnée l9énergie tot—le rétrodi'usée d—ns une im—ge @Etot A et une ™onst—nte liée —u sondeur @C AD l9expression de l— ˜iom—sse de l9espè™e i d—ns l9im—ge ™onsidérée @BMi A s9exprime de l— m—nière suiv—nte X ωi BMi = C I Etot @VFIA ωj σj j=1 1 Un ESDU correspond à une portion élémentaire du parcours de prospection. En anglais, ESDU signie echo sampling distance unit . En pratique, un ESDU correspond à un échogramme, i.e. une image, sur 1 mille marin (1 mille = 1852 mètres).
  • 109.
    8.3. MÉTHODES ALGORITHMIQUES D'ÉVALUATION DE BIOMASSES ™ix où ωi est l— ieme ™ompos—nte du ve™teur moyen de proportions d9espè™es —sso™iée à l9im—geD et σi est l9indi™e de ré)exion moyen de l9espè™e i ‘PIV“F v9indi™e de ré)exion σi tr—duit l— réponse de ™h—que espè™e rel—tivement à l9énergie —™oustiqueF ƒon expression dépend de l— t—ille moyenne des poissons de l9espè™e i @Li A et de p—r—mètres propres à ™h—que espè™e {ai , bi } X σi = 10(ai +bi log(Li ))/10 @VFPA 8.3 Méthodes algorithmiques d'évaluation de bio- masses v9—utom—tis—tion du pro™essus d9év—lu—tion des sto™ks d9espè™es se fonde sur le même prin™ipe que l— méthode de l9expert X l9estim—tion de l— ˜iom—sse des espè™es d—ns ™h—que im—ge élément—ire @iƒh…AF fien que les perform—n™es de ™es méthodes —ient été prouvéesD elles sont très peu —ppliquéesF veur dépend—n™e à ™ert—ins p—r—E mètres et les d—ngers de prop—g—tion d9erreurs font que l— présen™e des experts reste indispens—˜leF v9—utom—tis—tion du pro™essus est don™ envis—ge—˜le pour ™orro˜orer l9—n—lyse de l9expert ‘IPT“F €etitg—s et —llF ‘PIW“ ont ™omp—rés plusieurs méthodes —utom—tiquesF gh—™une d9elle repose sur l— notion de dist—n™e entre im—geD l9idée génér—le ét—nt d9—sso™ier le même ve™teur de proportion d9espè™es et le même ve™teur de t—ille de poissons à des im—ges qui sont simil—iresF …ne méthode ™onsiste simplement à —sso™ier les im—ges —ux p—r—E mètres du ™h—lut—ge le plus pro™heF …ne —utre méthode @esgeƒeA r—ssem˜le les im—ges équiv—lentes p—r groupe d9im—ges sem˜l—˜lesF gh—que im—ge d9un groupe ét—nt —sso™iée à un ™h—lut—ge @le ™h—lut—ge le plus pro™heAD un ™h—lut—ge moyen fédère l9ensem˜le du groupe d9im—gesF v— méthode „rg est l— version ™ontr—ire d9esgeƒeD d—ns le sens où plutôt que de ™ommen™er p—r regrouper les im—ges entre ellesD les ™h—lut—ges sont r—ssem˜lés en groupes de ™h—lut—ges équiv—lentsD puis ™h—que im—ge est —sso™iée à l9un des groupes de ™h—lut—gesF ves p—r—mètres import—nts de ™es méthodes —utom—tiques sont le nom˜re de ™—E tégories de ™h—lut—ges ou le nom˜re de ™—tégories d9im—gesD et l— f—çon de ™réer les regroupementsF in e'etD il est né™ess—ire de dé(nir un ensem˜le de des™ripteurs —sE so™iés —ux im—gesD de déterminer une fon™tion de dist—n™eD et en(n une méthode de ™l—ssi(™—tion non supervisée est e'e™tuéeF €our esgeƒe et „rg ‘PIW“D les p—r—mètres des im—ges sont les p—r—mètres moyens des ˜—n™s de poissons des im—gesD puis une ™l—sE si(™—tion hiér—r™hique non supervisée est utilisée pour e'e™tuer le 4 ™lustering 4F h—ns d9—utres tr—v—ux ‘PPH“D les p—r—mètres des im—ges sont les histogr—mmes des p—r—mètres des ˜—n™s d—ns les im—gesD et les dist—n™es sont dé(nies p—r l— divergen™e de fh—tt—™h—E ryy— ‘TR“F gepend—ntD ™ette méthode se distingue des —utres ™—r le regroupement des données s9e'e™tue p—r une —ppro™he v—ri—tionnelleF ve point ™ommun de ™es méthodes est l— prop—g—tion d9une inform—tion de ™h—lut—ge @un ve™teur de proportions de ˜ioE m—sse d9espè™es et un ve™teur de t—illes de poissonsA d—ns les im—gesD puis le ™—l™ul de l— ˜iom—sse se f—it ™omme pour l9équ—tion @VFPAF €eu de tests et de ™omp—r—isons ont été e'e™tuésF yn peut se dem—nderD p—r exempleD
  • 110.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™x ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE quels sont les des™ripteurs les plus pertinents X ™ert—ins qu—ntiles des histogr—mmes des des™ripteurs des ˜—n™s de poissons @™omme le f—it furgos ‘PHT“AD les histogr—mmes ™omplets des des™ripteurs des ˜—n™s de poissons @™omme nous le f—isons d—ns le ™h—pitre UAD des p—r—mètres glo˜—ux des™riptifs de l9im—ge @™omme le pour™ent—ge d9o™™up—tion sp—ti—le d—ns l9im—geD et™AD ou l— ™om˜in—ison de tous ™es p—r—mètres c yn peut —ussi se dem—nder quelle est l— meilleure méthode de regroupement des données X l— méthode des kEmoyennesD une ™l—ssi(™—tion hiér—r™hiqueD les gr—phes de simil—ritéD ou —lors v—utEil mieux ™onsidérer une —ppro™he v—ri—tionnelle c 8.4 Classication de bancs de poissons pour l'évalua- tion de biomasses 8.4.1 Comment évaluer la biommasse e(n d9entériner sur un ™—s pr—tique les —lgorithmes d9—pprentiss—ge f—i˜lement suE pervisé proposés d—ns l— p—rtie s et les des™ripteurs glo˜—ux proposés d—ns le ™h—pitre UD nous proposons une méthode d9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques d—ns le qolfe de q—s™ogneF he m—nière génér—leD l9—n—lyse fon™tionne de l— m—nière suiv—nte X notre méthode permet de ™l—sser des ˜—n™s de poissonsD et don™D une fois les ˜—n™s ™l—ssésD les ˜iom—sses p—r espè™e peuvent être estimées d—ns ™h—que im—geF he làD les résult—ts de ˜iom—sse peuvent être ™omp—rés —ve™ ™eux de l9expert ou des méthodes —utom—tiquesD donn—nt une indi™—tion des perform—n™es de ™l—ssi(™—tionF he plusD les des™ripteurs pour l— ™l—ssi(™—tion de ˜—n™s de poissons sontD soit des des™ripE teurs lo™—ux @se™tion UFQ du ™h—pitre UAD soit des des™ripteurs glo˜—ux @se™tion UFR du ™h—pitre UAD soit des ™om˜in—isons de des™ripteurs lo™—ux et glo˜—uxF gel— permet de v—lider l9emploi des des™ripteurs glo˜—ux présentés d—ns le ™h—pitre UF ƒoit une ™—mp—gne de pê™he et d9o˜serv—tion —™oustique telle que présentée d—ns l— se™tion VFPF v— zone de prospe™tion est divisée en im—ges élément—ires @ou iƒh… X im—ges élément—ires de I mille m—rinA qui ™ontiennent ™h—™une des ˜—n™s de poissonsF v9ensem˜le d9—pprentiss—ge est ™onstitué en —sso™i—nt une im—ge à un ™h—lut—ge @p—r exemple le ™h—lut—ge le plus pro™heD ou —lorsD un ™h—lut—ge moyen peut être ™onsiE déré ™omme pour l— méthode esgeƒe de l— se™tion VFQAF …ne im—ge d9—pprentiss—ge est don™ l—˜élisée à l9—ide d9un ve™teur de pro˜—˜ilités — priori des ™l—sses qui ™orE respondent —ux proportions de ˜iom—sse p—r espè™e d—ns l9im—geF „ous les ˜—n™s de poissons d9une im—ge d9—pprentiss—ge sont —sso™iés à ™e ve™teur de pro˜—˜ilités — priori de telle sorte que l9ensem˜le d9—pprentiss—ge (n—l se note {xn , πn }D où xn est un ˜—n™ de poissons et πn le ve™teur des pro˜—˜ilités — priori ™orrespond—ntF ge form—lisme nous permet d9—ppliquer les méthodes d9—pprentiss—ge f—i˜lement supervisé de l— p—rE tie sF v9o˜serv—tion xn ™omprend soit des des™ripteurs lo™—uxD soit des des™ripteurs glo˜—uxD ou les deuxF …ne fois que le modèle de ™l—ssi(™—tion est —pprisD tous les ˜—n™s de poissons sont ™l—ssésF insuiteD pour ™h—que ˜—n™ de poissonsD —y—nt déterminé leur ™l—sseD l9énergie —™oustique est ™onvertie en ˜iom—sseF pin—lementD d—ns une im—geD l— somme des ˜iom—sses ™—l™ulée pour ™h—que ˜—n™ de poissons donne l— ˜iom—sse tot—le p—r espè™eF
  • 111.
    8.4. CLASSIFICATION DE BANCS DE POISSONS POUR L'ÉVALUATION DE BIOMASSES ™xi v— méthode de ™onversion de l9énergie —™oustique d9un ˜—n™ de poissons en ˜iom—sse est l— suiv—nte ‘IPT“F gette méthode permet de donner le poids @en kilogr—mmeA d9un ˜—n™ de poissons de longueur LD de surf—™e S @d—ns le ™—s d9im—ges ˜idimensionnellesAD d9énergie rétrodi'usée de volume Sv et dont l— longueur des poissons lp est ™onnueF ves p—r—mètres LD S et Sv sont o˜tenus à l9—ide de l9extr—™tion des ˜—n™s de poissons p—r le logi™iel movies et le p—r—mètre lp est déterminé p—r é™h—ntillonn—ge des individus pê™hésF v— ˜iom—sse BMi en kilogr—mme de l9espè™e i s9exprime en fon™tion du nom˜re de poissons d—ns le ˜—n™ @N AD et du poids d9un poisson pi ™omme suit X ¯ BMi = N.¯i /1000 p @VFQA ve nom˜re de poissons s9exprime en fon™tion de l— densité ρ @en nom˜re de poissons p—r m3 A et du volume du ˜—n™ @V A X N = ρ.V F in ™onsidér—nt le volume d9un ˜—n™ ellipsoïd—leD —lors X 2 V = S.L @VFRA 3 F he plusD l— densité ρ s9exprime en fon™tion de l9énergie rétrodi'usée Sv et de l9index de ré)exion T Si = ai + bi .log(lp ) de l— m—nière suiv—nte X Sv −T Si ρ = 10 10 @VFSA où ai et bi sont des p—r—mètres propre à ™h—que espè™eF in(nD l— rel—tion entre le poids pi d9un poisson et l— longueur lp d9un poisson ét—nt donnée p—r pi = ci .lpi D où ci et di ¯ ¯ d sont des p—r—mètres propres à ™h—que espè™eD —lors l9expression (n—le de l— ˜iom—sse est X 2 Sv −T Si d BMi = .S.L.ci .lpi .10 10 /1000 @VFTA 3 heux —ppro™hes sont —˜ordées pour le ™—l™ul de l— ˜iom—sse (n—le BM end = {BMiend } d9un ˜—n™ de poissons X une —ppro™he 4 dure 4 et une —ppro™he 4 souple 4F ƒoit le ve™teur BM = {BMi } qui ™ontient les poids du ˜—n™ ™onsidéré pour toutes les ™l—ssesF v9—ppro™he 4 dure 4 revient à ™onsidérer que le ˜—n™ de poissons n9est ™onstiE tué que d9une seule espè™eF ƒi Θ est le ™l—ssi(eur et p(y = i|x, Θ) est l— pro˜—˜ilité — posteriori de ™l—ssi(™—tion d—ns l— ™l—sse i du ˜—n™ de poissons xD —lors l— ˜iom—sse (n—le du ˜—n™ est un ve™teur dont les ™ompos—ntes v—lent X BMiend = BMi si i = arg maxj p(y = j|x, Θ) @VFUA BMiend = 0 sinon h—ns le ™—s de l9—ppro™he soupleD les ™ompos—ntes du ve™teur (n—l BM end de ˜iom—sse sont X BMiend = p(y = i|x, Θ).BMi @VFVA in f—is—nt ™el—D ™omme d—ns le p—pier de r—mmond ‘PPI“D nous ™onsidérons qu9un ˜—n™ de poissons est ™omposé de plusieurs espè™esF h9un point de vue m—thém—tiqueD ™el— permet de diminuer les erreurs d9—ttri˜ution de ˜iom—sseF
  • 112.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE 8.4.2 Un critère d'optimisation des paramètres des classieurs in ™omplément de l— p—rtie sD d—ns l—quelle nous ™onsidérons un ensem˜le de donE nées dont les — priori sont ™onnus pour ™h—que ™l—sseD une nouvelle inform—tion est disponi˜le X l— proportion de ˜iom—sse d—ns les im—gesF h—ns ™ette se™tionD nous propoE sons une méthode d9optimis—tion des p—r—mètres des ™l—ssi(eursD d—ns le ™—s d9im—ges pour lesquelles les proportions des ™l—sses sont ™onnuesF it—nt donnés les p—r—mètres ˆ Θ d9un ™l—ssi(eurD l— méthode ™onsiste à trouver un jeu de p—r—mètres optimisés Θ qui s—tisfont un ™ert—in ™ritèreF xous p—rtons du postul—t que si les p—r—mètres Θ d9un modèle de ™l—ssi(™—tion idé—l @qui ™l—sse p—rf—itement les donnéesA sont optim—uxD et si les o˜jets des im—ges d9—pprentiss—ge sont ™l—ssés à l9—ide de ™e modèleD —lors l— proportion des ™l—sses estimée d—ns les im—ges d9—pprentiss—geD notée πk (Θ) où k indi™e l9im—geD doit être identique à ˆ l— proportion réelle des ™l—sses d—ns les im—ges d9—pprentiss—geF einsiD nous o˜tenons ˆ πk (Θ) = πk F ve ™ritère ™onsiste don™ à trouver le jeu de p—r—mètres Θ qui minimise une ˆ dist—n™e entre les proportions réelles πk et les proportions estimées πk (Θ)F ge ™ritère ˆ peut s9é™rire X ˆ Θ = arg min D(ˆk (Θ), πk ) π @VFWA Θ k où D(•, •) est l— dist—n™e ™onsidéréeF €—rmi les dist—n™es possi˜lesD on peut ™iter l— dist—n™e de fh—tt—™h—ryy— ‘TR“ ‘PPP“ X 1 D(ˆk (Θ), πk ) = 1 − π πki (Θ) · πki ˆ @VFIHA I i D l— dist—n™e de uull˜—™kEvei˜ler ‘PPQ“ ‘TS“ ‘PPR“ X 1 πki D(ˆk (Θ), πk ) = π πki log @VFIIA I i πki (Θ) ˆ D et l— dist—n™e eu™lidienne X D(ˆk (Θ), πk ) = π |πki − πki (Θ)|2 ˆ @VFIPA i …ne des™ente de gr—dient permet de résoudre le ™ritère @VFWAF in se r—men—nt à un k pro˜lèmes élément—iresD l9expression du gr—dient de l— fon™tion à minimiser s9exprime pour l— dist—n™e de f—tt—™h—ryy— p—r X ∂ 1 πki = @VFIQA ∂ πki (Θ) ˆ 2 πki (Θ) ˆ D pour l— dist—n™e de uull˜—™kEvei˜ler p—r X ∂ −πki = @VFIRA ∂ πki (Θ) ˆ πki (Θ) ˆ
  • 113.
    8.5. PERFORMANCES ™xiii D et pour l— dist—n™e de eu™lidienne p—r X ∂ πki (Θ) − πki ˆ = @VFISA ∂ πki (Θ) ˆ 2 |πkj − πkj (Θ)| ˆ j ve prin™ip—l in™onvénient de ™ette méthode est intrinsèque à l— méthode du gr—dientF in e'etD une des™ente de gr—dient permet de trouver un minimum lo™—l d9une fon™tion qui est pro™he du point d9initi—lis—tionF h—ns ™e ™h—pitreD l9optimis—tion est —ppliquée —u modèle dis™rimin—nt qui se prête —isément à l— méthode ™ontr—irement —ux modèles ˜—sés sur les —r˜res de ™l—ssi(™—tion dont l— qu—ntité de p—r—mètres @le nom˜re de noeuds d—ns les —r˜res et les v—leurs de ™oupures —sso™iées à ™h—que noeudA est une v—ri—˜le —lé—toireF ves p—r—mètres du modèle sont don™ Θ = {ωi , bi }D l9ensem˜le des ™oe0™ients des hyperpl—ns qui sép—rent l— ™l—sse i des —utres ™l—ssesF 8.5 Performances 8.5.1 Simulation d'un scénario €our déterminer ™omment se ™omportent les modèles de ™l—ssi(™—tion développés d—ns l— p—rtie s visEàEvis de données issues de l9—™oustique h—lieutiqueD nous e'e™tuons une simul—tion de s™én—rio ™omme d—ns l— p—rtie sF einsiD le jeu de données hS @p—ge x™A est utilisé pour générer des ensem˜les d9—pprentiss—ge f—i˜lement supervisésF v— première expérien™e ™on™erne les p—r—mètres des modèles de ™l—ssi(™—tionF ves résult—ts de simul—tions sont reportés d—ns l9—nnexe PF ves ™on™lusions sont les mêmes que d—ns l— p—rtie s @p—ge lviiAF v— se™onde expérien™e ™on™erne l— ro˜ustesse des ™l—ssi(eurs rel—tivement —u nive—u de ˜ruit des pro˜—˜ilités — priori des exemples d9—pprentiss—ge @™omme d—ns l— se™tion SFRFP du ™h—pitre SAF €our ™el—D R nive—ux de ™omplexité des données d9—pprentiss—ge sont ™réésD —ll—nt de l9—pprentiss—ge superviséD —u ™—s équipro˜—˜leD en p—ss—nt p—r des nive—ux intermédi—iresF ves proportions ™i˜les qui permettent de générer ™es ensem˜les d9—pprentiss—ge sont données d—ns l9—nnexe PF ves résult—ts de simul—tions sont donE nés d—ns le t—˜le—u VFIF ves ™on™lusions sont sem˜l—˜les à ™elles de l— p—rtie sF ƒ—ns surpriseD plus les pro˜—˜ilités — priori des ™l—sses sont f—i˜lesD plus les perform—n™es de ™l—ssi(™—tion ™hutentF €—rmi les ™l—ssi(eurs élément—ires @peD pisherD et iwAD le modèle dis™rimin—nt @pisherA est le plus ro˜uste visEàEvis de l— ™omplexité des mél—ngesF einsiD m—lgré de très ˜onnes perform—n™es en ™l—ssi(™—tion superviséeD les forêts —lé—toires @peA sont peu perform—ntes dès que les pro˜—˜ilités — priori de ™l—ssi(™—tion ˜—issentF gepend—ntD l— ™om˜in—ison de ™l—ssi(eursD soit p—r l9utilis—tion d9un pro™essus itér—tif @peCsterIAD soit p—r l— fusion de ™l—ssi(eurs @pisherCpeA d—ns un pro™essus itér—tifD permet d9—ppro™her les ex™ellentes perform—n™es o˜tenues p—r les forêts —lé—toires @peA en ™l—ssi(™—tion superviséeF ve f—i˜le t—ux de réussite o˜tenu p—r l— méthode itér—tive 4 sterP 4 s9explique p—r l— s™ission de l9ensem˜le d9—pprentiss—ge à ™h—que itér—tionD tel que les données d9—pprentiss—ge ne soient plus —ssez nom˜reuses pour que l9org—nis—tion sp—ti—le de l9ensem˜le de toutes les données soit ™onven—˜lement modéliséeF
  • 114.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xiv ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE v— troisième expérien™e ™on™erne l— ro˜ustesse des ™l—ssi(eurs rel—tivement —u nom˜re de ™l—sses pro˜—˜les pour un exemple d9—pprentiss—ge @™omme d—ns l— se™tion SFRFQ du ™h—pitre SAF €our ™el—D R nive—ux de ™omplexité des données d9—pprentiss—ge sont ™réésF ves proportions ™i˜les qui permettent de générer ™es ensem˜les d9—pprenE tiss—ge sont données d—ns l9—nnexe QF ves résult—ts de simul—tion sont donnés d—ns le t—˜le—u VFPF gette foisD ™ontr—irement à l— tend—n™e génér—le qui se dég—ge de l— p—rtie sD donn—nt l— méthode 4 peCsterP 4 plus perform—nteD nous ™onst—tons que l— fusion itér—tive du ™l—ssi(eur dis™rimin—nt —ve™ les forêts —lé—toires @pisherCpeA permet d9o˜E tenir les meilleurs résult—ts —ve™ une moyenne génér—le de 84% de réussite et un é™—rt type de 5%F €our ™e jeu de donnéesD les perform—n™es de ™l—ssi(™—tion ne dép—ssent p—s 70% en moyenne —ve™ le pro™essus itér—tifF gel— illustre d9une p—rt les di0™ultés de l9—pprentiss—ge —utom—tique qu—nt —u ™hoix du ™l—ssi(eurD et d9—utre p—rt ™omment les perform—n™es d9un ™l—ssi(eur dépendent de l9org—nis—tion intrinsèque des nu—ges de points pour ™h—que ™l—sseF Type Supervisé Faiblement Faiblement Non d'apprentissage supervisé (1) supervisé (2) supervisé FA+Iter1 0.89 0.81 0.38 0.25 FA+Iter2 0.89 0.47 0.32 0.25 D5 Fisher+FA 0.89 0.75 0.62 0.24 FA 0.89 0.59 0.35 0.25 Fisher 0.70 0.72 0.61 0.27 EM 0.66 0.47 0.46 0.28 Tableau 8.1 Evolution du taux moyen de classication du jeu de données D5 en fonction de la complexité des labels de l'ensemble d'apprentissage. La complexité des données d'apprentissage évolue du cas de l'apprentissage su- pervisé au cas équiprobable, en passant par des cas d'apprentissage faiblement supervisé plus ou moins complexes (cf. annexe 2). Nombre de Moyennes / classes dans 1 2 3 4 Ecart type le mélange FA+Iter1 0.89 0.72 0.62 0.45 0.67 - 0.18 FA+Iter2 0.89 0.79 0.71 0.42 0.70 - 0.20 Fisher+FA 0.89 0.86 0.86 0.77 0.84 - 0.05 D5 FA 0.89 0.71 0.68 0.58 0.71 - 0.12 Fisher 0.70 0.71 0.65 0.56 0.65 - 0.06 EM 0.66 0.52 0.51 0.47 0.54 - 0.08 Tableau 8.2 Evolution du taux moyen de classication du jeu de données D5 en fonction du nombre de classes dans chaque mélange. Des jeux de proportions sont créés, allant du cas supervisé au cas où toutes les classes sont probables (annexe 3). 8.5.2 Campagne PELGAS00 Le jeu de données ves données sont ™elles de l— ™—mp—gne €ivqeƒHHF v9expert fournit un ensem˜le d9iƒh… @de I milleA pour lesquels l9estim—tion de ˜iom—sse est ™onnue et —uxquels est jointe l— liste des p—r—mètres des ˜—n™s de poissonsF xous disposons —ussi de l9ensem˜le des ™h—lut—gesD qui renseignent sur les espè™es présentes —u moment du ™h—lut—geD et
  • 115.
    8.5. PERFORMANCES ™xv Figure 8.3 Bancs de poissons de la campagne PELGAS00. Ceux dont l'a priori est connu constituent l'ensemble d'apprentissage, les autres sont classés. surtoutD qui déterminent l— t—ille des poissons p—r espè™e —(n d9e'e™tuer l— ™onverE sion entre l9énergie d9un ˜—n™ de poissons et s— ˜iom—sseF xotons que les ˜iom—sses des im—ges d9—pprentiss—ge sont ™elles év—luées p—r l9expertD et non ™elles issues du ™h—lut—geF gette pr—tique est —dmise p—r les experts ‘IPT“ ‘PIU“ qui ont l— volonté de minimiser les erreurs possi˜les induites p—r un ™h—lut—ge dont l9é™h—ntillonn—ge ne ser—it p—s représent—tif de l9é™osystème environn—ntF ves ˜—n™s de poissons s—ns —nnot—tion et ™eux dont l9— priori est ™onnu sont représentés d—ns l— (gure VFQF h—ns ™e jeu de donnéesD les é™hos isolésD qui ™orrespondent à du pl—n™ton ou à des poissons isolésD ne sont p—s ™onsidérés ™omme ét—nt des ˜—n™s de poissons et ne sont p—s pris en ™ompte d—ns ™ette expérien™eF gel— explique l9—spe™t mor™elé des tr—nsvers—les de prospe™tion dont ont été supprimés les iƒh… s—ns ˜—n™s de poissons —vérésF v9étude des perform—n™es de ™l—ssi(™—tion des modèles de ™l—ssi(™—tion f—i˜lement supervisés — montré que les t—ux de réussite sont ˜—s qu—nd l9ensem˜le des — priori des ™l—sses sont ˜—sF in rev—n™heD les t—ux de réussite restent ™onven—˜les siD d—ns l9ensem˜le des données d9—pprentiss—geD il existe quelques — priori forts pour ™h—que ™l—sseF ves modèles de ™l—ssi(™—tion peuvent —lors être vus ™omme des (ltres qui —tE ténuent l9in)uen™e des exemples ˜ruités d—ns l9—pprentiss—ge en m—inten—nt ™elle des
  • 116.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xvi ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE exemples dont l9— priori est fortF he ™e f—itD il est né™ess—ire d9—n—lyser les mél—nges o˜tenus lors de l— ™—mp—gne €ivqeƒHH pour déterminer si les ™l—sses sont représenE tées p—r des — priori forts en nom˜res su0s—ntsF einsiD d—ns l9—nnexe RD les pro˜—˜ilités — priori et les ˜iom—sses —sso™iées sont tr—™ées pour ™h—que ™h—lut—ge et pour ™h—que espè™e X l— ƒ—rdine @(gure WFPAD le w—quere—u @(gure WFRAD le ghin™h—rd @(gure WFQAD l9en™hois @(gure WFSAD et les espè™es néglige—˜les @(gure WFTAF ves espè™es néglige—˜les regroupent des poissons ™omme le werl—n fleu et le ƒpr—t dont l— ˜iom—sse est peu représentéeF e(n d9ét—˜lir si le nom˜re de ˜—n™s de poissons est su0s—nt pour ™h—que ™l—sseD le nom˜re de ˜—n™s p—r im—ge est —ussi tr—™é en fon™tion de l9indi™e du ™h—lut—ge @d—ns l9—nnexe RD (gure WFUAF xom˜re d9im—ge xom˜re tot—l €oids moyen pour lesquelles de ˜—n™s de poissons p—r {πni } ≥ 0.8 telles que ™h—lut—ge @en kgA {πni } ≥ 0.8 ƒ—rdine T ITU PST ghin™h—rd PQ STP PIP w—quere—u IQ RTV QIP en™hois IT UWI IRU ispè™es H H SW néglige—˜les Tableau 8.3 Pour la sardine, le chinchard, le maquereau, l'anchois et les espèces négligeables, le nombre d'images pour lesquelles les probabilités a priori sont supérieures à 0.8 est reporté, ainsi que le nombre total de bancs de poissons dans les images telles que les probabilités a priori sont supérieures à 0.8, et le poids moyen des poissons par chalutage. ves prin™ip—les inform—tions sont résumées d—ns le t—˜le—u VFQF „out d9—˜ordD pour les R espè™es prin™ip—lesD les im—ges d9—pprentiss—ge ™ontiennent su0s—mment de ˜—n™s de poissons pour estimer ™orre™tement les p—r—mètres d9un modèle de ™l—ssi(™—tionF €—r exempleD pour l— s—rdineD ITU ˜—n™s de poissons ont une pro˜—˜ilité — priori supérieure à HDV d9être ™l—ssés p—rmi l— s—rdineF ƒeules les espè™es néglige—˜les sont peu représentées —ve™ H ˜—n™ de poissons qui ont une pro˜—˜ilité — priori de ™l—ssi(™—tion supérieure à HDV m—is IHQ ˜—n™s de poissons qui ont une pro˜—˜ilité — priori de ™l—ssi(™—tion supérieure à HDSF gel— est véri(é p—r le poids moyen p—r espè™e d—ns l9ensem˜le des ™h—lut—ges qui ne dép—sse p—s SWkg pour les espè™es néglige—˜lesF €our ™on™lureD l— qu—ntité de ˜—n™s l—˜ellisés —ve™ un — priori fort est su0s—nteD ex™epté pour les espè™es néglige—˜lesF Les performances globales €lusieurs ™om˜in—isons de des™ripteurs sont envis—ge—˜lesF €—r exempleD seuls les des™ripteurs des ˜—n™s de poissons sont utilisés pour l9—pprentiss—ge des modèles de ™l—ssi(™—tionF e ™es des™ripteurs de ˜—n™s de poissonsD peuvent être —joutés des desE ™ripteurs glo˜—ux ™omme ™eux proposés p—r furgos ‘PHT“D ou ™eux proposés d—ns le ™h—pitre UD ou les deuxF ves ™oordonnées géogr—phiques peuvent —ussi être —joutées
  • 117.
    8.5. PERFORMANCES ™xvii ™omme des™ripteur lo™—l de ™h—que ˜—n™ de poissonsF e ™el— s9—joute l— f—çon de ™—lE ™uler l— ˜iom—sse @l9—ppro™he 4 dure 4D ™fF l9expression @VFUAD ou l9—ppro™he 4 souple 4D ™fF l9expression @VFVAA et le ™hoix du ™l—ssi(eurF v9ensem˜le de ™es ™om˜in—isons ™onduit à des résult—ts très nom˜reux m—is —ssez sem˜l—˜lesF h—ns ™ette se™tionD nous ne montrons que les solutions résult—nts des deux meilleures ™om˜in—isons —u sens d9un ™ert—in ™ritère qui s9—ppuie sur l— ™orrél—tionF ƒoit les ve™teurs BMiexp = {BMij } et exp BMialg = {BMij }D respe™tivement rel—tifs à l9év—lu—tion de l— ˜iom—sse de l9espè™e i alg donnée p—r l9expert et ™elle o˜tenue de m—nière —lgorithmiqueD tel que les ™ompos—ntes des ve™teurs soient les im—ges indi™ées p—r j @iFeF les iƒh…AF elorsD l— ™orrél—tion est un s™—l—ire qui renseigne sur l— simil—rité entre les deux ve™teurs BMiexp et BMialg F v9expression de l— ™orrél—tion est donnée p—r X N exp ¯ exp alg ¯ alg (BMij − BM i )(BMij − BM i ) j=1 Γi (BMiexp , BMialg ) = @VFITA N N exp ¯ exp (BMij − BM i )2 alg ¯ alg (BMij − BM i )2 j=1 j=1 ¯ où N indi™e toutes les im—ges de l— ™—mp—gne d9o˜serv—tion et BMi est le ve™teur moyenF v— ™orrél—tion est un s™—l—ire ™ompris entre 0 et 1F ƒi les ve™teurs sont identiquesD —lors l— ™orrél—tion v—ut ID sinonD plus les ve™teurs di'èrentD plus l— ™orrél—tion tend vers HF pin—lementD pour juger de l9e0™—™ité d9une méthode de ™l—ssi(™—tion et du ™hoix des des™ripteursD un ™oe0™ient moyen de ™orrél—tion Γ(BM exp , BM alg ) sur l9ensem˜le des ™l—sses i est ™—l™ulé X I 1 Γ(BM exp , BM alg )= Γi (BMiexp , BMialg ) @VFIUA I i=1 h—ns le t—˜le—u WFU de l9—nnexe SD les ™oe0™ients de ™orrél—tion moyens sont —fE (™hés pour deux méthodes de ™—l™ul de l— ˜iom—sseD pour plusieurs ™om˜in—isons de des™ripteursD et pour plusieurs ™l—ssi(eursF einsiD si l— méthode 4 souple 4 de ™—l™ul de l— ˜iom—sse est —ppliquée @™fF équ—tion @VFVAAD —lors SOFT = 1 et HARD = 0F ƒi l— méthode 4 dure 4 de ™—l™ul de l— ˜iom—sse est —ppliquée @™fF équ—tion @VFVAAD —lors SOFT = 1 et HARD = 0F ƒi les ™oordonnées géogr—phiques des ˜—n™s de poissons @l—titude et longitudeA sont —joutées ™omme des™ripteurs lo™—ux en ™omplément des des™ripteurs morphologiques et énergétiquesD —lors Coord. géographique = 1D sinon Coord. géographique = 0F ƒi les des™ripteurs glo˜—ux présentés p—r furgos ‘PHT“ sont —joutés —ux des™ripteurs lo™—uxD —lors Burgos = 1D sinon Burgos = 0F ƒi les des™ripteurs glo˜—ux proposés d—ns ™e tr—v—il de thèse @™fF l— se™tion UFR du ™h—pitre UA sont —joutés —ux des™ripteurs lo™—uxD —lors Ripley = 1D sinon Ripley = 0F xotons que tous les des™ripteurs glo˜—ux peuvent être —joutés en même temps —ux des™ripteurs lo™—uxD d—ns ™e ™—s Burgos = 1 et Ripley = 1F in plus des ™l—ssi(eurs proposés d—ns l— p—rtie sD à s—voir le modèle génér—tif @GénératifD ™fF ™h—pitre QAD le modèle dis™rimiE n—nt @Kpca/FisherD ™fF ™h—pitre QAD les forêts —lé—toires ou 4 ‚—ndom porest 4 @FAD ™fF ™h—pitre Q et RAD l— fusion du modèle dis™rimin—nt et des forêts —lé—toires @Fisher+FAD ™fF ™h—pitre Q et RAD et le pro™essus itér—tif @FA+ItératifD ™fF ™h—pitre Q et RAD nous
  • 118.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xviii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE —joutons un ™l—ssi(eur dis™rimin—nt qui exploite l9optimis—tion proposée d—ns l— se™tion VFRFP @Optimisation Kpca/FisherAF ev—nt de présenter les deux ™om˜in—isons qui donnent les meilleurs résult—tsD nous pro™édons à une —n—lyse glo˜—leF „out d9—˜ordD le ™—l™ul 4 souple 4 de l— ˜iom—sse donne de meilleurs résult—ts en moyenne pour ™h—™un de ™l—ssi(eursF gel— s9explique p—r le f—it que les erreurs de ™l—ssi(™—tion sont —tténuées si un mél—nge de ™l—sses est —ttri˜ué à ™h—que ˜—n™ de poissonsD et queD —u ™ontr—ireD elles ont un imp—™t import—nt si une seule ™l—sse est —ttri˜uée à ™h—que ˜—n™ de poissonsF ƒeul le ™l—ssi(eur dis™rimiE n—nt @Kpca/FisherA di'èreD —ve™ un ™oe0™ient de ™orrél—tion moyen de HDRVR d—ns le ™—s 4 souple 4 @Soft = 1AD ™ontre HDRWI d—ns le ™—s 4 dur 4 @Hard = 1AF he l— même f—çonD l9utilis—tion des ™oordonnées géogr—phiques ™omme des™ripteurs lo™—ux —'e™te les perform—n™es de ™l—ssi(™—tion en moyenneF gel— est toujours le ™—s en moyenneD ex™epté pour Hard = 1D Bugos = 0D et Ripley = 0D tel que le ™oe0™ient de ™orrél—E tion v—ut HDRTQ si Coord. géographique = 0D et HFRUH Coord. géographique = 1F ves ™on™lusions qu—nt —u ™hoix des des™ripteurs sont di0™iles à ét—˜lir t—nt les ™oe0E ™ients de ™orrél—tion sont v—ri—˜lesF €lusieurs ™—s de (gures —pp—r—issentF €—r exempleD ™elui de l9—ugment—tion des perform—n™es —ve™ l9—jout d9inform—tion des™riptive @™9est le ™—s du modèle FA+Itératif —ve™ Coord. géographique = 0 et Soft = 1D pour lequel le ™oe0™ient de ™orrél—tion p—sse de HDRWQ d—ns le ™—s de des™ripteurs lo™—ux uniquement à HDSPI en utilis—nt tous les des™ripteurs disponi˜lesAF yn trouve —ussi le ™—s inverse pour lequel le ™oe0™ient de ™orrél—tion ™hute —ve™ l9—jout d9inform—tions des™riptives @™9est le ™—s du modèle Optimisation Kpca/Fisher —ve™ Coord. géo- graphique = 0 et Hard = 1D pour lequel le ™oe0™ient de ™orrél—tion p—sse de HDSPT d—ns le ™—s de des™ripteurs lo™—ux uniquement à HDSHT en utilis—nt tous les des™ripteurs disponi˜lesAF „ous les —utres ™—s de (gures sont présents s—ns pouvoir e'e™tuer une —n—lyse logiqueF gel— s9explique p—r l9inst—˜ilité re™onnue des ™l—ssi(eurs rel—tivement —u nom˜re de des™ripteurs qui peuventD en fon™tion du ™l—ssi(eurD être sour™e de ˜ruits ouD —u ™ontr—ireD d9—mélior—tion des résult—ts si l— qu—ntité de des™ripteurs —ugmenteF he plusD le m—nque de tend—n™e logique et ™y™liqueD ™ontr—irement —ux expérien™es pré™édentes pour lesquelles les résult—ts sont ™onst—nts et st—˜les @™fF t—˜le—ux SFPD SFQD UFQD UFRD VFID et VFPAD s9explique p—r l9—˜sen™e de v—lid—tion ™roiséeD ™—r nous tr—itons des données 4 réelles 4F einsiD s—ns v—lid—tion ™roiséeD les tend—n™es des perform—n™es de ™l—ssi(™—tions ser—ient —ussi di0™iles à —n—lyserF €—r exempleD nous —urions souh—ité voir les résult—ts s9—méliorer à ™h—que —jout d9inform—tions des™riptivesF gette rem—rque souligne l— di0™ulté d9év—luer des modèles de ™l—ssi(™—tion et des des™ripteurs sur des données réelles ™ontr—irement à des données synthétiquesF v9—n—lyse glo˜—le pré™édente est e'e™tuée sur des moyennes de moyennesF gette —ppro™he — ses limitesF h9—illeurs les meilleurs résult—ts du t—˜le—u WFU de l9—nnexe S sont o˜tenus pour le ™l—ssi(eur Optimisation Kpca/Fisher —ve™ un ™—l™ul de ˜iom—sse 4 dur 4D —lors que l— tend—n™e génér—le donne l— f—veur à un ™—l™ul 4 souple 4 de l— ˜iom—sseF xous proposons d—ns l— suite d9—n—lyser plus en dét—ils les perform—n™es de ™l—ssi(™—tion des deux meilleures ™on(gur—tions du t—˜le—u WFU de l9—nnexe SF
  • 119.
    8.5. PERFORMANCES ™xix Deux exemples ves deux meilleures ™on(gur—tions du t—˜le—u WFU de l9—nnexe S sont étudiées m—inE ten—ntF sl s9—git pour un ™—l™ul 4 dur 4 de l— ˜iom—sseD de l9emploi du ™l—ssi(eur Op- timisation Kpca/Fisher s—ns les ™oordonnées géogr—phiques et s—ns les des™ripE teurs glo˜—uxD et pour un ™—l™ul 4 souple 4 de l— ˜iom—sseD de l9emploi du ™l—ssi(eur FA+Itératif s—ns les ™oordonnées géogr—phiques m—is —ve™ tous les des™ripteurs gloE ˜—uxF €our ™es deux ™on(gur—tionsD les ™oe0™ients de ™orrél—tion v—lent respe™tivement HDSPT et HDSPIF Figure 8.4 A gauche : corrélation entre la biomasse par espèce estimée par l'expert et celle estimée par les méthodes algorithmiques. La corrélation moyenne, qui prend en compte toutes les combinaisons possibles du tableau 9.7 de l'annexe 5 est comparée à celles obtenues pour deux modèles algorithmiques : le processus itératif amélioré (FA+Itératif, section 4.3.2) en ajoutant tous les descripteurs globaux (Burgos = 1 et Ripley = 1) du chapitre 7 et le modèle discriminant (Optimisation Kpca/Fisher, section 3.3) en utilisant les descripteurs de bancs de poissons seuls. A droite, la biomasse par espèce estimée par l'expert, par la méthode algorithmique FA+Itératif avec tous les descripteurs globaux, et par la méthode Optimisation Kpca/Fisher sans ajout de descripteurs globaux. h—ns l— (gure VFRD à g—u™heD nous tr—çons les ™oe0™ients de ™orrél—tion en fon™E tion des espè™es pour les deux modèles pré™édemment dé™rits et pour l— ™orrél—tion moyenne o˜tenue pour toutes les ™om˜in—isons possi˜les du t—˜le—u WFU de l9—nnexe S et pour tous les ™l—ssi(eursF gel— permet de ™onst—ter qu9il y — une tend—n™e géE nér—le suivie p—r l9ensem˜le des perform—n™es o˜tenues pour toutes les modélis—tions possi˜lesF xous ™onst—tons —ussi que les deux meilleures modélis—tions produisent des résult—ts sensi˜lement équiv—lents et très pro™hes de l— tend—n™e moyenneF he m—nière génér—leD quelque soit les méthodes de ™l—ssi(™—tionD les estim—tions de ˜iom—sse de l9—n™hois et des espè™es néglige—˜les sont plus pro™hes de ™elles de l9expert que ne le sont ™elles du ™hin™h—rd et du m—quere—uF intre les deuxD l— s—rdineF e droite de l—
  • 120.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xx ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE (gure VFRD nous représentons les ˜iom—sses estimées p—r espè™e pour les deux modéliE s—tions ™onsidérées et ™elles estimées p—r l9expertF €remièrementD si les tend—n™es des ™orrél—tions sont sensi˜lement équiv—lentes d9une modélis—tion à l9—utreD les ˜iom—sses résult—ntes peuvent être très di'érentesF €—r exempleD pour le m—quere—u l9é™—rt de ˜ioE m—sse entre les deux méthodes —lgorithmiques —tteint QSH HHH tonnesF gel— s9explique p—r le f—it que le m—quere—u n9— p—s de vessie n—t—toireD et p—r ™onséquentD les p—r—E mètres {ai , bi , ci , di } de ™onversion d9énergie à ˜iom—sse de l— se™tion VFRFID di'èrent fortement pour le m—quere—u p—r r—pport —ux —utres espè™esF einsiD quelques erreurs de ™l—ssi(™—tion peuvent —voir un imp—™t énorme sur l9év—lu—tion de l— ˜iom—sseF €—r exempleD si quelques ˜—n™s de s—rdines sont ™l—ssés p—rmi les ˜—n™s de m—quere—uxD l— v—ri—tion de ˜iom—sse pour l— s—rdine est très inférieure à ™elle o˜servé pour le m—queE re—uF gel— explique qu9entre les deux méthodes —lgorithmiquesD il y — des di'éren™es f—i˜les de ˜iom—sse pour l— s—rdine et le ™hin™h—rdD qui se tr—duisent p—r un gros é™—rt de ˜iom—sse pour le m—quere—uF heuxièmementD l9é™—rt de l9estim—tion de ˜iom—sse entre les deux types de modélis—tion et l9expert se justi(e p—r de grosses erreurs de ™l—ssi(™—tionF in e'etD de m—nière génér—le les perform—n™es sont —ssez moyennes et les erreurs introduisent des ˜i—is d—ns l9estim—tion de l— ˜iom—sseF gomme illustré préE ™édemmentD ™es ˜i—is proviennent des ™onversions de l9énergie du ˜—n™ de poissons en ˜iom—sse de poissonsF €our illustrer les pro˜lèmes de ™l—ssi(™—tionD nous tr—çons les ™—rtes de ˜iom—sse o˜tenues p—r l9expert et p—r les deux méthodes —lgorithmiques pour l9espè™e qui donne les meilleurs résult—ts @l9—n™hoisA et ™elle qui donne les moins ˜ons résult—ts @le m—queE re—uAF einsiD d—ns l— (gure VFSD nous tr—çons l— ˜iom—sse —sso™iée à ™h—que iƒh…D iFeF tous les milles m—rinsD d—ns le pl—n t—ngent à l— surf—™e de l— terreF gh—que ™er™le est proportionnel à l— ˜iom—sse estimée X plus le ™er™le est gr—ndD plus l— ˜iom—sse estimée est import—nteF ves ™—rtes ™on(rment les résult—ts de l— (gure VFR X d—ns le ™—s où l9expert — ™orre™tement estimé l— ˜iom—sse des di'érentes espè™esD l— ™l—ssi(™—tion des ˜—n™s d9—n™hois est mieux réussies que ™elle des ˜—n™s de m—quere—uxF gel— est vr—i quelque soit l— modélis—tionF in e'etD nous ™onst—tons que pour les trois estim—tions de l— ˜iom—sse d9—n™hoisD l— m—jorité des —grég—tions se situe d—ns le sudEest du qolfe de q—s™ogneD en f—™e de l— qirondeF in rev—n™heD pour le m—quere—uD ™onformément —ux f—i˜les v—leurs de ™orrél—tion de l— (gure VFRD il y — ˜e—u™oup d9erreurs de ™l—sE si(™—tionF ves ™—rtes de distri˜utions de ˜iom—sse montrent à quel point l9erreur est import—nteF €our ™h—™un des trois types de méthode d9év—lu—tionD les ™—rtes o˜tenues sont di'érentesF v— prin™ip—le expli™—tion est l— forte lo™—lis—tion des —n™hois d—ns le sudEest du qolfe de q—s™ogneD produis—nt des p—r—mètres des™riptifs des ˜—n™s de poisE sons pro™hes de situ—tions monomod—lesF in e'etD ™omme l9—n™hois est ™on™entré d—ns une p—rtie du qolfe de q—s™ogneD les inform—tions des™riptives sont peu v—ri—˜les ™e qui f—™ilite l9estim—tion des p—r—mètres des modèles de ™l—ssi(™—tionF ejoutons à ™el— que l9—n™hois est une espè™e de poisson dont les p—r—mètres des™riptifs sem˜lent plus dis™rimin—nts que pour les —utres espè™esF in e'etD les m—tri™es de ™onfusion d—ns l— (gure UFR montrent sur un jeu de données p—rti™ulier qu9entre l— s—rdineD l9—n™hoisD le ™hin™h—rd et le merl—n ˜leuD l9—n™hois est l9espè™e l— plus dis™rimin—nteF
  • 121.
    8.5. PERFORMANCES ™xxi Figure 8.5 Estimation de la biomasse d'anchois et de maquereau par l'ex- pert, par la méthode discriminante avec optimisation telle que Ripley = 0, Cluster = 0 et Soft = 0, et par le processus itératif tel que Ripley = 1, Cluster = 1 et Soft = 1. La biomasse est représentée par des cercles dont le rayon est proportionnel à la biomasse estimée. 8.5.3 Discussion h—ns ™e ™h—pitreD nous —vons —ppliqué les méthodes d9—pprentiss—ge f—i˜lement suE pervisé proposées d—ns l— p—rtie s —u ™—s de l9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts sont positifs pour l9—n™hois @(gure VFSAD m—is sont glo˜—lement insu0s—nts pour être e'e™tifsF ve tr—nsfert d—ns le dom—ine de l9—ppli™—tion né™essite ˜e—u™oup d9—mélior—tionsF gepend—ntD retenons que l— ™l—ssiE (™—tion de ˜—n™s de poissons n9est p—s l— f—çon usuelle de pr—tiquer les év—lu—tions de ˜iom—ssesD ™elleE™i est —™™omplie p—r une prop—g—tion glo˜—le de l9inform—tion de proE portion des espè™es d—ns les im—ges @se™tions VFP et VFQAF v9o˜je™tif de ™ette —ppli™—tion est dou˜leF „out d9—˜ordD il s9—git de v—lider l9emploi des méthodes de ™l—ssi(™—tion f—i˜lement suE pervisé sur un ™—s pr—tiqueF €our l9év—lu—tion de ˜iom—sseD les résult—ts montrent que l9—ppro™he est envis—ge—˜le en —pport—nt des —mélior—tions etD de plusD en n9ess—y—nt p—s d9e'e™tuer l9év—lu—tion dire™te de l— ˜iom—sse m—is plutôt d9utiliser ™es méthodes
  • 122.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xxii ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE pour e'e™tuer une préE™l—ssi(™—tion ™omme le f—it l9expert @se™tion VFPAF in(nD ™es résult—ts —pportent l— preuve queD pour l9év—lu—tion de ˜iom—sseD l— ™l—ssi(E ™—tion des ˜—n™s de poisons est moins e0™—™e qu9une —ppro™he glo˜—le de prop—g—tion de l9inform—tion des proportions d—ns les im—ges ‘PIW“F €lusieurs r—isons expliquent les résult—ts nu—n™és o˜tenus d—ns ™e ™h—pitre X IF Incertitude sur la validité des échantillonnages. v9unique solution pour déE terminer les espè™es présentes d—ns les im—ges est le ™h—lut—geF he mêmeD ™e ™h—luE t—ge indique l— proportion des ™l—sses d—ns les im—ges qui est l— ˜—se des méthodes d9estim—tionsF „outefoisD on montre qu9il existe une forte in™ertitude qu—nt —ux inform—tions données p—r le ™h—lut—ge ‘IPT“F €remièrementD il existe des pro˜lèmes d9évitements des poissons rel—tivement —u (let de pê™heF ƒeule une p—rtie d9un ˜—n™ de poissons peut être ™—pturéeD et m—lgré l9impl—nt—tion de sondeurs à l9 4 entrée 4 des ™h—lutsD il est très di0™ileD voire impossi˜le de déterminer ex—™tement le ™omportement des poissons visEàEvis du (let de pê™heF einsiD pour une o˜serv—E tion —™oustique p—rti™ulièreD l— proportion des espè™es pê™hées peut être di'érente de l— proportion réelle des espè™es vue d—ns l9é™hogr—mmeF ejoutons à ™el— que le ™omportement des poissons —utours du (let de pê™he peut v—rier d9une espè™e à l9—utreF yn peut supposer p—r exemple que ™ert—ins poissons sont plus vifs que d9—utresD ou queD f—™e —u d—ngerD ils ont des plus gr—ndes f—™ultés de dispersionsF heuxièmementD le ™h—lut—ge ne ™ouvre p—s l— tot—lité de l— ™olonne d9e—uF v9ouverE ture verti™—le du (let est de PH mètresD tel qu9il est di0™ile de s—voir pré™isément si un ˜—n™ de poissons est ™—pturé ou nonD et si l— proportion pê™hée est ™elle qui est o˜servée d—ns l9é™hogr—mmeF in outreD les ™h—lut—ges de fond sont soumis à des s—uts qui ™orrespondent à des v—ri—tions de vitesse du ˜—te—uD l—iss—nt p—sser ou non ™ert—ins poissons ™ollés —u fondF v9—ttri˜ution de ™h—lut—ges moyens sur des zones spé™i(quesD ™omme le f—it l9expert @™fF se™tion VFPAD est un moyen e0™—™e pour diminuer l9in™ertitude sur les proporE tionsF ves proportions moyennes —insi o˜tenues sont st—tistiquement plus (—˜lesF sl ser—it intéress—nt de pro™éder de l— même f—çon pour l9estim—tion de l— ˜iom—sse à l9—ide d9une ™l—ssi(™—tion —utom—tique des ˜—n™s de poissonsF €—r exempleD les pro˜—˜ilités — priori utilisées pour l9—pprentiss—ge pourr—it être issues d9un ™h—E lut—ge moyen qui soit l— ™om˜in—ison des ™h—lut—ges les plus pro™hesF in(nD les pro˜lèmes d9évitements des poissons p—r r—pport —u ™h—lut—ge et de positions du (let d—ns l— ™olonne d9e—u peuvent être —tténués à l9—ide de théories plus génér—les que l— théorie des pro˜—˜ilitésF €—r exempleD l— théorie de hempsterEƒh—fer ‘I“D qui permet de prendre des dé™isionsD se ˜—se à l— fois sur l— pro˜—˜ilité d9un évéE nement et sur un interv—lle de ™on(—n™e de ™ette pro˜—˜ilitéF he l— même f—çonD pour notre —'—ireD on peut im—giner que les pro˜—˜ilités — priori des ™l—sses ne sont p—s ™onst—ntesD m—is qu9elles sont ™omprises d—ns un interv—lle qui dépend de p—r—mètres ™omme l— sonde ou l— position du ™h—lut—geF h—ns ™e ™—sD une telle théorie peut être —ppliquéeF PF Incertidudes de l'expertise. sl est re™onnu que les méthodes d9estim—tion des sto™ks d9espè™esD qu9elles s9—ppuient sur une —n—lyse d9experts ou sur un pro™édé —lgorithmiqueD sou'rent de l9impossi˜ilité d9év—luer le t—ux d9erreurs de ™l—ssi(™—E tion ‘IPT“F in e'etD à l9inst—r des —méri™—ins de l— xyeD des norvégiens de l9sw‚D
  • 123.
    8.5. PERFORMANCES ™xxiii des esp—gnols de l9siy et des fr—nç—is de l9sfremerD tous les gr—nds org—nismes intern—tion—ux qui emploient des te™hniques d9estim—tion ™omme ™elle présentée d—ns l— se™tion VFPD s9—™™ordent sur l9in™—p—™ité de mesurer qu—ntit—tivement l— justesse d9une estim—tion ‘PPS“F gel— vient du f—it que les o˜lets sousEm—rins sont invisi˜les à nos yeuxD et qu9en dehors des sondeurs —™oustiques dont l— résolution reste peu pré™iseD l9homme ne dispose p—s en™ore d9outils d9o˜serv—tion vr—iment —ppropriéF x9—y—nt p—s de vérité terr—in digne de ™e nomD l— seule te™hnique pour mesurer l— pertinen™e d9un —lgorithme ™onsiste à ™omp—rer les solutions à ™elle de l9expertF w—isD dû à l— forte in™ertitude de l9estim—tion de référen™eD un doute persiste qu—nt —ux perform—n™es de ™l—ssi(™—tion réelles des méthodes —lgorithE miquesF he plusD ™el— rend ™omplexe l— ™omp—r—ison des —ppro™hes —utom—tiques entre ellesF gomment s—voir si une méthode est mieux qu9une —utre c gomment e'e™tuer une étude de p—r—mètre c gepend—ntD l— (gure VFRD à g—u™heD montre une ™orrél—tion entre les mesures de ˜iom—sse des di'érentes méthodesD —ve™ qu—siment les mêmes r—pport de ˜iom—sse p—r espè™eF einsiD en se repl—ç—nt d—ns le ™ontexte du suivi des sto™ksD —ve™ l9o˜je™E tif de déterminer quels sont les tend—n™es des évolutions des ˜iom—sses d9espè™es d—ns une zone p—rti™ulièreD toutes ™es —ppro™hes restent v—l—˜les et pertinentesF g—r si ™es —n—lyses sont ™onduites ™h—que —nnéeD —lors il est possi˜le de prédire si une espè™e perdureD est en voie de disp—ritionD ou se multiplie d—ns une zoneD ™e qui est déjà intéress—nt ˜iologiquementF QF Formalisme probabiliste incorrect. €our ™ette —ppli™—tionD nous ™onsidérons que les pro˜—˜ilités — priori des ™l—sses d—ns les im—ges sont données p—r les proE portions de ˜iom—sse d9espè™es d—ns les ™h—lut—gesF ‚—menées à l9é™helle des ˜—n™s de poissonsD ™es proportions donnent une pro˜—˜ilité de ™l—ssi(™—tion — priori pour ™h—que ˜—n™ de l9im—geF gette dém—r™he est ™ritiqu—˜leF in e'etD prenons l9exemple extrême d9une im—ge qui ™ontient deux espè™esD —ve™ un très gros ˜—n™ de s—rdines et deux petits ˜—n™s de ™hin™h—rdsD tel que l— ˜iom—sse de s—rdine soit W fois plus import—nte que ™elle des ™hin™h—rdsF in termes de ˜iom—sseD l— pro˜—˜ilité des s—rdines est de HDW et ™elle des ™hin™h—rds est de HDI —lors qu9en ré—litéD nous —vons I ™h—n™e sur Q d9être en présen™e d9un ˜—n™ de s—rdineD soit une pro˜—˜ilité de HDQQ pour l— s—rdine et P ™h—n™es sur Q d9être en présen™e d9un ˜—n™ de ™hin™h—rdsD soit une pro˜—˜ilité de HDTTF get exemple montre que ™e form—lisme pro˜—˜iliste est in™orre™t et qu9un tr—v—il devr—it être fourni pour résoudre ™e pro˜lèmeF gette rem—rque montre les limites de l9utilis—tion des modèles d9—pprentiss—ge f—i˜lement supervisé pour l— ™l—ssi(™—tion des ˜—n™s de poissons d—ns le ™—dre de l9év—lu—tion de l— ˜iom—sseD du moins telle que proposée d—ns ™e tr—v—il de thèseF v9—ppro™he le qui ™onsiste à ventiler des proportions de ˜iom—sse d—ns des groupements d9im—ges simil—ires sem˜le plus —d—ptée à ™e pro˜lème @™fF se™tions VFP et VFQAF gepend—ntD une méthode —utom—tique d9estim—tion des proportions réelles d—ns les im—ges de ™h—lut—ges peut être envis—géeF v9utilis—tion d9un form—lisme utilis—nt les fon™tions de ™roy—n™es et le r—isonnement pl—usi˜le de l— théorie de hempsterE ƒh—fer sem˜le en™ore une fois pertinente ‘I“F he plusD il est envis—ge—˜le qu9en ™ours de ™—mp—gnes de pê™hes —™oustiquesD l9expert l—˜élise ™ert—ins ˜—n™sD du moins les plus sûrsD fourniss—nt une ˜—se solide de préE™l—ssi(™—tion en vue de l9estim—tion des pro˜—˜ilités — priori d—ns les im—gesF
  • 124.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xxiv ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE e(n de déterminer si le fort t—ux d9erreurs provient de ™e form—lisme de proporE tion de ˜iom—sseD nous proposons de ™onvertir les proportions de ˜iom—sses en proportion d9énergies à l9—ide de l9expression VFTF ves ™orrél—tions moyennesD pour les di'érentes ™om˜in—isons sont —0™hées d—ns le t—˜le—u WFV de l9—nnexe SF xous ™onst—tonsD que les résult—ts ne sont guère —méliorésD ils sont très sem˜l—˜lesD les ™on™lusions ét—nt simil—ires à ™elles de l9—n—lyse des perform—n™es issues des proE portions de ˜iom—sseF €our illustrer ™es proposD les moyennes des ™oe0™ients de ™orrél—tion sur l9ensem˜le des ™om˜in—isons de des™ripteurs et de modèles de ™l—sE si(™—tion possi˜les sont représentés à g—u™heD d—ns l— (gure VFTF he mêmeD à droite de l— (gure VFTD l— ˜iom—sse estimée p—r espè™e est représentée pour l— méthode l— plus perform—nteD à l— fois pour le ™—s des proportions de ˜iom—sse et ™elui des proportions d9énergiesF ves résult—ts sont très simil—ires à ™eux o˜tenus pré™éE demment X ˜e—u™oup d9erreurs pour le m—quere—u et le ™hin™h—rdD moins pour l— s—rdineD et ˜onne estim—tion pour l9—n™hois et les espè™es néglige—˜lesF Figure 8.6 A gauche, comparaison entre les coecients de corrélation ob- tenus pour des probabilités de classication a priori issues des proportions de biomasses ou des proportions d'énergies. A droite, biomasse estimée par l'expert et pour la méthode d'estimation Optimisation Kpca/Fisher, en utilisant les descripteurs de bancs de poissons seuls, et pour des probabilités de classication a priori issues des proportions de biomasses ou des proportions d'énergies. RF Jeu de données incomplet. h—ns ™e ™h—pitreD l9o˜je™tif est d9—ppliquer les méE thodes d9—pprentiss—ge f—i˜lement supervisé sur un ™—s réelD m—is —ussi d9—ppliE quer les des™ripteurs glo˜—ux proposés pour ™onst—ter une —mélior—tion des perE form—n™esF ve t—˜le—u WFU de l9—nnexe S montre queD pour ™ert—ins modèles de ™l—ssi(™—tionD l9—jout de p—r—mètres des™riptifs permet d9—™™roitre les perform—n™es d9estim—tionF xot—mmentD d—ns le ™h—pitre UD nous —vons montré d9une p—rtD que les im—ge Ph sont peu inform—tives en ™omp—r—ison des données Qh @nous o˜E tenions —lors un g—in de ˜onne ™l—ssi(™—tion de IH7AD et queD d9—utre p—rtD une —n—lyse multi seuils —méliore nettement les perform—n™es de ™l—ssi(™—tion p—r r—pE
  • 125.
    8.5. PERFORMANCES ™xxv port à une —n—lyse à un seul seuilF yrD pour l9expérien™e du présent ™h—pitreD les modèles de ™l—ssi(™—tion sont testés sur un jeu de données issu d9un sondeur moE nof—is™e—u et l9extr—™tion des ˜—n™s de poissons est e'e™tuée pour un seul seuil d9énergieF e ™e jourD il n9existe p—s de données multif—is™e—ux qui soient tr—itées et v—lidées p—r un expertD d9—illeurs ™e type de sondeur n9est p—s utilisé d—ns le proE to™ole d9estim—tion de l— ˜iom—sseF sl le ser—F einsiD l9estim—tion de ˜iom—sse p—r des méthodes —utom—tiques de ™l—ssi(™—tion de ˜—n™s de poissons ser— nettement —méliorée si nous disposons d9im—ges Qh pour lesquelles nous e'e™tuons une —n—E lyse multi seuilsF ejoutons que pour ™e jeu de donnéeD seuls les ˜—n™s de poissons sont retenus et que les zones de pl—n™ton sont é™—rtéesF yrD d—ns le ™h—pitre UD nous ™onservons toutes les —grég—tions pl—n™toniques en ™onsidér—nt qu9elles sont repréE sent—tives d9un environnement et qu9elles sont sour™es d9inform—tionsF v— prise en ™ompte du pl—n™ton permettr—it —ussi d9—méliorer l9estim—tion de l— ˜iom—sse des espè™esF in(nD lors des ™—mp—gnes de pê™hes —™oustiquesD l9expert e'e™tue une préE ™l—ssi(™—tion visuelle sur l— ˜—se des o˜serv—tions —™oustiques multiEfréquentiellesF €our le m—quere—uD l— réponse —™oustique en h—utes fréquen™es est plus élevée que les —utres espè™esD ™e qui se tr—duit p—r le f—it qu9il est plus visi˜le que les —utres espè™es d—ns les im—ges fournies p—r les sondeurs de fréquen™es élevéesF v— ™l—ssiE (™—tion du m—quere—u est don™ trivi—le pour l9expertF gomme nous ne disposons p—s de ™ette inform—tion multiEfréquentiellesD le m—quere—u est di0™ile à di'érenE tier des —utres espè™esF h9—illeursD le m—quere—u est l9espè™e pour l—quelle nous —vons o˜tenu les plus m—uv—is résult—ts de ™l—ssi(™—tionF ƒi nous —vions disposé de ™ette inform—tion h—ute fréquen™eD le m—quere—u —ur—it ™ert—inement pu être ™l—ssé ™onven—˜lementD et p—r ™onséquentD ™el— —ur—it permis de diminuer le ˜ruit entre espè™e et ™onduit à une meilleure estim—tion des modèles de ™l—ssi(™—tion pour les —utres espè™esF SF Approche à simplier. sl sem˜le que nous nous soyons pl—™és d—ns le ™—s le plus ™omplexeF h—ns l— méthode ™hoisie p—r l9expert ‘PIU“D ™eluiE™i p—sse p—r une ét—pe de ™l—ssi(™—tion des —grég—tions p—r espè™es ou p—r groupes d9espè™es @™fF ™h—pitre UAF gel— simpli(e le pro˜lème pour des ™hoix de ™l—ssi(™—tion di0™iles et insolu˜lesF …ne expérien™e possi˜le est de rempl—™er ™ette ét—pe de ™l—ssi(™—tion m—nuelle p—r de l— ™l—ssi(™—tion —utom—tique f—i˜lement superviséeD telle qu9il y —it des ™l—sses qui regroupent des espè™esF ges regroupements d9espè™es peuvent être dé(nis en fon™tion de leur nive—u de pro˜—˜ilitéD soit post ™l—ssi(™—tionD soit post ™h—lut—geD ou plus simplement p—r l9expertF h—ns le ™—s pr—tique d9une ™—mp—gne de pê™he —™oustiqueD ™ette ét—pe d9—utom—tis—tion est un moyen de v—liderD ou nonD le ™hoix de l9expertF TF Conversion énergie/biomasse. eprès l9ét—pe de ™l—ssi(™—tionD pour ™—l™uler l— ˜iom—sse génér—le p—r espè™eD nous —vons ™onvertie l9énergie —™oustique rétrodifE fusée de ™h—que ˜—n™ en ˜iom—sse de poissons pour ™h—que ˜—n™F €our ™el—D nous —vons supposé que les ˜—n™s de poissons sont de forme ellipsoïd—le —ve™ un di—E mètre de se™tion horizont—le ™entr—le ég—le à l9—ngle d9ouverture du f—is™e—uF gette supposition peut entr—îner des di'éren™es not—˜les de ˜iom—sse p—r r—pport à l9exE pertF he mêmeD l— formule de ™onversion @™fF expression VFTA entre l9énergie et l— ˜iom—sse né™essite l— ™onn—iss—n™e de l— t—ille des poissons qui n9est p—s ex—™te ét—nt donnée l9impré™ision de l9é™h—ntillonn—geF ge p—r—mètre entr—ine —ussi une
  • 126.
    CHAPITRE 8. APPLICATION À L'ÉVALUATION DES BIOMASSES DES ™xxvi ESPÈCES HALIEUTIQUES DANS LE GOLFE DE GASCOGNE impré™ision d—ns l— v—leur de l— ˜iom—sseF 8.6 Conclusion h—ns ™e ™h—pitreD nous —vons proposé une —ppli™—tion à l9év—lu—tion de l— ˜iom—sse de ™ert—ines espè™es h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts de l9estim—tion sont plutôt nég—tifsF …n gr—nd nom˜re de r—isons expliquent les m—uv—is résult—tsD les prin™ip—les ét—ntD l— ™omplexité du jeu de donnéesD l— ™onversion de l9énergie —™oustique en ˜iom—sseD l9—˜sen™e de données multif—is™e—ux et multiEfréquen™esD et™F hes —ppli™—tions moins périlleuses —ur—ient permis de mettre —v—nt les modèles de ™l—ssi(™—tion proposéesF €—r exempleD l— préE™l—ssi(™—tion e'e™tuée p—r les experts —v—nt l— prop—g—tion des inform—tions de proportion de ˜iom—sse peut être —utom—tiséeF gette tâ™he ser— ˜e—u™oup plus —isée ét—nt données le regroupement d9espè™e d—ns une même ™l—sseF he plusD l— justesse des modèles de ™l—ssi(™—tion pourr—it être mise en —v—nt sur l— pro˜lém—tique de l— ™l—ssi(™—tion d9o˜jetsD ét—nt donné l— ™onn—iss—n™e de l— présen™e et de l9—˜sen™e des ™l—sses d—ns les im—ges d9—pprentiss—geF
  • 127.
    CHAPITRE 9 Conclusion Générale h—ns ™ette thèseD nous —vons étudié un pro˜lème génér—l de ™l—ssi(™—tion pro˜—˜iE liste —utom—tiqueD puis nous nous sommes pl—™és d—ns le ™—dre —ppli™—tif de l9—™oustique h—lieutiqueF h—ns un premier tempsD nous —vons proposé des méthodes d9—pprentiss—ge f—i˜lement superviséD l9origin—lité ét—nt d9estimer les p—r—mètres d9un modèle de ™l—ssi(™—tion à p—rtir de l— seule ™onn—iss—n™e des pro˜—˜ilités de ™l—ssi(™—tion — priori des exemples d9—pprentiss—geF h—ns un se™ond tempsD nous —vons tr—ité le ™—s de l— ™l—ssi(™—tion des ˜—n™s de poissons d—ns des é™hogr—mmesF …n des™ripteur glo˜—l des im—ges — été proposéD et les méthodes d9—pprentiss—ge f—i˜lement supervisé ont été —ppliquées à l9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiquesF Résultats principaux. IF xous —vons dé(ni un ™—dre origin—l qui englo˜e plusieurs types d9—pprentiss—geF e notre ™onn—iss—n™eD peu de tr—v—ux présentent des modèles de ™l—ssi(™—tion qui soient tr—nsversesD l9us—ge ét—nt de préféren™e l— proposition d9un modèle p—rtiE ™ulier pour un ™ert—in type d9—pprentiss—geF einsiD le form—lisme m—thém—tique proposé permet de génér—liser l9—pprentiss—ge supervisé et semiEsuperviséF PF xous —vons suggéré des méthodes d9—pprentiss—ge pour trois modèles de ™l—ssi(E ™—tions élément—ires @un modèle génér—tifD un modèle dis™rimin—ntD et un modèle hy˜rideAD puis nous —vons étudié le ™—s des ™om˜in—isons de ™l—ssi(eursD vi— les ensem˜les de ™l—ssi(eurs et l— ™l—ssi(™—tion itér—tiveF QF v— simul—tion des jeux de données d9—pprentiss—ge nous — permis de m—itriser l— ™omplexité de l9—pprentiss—geD et —insiD d9év—luer le ™omportement dyn—mique des ™l—ssi(eursF ves résult—ts ont montré l— pertinen™e des modèles proposésD —ve™ not—mment l9emploi des pro™essus itér—tifsD qui permettentD pour ™ert—ins nive—ux de ™omplexitéD de retrouver qu—siment les mêmes résult—ts qu9en ™l—ssi(™—tion superviséF RF …n des™ripteur des —grég—tions de poissons d—ns des im—ges — été proposéF geluiE™i permet de modéliser l— distri˜ution sp—ti—le des ˜—n™s de poissons d—ns une im—geF ves résult—ts expériment—ux ont permis de v—lider leur utilis—tion qui est re™omE m—ndée pour des im—ges ™omplexes ™omme ™elles issues du sondeur multif—is™e—uxD m—is —ussiD l9étude expériment—le à montré l9—pport qu—ntit—tif d9inform—tions disE ™rimin—ntes du sondeur multif—is™e—ux rel—tivement —u sondeur monof—is™e—uF
  • 128.
    ™xxviii CHAPITRE 9. CONCLUSION GÉNÉRALE SF in(nD pour v—lider l9utilis—tion des modèles proposésD l9ensem˜le des propositions — été —ppliqué à l9év—lu—tion de l— ˜iom—sse des espè™es h—lieutiques d—ns le golfe de q—s™ogneF ves résult—ts expériment—ux ont montré que l9—ppro™he ˜—sée sur l— ™l—ssi(™—tion des ˜—n™s de poissons sou'r—it de nom˜reuses —pproxim—tions méE thodologiques et instrument—lesD et qu9en l9ét—tD l9—ppro™he glo˜—le de prop—g—tion des proportions de ˜iom—sse ét—it préfér—˜leF Qualité des résultats. xous dis™utons i™i de l— v—lidité des résult—ts et des points à —pprofondirF IF xotre o˜je™tif prin™ip—l ét—it d9o˜tenir un ™l—ssi(eur ™ompétitif qui propose les meilleures perform—n™es de ™l—ssi(™—tionF einsiD nous —vons exploré un m—ximum de form—lismes et de méthodesF gel— — été f—it —u détriment d9une —n—lyse plus —pprofondie du ™omportement des modèlesF €—r exempleD les propositions de fuE sion de pro˜—˜ilitésD vi— des sommes pondérées restent empiriquesF he mêmeD l— ™onvergen™e des pro™essus itér—tifs n9est p—s prouvéeF gepend—ntD notons que les méthodes proposées sont origin—les et prometteusesD ™ellesE™i posent les ˜—ses d9un tr—v—il qui dem—nder— plus d9—n—lyses et d9él—rgissements @™itons p—r exemple l9—pE prentiss—ge d9un —r˜re de ™l—ssi(™—tion à p—rtir de pro˜—˜ilités de ™l—ssi(™—tion qui n9—v—it j—m—is été proposéAF PF v— ™omplexité de l9—pprentiss—ge est étudiée en génér—nt —rti(™iellement des jeux de données sur l— ˜—se de proportions ™i˜les ™hoisiesF v9étude n9est p—s exh—ustiveD il f—udr—it générer ˜e—u™oup plus de ™—s p—rti™uliers et de types de proportionsD p—r exempleD nous —vons testé le ™—s d9un jeu de données d9—pprentiss—ge pour lequel toutes les ™l—sses sont équipro˜—˜lesD m—is qu9en estEil des p—ires ou des triplets de ™l—sses équipro˜—˜les c gel— permettr—it d9—ppré™ier le ™omportement des modèles d—ns le ™—s d9im—ges pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses d9o˜jets sont ™onnuesF QF ve des™ripteur proposéD qui ™—r—™térise l— distri˜ution sp—ti—le d9un pro™essus pon™E tuel m—rquéD — été testé sur un jeu de donnés limitéD ™eluiE™i ét—nt ™omposé de seuleE ment trois ™l—ssesD dont l9une est très di'érente des —utres en termes de sondeF xous —vons montréD l9utilité du des™ripteur pour ™—r—™tériser ™ert—ines formes d9—grég—E tionsD m—is il est import—nt de mesurer s— ™ontri˜ution sur d9—utres ™l—sses d9espè™e etGou de distri˜utionsF gepend—ntD ™e jeu de données nous — permis de mettre en —v—nt l— for™e du sondeur multif—is™e—ux p—r r—pport —u sondeur monof—is™e—uF RF xotre o˜je™tif ét—it de proposer un des™ripteur glo˜—l pour lequel les perform—n™es de ™l—ssi(™—tion sont les meilleuresF gepend—ntD les des™ripteurs ™onsidérés n9engloE ˜—ient p—s né™ess—irement les mêmes inform—tions élément—ires @™—r—™téristiques élément—ires des ˜—n™s de poissonsD inform—tions glo˜—les sur l9im—geD et™AF he plusD une exy†e — permis de mesurer l9import—n™e de ™h—que des™ripteur éléE ment—ireD ™e qui — expliqué les perform—n™es des méthodesF einsiD il —ur—it été pertinent de ™on™lure p—r une ™omp—r—ison des méthodologies des™riptives en utiE lis—nt les mêmes inform—tions élément—iresF w—lgré toutD ™es tr—v—ux prélimin—ires sont intéress—ntsD ils proposent des ™on™lusions import—ntesD et il y — l9expression d9un p—r—mètre des™riptif origin—lF SF ves résult—ts de l9—ppli™—tion du ™h—pitre V sont mitigés et insu0s—nts pour ™on™lure que notre méthode fon™tionneF v— synthèse de l— se™tion VFSFQ donne
  • 129.
    ™xxix les ™on™lusions et les r—isons qui expliquent le m—nque d9ex—™titudeF gepend—ntD une —utre —ppli™—tion —ur—it été envis—ge—˜le X ™elle de l— ™l—ssi(™—tion d9o˜jet d—ns des im—ges d9—pprentiss—ge pour lesquelles l— présen™e et l9—˜sen™e des ™l—sses est ™onnuesF in e'etD nous —vons montré que notre model de ™l—ssi(™—tion peut être plus perform—nt que le model génér—tif proposé p—r fishop et …lusoy ‘ISR“D il y — don™ des ™h—n™es pour que ™ette —ppli™—tion fon™tionneF Porté des résultats. e plusieurs nive—uxD les tr—v—ux de ™ette thèse ont un fort potentiel de popul—ris—tionF IF ve form—lisme m—thém—tique qui permet de génér—liser plusieurs formes d9—pprenE tiss—ge est intéress—ntF eujourd9huiD —lors que l— pro˜lém—tique de ™l—ssi(™—tion est toujours l— mêmeD iFeF —'e™ter une ™l—sse à une entitéD ˜e—u™oup de modèles sont dédiés à un pro˜lème de ™l—ssi(™—tion p—rti™ulier qui dépend du type de ™omE plexité du jeu d9—pprentiss—ge @superviséD semiEsuperviséD f—i˜lement superviséAF einsiD l9utilis—tion d9un ™l—ssi(eur n9est p—s m—llé—˜leF in ™ours d9utilis—tionD si l— pro™édure de l—˜ellis—tion ™h—ngeD l9—pprentiss—ge du modèle doit ™h—ngerF in rev—n™heD le form—lisme proposé —utorise toute tr—nsvers—lité et ne ™loisonne p—s d—ns une —ppli™—tion donnée qui dépend de l— ™omplexité des jeux d9—pprentiss—geF gette proposition permet don™ d9él—rgir l— vision et devr—it intéresser l— ™ommuE n—uté s™ienti(queF PF ges résult—ts induisent de nom˜reuses —ppli™—tions possi˜lesF xous —vons proposé des modèles de fusion des pro˜—˜ilités pour l9—pprentiss—ge des p—r—mètres des modèles de ™l—ssi(™—tion élément—iresF ges fusions de pro˜—˜ilités ont permis de se pl—™er d—ns le ™ontexte de méthodes exist—ntes dont nous n9—vons p—s ™h—ngé l— théorie fond—ment—leF …ne multitude d9—utres —ppli™—tions peut être envis—géeF €—r exempleD pourquoi ne p—s tr—iter le ™—s de l9—lgorithme ƒiw ‘IU“ à l— pl—™e de l9—lgorithme iw c €ourquoi ne p—s ™hoisir une —utre méthode d9ensem˜le de ™l—ssi(eurs c yn peut im—giner une méthode ˜—sée sur ed—˜oost ‘ISU“F he mêmeD il sem˜le impér—tif de mesurer le ™omportement de tels modèles génér—ux d—ns le ™—s de l9—pprentiss—ge semiEsupervisé et d—ns ™elui des im—ges —nnotées en préE sen™eG—˜sen™eF „outes ™es —ppli™—tions ™onstituent un fort intérêt pour l— ™ommuE n—uté s™ienti(queF QF xos diverses expérien™es sur le sondeur multif—is™e—uxD nous ont permis de qu—ntiE (er l9—pport d9inform—tions dis™rimin—ntes p—r r—pport —u sondeur monof—is™e—uF yrD les org—nismes o™é—nogr—phiques intern—tion—ux utilisent très peu le sondeur multif—is™e—ux d—ns les proto™oles d9o˜serv—tion des o™é—nsF xos tr—v—ux vont don™ ™ontri˜uer à démontrer l9import—n™e de l9utilis—tion de ™et outilF €—r exempleD ™el— doit motiver d—v—nt—ge les experts à ™onsidérer le sondeur multif—is™e—ux d—ns les proto™oles d9év—lu—tion de l— ˜iom—sseF sl en est de même pour le des™ripteur d9—grég—tions proposéD dont nous —vons démontré l9utilitéD et qui peut intéresser l— ™ommun—uté des o™é—nogr—phes qui ™her™hent de nouve—ux outils de dis™rimiE n—tionF RF in —™oustique h—lieutiqueD ™es —lgorithmes d9—pprentiss—ge peuvent être utilisés plus simplementF xous n9—vons p—s réussi à o˜tenir les résult—ts es™omptés pour l9év—lu—tion de l— ˜iom—sseF gepend—ntD pour un jeu de données moins ™omplexes @hSAD les résult—ts ét—ient s—tisf—is—ntsF ves —lgorithmes d9—pprentiss—ge devr—ient
  • 130.
    ™xxx CHAPITRE 9. CONCLUSION GÉNÉRALE Figure 9.1 En classication automatique, un modèle de régression peut être utilisé pour passer de l'espace des descripteurs à l'espace des probabilités. don™ intéresser l— ™ommun—uté des s™ienti(ques o™é—nogr—phes en vue d9une préE ™l—ssi(™—tionD ™omme ™el— est e'e™tué pour l9év—lu—tion de l— ˜iom—sse p—r les expertsF ves jeux de données sont plus simples ™—r ™ert—ines ™l—sses sont ™omposées du regroupement de ™ert—ines espè™esF Futurs travaux. …n ™ert—ins nom˜res de futurs tr—v—ux sont envis—ge—˜lesF IF in termes de nouve—ux modèles de ™l—ssi(™—tionD il sem˜le essentiel de proposer une méthode d9—pprentiss—ge f—i˜lement supervisé pour les ƒ†wF ves m—™hines à ve™teurs de supports ont prouvé leur supériorité pour ˜e—u™oup de jeux de donE néesD et ils sont souvent utilisés de m—nière systém—tique pour des pro˜lèmes de ™l—ssi(™—tion élément—ires ‘PPT“F xous —vons ™on™entré nos e'orts sur les forêts —lé—toires pour lesquelles nous o˜tenions les meilleures perform—n™es de ™l—ssi(™—E tion supervisée pour un jeu de ˜—n™s de poissons @hSAD m—is il est indispens—˜le de proposer une version f—i˜lement supervisée des ƒ†wF ƒ—ns ™el—D ™es tr—v—ux restent in™ompletsF PF ges dernières —nnéesD les modèles de régression ont ˜e—u™oup été utilisés d—ns le dom—ine de l— vision p—r ordin—teur @segment—tion ‘PPU“D estim—tion de l— pose d9un individus ‘PPV“D ™orrespond—n™e de points d9un o˜jet entre im—ges ‘PPW“D lo™—lis—tion d9o˜jets ‘PQH“D et™AF sl ser—it intéress—nt de développer des modèles de ™l—ssi(™—tion —utom—tique fondés sur l9utilis—tion des modèles de régressionF v9idée est que l— fon™tion de régression permette de p—sser dire™tement de l9esp—™e des des™ripteurs à l9esp—™e des pro˜—˜ilitésF ve ™on™ept est représentée d—ns l— (gure WFID l9o˜je™tif est de sép—rer les los—ngesD les étoilesD et les points noirsD pour ™el—D à ™h—que point de l9esp—™e des des™ripteursD ™orrespond un point de l9esp—™e des pro˜—˜ilités de ™l—ssi(™—tionD ™9est ˜ien un pro˜lème de régressionF QF h9—utres te™hniques de des™ription des —grég—tions peuvent être proposéesF €—r exempleD d—ns l— ™ontinuité des tr—v—ux e'e™tués d—ns ™ette thèseD il ser—it intéE
  • 131.
    ™xxxi ress—nt de tr—iterdes modèles qui ™onjuguent à l— fois des —spe™ts lo™—ux @liés —ux ™—r—™téristiques de ™h—que ˜—n™sA et glo˜—ux @liés à l9org—nis—tion des ˜—n™s de poissons d—ns l9im—geAF h—ns un p—pier ‘PQI“D les —uteurs proposent de ™om˜iner les des™ripteurs lo™—ux des régions d9une im—ge et des des™ripteurs glo˜—ux qui dé™rivent le poids des régions d—ns l9im—geF gette idée peut être étendue —u ™—s des —grég—tions de poissons en ™onsidér—nt qu9une région de l9esp—™e est un ˜—n™ de poissonsF v9inform—tion glo˜—leD —lors modélisée p—r l9in)uen™e de ™h—que ˜—n™ d—ns l9im—geD peut être ™omplétée p—r des gr—phes de simil—rités qui représenteE r—ient l9org—nis—tion sp—ti—le des ˜—n™s les uns p—r r—pport —ux —utresF
  • 133.
  • 135.
    Annexe 1 : Etude des paramètres des modèles de classication M 1 2 3 4 5 D1 HFVQ HFVQ HFVQ HFVQ HFVQ D2 HFWQ HFWP HFWP HFWP HFWR D3 HFTW HFUR HFVI HFVQ HFUU D4 HFUV HFVQ HFUW HFVH HFVP D5 HFTS HFTS HFTS HFTS HFTS Moyenne HFUU HFUW HFVH HFVH HFVH Tableau 9.1 Performance de classication supervisée en fonction du para- mètre M (équation 3.1), le nombre de modes dans le mélange de Gaussiennes pour le modèle génératif. N pca 10 20 30 40 50 D1 HFVI HFVW HFVW HFVW HFWH D2 HFWS HFWS HFWP HFWH HFVW D3 HFRT HFSU HFTW HFTU HFUV D4 HFVT HFVT HFVQ HFVU HFVS D5 HFTT HFTV HFTW HFTW HFTW Moyenne HFUR HFUW HFVH HFVH HFVP Tableau 9.2 Performance de classication supervisée en fonction du para- mètre N pca, la dimension de l'espace obtenu à l'aide du noyau Gaussien pour la méthode K-pca (page xxxvi).
  • 136.
    ANNEXE 1 : ™xxxvi ETUDE DES PARAMÈTRES DES MODÈLES DE CLASSIFICATION σ2 0.1 0.5 1 5 10 D1 HFPS HFUH HFVQ HFWH HFWH D2 HFUQ HFWP HFWR HFVW HFVW D3 HFVR HFTQ HFUH HFUV HFTV D4 HFQQ HFRQ HFUP HFVS HFVU D5 HFPW HFSQ HFTT HFTW HFUH Moyenne HFRV HFTR HFUU HFVP HFVH Tableau 9.3 Performance de classication supervisée en fonction du para- mètre σ2 , le paramètre d'échelle du noyau Gaussien pour le modèle discriminant (page xxxvi). T 1 100 200 300 400 D1 HFWH HFWT HFWT HFWT HFWT D2 HFWR HFWQ HFWU HFWQ HFWQ D3 I I I I I D4 HFTS HFVP HFUW HFUV HFVH D5 HFVI HFWH HFWH HFVW HFVW Moyenne HFVT HFWP HFWP HFWI HFWI Tableau 9.4 Performance de classication supervisée en fonction du pa- ramètre T (équation 4.1), le nombre d'arbres de classication considérés dans une forêt aléatoire. Pour cette expérience, la proportion d'exemples utilisés pour l'apprentissage d'un arbre d'une forêt aléatoire, relativement à l'ensemble d'ap- prentissage initiale (cf. section 4.2.2), est de 0.8. Proportion d'exemples d'apprentissage pour 0.5 0.6 0.7 0.8 0.9 1 pour un arbre d'une forêt D1 HFWS HFWS HFWS HFWT HFWS HFWP D2 HFWP HFWP HFWQ HFWU HFWP HFWP D3 I I I I I I D4 HFVT HFVI HFVP HFUW HFVH HFTV D5 HFVW HFVW HFWH HFWH HFVW HFVR Moyenne HFWP HFWI HFWP HFWP HFWI HFVU Tableau 9.5 Performance de classication supervisée en fonction de la proportion d'exemples utilisés pour l'apprentissage d'un arbre de classication d'une forêt aléatoire (cf. section 4.2.2). Pour cette expérience, T = 100.
  • 137.
    ANNEXE 1 : ETUDEDES PARAMÈTRES DES MODÈLES DE CLASSIFICATION ™xxxvii α(3 classes) 0.1 0.4 1 3 8 D1 HFWP HFWI HFWI HFWH HFWI D2 HFUW HFVH HFVI HFVP HFVP D3 HFVT HFVU HFVW HFWR HFWI D4 HFUS HFUQ HFVI HFUU HFUU D5 HFUP HFTW HFTV HFUI HFUQ Moyenne HFVH HFVH HFVP HFVP HFVP Tableau 9.6 Performance de classication faiblement supervisée en fonction du paramètre α (équations (3.54) et (3.55)), le coecient de pondération pour le calcul de l'entropie en chaque noeud des arbres de classication. Pour chaque observation de l'ensemble d'apprentissage faiblement annoté, trois classes sont probables (cf. section 5.4.3).
  • 139.
    Annexe 2 : Probabilités a priori des données d'apprentissage pour diérents niveaux de complexité ixemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF €luE sieurs nive—ux de ™omplexités sont générésD i™i le nive—u de ™omplexité est dé(ni p—r le nive—u de ˜ruit qui est rel—tif à l— v—leur des pro˜—˜ilités — prioriF ves données générées vont du ™—s de l9—pprentiss—ge supervisé —u ™—s équipro˜—˜leD en p—ss—nt p—r deux ™—s d9—pprentiss—ge f—i˜lement superviséD l9un ét—nt moins ™omplexe que l9—utreF h—ns le ™—s de l9—pprentiss—ge superviséD les proportions ™i˜les sont X         1 0 0 0 0  1  0  0         0  0  1  0 0 0 0 1 h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @IAD les proportions ™i˜les sont X         0.7 0.1 0.1 0.1 0.1 0.7 0.1 0.1         0.1 0.1 0.7 0.1 0.1 0.1 0.1 0.7 h—ns le ™—s de l9—pprentiss—ge f—i˜lement supervisé @PAD les proportions ™i˜les sont X                         0.5 0.1 0.1 0.3 0.5 0.3 0.1 0.1 0.5 0.1 0.3 0.1 0.3 0.5 0.1 0.1 0.1 0.5 0.3 0.1 0.1 0.5 0.1 0.3                         0.1 0.3 0.5 0.1 0.1 0.1 0.5 0.3 0.3 0.1 0.5 0.1 0.1 0.1 0.3 0.5 0.3 0.1 0.1 0.5 0.1 0.3 0.1 0.5 h—ns le ™—s équipro˜—˜leD les proportions ™i˜les sont X   0.25 0.25   0.25 0.25
  • 141.
    Annexe 3 : Probabilités a priori des données d'apprentissage en fonction du nombre de classes par mélanges ixemple de proportions ™i˜les pour un jeu de données qui ™ontient R ™l—ssesF €luE sieurs nive—ux de ™omplexités sont générésD i™i le nive—u de ™omplexité est dé(ni p—r le nom˜re de ™l—sses pro˜—˜les d—ns les mél—ngesD tel que le nive—u de ˜ruit rel—tif à l— v—leur des pro˜—˜ilités — priori soit très v—ri—˜le d9un exemple à l9—utreF h—ns le ™—s d9un mél—nge à I ™l—sseD les proportions ™i˜les sont X         1 0 0 0 0  1  0  0         0  0  1  0 0 0 0 1 h—ns le ™—s d9un mél—nge à P ™l—ssesD les proportions ™i˜les sont X                                 0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4 0 0 0 0 0.1 0.9 0.4 0.6  0   0   0   0   0   0   0               0  0.9 0.1 0.6 0.4                      0   0   0   0  0.1 0.9 0.4 0.6  0   0   0   0  0.1 0.9 0.4 0.6 0 0 0 0 0 0 0 0 0.1 0.9 0.4 0.6 0 0 0 0                 0 0 0 0 0 0 0 0 0.9 0.1 0.6 0.4  0   0   0   0                   0   0   0   0  0.9 0.1 0.6 0.6 0.1 0.9 0.4 0.6 0.1 0.9 0.4 0.4 h—ns le ™—s d9un mél—nge à Q ™l—ssesD les proportions ™i˜les sont X                             0.9 0.05 0.05 0.4 0.3 0.3 0.9 0.05 0.05 0.4 0.3 0.3 0.9 0.05 0.05  0.9  0.05 0.3 0.4 0.3  0   0   0   0   0   0  0.05  0.9                              0.05 0.05  0.9  0.3 0.3 0.4 0.05  0.9  0.05 0.3 0.4 0.3  0   0  0 0 0 0 0 0 0.05 0.05 0.9 0.3 0.3 0.4 0.05 0.05                     0.05 0.4 0.3 0.3 0 0 0 0 0 0 0.05 0.3 0.4 0.3  0.9  0.05 0.05 0.4 0.3 0.3                      0   0   0   0  0.05  0.9  0.05 0.3 0.4 0.3 0.9 0.3 0.3 0.4 0.05 0.05 0.9 0.3 0.3 0.4 h—ns le ™—s d9un mél—nge à R ™l—ssesD les proportions ™i˜les sont X
  • 142.
    ANNEXE 3 : PROBABILITÉS e €‚sy‚s DES DONNÉES D'APPRENTISSAGE EN ™xlii FONCTION DU NOMBRE DE CLASSES PAR MÉLANGES                         0.85 0.05 0.05 0.05 0.4 0.2 0.2 0.2 0.4 0.3 0.2 0.1 0.05 0.85 0.05 0.05 0.2 0.4 0.2 0.2 0.1 0.4 0.3 0.2                         0.05 0.05 0.85 0.05 0.2 0.2 0.4 0.2 0.2 0.1 0.4 0.3 0.05 0.05 0.05 0.85 0.2 0.2 0.2 0.4 0.3 0.2 0.1 0.4
  • 143.
    Annexe 4 : Charactéristiques des chalutages. h—ns un premier tempsD nous tr—çons les ˜iom—sses p—r espè™e en fon™tion de l9inE di™e du ™h—lut—geD et les proportions de ˜iom—sse p—r espè™e en fon™tion de l9indi™e du ™h—lut—geF €uisD nous tr—çons le nom˜re de ˜—n™s de poissons d—ns une im—ge en fon™tion de l9indi™e du ™h—lut—geF Figure 9.2 Biomasse de Sardine en fonction du chalutage et probabilité a priori de la sardine dans les images de chalutage.
  • 144.
    ANNEXE 4 : ™xliv CHARACTÉRISTIQUES DES CHALUTAGES. Figure 9.3 Biomasse de Chinchard en fonction du chalutage et probabilité a priori de la Chinchard dans les images de chalutage. Figure 9.4 Biomasse de Maquereau en fonction du chalutage et probabilité a priori de la Maquereau dans les images de chalutage.
  • 145.
    ANNEXE 4 : CHARACTÉRISTIQUESDES CHALUTAGES. ™xlv Figure 9.5 Biomasse de Anchois en fonction du chalutage et probabilité a priori de la Anchois dans les images de chalutage. Figure 9.6 Biomasse d'espèce négligeable en fonction du chalutage et pro- babilité a priori de l'espèce négligeable dans les images de chalutage.
  • 146.
    ANNEXE 4 : ™xlvi CHARACTÉRISTIQUES DES CHALUTAGES. Figure 9.7 Quantité de bancs de poissons en fonction de l'indice du chalu- tage.
  • 147.
    Annexe 5 : Corrélationentre l'évaluation de biomasse de l'expert et des algorithmes.
  • 148.
    ANNEXE 5 : ALUATION DE BIOMASSE DE L'EXPERT ET DES ALGORITHMES. Soft Hard Cood. Bur- Ri- Géné- Optimi- Kpca/ FA FA+ FA+ Moyenne géogra- gos pley ratif sation Fisher Fisher Ité- phiques Kpca/ ratif Fisher 1 0 0 0 0 HFRVP HFSHV HFRTQ HFRWV HFSIQ HFRWQ 0.492 1 0 0 0 1 HFRTW HFSIT HFRVI HFRVR HFRTU HFRUW 0.482 1 0 0 1 0 HFRUP HFSHQ HFRWS HFRWS HFRWV HFRTR 0.487 1 0 0 1 1 HFRVR HFSIT HFRVW HFRUS HFRTR 0.521 0.491 1 0 1 0 0 HFRTU HFSIP HFRWR HFRVV HFRVQ HFRTR 0.484 1 0 1 0 1 HFRVR HFSIW HFRUP HFRTS HFRVS HFRSV 0.480 1 0 1 1 0 HFRUP HFSHP HFSHH HFRTI HFRVH HFRTI 0.479 1 0 1 1 1 HFRVR HFSIQ HFRVR HFRTT HFRWI HFRSV 0.482 Moyenne 0.476 0.511 0.484 0.479 0.485 0.474 HFRVR 0 1 0 0 0 HFRPW 0.526 HFRRI HFRSW0.463 HFRSW HFRTU 0 1 0 0 1 HFRUW HFSPI HFRUT HFSHH0.486 HFRUV HFRTT 0 1 0 1 0 HFQWI HFSHW HFSHU HFRRU0.459 HFRST HFRRW 0 1 0 1 1 HFRUS HFSHT HFSHS HFRUT0.481 HFRTU HFRTH 0 1 1 0 0 HFRSW HFSII HFSHT HFRTP0.470 HFRRW HFRQS 0 1 1 0 1 HFRVH HFRWR HFRWS HFRPS0.464 HFRTH HFRQQ 0 1 1 1 0 HFQWP HFRWU HFRWT HFRQI0.443 HFRPS HFRPP CORRÉLATION ENTRE L'ÉV 0 1 1 1 1 HFRUU HFRWT HFSHR HFRPS0.469 HFRSV HFRSS Moyenne 0.447 0.507 0.491 0.453 0.456 0.448 HFRTT Tableau 9.7 Pour des probabilités a priori de classication issus d'une pro- portion de biomasse, les Coecients de corrélation moyens (cf. équation (8.17)) sont achés pour un calcul souple ou dur de la biomasse (cf. équa- tions (8.8) et (8.7)), pour diérentes combinaisons de descripteurs, et pour plusieurs classieurs. La corrélation représente la similarité entre l'estimation de biomasse de l'expert et celle déterminée de manière algorithmique. Plus cette corrélation est élevée, plus l'estimation est similaire. ™xlviii
  • 149.
    Soft Hard Cood. Bur- Ri- Géné- Optimi- Kpca/ FA FA+ FA+ Moyenne ANNEXE 5 : géogra- gos pley ratif sation Fisher Fisher Ité- phiques Kpca/ ratif Fisher 1 0 0 0 0 HFRST HFSIT HFRUT HFRWV HFRVW HFSHH 0.489 1 0 0 0 1 HFRVW 0.517 HFRWS HFRTR HFRTW HFRVV 0.487 DES ALGORITHMES. 1 0 0 1 0 HFRUQ HFSHV HFRVT HFRTV HFRUV HFRST 0.478 1 0 0 1 1 HFRUS HFSIR HFSHH HFRTH HFRTW HFRUT 0.482 1 0 1 0 0 HFRSI HFSIS HFRVV HFSHP HFRWR HFRWS 0.490 1 0 1 0 1 HFRVH HFSIH HFRVP HFRWT HFRWT HFRWQ 0.492 CORRÉLATION ENTRE L'ÉV 1 0 1 1 0 HFRUU HFSHV HFSHP HFSHI HFRUW HFRVP 0.491 1 0 1 1 1 HFRUI HFSIS HFRVV HFSHP HFRWR HFRWS 0.494 Moyenne 0.471 0.512 0.489 0.486 0.483 0.485 0 1 0 0 0 HFRQQ 0.513 HFSIQ HFRQI HFRST HFRVT 0.472 0 1 0 0 1 HFRVI HFSHR HFRWH HFRIT HFRTT HFRRR 0.466 0 1 0 1 0 HFRSI HFRVV HFSHH HFRRQ HFRUH HFRHH 0.458 0 1 0 1 1 HFRUS HFSHR HFSHS HFRHP HFRUT HFRQQ 0.465 0 1 1 0 0 HFQVV HFRVT HFRWQ HFRUQ HFRUW HFRTQ 0.463 0 1 1 0 1 HFRUT HFRWQ HFRUR HFRPT HFRVT HFRTI 0.496 0 1 1 1 0 HFRSS HFRWH HFRWI HFRTW HFRRH HFRRS 0.465 0 1 1 1 1 HFRVR HFRVT HFRWQ HFRUQ HFRUW HFRTQ 0.479 Moyenne 0.455 0.495 0.494 0.441 0.469 0.449 Tableau 9.8 Pour des probabilités a priori de classication issus d'une pro- portion d'énergie, les Coecients de corrélation moyens (cf. équation (8.17)) sont achés pour un calcul souple ou dur de la biomasse (cf. équa- tions (8.8) et (8.7)), pour diérentes combinaisons de descripteurs, et pour plusieurs classieurs. La corrélation représente la similarité entre l'estimation de biomasse de l'expert et celle déterminée de manière algorithmique. Plus cette corrélation est élevée, plus l'estimation est similaire. ALUATION DE BIOMASSE DE L'EXPERT ET ™xlix
  • 151.
    Bibliographie ‘I“ qFƒh—ferD e m—them—ti™—l theory of eviden™eF €rin™eton …niversity €ressD IWUTF ‘P“ sF …lusoy —nd gF fishopD qener—tive versus dis™rimin—tive methods for o˜je™t re™ognitionD €ro™eedings of the PHHS Iiii gomputer ƒo™iety gonferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF PSV!PTSD PHHSF ¶ ‘Q“ yF gh—pelleD fF ƒ™hà lkopfD —nd eF ienD ƒemiEsupervised le—rningF ws„ €ressD PHHTF ‘R“ iF idgeworthD yn the pro˜—le errors of frequen™yE™onst—ntsD tourn—l of the roy—l st—tisti™ so™ietyD volF UID noF QD ppF RWW!SIPD IWHVF ‘S“ D yn the pro˜—le errors of frequen™yE™onst—ntsD tourn—l of the roy—l st—tisti™ so™ietyD volF UID noF RD ppF RWW!SIPD IWHVF ‘T“ vF ƒ—v—geD yn rere—ding rF—F (sherD „he enn—ls of ƒt—tisti™sD volF RD noF QD ppF RRI!SHHD IWUTF ‘U“ tF €r—ttD pFyF edgeworth —nd rF—F (sher on the e0™ien™y of m—ximum likelihood estim—tionD „he enn—ls of ƒt—tisti™sD volF RD noF QD ppF SHI!SIRD IWUTF ‘V“ ƒF ƒtiglerD pr—n™is ysidro edgeworthD st—tisti™i—nD tourn—l of the roy—l st—tisti™ so™ietyD volF IRID noF QD IWUVF ‘W“ D „he history of st—tisti™s X the me—surement of un™ert—inty ˜efore IWHHD r—rv—rd …niversity €ressD IWVTF ‘IH“ D ƒt—tisti™s on the t—˜le X the history of st—tisti™—l ™on™epts —nd methodsD r—rv—rd …niversity €ressD IWWWF ‘II“ eF r—ldD e history of m—them—ti™—l st—tisti™s from IUSH to IWQHF ‡ileyD IWWVF ‘IP“ D yn the history of m—ximum likelihood in rel—tion to inverse pro˜—˜ility —nd le—st squ—resD ƒt—tisti™—l ƒ™ien™eD volF IRD noF PD IWWWF ‘IQ“ tF eldri™hD ‚F—F (sher —nd the m—king of m—ximum likelihoodD ƒt—tisti™—l ƒ™ien™eD volF IPD noF QD ppF ITP!IUTD IWWUF ‘IR“ eF hempsterD xF v—irdD —nd hF ‚u˜inD w—ximum likelihood from in™omplete d—t— vi— the em —lgorithmD tourn—l of the roy—l st—tisti™ so™ietyD volF QWD ƒeries fD noF ID ppF I!QVD IWUUF ‘IS“ ‚F xe—l —nd qF rintonD e view of the iw —lgorithm th—t justi(es in™rement—lD sp—rse —nd other v—ri—ntsF uluwer e™—demi™ €u˜lishersD IWWVF ‘IT“ qF w™ v—™hl—n —nd „F urishn—nD „he iw —lgorithm —nd extentionsF ‡ileyD IWWUF
  • 152.
    ™lii BIBLIOGRAPHIE ‘IU“ qF geleux —nd hF hie˜oltD „he sem —lgorithm X — pro˜—˜ilisti™ te—™her —lgorithm derived from the em —lgorithm for the mixture pro˜lemF gomput—tion—l ƒt—tisti™s u—rterlyD volF PD noF ID ppF UQ!VPD IWVSF ‘IV“ wF t—mshidi—n —nd ‚F tennri™hD gonjug—te gr—dient —™™eler—tion of the em —lE gorithmD tourn—l of the emeri™—n ƒt—tisti™i—l —sso™i—tionD volF VVD ppF PPI!PPVD IWWQF ‘IW“ D u—siEnewton —™™eler—tion of the em —lgorithmD tourn—l of the roy—l st—E tisti™ so™ietyD volF SW@fAD ppF STW!SVUD IWWUF ‘PH“ ˆFEvF weng —nd hF ‚u˜inD w—ximum likelihood estim—tion vi— the e™m —lgoE rithm X e gener—l fr—meworkD fiometrik—D volF VHD noF PD ppF PTU!PUVD IWWQF ‘PI“ wF w—ronD eutom—ti™ indexing X —nexperiment—l inquiryD tourn—l of the essoE ™i—tion for gomputing w—™hineryD volF VD noF QD ppF RHR!RIUD IWTIF ‘PP“ €F homingos —nd wF €—zz—niD yn the optim—lity of the simple ˜yesi—n ™l—ssi(er under zeroEone lossD w—™hine ve—rningD volF PWD ppF IHQ!IQUD IWWUF ‘PQ“ hF r—nd —nd uF ‰uD sdiot9s ˜—yes E not so stupid —fter —ll c sntern—tion—l ƒt—E tisti™—l ‚eviewD volF TWD noF QD ppF QVS!QWWD PHHIF ‘PR“ €F uotsi—ntis —nd €F €intel—sD vogit˜oost of simple ˜—yesi—n ™l—ssi(erD gomE put—tion—l sntelligen™e in h—t— mining ƒpe™i—l sssue of the snform—ti™— tourn—lD volF PWD noF ID ppF SQ!SWD PHHSF ‘PS“ tF xeville —nd hF tensenD ster—tive ™l—ssi(™—tion in rel—tion—l d—t—D eees workE shop on le—rning stitisti™—l models from rel—tion—l d—t—D ppF RP!RWD PHHHF ‘PT“ qF tohn —nd €F v—ndleyD istim—ting ™ontinuous distri˜utions in ˜—yesi—n ™l—ssiE (ersD €ro™eedings of the IIth gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD ppF QQV!QRSD IWWSF ‘PU“ qF ‡e˜˜D tF foughtonD —nd F ‡—ngD xot so n—ive ˜—yes X —ggreg—ting oneE dependen™e estim—torsD w—™hine ve—rningD volF SVD noF ID ppF S!PRD PHHSF ‘PV“ hF fleiD eF xgD —nd wF tord—nD v—tent diri™hlet —llo™—tionD tourn—l of w—™hine ve—rning ‚ese—r™hD volF QD ppF WWQ!IHPPD PHHQF ‘PW“ „F rofm—nnD €ro˜—˜ilisti™ l—tent sem—nti™ intexingD €ro™eedings of the twentyE se™ond —nnu—l intern—tion—l ƒsqs‚ ™onferen™e on rese—r™h —nd development in inform—tion retrievi—lD IWWWF ‘QH“ „F qri0ths —nd wF ƒteyversD pinding s™ienti(™ topi™sD €ro™eedings of the n—E tion—l —™—demy of s™ien™esD volF IHID ppF SPPV!SPQSD PHHRF ‘QI“ „F wink— —nd tF v—'ertyD ixpe™t—tionEprop—g—tion for the gener—tive —spe™t moE delD €ro™eedings of the IIth gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD PHHPF © © © © ‘QP“ †F †—ndew—lleD ƒÃ le™tion prà di™tive d9un modäle gà nà r—tif p—r le © ™ritäre —i™pD RIäme tournà e de ƒt—tistiqueD snri—D forde—uD PHHWF ‘QQ“ wF ƒtoneD grossEv—lid—tion ™hoi™e —nd —ssessment of st—tisti™—l predi™tionsD tourn—l of the roy—l st—tisti™ so™ietyD volF QTD ppF III!IRUD IWURF ‘QR“ rF ek—ikeD snform—tion theory —nd —n extension of the m—ximum likelihood prin™ipleD Pnd sntern—tion—l ƒymposium on snform—tion „heoryD ppF PT!PVID IWURF
  • 153.
    BIBLIOGRAPHIE ™liii ‘QS“ qF ƒ™hw—rzD istim—ting the dimension of — modelD enn—ls of ƒt—tisti™sD volF TD noF PD ppF RTI!RTRD IWUVF ‘QT“ ‚F pisherD „he use of multiple me—surements in t—xonomi™ pro˜lemsD enn—ls of iugeni™sD ppF IUW!IVVD IWQTF ‘QU“ ‚F hu˜—D €F r—rtD —nd hF ƒtorkD €—ttern ™l—ssi(™—tionF ‡iley snters™ien™eD PHHHF ‘QV“ qF w™v—™hl—nD his™rimin—nt —n—lysis —nd st—tisti™—l p—ttern re™ognitionF ‡iley snters™ien™eD PHHRF ‘QW“ fF foserD sF quyonD —nd †F †—pnikD e tr—ining —lgorithm for optim—l m—rgin ™l—ssi(erD pifth ennu—l ‡orkshop on gomput—tion—l ve—rning „heoryD ppF IRR! ISPD IWWPF ‘RH“ †F †—pnikD „he n—ture of st—tisti™—l le—rning theoryF xE‰ X ƒpringerE†erl—gD IWWSF ‘RI“ †F †—pnik —nd eF vernerD €—ttern re™ognition using gener—lized portr—it meE thodD eutom—tion —nd ‚emote gontrolD volF PRD ppF UUR!UVHD IWTQF ‘RP“ ‚F hud— —nd €F r—rtD €—ttern ™l—ssi(™—tion —nd s™ene —n—lysisF ‡ileyD IWUQF ‘RQ“ tF wer™erD pun™tions of positive —nd neg—tive type —nd their ™onne™tion with the theory of integr—l —qu—tionsD tourn—l of ‚oy—l ƒo™iety vondonD volF PHWD ppF RIS!RRTD IWHWF ‘RR“ wF eizerm—nD iF fr—verm—nD —nd vF ‚ozonoerD „heoreti™—l found—tions of the potenti—l fun™tion method in p—ttern re™ognition le—rningD eutom—tion —nd ‚eE mote gontrolD volF PSD ppF VPI!VQUD IWTRF ‘RS“ gF gortes —nd †F †—pnikD ƒupportEve™tor networkD w—™hine ve—rningD volF PHD ppF PUQ!PWUD IWWSF ¶ ‘RT“ fF ƒ™hà lkopf —nd eF ƒmol—D ve—rning with uernelsF „he ws„ €ressD PHHPF ‘RU“ tF ferksonD eppli™—tion of the logisti™ fun™tion to ˜ioE—ss—yD tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF QWD ppF QSU!QTSD IWRRF ‘RV“ D w—ximum likelihood —nd minimum χ2 Eestim—tes of the logisti™ fun™tionD tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF SHD ppF IQH!ITPD IWSSF ‘RW“ „F ememiy—D u—lit—tive response models X — surveyD tourn—l of i™onomi™ liter—tureD volF IWD ppF IRVQ!ISQTD IWVIF ‘SH“ tF ril˜eD vogisti™ regression modelsF gh—pm—n —nd r—llGg‚g €ressD PHHWF ‘SI“ gF fishopD €—ttern re™ognition —nd m—™hine le—rningF ƒpringerD PHHTF ‘SP“ „F hietteri™h —nd qF f—kiriD ƒolving multi™l—ss le—rning pro˜lems vi— errorE ™orre™ting output ™odesD tourn—l of erti(™i—l sntelligen™eD volF PD ppF PTQ!PVTD IWWSF ‘SQ“ uF gr—mer —nd ‰F ƒingerD yn the —lgorithmi™ implement—tion of multi™l—ss kernelE˜—sed ve™tor m—™hinesD tourn—l of w—™hine ve—rning ‚ese—r™hD volF PD ppF PTS!PWPD PHHIF ¶ ‘SR“ fF ƒ™hà lkopfD eF ƒmol—D —nd uF wullerD uernel prin™ip—l —n—lysisD edv—n™es in uernel wethodsEƒupport †e™tor ve—rningD ws„ €ressD ppF QPU!QSPD IWWWF ‘SS“ fF ƒ™hölkopfD eF ƒmol—D —nd uFE‚F wüllerD xonline—r ™omponent —n—lysis —s — kernel eigenv—lue pro˜lemD xeur—l gomput—tionD volF IHD ppF IPWW!IQIWD IWWVF
  • 154.
    ™liv BIBLIOGRAPHIE ‘ST“ uF €e—rsonD yn lines —nd pl—nes of ™losest (t to systems of points in sp—™eD €hilosophi™—l w—g—zineD volF PD noF TD ppF SSW!SUPD IWHIF © ‘SU“ ‰F ve gunD …ne pro™Ã dure d9—pprentiss—ge pour rà ©se—u à seuil © —symà triqueD gognitiv—VSD IWVSF ‘SV“ hF ‚umelh—rtD €—r—llel distri˜uted pro™essing X explor—tion in the mi™rostru™ture of ™ognitionF ws„ €ressD IWVTF ‘SW“ tF enderson —nd iF ‚osenfeldD xeuro ™omputing fund—tions of rese—r™hF ws„ €ressD IWVVF ‘TH“ ‰F ve gunD tF henkerD —nd ƒF ƒoll—D yptim—l ˜r—in d—m—geD €ro™eedings of the xeur—l snform—tion €ro™eeding ƒystemsEPD ppF SWV!THSD IWWHF ‘TI“ fF r—ssi˜i —nd hF ƒtorkD edv—n™es in neur—l inform—tion pro™essing systemsD ƒFtF r—nsonD tFhF gow—n —nd gFvF qilles @iditionsAD volF SD pF ITRD IWWQF ‘TP“ „F goverD xe—rest neigh˜or p—ttern ™l—ssi(™—tionD „r—ns—™tions on snform—tion theoryD volF IQD noF ID ppF PI!PUD IWTUF ‘TQ“ iF hez— —nd wF hez—D hi™tion—ry of dist—n™esF ilsevierD PHHTF ‘TR“ eF fh—tt—™h—ryy—D yn — me—sure of divergen™e ˜etween two st—tisti™—l popul—E tions de(ned ˜y pro˜—˜ility distri˜utionsD fullF g—l™utt— w—thsF ƒo™FD volF QSD ppF WW!IHWD IWRQF ‘TS“ ƒF uull˜—™kD vetter to the editor X „he kull˜—™kElei˜ler dist—n™eD „he emeri™—n ƒt—tisti™i—nD volF RID noF RD ppF QRH!QRID IWVUF ‘TT“ tF fentleyD wultidimention—l ˜in—ry se—r™h trees used for —sso™i—tive se—r™hingD gommuni™—tion on the esso™i—tion for gomputing w—™hineryD volF IVD noF WD ppF SHW!SIUD IWUSF ‘TU“ „F ƒeidl —nd rF uriegelD yptim—l multiEstep kEne—rest neigh˜or se—r™hD snterE n—tion—l gonferen™e on w—n—gement of h—t—D ppF ISR!ITSD IWWVF ‘TV“ vF freim—nD tF priedm—nD ‚F ylshenD —nd gF ƒtoneD gl—ssi(™—tion —nd regression treesF gh—pm—n 8 r—llFD IWVRF ‘TW“ tF uinl—nD sndu™tion of de™ision treesD w—™hine ve—rningD volF ID noF ID ppF VI!IHTD IWVTF ‘UH“ D gRFS X €rogr—ms for m—™hine le—rningD worg—n u—ufm—nn €u˜lishersD IWWQF ‘UI“ qF u—ssD en explor—tory te™hnique for invesg—ting l—rge qu—ntities of ™—tegori™—l d—t—D tourn—l of —pplied st—tisti™sD volF PWD noF PD ppF IIW!IPUD IWVHF ‘UP“ ‡FE‰F voh —nd ‰FE‰F ƒhihD ƒplit sele™tion methods for ™l—ssi(™—tion treesD ƒt—E tisti™— ƒini™—D volF UD ppF VIS!VRHD IWWUF ‘UQ“ rF veveneD ‚o˜ust tests for equ—lity of v—ri—n™esD ƒt—nford …niversity €ressF gontri˜utions to pro˜—˜ility —nd ƒt—tisti™s X iss—ys in ronor of r—rold rotellingD ppF PUV!PWPD IWTHF ‘UR“ ƒF wurthyD ƒF u—sifD —nd ƒF ƒ—lz˜ergD e system for indu™tion of o˜lique treesD tourn—l of erti(™i—l sntelligen™e ‚ese—r™hD volF PD ppF I!QPD IWWRF
  • 155.
    BIBLIOGRAPHIE ™lv ‘US“ uF fennet —nd „F flueD e support ve™tor m—™hine —ppro—™h to de™ision treesD siii sntern—tion—l toint gonferen™e on xeur—l xetworks €ro™eedings siii ‡orld gongress on gomput—tion—l sntelligen™eD volF PD ppF VVH!VVRD IWWVF ‘UT“ ‡F ‡uD xF fennetD xF gristi—niniD —nd tF ƒh—weE„—ylorD v—rge m—rgin trees for indu™tion —nd tr—nsdu™tionD €ro™eedings of the ƒixth sntern—tion—l gonferen™e on w—™hine ve—rningD ppF RUR!RVQD IWWWF ‘UU“ yF ‰ildiz —nd iF elp—ydinD vine—r dis™rimin—nt treesD €ro™eedings of the ƒevenE teenth sntern—tion—l gonferen™e on w—™hine ve—rningD ppF IIUS!IIVPD PHHHF ‘UV“ tF t—ngD ƒtru™ture determin—tion in fuzzy modeling X — fuzzy ™—rt —ppro—™hD €ro™eedings of the siii gonferen™e on puzzy ƒystemsD ppF RVH!RVSD IWWRF ‘UW“ ‚F ‡e˜erD puzzyEidQ X — ™l—ss of methods for —utom—ti™ knowledge —™quisitionD sn €ro™eedings Pnd sntern—tion—l gonferen™e on puzzy vogi™ —nd xeur—l xetE worksD ppF PTS!PTVD IWWPF ‘VH“ gF t—nikowD puzzy de™ision trees X issues —nd methodsD siii „r—ns—™tion on ƒystemsD w—nD —nd gy˜erneti™sD €—rt f X gy˜erneti™sD volF PVD noF ID ppF I!IRD IWWVF ‘VI“ hF v—n de †l—g —nd eF ƒteinD sn™orporing un™ert—inty vi— hier—r™hi™—l ™l—ssi(E ™—tion using fuzzy de™ision treesD siii „r—ns—™tion on qeos™ien™e —nd ‚emote ƒensingD volF RSD noF ID ppF PQU!PRSD PHHUF © ‘VP“ ƒF „u'à ryD h—t— mining et st—tistique dà ©™isionnelle E v9intelligen™e d—ns les © ˜—ses de donnà esF „e™hnipD PHHSF ‘VQ“ €F ven™—D ƒF v—lli™hD —nd fF †—ill—ntD gonstru™tion of —n o'E™entered entropy for the supervised le—rning of im˜—l—n™ed ™l—ssed X some (rst resultsD gommuni™—E tions in ƒt—tisti™s E „heory —nd methodsD volF QWD noF QD PHIHF ‘VR“ eF viuD tF qhoshD —nd gF w—rtinD qener—tive overs—mpling for mining un˜—l—n™ed d—t—setsD sntern—tion—l gonferen™e on h—t— winingD ppF TT!UPD PHHUF ‘VS“ wF uu˜—t —nd ƒF w—twinD eddressing the ™urse of im˜—l—n™ed d—t— set X oneE sided s—mplingD sntern—tion—l gonferen™e on w—™hine ve—rningD ppF IUW!IVTD IWWUF ‘VT“ tF wingerD en empiri™—l ™omp—rison of pruning methods for de™ision tree indu™E tionD w—™hine ve—rningD volF RD noF PD ppF PPU!PRQD IWVWF ‘VU“ pF ispositoD hF w—ler˜—D —nd qF ƒemer—roD e ™omp—r—tive —n—lysis of methodsD siii „r—ns—™tions on €—ttern w—™hine sntelligen™eD volF IWD noF SD ppF RUT!RWID IWVUF ‘VV“ „F ˆi—ng —nd ƒF qongD wodel sele™tion for unsupervised le—rning of visu—l ™ontextD sntern—tion—l tourn—l of gomputer †isionD volF TWD noF PD ppF IVI!PHID PHHSF ‘VW“ rF ek—ikeD snform—tion theory —nd —n extension of m—ximum likelihood prinE ™ipleD Pnd sntern—tion—l ƒymposium on snform—tion „heoryD ppF PTU!PVID IWUQF ‘WH“ qF willig—n —nd wF gooperD en ex—min—tion of pro™edures for determining the num˜er of ™lusters in — d—t— setD €sy™hometrik—D volF SVD noF PD ppF ISW!IUWD IWVSF
  • 156.
    ™lvi BIBLIOGRAPHIE ‘WI“ €F ‚ousseeuwD ƒilhouettes X — gr—phi™—l —id to the interpret—tion —nd v—lid—tion of ™luster —n—lysisD tourn—l of gomput—tion—l —nd epplied w—them—ti™sD volF PHD ppF SQ!TSD IWVUF ‘WP“ „F v—ngeD †F ‚othD wF fr—unD —nd tF fuhm—nnD ƒt—˜ilityE˜—sed v—lid—tion of ™lustering solutionsD xeur—l gomput—tionD volF ITD noF TD ppF IPWW!IQPQD PHHTF ‘WQ“ eF idw—rd —nd vF g—v—lliEƒforz—D e method for ™luster —n—lysisD fiometri™sD volF PID ppF QTP!QUSD IWTSF ‘WR“ tF ‡—rdD rier—r™hi™—l grouping to optimize —n o˜je™tive fun™tionD tourn—l of the emeri™—n ƒt—tisti™—l esso™i—tionD volF SVD ppF PQT!PRRD IWTQF ‘WS“ vF freim—nD ‚—ndom forestsD w—™hine ve—rningD volF RSD pF S XQPD PHHIF ‘WT“ „F ƒhi —nd ƒF rorv—thD …nsupervised le—rning with r—ndom forest predi™torsD tourn—l of gomput—tion—l —nd qr—phi™—l ƒt—tisti™sD volF ISD noF ID ppF IIV!IQVD PHHTF ‘WU“ ƒF vloydD ve—st squ—re qu—ntiz—tion in p™mD siii „r—ns—™tions on snform—tion „heoryD volF PVD noF PD ppF IPW!IQUD IWVPF ‘WV“ tF r—rtig—nD glustering —lgorithmsD ‡illeyD IWUSF ‘WW“ „F u—nungoD hF wountD xF xet—ny—huD gF €i—tkoD ‚F ƒilverm—nD —nd eF ‡uD en e0™ient kEme—ns ™lustering —lgorithm X en—lysis —nd implement—tionD siii „r—ns—™tions on €—ttern en—lysis —nd w—™hine sntelligen™eD volF PRD ppF VVI!VWPD PHHPF ‘IHH“ hF erthur —nd ƒF †—ssilvitskiiD uEme—nsCC X the —dv—nt—ges of ™—reful seedingD €ro™eedings of the eighteenth —nnu—l egwEƒsew symposium on his™rete —lgoE rithmsD ppF IHPU!IHQSD PHHUF ‘IHI“ tF fezdekD €—ttern re™ognition with fuzzy o˜je™tive fun™tion —lgorithmsD uluwer e™—demi™ €u˜lishersD xorwelD weD IWVIF ‘IHP“ ‚F hud—D €F r—rtD —nd hF ƒtorkD €—ttern ™l—ssi(™—tionF ‡ileyD PHHHF ‘IHQ“ sF q—th —nd fF qev—D …nsupervised optim—l fuzzy ™lusteringD siii „r—ns—™tions on €—ttern en—lysis —nd w—™hine sntelligen™eD volF IID noF UD ppF UUQ!UVID IWVWF ‘IHR“ ƒF qross˜ergD ed—pt—tive p—ttern ™l—ssi(™—tion —nd univers—l re™oding X sF p—r—lE lel development —nd ™oding of neur—l fe—ture dete™torsD fiologi™—l gy˜erneti™sD volF PQD ppF IPI!IQRD IWUTF ‘IHS“ „F uohonenD ƒelfEorg—nized form—tion of topologi™—lly ™orre™t fe—ture m—psD fiologi™—l gy˜erneti™sD volF RTD ppF SW!TWD IWVPF ‘IHT“ D ƒelfEorg—niz—tion m—psD ferlin X ƒpringerE†erl—gD volF QHD IWWSF ‘IHU“ gF fishopD xeur—l networks for p—ttern re™ognitionD g—m˜ridge …niversity €ressD IWWSF ‘IHV“ wF ‡e˜erD wF ‡ellingD —nd €F €eron—D …nsupervised le—rning of models for o˜je™t re™ognitionD iurope—n gonferen™e on gomputer †isionD volF ID ppF IV!QPD PHHHF ‘IHW“ D „ow—rds —utom—ti™ dis™overy of o˜je™t ™—tegoriesD gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF IHI!IHVD PHHHF ‘IIH“ tF €on™eD wF re˜ertD gF ƒ™hmidD —nd eF iserm—nD „ow—rd ™—tegoryElevel o˜je™t re™ognitionF ve™ture xotes in gomputer ƒ™ien™eD ƒpringerD PHHTF
  • 157.
    BIBLIOGRAPHIE ™lvii ‘III“ vF quD iF ˆingD —nd „F u—n—deD ve—rning gmrf stru™tures for sp—ti—l priorsD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD ppF I!TD PHHUF ‘IIP“ eF ƒhiv—ni —nd hF ‚othD ve—rning — sp—rse represent—tion for o˜je™t dete™tionD iurope—n gonferen™e on gomputer †isionD ƒpringerD PHHPF ‘IIQ“ wF †id—lEx—quet —nd ƒF …llm—nnD y˜je™t re™ognition with inform—tive fe—tures —nd line—r ™l—ssi(™—tionD sntern—tion—l gonferen™e on gomputer †isionD PHHQF ‘IIR“ eF ypeltD wF pusseneggerD eF €inzD —nd €F euerD ‡e—k hypothäses —nd ˜ooE sying for generi™ o˜je™t dete™tion —nd re™ognitionD iurope—n gonferen™e on gomE puter †isionD PHHRF ‘IIS“ eF f—rErillel —nd hF ‡einsh—llD i0™ient le—rning of rel—tion—l o˜je™t ™l—ss moE delsD sntern—tion—l tourn—l of gomputer †isionD volF UUD noF IEQD ppF IUS!IWVD PHHVF ‘IIT“ ‚F pergusD €F €eron—D —nd eF isserm—nD y˜je™t ™l—ss re™ognition ˜y unsuperviE sed s™—le inv—ri—nt le—rningD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD PHHQF ‘IIU“ D ‡e—kly supervised s™—ledEinv—ri—nt le—rning of models for visu—l re™ogE nitionD sntern—tion—l tourn—l of gomputer †isionD volF UID noF QD ppF PUQ!QHQD PHHTF ‘IIV“ gF ƒ™hmidD ‡e—kly supervised le—rning of visu—l models —nd its —ppli™—tion to ™ontentE˜—sed retriev—lF sntern—tion—l tourn—l of gomputer †isionFD volF STD ppF U!ITD PHHRF ‘IIW“ hF tF gr—nd—ll —nd hF €F ruttenlo™herD ‡e—kly supervised le—rning of p—rtE˜—sed sp—ti—l models for visu—l o˜je™t re™ognitionD iurope—n gonferen™e on gomputer †isionD PHHTF ‘IPH“ tF ghungD „F uimD ‰F x—m gh—eD —nd rF ‰—ngD …nsupervised ™onstell—tion model le—rning —lgorithm ˜—sed on voting weight ™ontrol for —™™ur—te f—™e lo™—liz—tionD €—ttern ‚e™ognitionD volF RPD noF QD ppF QPP!QQQD PHHWF ‘IPI“ vF ˆie —nd €F €erezD ƒlightly supervised le—rning of p—rtE˜—sed —ppe—r—n™e moE delsD gomputer †ision —nd €—ttern ‚e™ognition ‡orkshopD volF TD PHHRF ‘IPP“ gF ‚osen˜erg —nd wF re˜ertD „r—ining o˜je™t dete™tion models with we—kly l—˜eled d—t—D IQth fritish w—™hine †ision gonferen™eD ppF SUU!SVTD PHHPF ‘IPQ“ wF †—s™on™elosD qF g—rneiroD —nd xF †—s™on™elosD ‡e—kly supervised topEdown im—ge segment—tionD sntern—tion—l ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD PHHTF ‘IPR“ eF …lgesD gF ƒ™hulzeD hF ueysersD —nd „F freuelD sdentifying relev—nt fr—mes in we—kly l—˜eled videos for tr—ining ™on™ept dete™torsD sntern—tion—l gonferen™e on sm—ge —nd †ideo ‚etriev—lD ppF W!ITD PHHVF ‘IPS“ tF ‚ossiter —nd „F wuk—iD fioEmimeti™ le—rning from im—ges using impre™ise expert inform—tionD puzzy ƒet —nd ƒystemsD volF ISVD noF QD ppF PWS!QIID PHHUF ‘IPT“ tF ƒimmonds —nd hF w—™venn—nD pisheries —™ousti™s X theory —nd pr—™ti™eF yxE ford X fl—™kwell ƒ™ien™e vtdD PHHSF
  • 158.
    ™lviii BIBLIOGRAPHIE ‘IPU“ ˆF huD ƒemiEsupervised le—rning liter—ture surveyD gomputer ƒ™ien™esD …niE versity of ‡is™onsinEw—disonD volF ISQHD PHHVF ‘IPV“ uF xig—mD eF w™gullumD ƒF „hrunD —nd „F wit™helD ve—rning to ™l—ssify text from l—˜eled —nd unl—˜eled do™umentsD esso™i—tion for the edv—n™ement of erE ti(™i—l sntelligen™e tourn—lD IWWVF ‘IPW“ uF xig—mD eF w™g—llumD ƒF „hrunD —nd qF w—nnD „ext ™l—ssi(™—tion from l—˜eE led —nd unl—˜eled do™uments using emD w—™hine ve—rningD volF QWD ppF IHQ!IQRD PHHHF ‘IQH“ pF gozm—n —nd sF gohenD ‚isks of semiEsupervised le—rningF yF gh—pelleD eF ienD —nd fF ƒ™holkopf @idsAD ƒemiEƒupervised ve—rningD ws„ €ressD PHHTF ‘IQI“ †F †—pnikD ƒt—tisti™i—l le—rning theoryF ‡ileyEsnters™ien™eD IWWVF ‘IQP“ „F to—™himsD „r—nsdu™tive inferen™e for text ™l—ssi(™—tion using support ve™tor m—™hinesD €ro™eedings of the ITth sntern—tion—l gonferen™e on w—™hine ve—rE ningD ppF PHH!PHWD IWWWF ‘IQQ“ vF ˆu —nd hF ƒ™huurm—nsD …nsupervised —nd semiEsupervised multiE™l—ss supE port ve™tor m—™hinesF €ro™eedings of the PHth x—tion—l gonferen™e —n erti(™i—l snteligen™eD PHHSF ‘IQR“ †F ƒindhw—ni —nd ƒF ƒF ueerthiD v—rge s™—le semiEsupervised line—r svmsD ƒpe™i—l snterest qroup on snform—tion ‚etriev—lD PHHTF ‘IQS“ yF gh—pelle —nd eF ienD ƒemiEsupervised ™l—ssi(™—tion ˜y low density sep—r—E tionD €ro™eedings of the IHth sntern—tion—l ‡orkshop on erti(™i—l snteligen™e —nd ƒt—tisti™sD PHHSF ‘IQT“ yF gh—pelleD †F ƒindhw—niD —nd ƒF ƒF ueerthiD yptimiz—tion te™hniques for semiE supervised support ve™tor m—™hinesD tourn—l of m—™hine le—rning rese—r™hD volF WD noF pe˜D ppF PHQ!PQQD PHHVF ‘IQU“ wFEpF f—lk—nD eF flumD €F ghoiD tF v—'ertyD fF €—nt—noD —nd wF ‚we˜—ngir—D €erson identi(™—tion in we˜™—m im—ges X —n —ppli™—tion of semiEsupervised le—rE ningD ‡orkshop on ve—rning with €—rti—lly gl—ssi(ed „r—ining h—t— @sgwvAD PHHSF ‘IQV“ ˆF h—ng —nd ‡F veeD ryperp—r—meter le—rning for gr—ph ˜—sed semiEsupervised le—rning —lgorithmsD edv—n™es in xeur—l snform—tion €ro™essing ƒystemsD volF IWD PHHTF ‘IQW“ pF ‡—ng —nd gF h—ngD v—˜el prop—g—tion through line—r neigh˜orhoodsD snE tern—tion—l ™onferen™e on w—™hine ve—rningD PHHTF ‘IRH“ eF flum —nd ƒF gh—wl—D ve—rning from l—˜eled —nd unl—˜eled d—t— using gr—ph min™utsD €ro™eedings of the IVth sntern—tion—l gonferen™e on w—™hine ve—rningD PHHIF ‘IRI“ ˆF huD F qh—hr—m—niD —nd tF v—'ertyD ƒemiEsupervised le—rning using g—ussi—n (elds —nd h—rmoni™ fun™tionsD sntern—tion—l gonferen™e on w—™hine ve—rningD ppF WIP!WIWD PHHQF ‘IRP“ tF †er˜eek —nd xF †l—ssisD q—ussi—n (elds for semiEsupervised regression —nd ™oresponden™e le—rningD €—ttern ‚e™ognitionD volF QWD ppF IVTR!IVUSD PHHTF
  • 159.
    BIBLIOGRAPHIE ™lix ‘IRQ“ wF felkinD sF w—tveev—D —nd €F xiyogiD ‚egul—riz—tion —nd semiEsupervised le—rE ning on l—rge gr—phsF €ro™eeding of the gonferen™e on gomput—tion—l ve—rning „heoryD PHHRF ‘IRR“ qF qetz —nd xF ƒhent—lD ƒemiEsupervised le—rning E — st—tisti™—l physi™s —pE pro—™hD €ro™eeding of the PPnd sgwv ‡orkshop on ve—rning with €—rti—lly gl—ssi(ed „r—ining h—t—D PHHSF ‘IRS“ eF egr—w—l—D ve—rning with — pro˜—˜ilisti™ te—™herD siii „r—ns—™tions on snE form—tion „heoryD volF ITD ppF QUQ!QUWD IWUHF ‘IRT“ gF ‚osen˜ergD wF re˜ertD —nd rF ƒ™hneiderm—nnD ƒemiEsupervised selfEtr—ining of o˜je™t dete™tion modelsD Uth siii ‡orkshop on eppli™—tions of gomputer †isionD PHHSF ‘IRU“ wF gulp —nd qF wi™h—ilidisD en iter—tive —lgorithm for extending le—rners to semiEsupervised settingD „he PHHU toint ƒt—tisti™—l weetingsD PHHUF ‘IRV“ qF r—'—ri —nd eF ƒ—rk—rD en—lysis of semiEsupervised le—rning with the y—rowsky —lgorithmD PQrd gonferen™e on …n™ert—inty in erti(™i—l sntelligen™eD PHHUF ‘IRW“ eF flum —nd „F wit™helD gom˜ining l—˜eled —nd unl—˜eled d—t— with ™oE tr—iningD ‡orkshop on gomput—tion—l ve—rning „heoryD ppF WP!IHHD IWWVF ‘ISH“ gF wullerD ƒF ‚—ppD —nd wF ƒtru˜eD epplying ™oEtr—ining to referen™e resoluE tionD €ro™eeding of the RHth ennu—l weeting on esso™i—tion for gomput—tion—l vinguisti™sD ppF QSP!QSWD PHHIF ‘ISI“ hF €ier™e —nd gF g—rdieD vimit—tion of ™oEtr—ining for n—tur—l l—ngu—ge le—rE ning from l—rge d—t—setsD gonferen™e on empiri™—l methods in n—tur—l l—ngu—ge pro™essingD ppF I!WD PHHIF ‘ISP“ ƒF eF w—™sk—ssy —nd pF €rovostD e simple rel—tion—l ™l—ssi(erD €ro™eedings of the se™ond workshop on multiErel—tion—l d—t— miningD ppF TR!UTD PHHQF ¼ ‘ISQ“ „F qà rel —nd uF uerstingD yn the tr—deEo' ˜etween iter—tive ™l—ssi(™—tion —nd ™olle™tive ™l—ssi(™—tion X (rst experiment—l resultsD sntern—tion—l ‡orkshop on wining qr—phsD volF QD PHHSF ‘ISR“ gF wF fishop —nd sF …lusoyD qener—tive versus dis™rimin—tive methods for o˜je™t re™ognitionD ™onferen™e on gomputer †ision —nd €—ttern ‚e™ognitionD volF PD ppF PSV!PTSD PHHSF ‘ISS“ gF qiniD we—surement of inequ—lity of in™omeD i™onomi™ tourn—lD volF QID ppF PP!RQD IWPIF © ‘IST“ eF ‚à nyiD yn me—sures of entropy —nd inform—tionD €ro™eeding on the Rth ferkley ƒymposium on w—them—ti™—l ƒt—tisti™s —nd €ro˜—˜ilityD volF ID ppF SRU! STID IWTIF ‘ISU“ ‰F preund —nd ‚F ƒ™h—pireD e de™isionEtheoreti™ gener—liz—tion of onEline le—rE ning —nd —n —ppli™—tion to ˜oostingD tourn—l of gomputer —nd ƒystem ƒ™ien™esD volF SSD ppF IIW!IQWD IWWUF ‘ISV“ vF freim—nD f—gging predi™torsD w—™hine ve—rningD volF PTD noF PD ppF IPQ!IRHD IWWTF
  • 160.
    ™lx BIBLIOGRAPHIE ‘ISW“ rF uimD ƒF €—ngD rF teD —nd ƒF f—ngD ƒupport ve™tor m—™hine ensem˜le with ˜—ggingF €—ttern ‚e™ognition with ƒupport †e™tor w—™hinesD PHHPF ‘ITH“ fF h—ngD „F €h—mD —nd ‰F h—ngD f—gging support ve™tor m—™hine for ™l—ssi(E ™—tion of ƒivhE„op m—ss spe™tr— of ov—ri—n ™—n™er serum s—mplesF es PHHU X edv—n™es in erti(™i—l sntelligen™eD PHHUF ‘ITI“ eF €rinzie —nd hF †—n hen €oelD ‚—ndom multi™l—ss ™l—ssi(™—tion X gener—lizing r—ndom forests to r—ndom wxv —nd r—ndom xfF ve™ture xotes in gomputer ƒ™ien™e E h—t—˜—se —nd ixpert ƒystems —ppli™—tionsD PHHUF ‘ITP“ F ‰—ngD ˆF xieD ‡F ˆuD —nd tF quoD en —ppro—™h to sp—m dete™tion ˜y n—ive ˜—yes ensem˜le ˜—sed on de™ision indu™tionD Tth sntern—tion—l gonferen™e on snteligent ƒystems hesign —nd eppli™—tionsD volF PD ppF VTI!VTTD PHHTF ‘ITQ“ ‰F preundD en —d—ptive version of the ˜oost ˜y m—jority —lgorithmD €ro™eedings of the twelfth ennu—l gonferen™e on gomput—tion—l ve—rning „heoryD ppF IHP! IIQD IWWWF ‘ITR“ ‚F ƒ™h—pireD e ˜rief introdu™tion to ˜oostingD €ro™eedings of the ITth sntern—E tion—l toint gonferen™e on erti(™i—l sntelligen™eD IWWWF ‘ITS“ tF priedm—nD „F r—stieD —nd ‚F „i˜shir—niD edditive logisti™ regression X — st—E tisti™—l view of ˜oostingD enn—ls of st—tisti™sD volF PVD noF PD ppF QQU!RHUD PHHHF ‘ITT“ ‚F vutzD vogit˜oost with trees —pplied to the w™™i PHHT perform—n™e predi™tion ™h—llenge d—t—setsD €ro™eedings of the sntern—tion—l toint gonferen™e on neur—l networksD PHHTF ‘ITU“ gF homingo —nd yF ‡—t—n—˜eD w—d—˜oost X — modi(™—tion of —d—˜oostD €ro™eeE dings of the „hirteenth ennu—l gonferen™e on gomput—tion—l ve—rning „heoryD ppF IVH!IVWD PHHHF ‘ITV“ vF w—sonD €F f—rtlettD —nd tF f—xterD smproved gener—liz—tion through expli™it optimiz—tion of m—rginD w—™hine ve—rningD volF QVD noF QD ppF PRQ!PSSD PHHHF ‘ITW“ ‚F w™hon—ldD hF r—ndD —nd sF i™kleyD en empiri™—l ™omp—rison of three ˜oosting —lgorithms on re—l d—t— sets with —rti(™i—l ™l—ss noiseD wultiple gl—ssi(er ƒystems E ve™ture xotes in gomputer ƒ™ien™esD ppF QS!RRD PHHQF ‘IUH“ „F hietteri™hD en experiment—l ™omp—rison of three methods for ™onstru™ting ensem˜les of de™ision treesD w—™hine ve—rningD volF RHD noF PD ppF IQW!ISVD PHHHF ‘IUI“ „F uF roD ‚—ndom de™ision forestD sghe‚D IWWSF ‘IUP“ €F qeurtsD hF irnstD —nd vF ‡ehenkelD ixtremely r—ndomized treesD w—™hine ve—rningD volF QTD noF ID ppF Q!RPD PHHTF ‘IUQ“ eF esun™ion —nd hF xewm—nD …™i m—™hine le—rning repositoryD http XGGwwwFi™sFu™iFeduG∼mle—rnGwv‚epositoryFhtmlF ‘IUR“ ˆF vurtonD en introdu™tion to underw—ter —™ousti™sF PHHPD ˜ouquin sur l9—™ousE tique sous m—rineF ‘IUS“ ƒF xF v—neD €F wF fironD uF pF fr—d˜rookD tF fF futlerD tF rF gh—ndlerD wF hF growellD ƒF tF w™vell—ndD uF ƒF ‚i™h—rdsD —nd eF qF ‚oyD „hreeEdimension—l me—surement of river ™h—nnel )ow pro™esses using —™ousti™ doppler velo™imetryD ‡iley snter ƒ™ien™eD volF PQD noF IQD ppF IPRU!IPTUD IWWVF
  • 161.
    BIBLIOGRAPHIE ™lxi © ‘IUT“ gF ƒ™—l—˜rinD sdenti(™—tion —™oustique des espä™es pà l—giques à p—rtir d9—tE tri˜uts dis™rimin—nts des ˜—n™s de poissons monospe™i(quesF „häse de ho™E © tor—tD …niversità de fret—gne y™™ident—leD i™ole ho™tor—le des ƒ™ien™es de l— werD IWWUF © ‘IUU“ tF ‚enou —nd €F „™herni—D hà te™tion des ˜—n™s de poissons p—r ultr—EsonsF © winistäre de l— w—rineF gommuni™—tion sur l9y™Ã —n et les gátesFD ppF PI!PWD IWRUF ‘IUV“ ‡F rodgsonD i™hoEsounding —nd the pel—gi™ (sheriesF pish snvestig—tionD volF IUD noF PD pF PS ppD IWSHF © ª ‘IUW“ eF €er™ierD ves —™tività s du ˜—te—uEpiloteEdeEpà ™he doni˜—neF ‚evue des ª „r—v—ux de l9snstitut des €Ã ™hes w—ritimesD volF PQD noF PD ppF ITP!IUTD IWSWF ‘IVH“ hF rollid—yD ‚eson—n™e stru™ture in e™hoes from s™hooled pel—gi™ (shF tourn—l of the e™ousti™—l ƒo™iety of emeri™—D volF SID noF RD ppF IQPP!IQQPD IWUPF ‘IVI“ uF toh—nnesson —nd ‚F witsonD ƒome results of o˜served —˜und—n™e estim—tions in sever—l undpGf—o resour™e survey proje™tsF ƒymposium on e™ousti™ wethods in pisheries ‚ese—r™hD volF QD pF UUppD IHUQF ‘IVP“ hF rollid—yD „he use of swim˜l—der reson—n™e in the sizing of s™hooled pel—gi™ © (shF ‚—pport et €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF IQH!IQSD IWUUF ‘IVQ“ yF x—kken —nd uF ylsenD „—rget strength me—surment of (shF ‚—pport et © €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF SP!TWD IWUUF ‘IVR“ eF r—wkinsD pish sizing ˜y me—ns of swim˜l—dder reson—n™eF ‚—pport et © €ro™Ã¤sE†er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF IPP!IPWD IWUUF ‘IVS“ qF ‚ose —nd ‡F veggettD rydro—™ousti™ sign—l ™l—ssi(™—tion of (sh s™hools ˜y spe™iesF g—n—di—n tourn—l of pisheries —nd equ—ti™ ƒ™ien™esD ppF SWU!THRD IWVVF ‘IVT“ hF †r—yD qF qimenezD —nd ‚F €ersonD ettempt —t ™l—ssi(™—tion of e™hoEsounder sign—ls ˜—sed on the line—r dis™rimin—nt fon™tion of (sherF ‚—pport et €ro™Ã¤sE © †er˜—ux des ‚à unions du gonseil sntern—tion—l pour l9ixplor—tion de l— werD ppF QVV!QWQD IWWHF ‘IVU“ hF ‚eidD ‚eport on e™ho tr—™e ™l—ssi(™—tionF sgiƒ goEoper—tion ‚ese—r™h ‚eport PQVD PHHHF ‘IVV“ xF hinerD eF ‡eillD tF go—ilD —nd tF goudevilleD snesEmovies X — new —™ousti™ d—t— —™quisition —nd pro™essing systemD sgiƒ tourn—l of w—rine ƒ™ien™eD volF fDRSD pF IID IWVWF ‘IVW“ eF ‡eill —nd xF hinerD woviesE˜ X — new softw—re for s™hool ™h—r—™teriz—tionF sgiƒ tourn—l of w—rine ƒ™ien™eD pF IQD IWWIF ‘IWH“ eF ‡eillD gF ƒ™—l—˜rinD —nd xF hinerD woviesE˜ X —n —™ousti™ dete™tion des™riptor softw—reF —ppli™—tion to s™ho—l spe™ies9 ™l—ssi(™—tionF equ—ti™ viving ‚esour™esD volF TD ppF PSS!PTUD IWWQF
  • 162.
    ™lxii BIBLIOGRAPHIE ‘IWI“ gF ƒ™—l—˜rinD eF ‡eillD —nd xF hinerD „he stru™ture of multdimension—l d—t— from —™ousti™ dete™tion of (sh s™hoolsF iurope—n gonferen™eon …nderw—ter e™ousti™D ppF IRI!IRTD IWWPF © ‘IWP“ gF ƒ™—l—˜rin —nd tF w—ssà D e™ousti™ dete™tion of the sp—ti—l —nd tempor—l distri˜ution of (sh sho—ls in the ˜—y of ˜is™—yD equ—ti™ viving ‚esour™esD volF TD ppF PTW!PVQD IWWQF ‘IWQ“ gF ƒ™—l—˜rin —nd ˆF vurtonD pish s™ho—ls —mplitude —n—lysisF iurope—n gonfeE ren™eon …nderw—ter e™ousti™D volF PD ppF VHU!VIRD IWWRF ‘IWR“ gF ƒ™—l—˜rinD xF hinerD —nd eF ‡eillD eutom—ti™ sho—l re™ognition —nd ™l—ssi(E ™—tion ˜—sed on moviesE˜ softw—reD y™e—ns9WRD volF PD ppF QIW!QPRD IWWRF ‘IWS“ gF ƒ™—l—˜rinD xF hinerD eF ‡eillD eF rillionD —nd wFEgF wou™hotD x—rrowE ˜—nd —™ousti™ identi(™—tion of monospe™i(™ (sh sho—lsD sgiƒ tourn—l of w—rine ƒ™ien™eD volF SQ@PAD ppF IVI!IVVD IWWTF ‘IWT“ xF hinerD gorre™tion on s™hool geometry —nd density X —ppro—™h ˜—sed on —™ousE ti™ im—ge simul—tionD equ—ti™ viving ‚esour™esD volF VP@IEQAD ppF PII!PPPD PHHIF © ‘IWU“ pF qerlottoD wF ƒori—D —nd €F prà onD prom two dimensions to three X the use of multi˜e—m son—r for — new —ppro—™h in (sheries —™ousti™sF g—n—di—n tourn—l of pisheries —nd equ—ti™ ƒ™ien™esD volF STD ppF T!IPD IWWWF ‘IWV“ pF qerlotto —nd tF €—r—moD „he threeEdimension—l morphology —nd intern—l stru™ture of ™lupeid s™hools —s o˜served using verti™—lEs™—nningD multi˜e—m soE n—rF equ—ti™ viving ‚esour™esD volF ITD ppF IIQ!IPPD PHHQF ‘IWW“ †F „renkelD †F w—z—uri™D —nd fF vFD „he new multi˜e—m (sheries e™hosounder meUH X des™ription —nd expe™ted ™ontri˜ution to (sheries rese—r™hF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TSD ppF TRS!TSSD PHHVF ‘PHH“ vF fergerD gF €on™eletD —nd †F „renkelD e method for redu™ing un™ert—inty in estim—tes of (shEs™hool frequen™y response using d—t— from multifrequen™y —nd multi˜e—m e™hosoundersF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TTD ppF IISS! IITID PHHWF ‘PHI“ ƒF fourguignonD vF fergerD gF ƒ™—l—˜rinD ‚F p—˜letD —nd †F w—z—uri™D wethodoE logi™—l developments for improved ˜ottom dete™tion with the meUH multi˜e—m e™hosounderF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TTD ppF IHIS!IHPPD PHHWF © ‘PHP“ †F „renkelD vF fergerD ƒF fourguignonD wF hor—yD ‚F p—˜letD tF w—ssà D †F w—E z—uri™D gF €on™eletD qF uemenerD gF ƒ™—l—˜rinD —nd rF †ill—lo˜osD yverview of re™ent progress in (sheries —™ousti™s m—de ˜y ifremer with ex—mples from the ˜—y of ˜is™—yF equ—ti™ viving ‚esour™esD volF PPD noF RD ppF RQQ!RRTD PHHWF ‘PHQ“ xF hinerD iv—lu—ting un™ert—inty in me—surement of (sh s™ho—l —ggreg—te ˜—™ksE ™—ttering ™rossEse™tion ™—used ˜y sm—ll sho—l size rel—tive to ˜e—m widthF equ—ti™ viving ‚esour™esD volF PHD ppF IIU!IPID PHHUF ‘PHR“ gF gh—ng —nd vF gFtFD http XGGwwwF™sieFntuFtwG ™jlinGli˜svmGD PHIHF ‘PHS“ wF ‡oillezD tFEgF €oul—rdD tF ‚ivoir—rdD €F €etitg—sD —nd xF fezD sndi™es for ™—pturing sp—ti—l p—tterns —nd their evolution in timeD with —ppli™—tion to euroE pe—n h—ke @merlu™™ius merlu™™iusA in the ˜—y of ˜is™—yD sgiƒ tourn—l of w—rine ƒ™ien™eD volF TRD ppF SQU!SSHD PHHUF
  • 163.
    BIBLIOGRAPHIE ™lxiii ‘PHT“ tF furgos —nd tF rorneD gh—r—™teriz—tion —n™ ™l—ssi(™—tion of —™ousti™—lly dete™E ted (sh distri˜utionD sgiƒ tourn—l of w—rine ƒ™ien™eD volF TSD ppF IPQS!IPRUD PHHVF ‘PHU“ qF …pton —nd fF pingletonD ƒp—ti—l d—t— —n—lysis ˜y ex—mple X €oint p—ttern —ns qu—ntit—tive d—t—D tF ‡ileyD xE‰D volF ID IWVSF ‘PHV“ xF gressieD ƒt—tisti™s for sp—ti—l d—t—D ‡ileyD xew ‰orkD IWWQF © ‘PHW“ pF qore—ud —nd ‚F €Ã lisserierD yn expli™it formul—s of edge e'e™t ™orre™tion for ripley9s kEfun™tionD tourn—l of †eget—tion ƒ™ien™eD volF IHD ppF RQQ!RQVD IWWWF ‘PIH“ wF ƒ™hl—therD yn the se™ondEorder ™h—r—™teristi™s of m—rked point pro™essesD fernoulliD volF UD ppF WW!IIUD PHHIF ‘PII“ hF ƒtoy—n —nd eF €enttinenD ‚e™ent —ppli™—tions of point pro™ess methods in forestry st—tisti™sD ƒt—tisti™—l ƒ™ien™eD volF ISD noF ID ppF TI!UVD PHHHF ‘PIP“ ‚F ‡en —nd ‚F ƒindingEv—rsenD ƒto™h—sti™ modelling —nd simul—tion of sm—ll f—ults ˜y m—rked point pro™esses —nd krigingD iF‰F f——( —nd xFeF ƒ™hol(eld @edsAD qeost—tisti™s ‡ollongongD volF ID ppF QWV!RIRD IWWUF ‘PIQ“ pF ens™om˜eD „he v—lidity of ™omp—r—tive experimentsD tourn—l of the ‚oy—l ƒt—tisti™—l ƒo™ietyF ƒeries eFD volF IIID noF QD ppF IVI!PIID IWRVF ‘PIR“ xF fez —nd tF ‚ivoir—rdD „r—nsitive geost—tisti™s to ™h—r—™terise sp—ti—l —ggreg—E tions with di'use limits X —n —ppli™—tion on m—™kerel i™htyopl—nktonD pisheries ‚ese—r™hD volF SHD ppF RI!SVD PHHIF © ‘PIS“ tF w—ssà D e™ousti™ o˜serv—tions in the ˜—y of ˜is™—y X s™holingD verti™—l disE tri˜utionD spe™ies —ssem˜l—ges —nd ˜eh—viourD ƒ™ienti— w—rin—D volF THD noF PD ppF PPU!PQRD IWWTF ‘PIT“ pF qerlottoD sdenti(™—tion —ns sp—ti—l str—ti(™—tion of tropi™—l (sh ™on™entr—tions using —™ousti™ popul—tionsD equ—ti™ viving ‚esour™esD volF TD ppF PRQ!PSRD IWWQF ‘PIU“ wF hor—yD tF w—sseD —nd €F €etitg—sD €el—gi™ (sh sto™k —ssessment ˜y —™ousti™ methods —t ifremerD http XGG—r™himerFifremerFfrGdo™GHHHHQGIIRRTGD PHIHF ‘PIV“ hF w—™venn—nD €F pern—ndesD —nd hF tFD e ™onsistent —ppro—™h to de(nitions —nd sym˜ols in (sheries —™ousti™sD sgiƒ tourn—l of w—rine ƒ™ien™eD volF SWD ppF QTS!QTWD PHHPF © ‘PIW“ €F €etitg—sD tF w—ssà D €F feilloisD iF ve˜—r˜ierD —nd eF ve g—nnD ƒ—mpling v—ri—n™e of spe™ies identi(™—tion in (sheries —™ousti™ surveys ˜—sed on —utom—ted pro™edures —sso™i—ting —™ousti™ im—ges —nd tr—wl h—ulsF sgiƒ tourn—l of w—rine ƒ™ien™eD volF TH@QAD ppF RQU!RRSD PHHQF ‘PPH“ sF u—rouiD ‚F p—˜letD —nd tFEwF fou™herD p—st m—r™hing —nd —™ousti™ des™riptors ˜—sed method for (sh proportion interpol—tionD y™e—ns9HVD PHHVF ‘PPI“ „F r—mmond —nd qF ƒw—rtzm—nD e gener—l pro™edure for estim—ting the ™omE position of (sh s™hool ™luster using st—nd—rd —™ousti™ survey d—t—D sgiƒ tourn—l of w—rine ƒ™ien™eD volF SVD ppF IIIS!IIQPD PHHIF ‘PPP“ „F u—il—thD „he divergen™e —nd ˜h—tt—™h—rry— dist—n™e me—sure in sign—l seE le™tionD siii tr—ns—™tions on gommuni™—tion „e™hnologyD volF ISD noF ID ppF SP!THD IWTUF
  • 164.
    ™lxiv BIBLIOGRAPHIE ‘PPQ“ ƒF uull˜—™kD snform—tion theory —nd st—tisti™sD tohn ‡iley —nd ƒonsD x‰D IWSWF ‘PPR“ ƒF uull˜—™k —nd ‚F vei˜lerD yn inform—tion —nd su0™ien™yD enn—ls of w—theE m—ti™—l ƒt—tisti™sD volF PPD noF ID ppF UW!VTD IWSIF ‘PPS“ yF …llt—ngD pish sto™k —ssessment —nd predi™tions X integr—ting relev—nt knowE ledgeF —n overviewF ƒ™ienti— w—rin—D volF TUD noF ID ppF S!IPD PHHQF ‘PPT“ rF ‚o˜oth—mD €F foshD tF qutierrezEistr—d—D tF g—stilloD —nd sF €ulidoEg—lvoD e™ousti™ identi(™—tion of sm—ll pel—gi™ spe™ies in ™hile using support m—™hines —nd neur—l networksD pisheries ‚ese—r™hD volF IHPD noF IEPD ppF IIS!IPPD PHIHF ‘PPU“ wF iveringh—mD vF †—n qoolD gF ‡illi—msD tF ‡innD —nd eF isserm—nD „he p—s™—l visu—l o˜je™t ™l—sses @vo™A ™h—llengeD sntern—tion—l tourn—l of gomputer †isionD volF VVD noF PD ppF QHQ!QQVD PHIHF ‘PPV“ †F perr—riD wF w—rinEtimenezD —nd eF isserm—nD €rogressive se—r™h sp—™e reE du™tion for hum—n pose estim—tionD gomputer †ision —nd €—ttern ‚e™ognitionD ppF I!VD PHHVF ‘PPW“ tF w™euleyD „F g—et—noD —nd eF ƒmol—D ‚o˜ust ne—rEisometri™ m—t™hing vi— stru™tured le—rning of gr—pgi™—l modelsD gonferen™e on xeur—l snform—tion €roE ™essing ƒystemsD PHHVF ‘PQH“ wF fl—s™hko —nd gF v—mpertD ve—rning to lo™—lize o˜je™ts with stru™tured output regressionD iurope—n gonferen™e on gomputer †isionD PHHVF ‘PQI“ „F r—r—d—D rF x—k—y—m—D —nd ‰F uuniyoshiD smproving lo™—l des™riptors ˜y emE ˜edding glo˜—l —nd lo™—l sp—ti—l inform—tionD iurope—n gonferen™e on gomputer †isionD PHIHF