000125061 001__ 125061
000125061 005__ 20190117192758.0
000125061 037__ $$aCONF
000125061 245__ $$aOptimisation de l’algorithme EM_CMC par un Echantillonnage Bootstrap dans le contexte de la classification Bayesienne non supervisee
000125061 260__ $$c2005
000125061 269__ $$a2005
000125061 336__ $$aConference Papers
000125061 520__ $$aL’objectif de ce travail est l’optimisation de l’algorithme Estimation Maximisation (EM) par un échantillonnage Bootstrap. L’estimation est une phase souvent requise dans la majorité des méthodes de classifications statistiques. Les méthodes de classification globales se basant sur une modélisation Markovienne sont les méthodes les plus efficaces face aux problèmes de classification non supervisée, mais présentent l’inconvénient de la lenteur des temps de calcul. L’échantillonnage Bootstrap est alors la solution proposée pour accélérer la phase d’estimation de la méthode de classification en utilisant seulement des échantillons de taille réduite de l’image originale. La description de la version Bootstrappée de l’algorithme EM est présentée dans le cas de la modélisation de l’image par des Champs aléatoires de Markov Cachés noté EM_CMC.
000125061 6531_ $$aLTS5
000125061 6531_ $$aClassification
000125061 6531_ $$aChamps de Markov aléatoires cachés
000125061 6531_ $$aEchantillonnage Bootstrap
000125061 700__ $$aCAMMOUN, L
000125061 700__ $$aMHIRI, S
000125061 700__ $$aGHORBEL, F
000125061 7112_ $$d2005$$cHammamet Tunisie$$aTAIMA
000125061 773__ $$tTAIMA05 Hammamet Tunisie 2005
000125061 909C0 $$xU10954$$0252394$$pLTS5
000125061 909CO $$pconf$$pSTI$$ooai:infoscience.tind.io:125061
000125061 937__ $$aEPFL-CONF-125061
000125061 973__ $$rREVIEWED$$sPUBLISHED$$aOTHER
000125061 980__ $$aCONF