Mélange de lois normales#
Algorithme EM#
Définition D1 : mélange de lois normales
Soit \(X\) une variable aléatoire d’un espace vectoriel de dimension \(d\), \(X\) suit un la loi d’un mélange de \(N\) lois gaussiennes de paramètres \(\pa{\mu_i, \Sigma_i}_ {1 \infegal i \infegal N}\), alors la densité \(f\) de \(X\) est de la forme :
Avec : \(\sum_{i=1}^{N} \; p_i = 1\).
Dans le cas d’une loi normale à valeur réelle \(\Sigma = \sigma^2\), l’algorithme permet d’estimer la loi de l’échantillon \(\vecteur{X_1}{X_T}\), il s’effectue en plusieurs itérations, les paramètres \(p_i\pa{0}\), \(\mu_i\pa{0}\), \(\sigma^2\pa{0}\) sont choisis de manière aléatoire, à l’itération \(t+1\), la mise à jour des coefficients est faite comme suit :
L’estimation d’une telle densité s’effectue par l’intermédiaire d’un algorithme de type Expectation Maximization (EM) (voir [Dempster1977]) ou de ses variantes SEM, SAEM, … (voir [Celeux1985], [Celeux1985b]). La sélection du nombre de lois dans le mélange reste un problème ouvert abordé par l’article [Biernacki2001].
Competitive EM algorithm#
L’algorithme développé dans l’article [ZhangB2004] tente de corriger les défauts de l’algorithme EM. Cette nouvelle version appelée « Competitive EM » ou CEM s’applique à un mélange de lois - normales en particulier -, il détermine le nombre de classes optimal en supprimant ou en ajoutant des classes.
Figures extraites de [ZhangB2004], la première image montre deux classes incluant deux autres classes qui devrait donc être supprimées. La seconde image montre une classe aberrante tandis que la troisième image montre des classes se recouvrant partiellement.
On considère un échantillon de variables aléatoires indépendantes et identiquement distribuées à valeur dans un espace vectoriel de dimension \(d\). Soit \(X\) une telle variable, on suppose que \(X\) suit la loi du mélange suivant :
Avec : \(\theta = \pa{\alpha_i,\theta_i}_{1 \infegal i \infegal k}, \; \forall i, \; \alpha_i \supegal 0\) et \(\sum_{i=1}^{k} \alpha_i = 1\).
On définit pour une classe \(m\) la probabilité \(P_{split}(m, \theta)\) qu’elle doive être divisée et celle qu’elle doive être associée à une autre \(P_{merge}(m,l, \theta)\). Celles ci sont définies comme suit :
\(\beta\) est une constante définie par expériences. \(J\pa{m,\theta}\) est défini pour l’échantillon \(\vecteur{x_1}{x_n}\) par :
Où : \(f_m\pa{x,\theta} = \frac{ \sum_{i=1}^{n} \, \indicatrice{x = x_i} \, \pr{ m \sac x_i,\theta} } { \sum_{i=1}^{n} \, \pr{ m \sac x_i,\theta}}\).
La constante \(Z\pa{\theta}\) est choisie de telle sorte que les probabilités \(P_{split}(m, \theta)\) et \(P_{merge}(m,l, \theta)\) vérifient :
L’algorithme EM permet de construire une suite \(\hat{\theta_t}\) maximisant la vraisemblance à partir de poids \(\hat{\theta_0}\). L’algorithme CEM est dérivé de l’algorithme EM :
Algorithme A1 : CEM
Les notations sont celles utilisées dans les paragraphes précédents. On suppose que la variable aléatoire \(Z=\pa{X,Y}\) où \(X\) est la variable observée et \(Y\) la variable cachée. \(T\) désigne le nombre maximal d’itérations.
initialisation
Choix arbitraire de \(k\) et \(\hat{\theta}_0\).
Expectation
Maximization
convergence
\(t \longleftarrow t + 1\), si \(\hat{\theta}_t\) n’a pas convergé vers un maximum local, alors on retourne à l’étape Expectation.
division ou regroupement
Dans le cas contraire, on estime les probabilités \(P_{split}(m, \theta)\) et \(P_{merge}(m,l, \theta)\) définie par les expressions (1). On choisit aléatoirement une division ou un regroupement (les choix les plus probables ayant le plus de chance d’être sélectionnés). Ceci mène au paramètre \(\theta'_t\) dont la partie modifiée par rapport à \(\hat{\theta}_t\) est déterminée de manière aléatoire. L’algorithme EM est alors appliqué aux paramètres \(\theta'_t\) jusqu’à convergence aux paramètres \(\theta''_t\).
acceptation
On calcule le facteur suivant :
On génére aléatoirement une variable \(u \sim U\cro{0,1}\), si \(u \infegal P_a\), alors les paramètres \(\theta''_t\) sont validés. \(\hat{\theta}_t \longleftarrow \theta''_t\) et retour à l’étape d’expectation. Dans le cas contraire, les paramètres \(\theta''_t\) sont refusés et retour à l’étape précédente.
terminaison
Si \(t < T\), on retoure à l’étape d’expectation, Sinon, on choisit les paramètres \(\theta^*=\hat{\theta}_{t^*}\) qui maximisent l’expression :
Avec \(n\) le nombre d’exemples et \(N\) est le nombre de paramètres spécifiant chaque composant.
L’article [ZhangB2004] prend \(\gamma = 10\) mais ne précise pas de valeur pour \(\beta\) qui dépend du problème. Toutefois, il existe un cas supplémentaire où la classe \(m\) doit être supprimée afin d’éviter sa convergence vers les extrêmes du nuage de points à modéliser. Si \(n \alpha_m < N\), le nombre moyen de points inclus dans une classe est inférieur au nombre de paramètres attribués à cette classe qui est alors supprimée. Cette condition comme l’ensemble de l’article s’inspire de l’article [Figueiredo2002] dont est tiré le critère décrit en (ref{classif_cem_cirtere}).
Bibliographie#
{Assessing a Mixture Model for Clustering with the Integrated Completed Likelihood (2001), C. Biernacki, G. Deleux, G. Govaert, IEEE Transactions on Image Analysis and Machine Intelligence, volume {22(7), pages 719-725
The SEM algorithm: a probabilistic teacher algorithm derived from the EM algorithm for the mixture problem (1985), G. Celeux, J. Diebolt, Computational Statistics Quarterly, Volume 2(1), pages 73-82
On stochastic version of the EM algorithm (1985), Gilles Celeux, Didier Chauveau, Jean Diebolt, Rapport de recherche de l’INRIA*, n 2514
Maximum-Likelihood from incomplete data via the EM algorithm (1977), A. P. Dempster, N. M. Laird, D. B. Rubin, Journal of Royal Statistical Society B, volume 39, pages 1-38
Unsupervised learning of finite mixture models (2002), M. A. T. Figueiredo, A. K. Jain, IEEE Transactions on Pattern Analysis and Machine Intelligence, volume 24(3), pages 381-396