Régression linéaire¶
La régression linéaire
est le modèle prédictif le plus simple et celui qu’on préfère
quand il marche car il est facilement interprétable à l’inverse
des modèles non linéaires qui gardent leurs secrets si on s’en tient
seulement à leurs coefficients. Concrètement, on dispose d’un nuage
de point où
est un vecteur
de dimension d et
un réel. La régression
linéaire consiste à construire une fonction prédictive
où
est un vecteur de dimension d. Dans le cas le plus
courant, on modélise les données de telle sorte que :
où
suit une loi normale de moyenne nulle et de variance
.
Sous cette hypothèse, il “agit de trouver le vecteur
qui minimise la vraisemblance du modèle, ce qui revient à résoudre
le problème d’optimisation :
En dérivant, on sait exprimer explicitement la solution.
On note la matrice où chaque ligne
est une observation
et
.
est la transposée de X. Alors :
Les chapitres suivants explorent d’autres aspects de ce problèmes
comme la régression quantile, la régression linéaire par morceaux,
ou encore l’expression de sans calculer de matrice inverse
ni de valeurs propres.