Télécharger gratuitement des cours libres dans toutes les disciplines scientifiques

Cours - Régression

IRMAR, Université Rennes I .
Bernard Delyon .


But de la régression.


Commençons par un exemple illustratif simple. Le botaniste Joseph Dalton Hooker a mesuré lors d’une expédition en 1849 la pression atmosphérique pi et la température d’ébullition de l’eau yi en divers endroits de l’Himalaya 1. Selon les lois de la physique, yi devrait être (en première approximation) proportionnel au logarithme de pi. On pose donc le modèle 
yi = 1 + 2xi + ui, xi = log(pi). (I.1)
ui représente l’erreur de mesure, et explique que les points de la figure I.1 ne sont pas exactement
alignés. Cette figure montre également la droite estimée par moindres carrés. On voit une très bonne adéquation. L’équation ci-dessus donne un modèle, qui si ui est supposé gaussien centré devient le modèle paramétrique yi ∼ N( 1+ 2xi, 2), dont on verra l’intérêt plus tard. Le paramètre 2 représente la variance de l’écart des points à la droite (mesuré verticalement) et l’estimation de donne ici 0,04.
Cet exemple illustre comment le modèle de régression tente d’expliquer au mieux une grandeur y (la réponse) en fonction d’autres grandeurs x (vecteur des variables explicatives, ou régresseurs, ou facteurs, un seul dans l’exemple) en démêlant ce qui est déterministe de ce qui est aléatoire et en quantifiant ces deux aspects (par les i d’une part et 2 d’autre part).

Table des matières

I Introduction ;

I.1 But de la régression;
I.2 Exemples ;
I.2.1 Régression linéaire multiple : Production, travail et capital ;
I.2.2 Vers des modèles non-linéaires;
I.2.3 Modèle logistique : Credit scoring ;
I.2.4 Données longitudinales ;
I.3 Méthode générale et objectifs de la régression;
I.4 Exercices ;

II Régression linéaire multiple ;

II.1 Introduction ;
II.1.1 Les données ;
II.1.2 L’hypothèse de rang plein ;
II.1.3 Le régresseur constant ;
II.2 Moindres carrés ordinaires ;
II.2.1 Modèle statistique et interprétation ;
II.2.2 Estimation de ∗ et 2 ∗ ;
II.2.3 Propriétés géométriques élémentaires ;
II.2.4 Le coefficient de corrélation multiple R ,
II.2.5 Effet de la suppression d’un individu. Effet levier;
II.2.6 Effet de l’ajout d’un régresseur et coefficient de corrélation partielle ;
II.2.7 Aspects pratiques. Représentation graphiques exploratoires ;
II.2.8 Traitement des variables symboliques ;
II.2.9 Exercices ;
II.3 Modèles hétéroscédastiques (Moindres carrés généralisés) ;
II.3.1 Modèle ;
II.3.2 Réduction au cas  ∗ = I. Estimation de ∗ et 2 ∗;
II.3.3 Détection de l’hétéroscédasticité ;
II.3.4 Estimation de  ∗;
II.3.5 Modèles mixtes ;
II.3.6 Exercices ;
II.4 Moindres carrés totaux (Errors in variables, total least squares) ;
II.5 Régression non-paramétrique et moindres carrés ;
II.5.1 Première approche : la régression polynômiale ;
II.5.2 Approche par estimation des coefficients de Fourier ;
II.5.3 Aspects pratiques ;
II.6 Régression sur des classes. Segmentation des données ;
II.7 Mélange de régressions ;
II.8 Surparamétrisation, réduction de modèle et réponses multiples ;
II.8.1 Analyse en composantes principales (acp) ;
II.8.2 Moindres carrés partiels (pls) ;
II.8.3 Ridge regression;
II.8.4 Régression à rang réduit. Curds and whey ;
II.9 Régression robuste ;

III Régression linéaire gaussienne, diagnostic et tests ;

III.1 Propriétés statistiques fondamentales des estimateurs ;
III.1.1 Modèle statistique et estimateurs;
III.1.2 Propriétés de base des variables gaussiennes ;
III.1.3 Loi de probabilité des estimateurs ;
III.1.4 Exercices ;
III.2 Analyse de l’estimateur ;
III.2.1 Détermination d’intervalles de confiance ;
III.2.2 Rappels sur les tests dans le cadre paramétrique général ;
III.2.3 Test de Fisher ;
III.2.4 Sélection des variables ;
III.2.5 Exercices ;
III.3 Analyse des résidus. Mesures d’influence ;
III.4 Analyse de la variance. Aspects pratiques ;
III.4.1 Analyse de la variance à un facteur ;
III.4.2 Analyse de la variance à deux facteurs ;
III.4.3 Interprétation des tables ;
III.4.4 Un exemple à trois facteurs ;
III.4.5 Analyse de covariance ;
III.4.6 Modèles hiérarchiques (nested) en analyse de variance ;
III.4.7 Modèles mixtes ;
III.4.8 Réduction des interactions ;
III.4.9 Exercices ;
III.5 Un exemple de conclusion d’étude ;

IV Régression linéaire généralisée ;

IV.1 Modèle linéaire généralisé ;
IV.1.1 Pourquoi les modèles linéaires généralisés ;
IV.1.2 Les familles exponentielles scalaires ;
IV.1.3 Les familles exponentielles à un paramètre de nuisance ;
IV.1.4 Les exemples classiques ;
IV.1.5 Définition des modèles linéaires généralisés ;
IV.1.6 Exercices  
IV.2 Exemples ;
IV.2.1 Variable de Bernoulli : le modèle logistique ;
IV.2.2 Modèle poissonnien ;
IV.2.3 Modèle à variable polytomique ordonnée ; la variable latente ;
IV.2.4 Modèle à variable polytomique non-ordonnée;
IV.2.5 Exercices ;
IV.3 Estimation de ∗ et '∗ ;
IV.3.1 L’estimateur du maximum de vraisemblance ;
IV.3.2 Propriétés asymptotiques ;
IV.3.3 Estimation de '∗ et ∗ ;
IV.4 Tests et analyse de déviance ;
IV.4.1 Déviance;
IV.4.2 Tests ;
IV.4.3 Analyse de déviance ;
IV.5 Analyse des résidus ;

V Régression non-linéaire avec bruit additif ;

V.1 Modèle;
V.2 Estimation des paramètres;
V.3 Utilisation du bootstrap et du Monte-Carlo;
V.4 Propriétés asymptotiques;
V.5 Régions de confiance ;
V.5.1 Régions théoriques ;
V.5.2 Ajustement du niveau par simulation ou bootstrap ;
V.5.3 Intervalles de confiance ;
V.6 Tests ;
V.7 Analyse des résidus ;

A Asymptotique du maximum de vraisemblance ;

A.1 Théorèmes-limite ;
A.2 Régions de confiance ;
A.3 Tests ;
A.3.1 Test du rapport de vraisemblance ;
A.3.2 Test des scores;
A.3.3 Test de Wald;
A.3.4 Aspects pratiques;

B Sélection de modèles ;




Anda baru saja membaca artikel yang berkategori Cours de Mathématiques dengan judul Cours - Régression. Anda bisa bookmark halaman ini dengan URL http://cours-scientifiques-libres.blogspot.com/2012/12/cours-regression.html. Terima kasih!
Ditulis oleh: younes younes - samedi 15 décembre 2012

Belum ada komentar untuk "Cours - Régression"

Enregistrer un commentaire