Master 1 - Math Ematiques Et Applications

2y ago
27 Views
2 Downloads
1.21 MB
127 Pages
Last View : 18d ago
Last Download : 3m ago
Upload by : Aarya Seiber
Transcription

Master 1 - Mathématiques et ApplicationsStatistique appliquéeTabea RebafkaPartie I et IIUniversité Paris 62015

Table des matières1 Introduction32 Rappel et compléments : Théorie des probabilités52.12.22.32.4Variables aléatoires et principales lois de probabilité . . . . . . . . . . . . .52.1.1Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .62.1.2Lois absolument continues . . . . . . . . . . . . . . . . . . . . . . . .7Quelques caractéristiques des lois de probabilité . . . . . . . . . . . . . . . .92.2.1Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .92.2.2Quantiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11Relations entre variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . 142.3.1Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3.2Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.3.3Covariance et corrélation . . . . . . . . . . . . . . . . . . . . . . . . 17Convergence de suites de vecteurs aléatoires . . . . . . . . . . . . . . . . . . 192.4.1Définitions et propriétés fondamentales. . . . . . . . . . . . . . . . 192.4.2Théorèmes de continuité . . . . . . . . . . . . . . . . . . . . . . . . . 212.5Quelques inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.6Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 Statistique descriptive3.13.23.329Observations à valeurs réelles . . . . . . . . . . . . . . . . . . . . . . . . . . 303.1.1Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.1.2Diagramme en bâtons . . . . . . . . . . . . . . . . . . . . . . . . . . 323.1.3Fonction de répartition empirique . . . . . . . . . . . . . . . . . . . . 333.1.4Indicateurs de la tendance centrale, dispersion et forme . . . . . . . 373.1.5Boxplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38Observations d’un couple de variables . . . . . . . . . . . . . . . . . . . . . 403.2.1Nuage des points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.2.2Corrélation empirique . . . . . . . . . . . . . . . . . . . . . . . . . . 41Comparaison de distributions . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3.4Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444 Estimation ponctuelle474.1Problème d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474.2Propriétés d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.34.2.1Consistance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.2.2Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514.2.3Loi limite et vitesse de convergence . . . . . . . . . . . . . . . . . . . 52Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525 Méthodes d’estimation classiques555.1Méthode de substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.2Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.3Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . 585.4Optimisation d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . 615.55.4.1Rappel : Techniques d’optimisation classiques . . . . . . . . . . . . . 615.4.2Méthode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . 63Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 676 Modèle de mélange et algorithme EM696.1Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.2Modèle de mélange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 706.36.46.2.1Exemple : Longueurs des ailes de passereaux . . . . . . . . . . . . . 716.2.2Exemple : Niveau de chlorure dans le sang . . . . . . . . . . . . . . . 716.2.3Définition du modèle de mélange . . . . . . . . . . . . . . . . . . . . 726.2.4Modèles à variables latentes. . . . . . . . . . . . . . . . . . . . . . 79Algorithme EM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 796.3.1Contexte d’application . . . . . . . . . . . . . . . . . . . . . . . . . . 796.3.2L’algorithme EM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 796.3.3Propriétés de l’algorithme EM . . . . . . . . . . . . . . . . . . . . . 806.3.4Aspects pratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816.3.5Exemple : Mélange gaussien . . . . . . . . . . . . . . . . . . . . . . . 82Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867 Modèles de régression877.1Motivation et Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 877.2Modèle linéaire et méthode des moindres carrés . . . . . . . . . . . . . . . . 897.2.1Définition du modèle linéaire . . . . . . . . . . . . . . . . . . . . . . 897.2.2Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

7.2.37.37.4Méthode des moindres carrés . . . . . . . . . . . . . . . . . . . . . . 92Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 977.3.1Définition et propriétés des vecteurs gaussiens . . . . . . . . . . . . . 977.3.2Lois dérivées de la loi normale . . . . . . . . . . . . . . . . . . . . . 997.3.3Théorème de Cochran . . . . . . . . . . . . . . . . . . . . . . . . . . 100Modèle linéaire gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1018 Estimation par intervalle8.18.28.3102Erreur standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1028.1.1Cas de la moyenne empirique . . . . . . . . . . . . . . . . . . . . . . 1038.1.2Erreur standard par simulation de Monte Carlo . . . . . . . . . . . . 1048.1.3Erreur standard par le Bootstrap . . . . . . . . . . . . . . . . . . . . 107Intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1108.2.1Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1108.2.2Construction d’intervalle de confiance . . . . . . . . . . . . . . . . . 111Intervalles de confiance par le bootstrap . . . . . . . . . . . . . . . . . . . . 1138.3.1Intervalle bootstrap standard . . . . . . . . . . . . . . . . . . . . . . 1148.3.2Intervalle bootstrap studentisé . . . . . . . . . . . . . . . . . . . . . 1148.3.3Méthode des percentiles centrés . . . . . . . . . . . . . . . . . . . . . 1168.3.4Intervalle bootstrap des percentiles . . . . . . . . . . . . . . . . . . . 1188.3.5Intervalle bootstrap BCa . . . . . . . . . . . . . . . . . . . . . . . . 1198.3.6Comparaison de différents intervalles bootstrap . . . . . . . . . . . . 120

Partie 1Introduction et Rappels1

2

Chapitre 1IntroductionL’objectif de la statistique est d’extraire des informations utiles des données. Les donnéessont issues de domaines très variés comme la médecine, l’économie, la sociologie, l’ingénierie, l’astrophysique, l’internet etc. Un statisticien cherche à les analyser et interpréterpour des objectifs concrets comme le contrôle de qualité, l’aide à la décision etc.L’approche prise en statistique consiste à se donner un cadre mathématique, dans lequel lavariabilité dans les données est expliquée par l’aléa. On adopte donc une modélisation probabiliste des données. On souligne qu’il n’est pas indispensable que le phénomène observésoit vraiment aléatoire, c’est-à-dire les données soient issue d’une expérience où intervientle hasard. La modélisation probabiliste n’est que le moyen pour prendre en compte lavariabilité dans les données, et on doit toujours justifier et critiquer le choix d’un modèle.Par ailleurs, il est clair que tout modèle est faux, car il ne peut être qu’une approximationde la réalité. Néanmoins, on espère que le modèle choisi est approprié pour apporter desréponses en vue des objectifs concrets de l’application.Prenons comme exemple les ventes dans une boutique de vêtements. Chaque jour onobserve le montant dépensé par tous les clients passés à la caisse. Tous les jours, on observealors un vecteur x (x1 , . . . , xn ) représentant les dépenses des n clients de ce jour. Unemodélisation probabiliste simple serait de considérer les données x comme la réalisationd’un vecteur aléatoire X (X1 , . . . , Xn ) de loi P inconnue.Afin d’”expliquer” les données, le statisticien cherche à déterminer cette loi de probabilitéP. En général, il est impossible de reconstituer P exactement, mais on essaye de l’approcheren utilisant au mieux les données observées x. Ensuite, le statisticien essaye de donner desréponses aux questions issues de l’application. Dans notre exemple, on pourrait étudier laquestion si le client moyen dépense plus ou moins pendant les soldes comparé à la périodenormale. En s’appuyant sur des données d’un jour de soldes x (x1 , . . . , xn ) de loi Psoldeet des données d’un jour ”normal” y (y1 , . . . , ym ) de loi Pnormal , on pourrait comparerles lois Psolde et Pnormal pour répondre à la question.Ce cours comporte deux grandes parties, que l’on reconnaı̂t dans ce petit exemple : lapremière partie porte sur l’identification de la loi P des données, plus précisément, surle choix du modèle probabiliste et l’estimation. La deuxième partie présente des testsstatistiques pour apporter des réponses à des questions d’intérêt pratique.Puisque l’approche statistique repose toujours sur une modélisation probabiliste, nouscommençons ce cours par un rappel sur la théorie des probabilités et la présentation dequelques outils probabilistes particulièrement utiles en statistique (Chapitre 2).Le choix d’un modèle pour les données repose d’une part sur une connaissance partiellepréalable du phénomène étudié, de la façon dont une expérience a été menée et d’autrepart sur des représentations graphiques des données recueillies. Ces outils graphiques sont3

connus sous le nom de statistique descriptive, et ils sont présentés dans le Chapitre 3.Cette démarche mène à définir des hypothèses sur la loi P des données et à déterminerune famille de lois à laquelle la loi P est susceptible d’appartenir.Ensuite on cherche à identifier la loi P des données dans cette famille de lois, en construisant un estimateur. Chapitre 4 introduit des propriétés souhaitables d’estimateurs permettant d’évaluer et de comparer différents estimateurs. Chapitre 5 présente des approchesclassiques pour la construction d’estimateurs, notamment la méthode de substitution, laméthode des moments et la méthode du maximum de vraisemblance.Chapitre 6 porte sur des modèles pertinents pour des nombreuses applications, groupéssous le nom de modèles à variables latentes. D’une part, ces modèles sont très importantspour la pratique, d’autre part, ils sont relativement difficiles d’un point de vue mathématique, en sorte que l’estimation nécessite des méthodes adaptées. Dans cette optique,l’algorithme EM est présenté.D’autres modèles de grande utilité en statistique sont les modèles de régression, traitésdans le Chapitre 7. Ces modèles permettent d’étudier la relation entre plusieurs variables,notamment l’impact de certaines variables sur une autre variable.Cette partie du cours se termine par un chapitre sur l’estimation par intervalle, où notamment le bootstrap sera présenté (Chapitre 8).De façon générale, nous ne fournissons que quelques éléments d’analyse théorique despropriétés d’estimateurs, car un intérêt particulier sera porté sur des solutions pratiques(notamment des algorithmes) pour le calcul des estimateurs.Dans la partie sur les tests statistiques, nous présenterons, d’une part, des tests pour valider ou choisir un modèle approprié aux données. P. ex. on veut répondre à la questionsi l’hypothèse que les observations x suivent une loi normale est juste au vu des données.D’autre part, nous développerons des tests pour répondre aux questions issues de l’application, comme p. ex. la question si les achats par personne sont plus ou moins élevéspendant les soldes comparé à la période normale.4

Chapitre 2Rappel et compléments :Théorie des probabilitésCe chapitre comprend un rappel sur la théorie des probabilités et la présentation dequelques outils probabilistes pour la statistique. Les preuves de nombreux résultats sontomis, car elles sont supposées connues de votre cours de probabilité. Par ailleurs, vous lestrouverez dans la majorité des ouvrages classiques de la théorie des probabilités.2.1 Variables aléatoires et principales lois deprobabilitéSoit (Ω, A, P) un espace de probabilité, où (Ω, A) est un espace mesurable et P est unemesure de probabilité sur A. Une variable aléatoire X est une fonction mesurable X : (Ω, A) (R, B) où B est la tribu borélienne de R. On écrit parfois X X(ω) pour soulignerle fait qu’il s’agit d’une fonction de ω Ω.La fonction de répartition d’une variable aléatoire X est la fonction F : R [0, 1]définie par F (x) P(X x) P(ω : X(ω) x). La fonction F sera aussi appelée la loiou la distribution de X.La fonction de répartition est une fonction monotone croissante, continue à droite et telleque lim F (x) 0 et lim F (x) 1.x x On a, pour tout a b,P(X a) F (a) lim F (t) ,(2.1)t a P (X ]a, b]) F (b) F (a) ,P(X [a, b]) P(X ]a, b]) P(X a) F (b) lim F (t) ,t a P(X ]a, b[) P(X ]a, b]) P(X b) lim F (t) F (a) ,t b P(X [a, b[) P(X ]a, b]) P(X b) P(X a) lim F (t) lim F (t) .t b t a Notons p la densité de la loi F par rapport à une mesure de référence µ. Plus précisément,p est une fonction µ-mesurable positive telle queZF (x) p dµ , pour tout x R .] ,x]5

Plus généralement, on a pour tout ensemble B B,ZP(X B) p dµ .BD’après le théorème de Radon-Nikodym, p est unique (à égalité µ-presque partout près).On note queZp dµ 1 .RSouvent on note FX et pX pour la fonction de répartition et la densité d’une variablealéatoire X.Il existe deux principaux types de variables aléatoires : les variables discrètes qui admettentune densité par rapport à une mesure de comptage, et les variables continues qui admettentune densité par rapport à la mesure de Lebesgue. Les lois des variables discrètes sontentièrement définies par les probabilités P(X ·) et les lois des variables continues parleur densité f (·).2.1.1Lois discrètesOn dit que X est une variable aléatoire discrète quand les valeurs de X appartiennentà un ensemble V {v1 , v2 , . . .} fini ou dénombrable. Plus précisément, on aXP(X V) P(X vk ) 1 .kAutrement dit, la loi de X admet une densité p par rapport à la mesure µV de comptagesur V. Elle vérifie p(v) P(X v) pour tout v V, et pour tout x RZXXF (x) p dµV P(X vk )1{vk x} P(X vk ) .] ,x]k:vk xkLa fonction de répartition d’une variable aléatoire discrète est une fonction en escalier.Principales lois discrètes1. Loi de Dirac δx . On dit que la variable aléatoire X suit une loi de Dirac avec masseen x R, si X vaut x avec probabilité 1, i.e.P(X x) 1 .Cette loi modélise un phénomène déterministe (non aléatoire) puisque le résultat del’expérience est presque sûrement égal à la valeur x. La variable X est donc uneconstante.2. Loi uniforme discrète. Soit V {v1 , . . . , vm } un ensemble de m nombres réels vk .On dit que X suit une loi uniforme sur V siP(X vk ) 1,mk 1, . . . , m .3. Loi Bernoulli B(p). La loi de Bernoulli de paramètre p [0, 1] est donnée par unevariable aléatoire X qui prend ses valeurs dans V {0, 1} avecP(X 1) pet6P(X 0) 1 p .

Pour p 0 ou p 1, X est une constante (loi de Dirac).La loi de Bernoulli est utilisée pour modéliser des expériences ayant seulement deuxrésultats possibles, en particulier des situations classifiées en échec (0) ou succès (1).4. Loi binomiale B(n, p). Soient X1 , . . . , Xn des variablesPn aléatoires indépendantes deloi Bernoulli B(p). Alors, on dit que la somme Sn k 1 Xk suit une loi binomialeB(n, p). Autrement dit, Sn est une variable aléatoire à valeurs dans V {0, . . . , n}vérifiant n P(Sn k) pk (1 p)n k , k 0, 1, . . . , n .kLa loi binomiale B(1, p) avec n 1 coı̈ncide avec la loi Bernoulli B(p).La loi binomiale B(n, p) modélise le nombre de succès parmi n expériences Bernoulli(i.i.d.).5. Loi de Poisson Poi(λ). La variable aléatoire X suit une loi de Poisson de paramètreλ 0 siλk λP(X k) e , k 0, 1, 2, . . . .k!La loi de Poisson est liée à la loi binomiale. Plus précisément, soient (Yn )n 1 unesuite de variables aléatoires de loi binomiale B(n, pn ), où les paramètres pn vérifientnpn λ lorsque n . Alors, pour tout k {0, 1, . . .},lim P(Yn k) limn n n kpkn (1 pn )n k λk λe P(X k) .k!6. Loi géométrique Geo(p). Soit X1 , X2 , . . . une suite de variables aléatoires indépendantes de loi Bernoulli B(p). Considérons 0 comme un échec et 1 comme succès.Alors la variable aléatoire W définie comme le nombre d’échecs jusqu’au premiersuccès suit une loi géométrique Geo(p). Autrement dit, W est la longueur maximalede la suite X1 , . . . , X telle que X1 · · · X 0, i.e.W max{ : X1 · · · X 0} .Donc, W est une variable aléatoire à valeurs dans V {0, 1, . . .} qui vérifieP(W ) p(1 p) ,2.1.2 0, 1, . . . .Lois absolument continuesOn dit que X est une variable aléatoire (absolument) continue lorsque sa loi admetune densité f par rapport à la mesure de Lebesgue sur R, i.e.Z xF (x) f (t)dt , pour tout x R. Dans ce cas, la fonction de répartition F de X est continue et différentiablepresque partout sur R et la densité de probabilité de X est égale à la dérivéef (x) F 0 (x)La densité f est positive (f 0) et vérifiepresque partout.RR f (t)dt 1.Notons que par (2.1) et par la continuité de F , on aP(X x) F (x) lim F (t) F (x) F (x) 0 , pour tout x R .t x 7

Par conséquent, pour tout a bZP(X ]a, b]) P(X ]a, b[) P(X [a, b[) P(X [a, b]) bf (x)dx .aDes nombreuses familles de lois courantes peuvent être définies par un paramètre de translation et/ou un paramètre d’échelle. Plus précisément, soit F une famille de lois donnéeet supposons que la loi de X est comprise dans F. Si la loi de X τ appartient à F pourtout τ dans un ensemble T R, on dit que τ est un paramètre de translation ou deposition. De même, si σX appartient à F pour tout σ d’un ensemble S R, on dit que σest un paramètre d’échelle.Principales lois continues1. Loi uniforme U(a, b). La loi uniforme sur l’intervalle [a, b], a b , estla loi notée U [a, b], de densitéf (x) 11 (x) ,b a [a,b]où 1A (·) désigne la fonction indicatrice de l’ensemble A : 1si x A1A (x) 0sinon.2. Loi normale N (µ, σ 2 ). La loi normale (ou loi gaussienne) N (µ, σ 2 ) est la loi dedensité(x µ)21f (x) e 2σ2 , x R ,2πσavec µ R et σ 0. Si µ 0 et σ 1, la loi N (0, 1) est dite loi normale standard.Si X suit la loi normale standard N (0, 1), alors la variable aléatoire Y σX µavec µ, σ R suit la loi normale N (µ, σ 2 ). Le paramètre µ est alors un paramètrede translation, et σ un paramètre d’échelle.3. Loi exponentielle E(λ). La loi exponentielle E(λ) est la loi de densitéf (x) λe λx 1[0, [ (x) ,où λ 0. La fonction de répartition de E(λ) estF (x) (1 e λx )1[0, [ (x) .Si X suit la loi exponentielle E(1), alors aX avec a 0 suit la loi exponentielleE(1/a).4. Loi Gamma Γ(a, b). La loi Gamma Γ(a, b) est la loi de densitéf (x) ba a 1 bxx e,Γ(a)x 0.où a 0 est un paramètre de forme et b 0 un paramètre d’intensité, et Γ(·) dénotela fonction gamma définie parZ Γ(t) z t 1 e z dz , t 0 .08

Pour a 1, la loi Γ(1,

Cette d emarche m ene a d e nir des hypoth eses sur la loi P des donn ees et a d eterminer une famille de lois a laquelle la loi P est susceptible d’appartenir. Ensuite on cherche a identi er la loi P des donn ees dans cette famille de lois, en construi-sant un estimateur. Chapitre 4 introduit des

Related Documents:

Probl emes math ematiques et num eriques pos es par la mod elisation de l’electrolyse de l’aluminium Jean-Fr ed eric Gerbeau To cite this version: Jean-Fr ed eric Gerbeau. Probl emes math ematiques et num eriques pos es par la mod elisation de l’electrolyse de l’aluminium. Math ematiques [math]. Ecole des Ponts ParisTech, 1998.

Martin J. Gander1 Laurence Halpern2 Fr¶ed ¶eric Nataf3 1CMAP, Ecole P olytechnique, 91128 alaiseau, France. mgander@cmap.p hnique.fr 2D¶epartemen t de Math¶ematiques, Universit¶e Paris XIII, 93430 Villetaneuse, and CMAP, Ecole olytechnique, 91128 Palaiseau, France. halpern@math.u

(c’ etait le prix qu’il payait pour moi) et il est all e faire son cours. Le libraire a pass e tout le temps a m’aider a choisir. Quand l’ami de mes parents est revenu, il a sorti le ch eque d ej a ecrit, et ca co ncidait ! C’est l a que j’ai vu pour la premi ere fois les vraies math ematiques. J’avais seize ans. 4

Math 5/4, Math 6/5, Math 7/6, Math 8/7, and Algebra 1/2 Math 5/4, Math 6/5, Math 7/6, Math 8/7, and Algebra ½ form a series of courses to move students from primary grades to algebra. Each course contains a series of daily lessons covering all areas of general math. Each lesson

MATH 110 College Algebra MATH 100 prepares students for MATH 103, and MATH 103 prepares students for MATH 110. To fulfil undergraduate General Education Core requirements, students must successfully complete either MATH 103 or the higher level MATH 110. Some academic programs, such as the BS in Business Administration, require MATH 110.

math-drills.com math-drills.com math-drills.com math-drills.com math-drills.com math-drills.com math-drills.com math-drills.com math-drills.com Making Number Patterns (C) I

2016 MCAS Results September 29, 2016 Page 4 8 Year Math CPI Results For State, District, and Schools Ranked by 2016 CPI School el 2009 Math MCAS 2010 Math MCAS 2011 Math MCAS 2012 Math MCAS 2013 Math MCAS 2014 Math MCAS 2015 Math MCAS 2016 Math PARCC Sewell-Anderson 1 80.0 78.7 76.7 84.2 88.3 89.0 89.3 92.5

Math Course Progression 7th Grade Math 6th Grade Math 5th Grade Math 8th Grade Math Algebra I ELEMENTARY 6th Grade Year 7th Grade Year 8th Grade Year Algebra I 9 th Grade Year Honors 7th Grade Adv. Math 6th Grade Adv. Math 5th Grade Math 6th Grade Year 7th Grade Year 8th Grade Year th Grade Year ELEMENTARY Geome