Rappels De Statistiques 1 Rappels Sur Les Tests Param Etriques

2y ago
25 Views
2 Downloads
336.78 KB
17 Pages
Last View : 1d ago
Last Download : 2m ago
Upload by : Sabrina Baez
Transcription

Master Ingénierie Mathématique M1Université Paris-Sud 112008-2009Calcul de risques et prédictionsRappels de Statistiques1Rappels sur les tests paramétriquesOn suppose que l’on étudie un phénomène gouverné par une loi Pθ dépendant d’unparamètre θ qui appartient à un ensemble Θ, réunion disjointe de Θ0 et Θ1 . On disposedes observations x1 , ., xn du phénomène étudié de loi Pθ inconnue. Effectuer un test deH0 : θ Θ0 contre H1 : θ Θ1 consiste à définir une règle de décision afin de choisirl’une ou l’autre des deux alternatives. Selon les valeurs des observations, on prendra ladécision à partir d’une fonction de test binaire Φ 1IR , où R est appelée la région derejet du test. Les tests sont généralement définis en fonction d’une statistique Tn ditestatistique de test, qui peut être un estimateur de θ ou une fonction d’un estimateur deθ. Suivant ce que l’on désire tester, on choisira plutôt des zones de rejet de type unilatère(par exemple pour tester {θ 0} contre {θ 0}) ou de type bilatère (par exemple pourtester {θ 0} contre {θ 6 0}). La région de rejet R sera choisie de la forme {Tn t}dans le premier cas et de la forme { Tn t} dans le second cas. La décision d’un testpeut être erronée et on distingue deux types d’erreurs : Erreur de première espèce : elle correspond à la probabilité de fausse alarme i.ela probabilité de rejeter H0 à tort. Le test est dit de niveau α [0, 1] si sa taillesup Pθ (R) est inférieure ou égale à α.θ Θ0 Erreur de deuxième espèce : elle correspond à la probabilité d’accepter H0 à tort.L’erreur de deuxième espèce est liée à la puissance d’un test définie comme lafonctionΠ : θ Θ1 7 Π(θ) Pθ (R).La puissance Π mesure la capacité à rejeter H0 sous l’alternative et l’erreur deseconde espèce en θ Θ1 vérifie β(θ) : Pθ (Rc ) 1 Π(θ).Considérons un même test pour des niveaux différents pris dans [0, 1]. Plus le niveau dutest est élevé, plus celui-ci rejette souvent H0 . Si les observations x1 , ., xn sont «fixées»,le niveau maximum parmi les niveaux de tous les tests acceptant H0 est appelé la p-valeurdu test. C’est un indicateur de la facilité avec laquelle on peut accepter ou rejeter un testpour les données considérées. Par exemple, si la p-valeur obtenue vaut 67%, le test deniveau 5% acceptera H0 .1

2Lois dérivant de la loi normale2.1Loi du chi-deuxDéfinition 1. On dit que Y suit une loi du chi-deux à n degrés de liberté et on noteY X 2 (n) si Y est la somme des carrés de n variables aléatoires indépendantes de loiN (0, 1).Exemple : Soit (X1 , . . . , Xn ) un n-échantillon gaussien de moyenne m et de varianceσ 2 . Les variables Ui (Xsont des variables gaussiennes centrées réduitesPi m)/σ Pindépendantes. Donc Y ni 1 Ui2 ni 1 [(Xi m)/σ]2 X 2 (n).Proposition 1. Propriétés de la loi du chi-deux : Densité : La densité de la loi du chi-deux à n degrés de liberté vaut 0 si t 0 et 1tf (t) nt(n/2) 1 si t 0exp n22 2 Γ( 2 )où Γ(p) est la fonction gamma au point p (p 0) définie par :Z Γ(p) e t tp 1 dt.0Cette fonction possède les propriétés suivantes :a) Γ(p 1) pΓ(p)b) Si p N alors Γ(p) (p 1) !c) Γ(1/2) πLa forme de la densité est représentée sur la table de loi (voir fin du document). Espérance et variance : Soit Y une variable aléatoire suivant une loi du chi-deuxà n degrés de liberté. On aE[Y ] n et Var(Y ) 2n. Fonction de répartition : Soit Y une variable aléatoire suivant une loi duchi-deuxà n degrés de liberté. Sa fonction de répartition FY (y) P(Y y) Ryf(x)dxn’est pas calculable formellement. On utilise la table de loi donnée en fin0de document si n 30. Si n 30 on peut utiliser le TLC :Y n ' N (0, 1).2n2

2.2Loi de StudentDéfinition 2. Soit U N (0, 1) et Y X 2 (n) telles que U et Y soient indépendantes.On dit que la variable T définie parUT pY /nsuit une loi de Student à n degrés de liberté et on note T T (n).Proposition 2. Propriétés de la loi de Student : Densité : La densité de la loi de Student à n degrés de liberté est définie par : n 1 21t2 t R, f (t) 1 nn B(1/2, n/2)où B(p, q) est la fonction béta au point (p, q) (p, q 0) définie par :B(p, q) Γ(p)Γ(q).Γ(p q)Remarquons que f est une fonction paire et que cette densité est une courbe « encloche » (voir sur la table de loi en fin de document). La fonction B(p, q) possèdeles propriétés suivantes :a) B(p, q) B(q, p)b) B(1/2, 1/2) πc) Elle peut s’écrire comme une intégrale (admis) :Z xp 1dx.B(p, q) (1 x)p q0Après changement de variable on a aussi :Z 1B(p, q) xp 1 (1 x)q 1 dx.0 Espérance et variance : Soit T une variable aléatoire de loi de Student à ndegrés de liberté. Pour n 2 on anE[T ] 0 et Var(T ) .n 2 Fonction de répartition : Soit T une variable aléatoire de loiR de Student à ntdegrés de liberté. Sa fonction de répartition FT (t) P(T t) f (x)dx n’estpas calculable formellement. On utilise la table de loi donnée en fin de document sin 30. Si n 30 on peut utiliser l’approximation suivante :r(n 2)T ' N (0, 1).nComme la densité est une fonction paire, on a les mêmes propriétés de symétrieque pour la loi normale centrée : FT ( t) 1 FT (t), P ( T t) 2FT (t) 1,P ( T t) 2 [1 FT (t)].3

2.3Loi de Fisher-SnedecorDéfinition 3. Soient Y1 et Y2 deux variables indépendantes suivant respectivement leslois X 2 (n1 ) et X 2 (n2 ). On dit que la variable Z définie parZ Y1 /n1Y2 /n2suit une loi de Fisher-Snedecor à n1 et n2 degrés de liberté et on note Z F(n1 , n2 ).Remarque : F(n1 , n2 ) 6 F(n2 , n1 )Proposition 3. Propriétés de la loi de Fisher-Snedecor : Densité : La densité de la loi de Fisher à n1 et n2 degrés de liberté vaut 0 si t 0etn1 1n1n22t122 n nf (t) si t 0B n21 , n22 1 2 (n1 t n2 )(n1 n2 )/2où B(n1 , n2 ) est la fonction béta précédemment définie. L’allure de la densité estreprésentée sur la table de loi donnée en fin de document. Espérance et variance : Soit Z F(n1 , n2 ).n2E[Z] pour n2 3 et Var(Z) n2 2 n2n2 2 22(n1 n2 2)pour n2 5.n1 (n2 4) Fonction de répartition : Soit Z une variable de loi de FisherR z à n1 et n2 degrésde liberté. Sa fonction de répartition FZ (z) P(Z z) 0 f (x)dx n’est pascalculable formellement. On utilise la table de loi donnée en fin de document. Soit Z une variable de loi de Fisher à n1 et n2 degrés de liberté. On a que1 F(n2 , n1 ) et si n1 1, Z T (n2 ).Z3Problèmes pour un échantillon gaussienSoit (X1 , . . . , Xn ) un n-échantillon de loi N (µ, σ 2 ). On noten1XX̄ Xi ,n i 1nn1X1 XS (Xi X̄)2 , σ̂ 2 (Xi X̄)2n 1 i 1n i 12Théorème 1.2 X̄ N (µ, σn ) (n 1)S 2σ2 X 2 (n 1) X̄ et S 2 sont indépendantes.4

Remarque : On a aussi22’. nσ̂ X 2 (n 1)σ23’. X̄ et σ̂ 2 sont indépendantes.Corollaire 1. Conséquence du Théorème 1 : n 1(X̄ µ)n(X̄ µ) T (n 1).σ̂S3.13.1.1Problèmes sur la varianceTest sur la varianceSupposons que l’on désire tester H0 : σ σ0 contre H1 : σ σ1 . En appliquant leThéorème 1, on a(n 1)S 2 X 2 (n 1).σ2On peut donc utiliser : (n 1)S 2 X 2 (n 1) Sous H0 ,σ02 Sous H ,1(n 1)S 2σ12 X 2 (n 1)pour construire le test.3.1.2Intervalles de confiance pour la variance 2 Intervalle de confiance bilatéral : Soient a et b tels que P a (n 1)S b 1 α.2σih22est un intervalle de confiance bilatéral pour σ 2 au; (n 1)SAlors I1 α (n 1)Sbaniveau de confiance 1 α.Recherche de a et b : on note Y (n 1)S 2σ2 X 2 (n 1). On aP(a Y b) 1 α P(Y a) P(Y b) α P(Y a) α2P(Y a) α2On cherche a et b tels que P(Y b) α2P(Y b) 1 α22On lit alors a et b dans la table de loi de la loi Xn 1.Conclusion : L’intervalle de confiance bilatéral pour σ 2 au niveau de confiance 1 αest : (n 1)S 2 (n 1)S 2I1 α ;t1 α/2tα/2avec :αα22FXn 1(tα/2 ) et FXn 1(t1 α/2 ) 1 222où FXn 1 est la fonction de répartition de la loi du chi-deux à n 1 degrés de liberté.5

Intervalles de confiance unilatéraux : à gauche : L’intervalle de confiance unilatéral à gauche pour σ 2 au niveau deconfiance 1 α est : (n 1)S 2I1 α 0;tαavec :2FXn 1(tα ) α2où FXn 1est la fonction de répartition de la loi du chi-deux à n 1 degrés deliberté. à droite : L’intervalle de confiance unilatéral à droite pour σ 2 au niveau deconfiance 1 α est : (n 1)S 2; I1 α t1 αavec :2FXn 1(t1 α ) 1 α2est la fonction de répartition de la loi du chi-deux à n 1 degrés deoù FXn 1liberté.3.23.2.1Problèmes sur la moyenne à variance connueTest sur la moyenneSoit (X1 , . . . , Xn ) un n-échantillon de loi N (µ, σ 2 ). Supposons que l’on désire testerH0 : µ µ0 contre H1 : µ µ1 . Puisque X̄ µ N (0, 1),nσon a que X̄ µ0 n σ N (0, 1) sous H0 1n X̄ µ N (0, 1) sous H1 .σRemarque : Si (X1 , . . . , Xn ) est seulement supposé être un n-échantillon d’espérance µet de variance σ 2 alors on utilise le théorème central limite pour approcher les lois parN (0, 1) : X̄ µ Ln N (0, 1).σ n 3.2.2Intervalles de confiance pour la moyenneSoit t tel que : P n(X̄ µ) t 1 ασ6

hiAlors I1 α X̄ t σn ; X̄ t σn est un intervalle de confiance pour µ au niveau deconfiance 1 α.Recherche de t : En utilisant l’approximation par la loi normale et en se servant de lasymétrie de la loi normale centrée réduite, on obtient F (t) 1 α2 où F est la fonctionde répartition de la loi normale centrée réduite.Conclusion :I1 α σσ X̄ t1 α2 ; X̄ t1 α2 nnavec F (t1 α2 ) 1 α2 .3.33.3.1Problèmes sur la moyenne à variance inconnueTest sur la moyenneSupposons que l’on désire tester H0 : µ µ0 contre H1 : µ µ1 ne connaissant pasla variance. En utilisant le Corollaire 1, on a que X̄ µn T (n 1).SAinsi X̄ µ0 n S T (n 1) sous H0 3.3.21n X̄ µ T (n 1) sous H1 .SIntervalles de confiance pour la moyenneSoit t tel que : P n(X̄ µ) t 1 αShiAlors I1 α X̄ t Sn ; X̄ t Sn est un intervalle de confiance pour µ au niveau deconfiance 1 α.Recherche de t : En se servant de la symétrie de la loi de Student on obtient : 2FTn 1 (t) 1 1 α soit FTn 1 (t) 1 α2 où FTn 1 est la fonction de répartition de la loi de Studentà n 1 degrés de liberté.Conclusion :I1 α SSα X̄ t1 α2 ; X̄ t1 α2 avec FTn 1 (t1 α2 ) 1 .2nn7

4Problèmes pour deux échantillons gaussiens indépendants2Soit (X1 , . . . , Xn ) un n-échantillon de loi N (µX , σX) et soit (Y1 , . . . , Ym ) un m-échantillon2de loi N (µY , σY ). On suppose que (X1 , . . . , Xn ) et (Y1 , . . . , Ym ) sont indépendants.Théorème 2.2 /σ 2SXX2SY2 /σY1. F(n 1, m 1)22. Si σX σY2 σ 2 alors X̄ Ȳ N µX µY , σ 2 ( n1 2 (m 1)S 2(n 1)SXYσ21)m X 2 (n m 2)2 X̄ Ȳ et (n 1)SX (m 1)SY2 sont indépendantes.2Remarque : On peut énoncer le théorème avec σ̂Xet σ̂Y2 :1’.2 /[(n 1)σ 2 ]nσ̂XX2 /[(m 1)σ 2 ]mσ̂YY F(n 1, m 1)2 mσ̂Y )/σ 2 X 2 (n m 2)2’. (nσ̂X2Corollaire 2. Conséquence du Théorème 2 : Si σX σY2 alorsrnm(n m 2) (X̄ Ȳ ) (µX µY )p T (n m 2).2n m(n 1)SX (m 1)SY24.14.1.1Comparaison des variancesTests de comparaison2/σY2 le rapport des variances. On peut tester H0 : λ 1 contre H1 : λ 3Notons λ σXou bien H0 : λ 1 contre H1 : λ 6 1 ou bien H0 : λ 1 contre H1 : λ 1 ou n’importequelle variante. Pour réaliser de tels tests, on utilise le Théorème 2 :222SX/σX1 SX F(n 1, m 1).SY2 /σY2λ SY2Ainsi on connaı̂t la loi de4.1.221 SXλ SY2sous H0 et sous H1 .Intervalles de confiance pour le rapport des variancesS21. Intervalle de confiance bilatéral : Soient a et b tels que P(a λSX2 b) 1 α.Yh 2iSS22/σY2 auAlors I1 α bSX2 ; aSX2 est un intervalle de confiance bilatéral pour λ σXYYniveau de confiance 1 α.8

Recherche de a et b : on note Z On prend2SXλSY2 F(n 1, m 1).P(a Z b) 1 α P(Z a) P(Z b) α. P(Z a) α2P(Z a) α2 P(Z b) α2P(Z b) 1 α2On peut alors lire b sur la table de loi donnée en fin de document. Pour lire a,on remarque que 1/Z F(m 1, n 1) et que : α11αP(Z a) P 1 .2Za22Conclusion : L’intervalle de confiance bilatéral pour λ σX/σY2 au niveau deconfiance 1 α est :#"22S1 SXX; t0 αI1 α t1 α2 SY2 1 2 SY2avec :ααet FF (m 1,n 1) (t01 α ) 1 222où FF (n 1,m 1) et FF (m 1,n 1) sont respectivement les fonctions de répartition de laloi de Fisher à (n 1) et (m 1) degrés de liberté et de la loi de Fisher à (m 1)et (n 1) degrés de liberté.FF (n 1,m 1) (t1 α2 ) 1 2. Intervalles de confiance unilatérauxDe la même manière on trouve les intervalles de confiance unilatéraux pour λ 2σX/σY2 au niveau de confiance 1 α. Intervalle à gauche :I1 α Intervalle à droite :21 SX ; t1 α SY2 I1 αavec 2SX0 0; t1 α 2SY FF (n 1,m 1) (t1 α ) 1 α et FF (m 1,n 1) (t01 α ) 1 αoù FF (n 1,m 1) et FF (m 1,n 1) sont respectivement les fonctions de répartition de laloi de Fisher à (n 1) et (m 1) degrés de liberté et de la loi de Fisher à (m 1)et (n 1) degrés de liberté.4.2Comparaison de la différence des moyennes à variance inconnueAttention : La comparaison des moyennes à variance inconnue n’est possible que si2les variances sont égales. On suppose donc σX σY2 σ 2 et on note δ µX µY ladifférence des moyennes.9

4.2.1Tests de comparaisonOn peut tester H0 : δ 0 contre H1 : δ 5 ou bien H0 : δ 0 contre H1 : δ 6 0 oubien H0 : δ 0 contre H1 : δ 0 ou n’importe quelle variante.Pour réaliser de tels tests, on utilise le Corollaire 2 :rnm(n m 2)X̄ Ȳ δp T (n m 2).2n m(n 1)SX (m 1)SY24.2.2Intervalles de confiance pour la différence des moyennesSoit t tel que :r!nm(n m 2)X̄ Ȳ δp t 1 α.P2n m(n 1)SX (m 1)SY2ihqpn m22Alors I1 α X̄ Ȳ t nm(n m 2) (n 1)SX (m 1)SY est un intervalle deconfiance pour δ µX µY au niveau de confiance 1 α. En se servant de la symétrie dela loi de Student, on obtient : FTn m 2 (t) 1 α2 où FTn m 2 est la fonction de répartitionde la loi de Student à n m 2 degrés de liberté.Conclusion :I1 αr X̄ Ȳ t1 α2n mnm(n m 2) q(n 21)SX (m 1)SY2avec FTn m 2 (t1 α2 ) 1 α2 .Exercice : Construire un test pour comparer les moyennes de X et Y lorsque σX etσY sont connus.4.32Problèmes sur la variance dans le cas σX σY2 σ 22Les variances sont supposées égales, σX σY2 σ 2 , mais σ 2 est inconnue. On chercheà construire des tests ou des intervalles de confiance utilisant l’information contenue dansles deux échantillons. En utilisant le Théorème 1, on a2(n 1)SX(m 1)SY22 X (n 1) et X 2 (m 1)22σσ2Mais si l’on choisit d’employer la statistique SXpour construire un test ou un intervalle2de confiance pour σ on perd l’information contenue dans (Y1 , . . . , Ym ). Pour cette raisonon utilise le Théorème 2 :2(n 1)SX (m 1)SY2 X (n m 2)σ22et on emploie la statistique (n 1)SX (m 1)SY2 pour construire des tests et des2intervalles de confiance pour σ .10

2Par exemple si l’on suppose que σX σY2 σ 2 , l’intervalle de confiance bilatéral pourσ 2 au niveau de confiance 1 α est :#"22 (m 1)SY2(n 1)SX (m 1)SY2 (n 1)SX;I1 α t1 α2t α2avecαα2et FXn m 2(t1 α2 ) 1 22est la fonction de répartition de la loi du chi-deux à n m 2 degrés de liberté.2FXn m 2(t α2 ) 2où FXn m 2Estimateur de σ 2 : On prendra comme estimateur de σ 2 la variable aléatoireS2 2(n 1)SX (m 1)SY2n m 2car E[S 2 ] σ 2 et Var(S 2 ) 2σ 4 /(n m 2).2On peut montrer que (SX SY2 )/2 est un autre estimateur sans biais de σ 2 mais qu’il2est moins bon que S .Remarque : Avec la notation S 2 , le Corollaire 2 s’écrit :(X̄ Ȳ ) (µX µY )r T (n m 2).11S n m

F(u)Variable NORMALE CENTREE REDUITEuU N(0,1)P( U u ) F(u) 12πu x e2/2dx F(-u) 1 - F(u)P( U u) 2 F(u) - 1TABLE de F(u) en fonction de u 30,99950,99960,99970,99900,99930,99950,99970,9998

841,0641,6102,2042,8333,4904,1684,8650.90Pour n 30, on peut admettre 2930nTABLE DU CHI-DEUX2χ2 6715,5276,3937,2670.702n-1 N(0,1): 8415,9870.10χ 6,96

Rappels de Statistiques 1 Rappels sur les tests param etriques On suppose que l’on etudie un ph enom ene gouvern e par une loi P θ d ependant d’un param etre θ qui appartient a un ensemble Θ, r eunion disjointe de Θ 0 et Θ 1. On dispose des observations x 1,.,x n du ph enom ene etudi e de loi P θ inconnue. Effectuer un test de H 0: θ Θ 0 contre H 1: θ Θ 1 .

Related Documents:

Master de Psychologie Sociale - PSR73B9 Statistiques param etriques et non param etriques E.C. PSR73B Pr esentation du cours 2013/2014 Organisation mat erielle Cours et TD de Statistiques : 24 heures. Horaire : mercredi 9h15 - 11h30 Contr ole des connaissances : Examen ecrit (2 heures) Bibliographie {D.C. Howell. M ethodes statistiques en .

1 Fonctionnement de l’UE MAPSI 2 Variables aleatoires & probabilit es : vocabulaire, d efinitions 3 Description d’une population, d’un echantillon 4 Variables multiples, loi jointe, conditionnelle 5 Independance probabiliste 6 Conclusion MAPSI — cours 1 : Rappels de probabilites et statistiques 2/52

Bulletin hebdomadaire de statistiques financières Internet On peut consulter le Bulletin hebdomadaire de statistiques financières (y compris le calendrier de publication des données) dans le site Web de la Banque du Canada. 3 V36639 V36625 2015 J 20,612 73,188 - - 933 94,733 70,087 22,046 150 2,450

ordinale (ordre sur les labels, ex : faible, moyen, fort); . LINF2275 Proba. - rappels12 Outils probabilistes de base (rappels) Expérience aléatoire: expérience où le hasard intervient rendant le résultat imprévisible (Ex: lancer un dé) ensemble de tous les résultats possibles univers des possibles W (Ex: W {1, 2, ., 6}) Evénement: assertion relative au résultat d .

Rappels sur les mod eles Formation phylog enie { Institut Pasteur Guy Perri ere Laboratoire de Biom etrie et Biologie Evolutive UMR CNRS n 5558 Universit e Claude Bernard { Lyon 1 1er octobre 2015 Guy Perri ere (BBE) Rappels sur les mod eles 1er octobre 2015 1 / 21. Introduction Divergence observ ee Appel ee p (ou p-distance), c’est l’estimation la plus simple de la distance entre deux s .

Traitement du signal Introduction 2.1.3 Classification: signaux aléatoires-Signaux stationnaires: es propriétés statistiques (moyenne, écart type, ) du signal ne changent pas au cours du temps . Ergodique: Si les moyennes statistiques du signal stationnaire sont équivalentes aux moyennes temporelles alors le signal aléatoire

transmettre à l'utilisateur intéressé &/. 2. Des textes préliminaires de cette Première partie et d'un document sur l'utilité et la possibilité d'adapter la version intégrale du cadre pour l'intégration des statistiques sociales et démographiques en vue de son publication.

Accounting and Reporting by Charities: Statement of Recommended Practice applicable to charities preparing their accounts in accordance with the Financial