Elementi Di Probabilità, Statistica E Processi Stocastici

3y ago
31 Views
4 Downloads
2.68 MB
385 Pages
Last View : 8d ago
Last Download : 3m ago
Upload by : Sabrina Baez
Transcription

Elementi di Probabilità, Statistica e Processi StocasticiFranco Flandoli23 ottobre 2011

ii

IndicePrefazioneix1 Elementi di Calcolo delle Probabilità1.1 Eventi e loro probabilità . . . . . . . . . . . . . . . . . .1.1.1 Universo ed eventi elementari . . . . . . . . . . .1.1.2 Eventi . . . . . . . . . . . . . . . . . . . . . . . .1.1.3 Informazione contenuta in una famiglia di eventi1.1.4 Algebre di eventi . . . . . . . . . . . . . . . . . .1.1.5-algebre di eventi . . . . . . . . . . . . . . . . .1.1.6 Spazio probabilizzabile . . . . . . . . . . . . . . .1.1.7 Probabilità . . . . . . . . . . . . . . . . . . . . .1.1.8 Probabilità associata ad una densità . . . . . . .1.1.9 Probabilità associata ad una densità discreta . .1.1.10 Probabilità condizionale . . . . . . . . . . . . . .1.1.11 Indipendenza . . . . . . . . . . . . . . . . . . . .1.1.12 Formula di fattorizzazione . . . . . . . . . . . . .1.1.13 Formula di Bayes e formula di fattorizzazione . .1.1.14 Calcolo combinatorico . . . . . . . . . . . . . . .1.2 Variabili aleatorie e valori medi . . . . . . . . . . . . . .1.2.1 Introduzione . . . . . . . . . . . . . . . . . . . .1.2.2 V.a. continue e loro densità di probabilità . . . .1.2.3 V.a. discrete . . . . . . . . . . . . . . . . . . . .1.2.4 De nizione di variabile aleatoria . . . . . . . . .1.2.5 Legge di una v.a. . . . . . . . . . . . . . . . . . .1.2.6 Funzione di distribuzione (cdf) di una v.a. . . . .1.2.7 V.A. indipendenti . . . . . . . . . . . . . . . . .1.2.8 Vettori aleatori ed altri enti aleatori . . . . . . .1.2.9 Valori medi o attesi . . . . . . . . . . . . . . . .1.2.10 Valor atteso: suo calcolo con le densità . . . . . .1.2.11 Alcuni esempi . . . . . . . . . . . . . . . . . . . .1.2.12 Proprietà meno elementari del valor medio . . .1.2.13 Media di v.a. indipendenti . . . . . . . . . . . . .1.2.14 Disuguaglianza di Hölder . . . . . . . . . . . . .1.2.15 Disuguaglianza di Jensen . . . . . . . . . . . . 84949iii.

ivINDICE1.31.41.51.2.16 Disuguaglianza di Chebyshev . . . . . . . . . . . . . . .1.2.17 Varianza e deviazione standard . . . . . . . . . . . . . .1.2.18 Covarianza e coe ciente di correlazione . . . . . . . . .1.2.19 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . .1.2.20 Momenti . . . . . . . . . . . . . . . . . . . . . . . . . . .1.2.21 La funzione generatrice dei momenti . . . . . . . . . . .1.2.22 De nizione generale di valor medio . . . . . . . . . . . .1.2.23 Proprietà generali . . . . . . . . . . . . . . . . . . . . .Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1.3.1 Una proprietà di concentrazione delle binomiali . . . . .1.3.2 Sul teorema degli eventi rari per v.a. di Poisson . . . . .1.3.3 Identi cazione di un modello di Poisson piuttosto che di1.3.4 Processo di Bernoulli, ricorrenze, v.a. geometriche . . .1.3.5 Tempo del k-esimo evento: binomiale negativa . . . . .1.3.6 Teoremi sulle v.a. esponenziali . . . . . . . . . . . . . .1.3.7 Proprietà delle gaussiane . . . . . . . . . . . . . . . . .1.3.8 Variabili di Weibull . . . . . . . . . . . . . . . . . . . .1.3.9 Densità Gamma . . . . . . . . . . . . . . . . . . . . . .1.3.10 Densità Beta . . . . . . . . . . . . . . . . . . . . . . . .1.3.11 Code pesanti; distribuzione log-normale . . . . . . . . .1.3.12 Skewness e kurtosis . . . . . . . . . . . . . . . . . . . . .Teoremi limite . . . . . . . . . . . . . . . . . . . . . . . . . . .1.4.1 Convergenze di variabili aleatorie . . . . . . . . . . . . .1.4.2 Legge debole dei grandi numeri . . . . . . . . . . . . . .1.4.3 Legge forte dei grandi numeri . . . . . . . . . . . . . . .1.4.4 Stima di Cherno (grandi deviazioni) . . . . . . . . . .1.4.5 Teorema limite centrale . . . . . . . . . . . . . . . . . .1.4.6 Distribuzione del limite di massimi . . . . . . . . . . . .Approfondimenti sui vettori aleatori . . . . . . . . . . . . . . .1.5.1 Trasformazione di densità . . . . . . . . . . . . . . . . .1.5.2 Trasformazione lineare dei momenti . . . . . . . . . . .1.5.3 Sulle matrici di covarianza . . . . . . . . . . . . . . . . .1.5.4 Vettori gaussiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49. . . . . . . . 50. . . . . . . . 53. . . . . . . . 57. . . . . . . . 58. . . . . . . . 60. . . . . . . . 63. . . . . . . . 64. . . . . . . . 65. . . . . . . . 66. . . . . . . . 68uno binomiale 68. . . . . . . . 69. . . . . . . . 71. . . . . . . . 72. . . . . . . . 74. . . . . . . . 76. . . . . . . . 78. . . . . . . . 79. . . . . . . . 80. . . . . . . . 81. . . . . . . . 82. . . . . . . . 82. . . . . . . . 84. . . . . . . . 87. . . . . . . . 88. . . . . . . . 91. . . . . . . . 93. . . . . . . . 96. . . . . . . . 96. . . . . . . . 98. . . . . . . . 99. . . . . . . . 1032 Elementi di Statistica2.1 Introduzione. Stimatori . . . . . . . . . . . . . . . . . . . . . . . . . .2.2 Intervalli di con denza . . . . . . . . . . . . . . . . . . . . . . . . . . .2.2.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2.2.2 Soglie, ammissibili ecc. . . . . . . . . . . . . . . . . . . . . . . .2.3 Test statistici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2.3.1 Un esempio prima della teoria . . . . . . . . . . . . . . . . . . .2.3.2 Calcolo analitico del p-value nel precedente test per la media .2.3.3 Ipotesi nulla . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2.3.4 Errori di prima e seconda specie; signi catività e potenza di un. . . . . . . . . . . . . . . . .test.113113116119125127127128129131

INDICEv2.3.52.3.62.3.72.3.82.3.9Struttura diretta della procedura di test . . . . . . . . . . . . . . .p-value (struttura indiretta) . . . . . . . . . . . . . . . . . . . . . .Test gaussiano per la media unilaterale e bilaterale, varianza notaCurve OC e DOE nei test . . . . . . . . . . . . . . . . . . . . . . .Test di “adattamento” . . . . . . . . . . . . . . . . . . . . . . . . .3 Processi Stocastici3.1 Processi a tempo discreto . . . . . . . . . . . . .3.1.1 Legame tra v.a. esponenziali e di Poisson3.2 Processi stazionari . . . . . . . . . . . . . . . . .3.2.1 Processi de niti anche per tempi negativi3.2.2 Serie temporli e grandezze empiriche . . .3.3 Processi gaussiani . . . . . . . . . . . . . . . . . .3.4 Un teorema ergodico . . . . . . . . . . . . . . . .3.4.1 Tasso di convergenza . . . . . . . . . . . .3.4.2 Funzione di autocorrelazione empirica . .3.5 Analisi di Fourier dei processi stocastici . . . . .3.5.1 Premesse . . . . . . . . . . . . . . . . . .3.5.2 Trasformata di Fourier a tempo discreto .3.5.3 Proprietà della DTFT . . . . . . . . . . .3.5.4 DTFT generalizzata . . . . . . . . . . . .3.6 Densità spettrale di potenza . . . . . . . . . . . .3.6.1 Esempio: il white noise . . . . . . . . . .3.6.2 Esempio: serie periodica perturbata. . . .3.6.3 Noise di tipo pink, brown, blue, violet . .3.6.4 Il teorema di Wiener-Khinchin . . . . . .4 Analisi e Previsione di Serie Storiche4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . .4.1.1 Metodi elementari . . . . . . . . . . . . . .4.1.2 Decomposizione di una serie storica . . . .4.1.3 La media di più metodi . . . . . . . . . . .4.2 Modelli ARIMA . . . . . . . . . . . . . . . . . . .4.2.1 Modelli AR . . . . . . . . . . . . . . . . . .4.2.2 Esempi particolari . . . . . . . . . . . . . .4.2.3 L’operatore di traslazione temporale . . . .4.2.4 Modelli MA . . . . . . . . . . . . . . . . . .4.2.5 Modelli ARMA . . . . . . . . . . . . . . . .4.2.6 Operatore di erenza. Integrazione . . . . .4.2.7 Modelli ARIMA . . . . . . . . . . . . . . .4.2.8 Stazionarietà, legame tra modelli ARMA e nito, ipotesi generali della teoria . . . . . .4.2.9 Funzione di autocorrelazione, primi fatti . .4.2.10 Funzione di autocorrelazione, complementi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .modelli MA. . . . . . . . . . . . . . . . . . 9202204204205207. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .di ordine in. . . . . . . . 208. . . . . . . . 211. . . . . . . . 214

viINDICE4.34.44.54.64.74.2.11 Densità spettrale di potenza dei processi ARMA . . . . . . . . . . . . 216Il metodo di Holt-Winters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2174.3.1 Metodo di Smorzamento Esponenziale (SE) . . . . . . . . . . . . . . . 2184.3.2 Metodo di Smorzamento Esponenziale con Trend (SET) . . . . . . . . 2194.3.3 Smorzamento esponenziale con trend e stagionalità (Holt-Winters) . . 2214.3.4 Confronto tra modelli previsionali: i) cross-validation . . . . . . . . . . 2224.3.5 Confronto tra modelli previsionali: ii) metodo del “con‡itto di interessi”2234.3.6 Esercizi sul confronto tra modelli previsionali . . . . . . . . . . . . . . 225Metodi regressivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2254.4.1 AR come regressione lineare multipla . . . . . . . . . . . . . . . . . . . 2254.4.2 Implementazione con R . . . . . . . . . . . . . . . . . . . . . . . . . . . 2264.4.3 Previsione col modello regressivo . . . . . . . . . . . . . . . . . . . . . 2264.4.4 Variabili esogene, cross-correlazione, modelli ARX . . . . . . . . . . . 228Fit di una densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2304.5.1 Istogrammi e cumulative empiriche . . . . . . . . . . . . . . . . . . . . 2314.5.2 Metodi parametrici e metodi non parametrici . . . . . . . . . . . . . . 2314.5.3 Stima dei parametri . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2314.5.4 Confronto gra co tra densità e istogrammi e Q-Q plot . . . . . . . . . 232Esercizi sulle serie storiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2334.6.1 Esercizio n. 1 (veicoli 1; fasi iniziali) . . . . . . . . . . . . . . . . . . . 2344.6.2 Esercizio n. 2 (veicoli 2; decomposizione, stagionalità) . . . . . . . . . 2354.6.3 Esercizio n. 3 (veicoli 3; previsione tramite decomposizione) . . . . . . 2394.6.4 Esercizio n. 4 (veicoli 4; modelli AR) . . . . . . . . . . . . . . . . . . . 2424.6.5 Esercizio n. 5 (veicoli 5; proseguimento sugli AR) . . . . . . . . . . . . 2454.6.6 Esercizio n. 6 (veicoli 6; trend con SET; HW) . . . . . . . . . . . . . . 2494.6.7 Esercizio n. 7 (Motorcycles 1; decomposizione, AR) . . . . . . . . . . 2534.6.8 Esercizio n. 8 (Motorcycles 2; HW, AR; confronti) . . . . . . . . . . . 2564.6.9 Esercizio n. 9 (Veicoli e Motorcycles, densità dei residui) . . . . . . . . 259Appendice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2645 Sistemi Markoviani5.1 Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.1.1 Grafo, probabilità e matrice di transizione, probabilità di stato, proprietà di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.1.2 Misure invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.1.3 Classi cazione degli stati . . . . . . . . . . . . . . . . . . . . . . . . .5.1.4 Convergenza all’equilibrio e proprietà ergodiche . . . . . . . . . . . . .5.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.3 Processi di Markov a salti . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.3.1 Sistemi a eventi discreti . . . . . . . . . . . . . . . . . . . . . . . . . .5.3.2 Stati e gra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5.3.3 Tempi di permanenza aleatori . . . . . . . . . . . . . . . . . . . . . . .5.3.4 Catene di Markov e processi di Markov a salti . . . . . . . . . . . . . .5.3.5 Quale transizione tra varie possibili? . . . . . . . . . . . . . . . . . . .265265265270272273275275275277278279279

INDICE5.45.55.65.75.8vii5.3.6 Tempo di permamenza . . . . . . . . . . . . . . . .5.3.7 Prima l’una o l’altra? . . . . . . . . . . . . . . . .5.3.8 Regime stazionario o di equilibrio . . . . . . . . . .5.3.9 Dimostrazione dell’equazione (5.2) . . . . . . . . .5.3.10 Il sistema delle equazioni di bilancio . . . . . . . .Esempi dalla teoria delle code . . . . . . . . . . . . . . . .5.4.1 Processi di nascita e morte . . . . . . . . . . . . .5.4.2 Tassi costanti . . . . . . . . . . . . . . . . . . . . .5.4.3 Tassi di crescita costanti, tassi di decrescita lineari5.4.4 Coda con c serventi . . . . . . . . . . . . . . . . .5.4.5 Nascita e morte con un numero nito di stati . . .5.4.6 Valori medi notevoli . . . . . . . . . . . . . . . . .5.4.7 Lancio di un dato al suono dell’orologio . . . . . .5.4.8 Il processo di Poisson . . . . . . . . . . . . . . . .5.4.9 Il processo in uscita da una coda . . . . . . . . . .Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . .Processi nel continuo . . . . . . . . . . . . . . . . . . . . .5.6.1 Processi a tempo continuo . . . . . . . . . . . . . .5.6.2 Più generale che tempo continuo? . . . . . . . . . .5.6.3 Il moto browniano . . . . . . . . . . . . . . . . . .5.6.4 Dinamiche stocastiche . . . . . . . . . . . . . . . .5.6.5 Fit tramite un’equazione di erenziale . . . . . . .Equazioni di erenziali stocastiche . . . . . . . . . . . . . .5.7.1 Applicazione diretta . . . . . . . . . . . . . . . . .5.7.2 Identi cazione sperimentale dei parametri . . . . .5.7.3 Applicazione inversa . . . . . . . . . . . . . . . . .Soluzione degli esercizi . . . . . . . . . . . . . . . . . . . .6 Statistica Multivariata6.1 La matrice di correlazione . . . . . . . . . . . . . . . . . .6.1.1 Elevata correlazione non è sinonimo di causalità .6.2 Il metodo delle componenti principali . . . . . . . . . . . .6.2.1 Diagonalizzazione di Q . . . . . . . . . . . . . . . .6.2.2 I comandi di R . . . . . . . . . . . . . . . . . . . .6.2.3 Classi che tramite PCA . . . . . . . . . . . . . . .6.2.4 Il miglior ‘punto di vista’ . . . . . . . . . . . . . .6.2.5 E cacia del metodo PCA . . . . . . . . . . . . . .6.3 Modelli lineari . . . . . . . . . . . . . . . . . . . . . . . .6.3.1 Introduzione: modelli lineari di legame tra variabili6.3.2 Regressione lineare semplice . . . . . . . . . . . . .6.3.3 Regressione lineare multipla . . . . . . . . . . . . .6.3.4 Predizione con modelli regressivi . . . . . . . . . .6.3.5 Analisi fattoriale . . . . . . . . . . . . . . . . . . .6.3.6 Forma matriciale del problema . . . . . . . . . . 98298298298300303304306307308311. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .aleatorie. . . . . . . . . . . . . . . . . . . . . . . . . .319319321323324326329330331332332334339343344346

viiiINDICE6.46.56.3.7 Loadings, rotazioni, interpretazioni . . . . . . . . . .6.3.8 FA e PCA . . . . . . . . . . . . . . . . . . . . . . . .6.3.9 I comandi di R. Linguaggio . . . . . . . . . . . . . .Metodi di classi cazione e clustering . . . . . . . . . . . . .6.4.1 Regressione logistica . . . . . . . . . . . . . . . . . .6.4.2 Formulazione probabilistica del problema decisionale6.4.3 Classi cazione: idee generali . . . . . . . . . . . . .6.4.4 Classi cazione bayesiana . . . . . . . . . . . . . . . .6.4.5 Il caso gaussiano e la Linear Discriminant Analysis .6.4.6 Clustering . . . . . . . . . . . . . . . . . . . . . . . .Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6.5.1 Esercizio n. 1 . . . . . . . . . . . . . . . . . . . . . .6.5.2 Esercizio n. 2 . . . . . . . . . . . . . . . . . . . . . .6.5.3 Esercizio n. 3 . . . . . . . . . . . . . . . . . . . . . .6.5.4 Esercizio n. 4 . . . . . . . . . . . . . . . . . . . . . .6.5.5 Esercizio n. 5 . . . . . . . . . . . . . . . . . . . . . .6.5.6 Esercizio n. 6 . . . . . . . . . . . . . . . . . . . . . .e. . . . . . . . . . . . . . . . . . . . .regola di. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Bayes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

PrefazioneIl materiale qui raccolto ha la forma di appunti più che di libro organico. Il testo è pensatoper le lauree magistrali in Ingegneria e raccoglie materiale utilizzato in numerosi corsi inanni recenti. Alcune parti devono molto al contributo di alcuni collaboratori e di numerosistudenti; in particolare merita di essere ricordato il contributo di Michele Barsanti alle duesezioni sull’analisi di Fourier dei processi stocastici, oltre che a vari altri punti ed esercizi,di Michele Tocchet alla sezione sul metodo PCA, di Giuseppe Matisi e Lorenzo Doccini adalcuni esercizi di statistica multivariata (4 e 5).ix

xPREFAZIONE

Capitolo 1Elementi di Calcolo delleProbabilitàQuesto capitolo è dedicato ad un riassunto degli elementi di Calcolo delle Probabilità cheverranno utilizzati nel seguito. L’esposizione di questi elementi è sommaria per cui, chi sentisse la necessità di approfondimenti, può leggere il testo di S. Ross, Probabilità e Statistica,Apogeo 2008 (per un’esposizione adatta ad un triennio di Ingegneria) o di P. Baldi, Calcolodelle Probabilità, McGraw-Hill 2007 (più adatto per le lauree magistrali in Ingegneria), cosìcome molti altri.La prima sezione è dedicata all’illustrazione di alcuni primi “oggetti” del calcolo delleprobabilità:gli eventi ; in parole povere sono a ermazioni, più formalmente saranno insiemi ; su diessi si opera con operazioni logiche, o insiemistiche, a seconda del punto di vista;la probabilità; si calcola la probabilità di eventi; ad ogni evento è associato un numerodell’intervallo [0; 1], la sua probabilità; la probabilità sarà quindi un’applicazione chead ogni evento associa un numero, con certe regole.Nella sezione successiva vedremo poi:le variabili aleatorie; a livello intuitivo sono grandezze (numeriche o di altro tipo)con un qualche grado di imprevedibilità, quanti cato da nozioni probabilistiche; nellaformalizzazione matematica saranno funzioni;i valori medi ; indicatori numerici associati a variabili aleatorie che ne riassumono alcunecaratteristiche.Segue poi una sezione di esempi, una sui teoremi limite ed una più speci ca sui vettorialeatori, soprattutto gaussiani.1

21.11.1.1CAPITOLO 1. ELEMENTI DI CALCOLO DELLE PROBABILITÀEventi e loro probabilitàUniverso ed eventi elementariNella costruzione dello schema matematico fondamentale della probabilità, lo spazio probabilizzato ( ; F; P ) che verrà introdotto un po’ per volta, si parte da un insieme ambiente,di solito indicato con , o S, spesso detto universo, o insieme degli eventi elementari (oinsieme degli esiti ). I suoi elementi ! 2si dicono eventi elementari (o esiti ). Intuitivamente, di fronte ad una situazione casuale, come ad

sezioni sull analisi di Fourier dei processi stocastici, oltre che a vari altri punti ed esercizi, di Michele Tocchet alla sezione sul metodo PCA, di Giuseppe Matisi e Lorenzo Doccini ad alcuni esercizi di statistica multivariata (4 e 5). ix

Related Documents:

Chapitre 1 : Rappels G en ereaux 1.Introduction 2.Analyse combinatoire 3.Probabilit es : D efinition et propri et es 4.Probabilit es conditionnelles 5.Th eor eme de Bayes 6.Variables al eatoires et loi de probabilit e 7.Fonction de densit e de probabilit e : Propri et es Fonction de partition Fonctions de densit e marginale

Capitolo zero : STATISTICA DESCRITTIVA UNIVARIATA La STATISTICA è la scienza che si occupa di fenomeni collettivi che richiedono lo studio di un grande numero di dati. Il termine STATISTICA deriva dalla parola STATO, già gli antichi Romani facevano “censimenti” per . con la seconda formula si ottiene N 1 3,322*Log(80) 7,32 7 classi .

un risultato analitico sperimentale è sicuramente affetto da errori sistematici che, in linea di principio, possono essere corretti conoscendone le cause che li hanno prodotti, e da errori accidentali che sono valutabili e quantificabili solo mediante l'analisi statistica . VALUTAZIONE STATISTICA DEGLI ERRORI INDETERMINATI RIBADIAMO: Ripetendo una stessa analisi molte volte e

Elementi di Chimica Organica MariapinaMariapinaDD''Onofrio Onofrio Lezione: 6 CFU 48 ORE . FONDAMENTI Smith, FONDAMENTI DDII CHIMICA ORGANICA, McGrawCHIMICA ORGANICA, McGraw-- . ELEMENTI , ELEMENTI DDII CHIMICA ORGANICA, CHIMICA ORGANICA, EdiSESEdiSES Posizione del carbonio nella tavola periodica. Gli altri elementi che si ritrovano .

1. Prologue : Rapides rappels de probabilit es On rappelle dans cette partie les quelques r esultats de probabilit e n ecessaires pour le cours. En apprentissage, il n’est pas n ecessaire de conna tre in extenso toute la th eorie des probabi-lit es. Un bon aper cu de ce qu’il faut savoir peut etre trouv e dans des livres d’apprentissage comme [1] (chapitre 1) ou [3] (chapitre 2). Ceux .

1. Prologue : Rapides rappels de probabilit es On rappelle dans cette partie les quelques r esultats de probabilit e n ecessaires pour le cours. En apprentissage, il n’est pas n ecessaire de conna tre in extenso toute la th eorie des probabi- lit es. Un bon apercu de ce qu’il faut savoir peut etre trouv e dans des livres d’apprentissage comme [1] (chapitre 1) ou [3] (chapitre 2). Ceux .

TD 1 : Quelques rappels de probabilit es Exercice 1 1.Donner la d e nition d’une variable al eatoire r eelle et de sa loi de probabilit e. 2.Donner la d e nition de la fonction de r epartition d’une variable al eatoire r eelle. 3.Donner la d e nition d’une densit e. 4.Expliquer les int er ets de la fonction de r epartition et de la densit e.

Rappels sur les probabilit es Cryptanalyse di e l l e i n e t r e (S)-AES Modes d’utilisation R ef erences Distribution de probabilit es, V.A. X S ! [0,1] fonction distribution de probabilit es si : 1 8 ev enement A 2 X, Pr(A) 0 2 si A\B ?, Pr(A[B) Pr(A) Pr(B) 3 Pr(S) 1 X : S ! R une V.A. discr ete si l’ ev enement x 2 .