Archives de catégorie : probabilités

probabilités-statistiques 2

Statistiques

On cherche à étudier le caractère aléatoire de n expériences fournissant les résultats chiffrés x_1,..,x_n. Les n expériences sont réalisées à l’identique et indépendamment les unes des autres.

Nous faisons donc l’hypothèse que l’observation (x_1,..,x_n) provient de n variables aléatoires X_1,..,X_n identiquement distribuées. La famille (X_1,..,X_n) est appelée un n-échantillon et la loi commune des X_i est notée \mathcal L(X). L’aléa lié à notre expérience est tel que X_1 = x_1,..., X_n = x_n .

Le problème fondamental de la Statistique est de déterminer la loi commune des X_i supposée inconnue à partir des résultats (X_1,..,X_n). On ne donnera pas de réponse absolue, on cherchera à déterminer une réponse approchée « la plus probable » selon des critères définis à l’avance.

Pour obtenir des résultats précis et intéressants, nous faisons un certain nombre d’hypothèses liées à l’expérience effectuée sur la loi commune \mathcal L(X) des variables(X_1,..,X_n) de l’échantillon, les différentes lois considérées possibles a priori pour les variables X_i sont les P_\theta , \theta \in \Theta (on prédéfinit une famille de loi avec lesquelles il semble très probable de devoir travailler)

Continuer la lecture de probabilités-statistiques 2

probabilité-statistiques 1

\bullet On appelle univers, et on note \Omega, l’ensemble des issues liées à une expérience aléatoire.

On considère l’ensemble \A, appelé tribu, des parties de \Omega obtenues par unions finies ou dénombrables d’éléments de \Omega ainsi que par passage au complémentaire. Les éléments de \A seront appelés évènements.

\bullet On appelle mesure sur \A toute fonction \mu :

\;\;\;\;Positive: \mu(A)\geq 0 , \forall A \in \A

\;\;\;\;Additive: C\cap D=\emptyset implique \mu(C\cup D) =\mu (C)+ \mu(D)

Si \mu(\Omega)=1 , on dit que \mu est une probabilité sur \Omega que nous noterons désormais P

\bullet \forall B tel que P(B) \neq 0 on appelle probabilité conditionnelle, et on note P_B , la probabilité définie sur \Omega par

P_B(A)= \dfrac{ P(A\cap B)} {P(B)} \forall A \in \A

On retiendra : P_B(A)= \dfrac{P_A(B). P(A)} {P(B)} )

Si (E_i)_{1\leq i\leq n} est une partition de \Omega, (E_i\cap E_j =\emptyset et \displaystyle\bigcup_{i=1}^{n} E_i= \Omega ), on a alors pour tout évènement A :

P(A) = \displaystyle\sum_{n=1}^{n} P_{E_i}(A) \times P(E_i)

\bullet On appelle variable aléatoire toute application X d’un espace probabilisé (\Omega, \A , P) dans \R et on appelle loi de X la mesure P_X définie sur \R par : P_X(A)=P(X^{-1}(A)) ,\forall A \in \R, que l’on note généralement P(X \subset A)

Continuer la lecture de probabilité-statistiques 1

Pile ou face !

Un coup de pile ou face peut être représenté par un segment unité du quadrillage ci-dessous, dirigé toujours dans le sens des coordonnées croissantes : par exemple, 1 correspond à un vecteur unité parallèle à Ox et 0 à un vecteur unité parallèle à Oy. Dans ces conditions, une partie quelconque sera représentée par un chemin d’origine O, terminé en un certain point M, et tel qu’on se déplace toujours dans le sens positif des axes.

Rendered by QuickLaTeX.com

Continuer la lecture de Pile ou face !

Probabilités continues

Soit \phi(M,M') une une fonction de deux points parcourant respectivement deux aires A et A' .
Si \phi varie dans un certain intervalle(\alpha,\beta) quelle est la probabilité pour que \phi soit comprise entre \gamma et \gamma+d\gamma

La probabilité cherchée est de la forme \theta(\gamma)d\gamma avec bien sûr

    \[\displaystyle\int_\alpha^\beta \theta(\gamma)d\gamma =1\]

.

Si M est fixe, la mesure de l’aire du secteur correspondants aux points M' tels que \gamma\leq \phi \leq \gamma+d\gamma est de la forme F(M,\gamma)d\gamma et la probabilité pour que M' soit dans ce secteur est \dfrac{1}{A'}F(M,\gamma)d\gamma

F pouvant être considéré comme constant sur un élément d’aire dx\;dy entourant le point M, on obtient finalement

\theta(\gamma)=\dfrac{1}{A\;A'}\displaystyle\iint_A F(M,\gamma) dx\;dy

Exemple 1:
M et M' étant deux point d’un segment [AB] de longueur a, déterminer la probabilité pour que MM' ait une longueur inférieure à \dfrac{a}{2}
Continuer la lecture de Probabilités continues

LES ORIGINES DE LA LOI NORMALE

Ci dessous le long et douloureux calcul qui montre le lien entre loi binomiale et loi normale:

Point de départ, la formule de Stirling: n!\sim(\dfrac{n}{e})^n\sqrt{2\pi n}.

Dans une suite de n expériences, la probabilité d’obtenir \alpha et \beta fois les évènement A et B est donné par: P=p^{\alpha}q^{\beta}\dfrac{n!}{\alpha!\beta!}

Le terme le plus grand du développement de (p+q)^n correspond aux valeurs de \alpha et \beta les plus voisinnes de np et nq , donc on pose: a=np+x et b=nq+y .

On a alors

\ln n! \sim n\ln n-n+ \frac{1}{2}\ln (2\pi n)

et donc: \ln P\sim a \ln p+b \ln q+n \ln n-a \ln a-b \ln b+\frac{1}{2}\ln 2\pi n -\frac{1}{2}\ln 2\pi a-\frac{1}{2}\ln 2\pi \b -n+a+b

Comme n=a+b on obtient: n \ln n-a \ln a-b \ln b=a \ln{\frac{n}{a}}+b \ln{\frac{n}{b}}
Continuer la lecture de LES ORIGINES DE LA LOI NORMALE