background preloader

3. Lois et Distributions

Facebook Twitter

Lois. Loi de Bernoulli. Un article de Wikipédia, l'encyclopédie libre. En mathématiques, la distribution de Bernoulli ou loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, est une distribution discrète de probabilité, qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q = 1 – p. En d'autres termes, ou, de manière équivalente, L'espérance mathématique d'une variable aléatoire de Bernoulli vaut p et la variance vaut p(1 – p). Le kurtosis tend vers l'infini pour des valeurs hautes et basses de p, mais pour p = 1/2 la distribution de Bernoulli a un kurtosis plus bas que toute autre distribution, c’est-à-dire 1.

Variable de Bernoulli[modifier | modifier le code] Une variable aléatoire suivant la loi de Bernoulli est appelée variable de Bernoulli. Plus généralement, toute application mesurable à valeur dans {0,1} est une variable de Bernoulli. Distributions liées[modifier | modifier le code] Loi binomiale[modifier | modifier le code] Si Loi de Poisson[modifier | modifier le code] Soit On note. Loi binomiale. Un article de Wikipédia, l'encyclopédie libre. En mathématiques, la loi binomiale de paramètres n et p est une loi de probabilité qui correspond à l'expérience suivante : On renouvelle n fois de manière indépendante une épreuve de Bernoulli de paramètre p (expérience aléatoire à deux issues possibles, généralement dénommées respectivement « succès » et « échec », la probabilité d'un succès étant p, celle d'un échec étant q = 1 - p).

On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la variable aléatoire indiquant ce nombre de succès. La variable aléatoire suit une loi de probabilité définie par : ou . Notons que ce nombre de combinaisons se distingue du nombre des arrangements de k éléments parmi n, , du fait que dans une combinaison l'ordre des éléments n'importe pas. Et on obtient : Cette loi de probabilité s'appelle la loi binomiale de paramètres n et p et se note Bin(n ; p). Représentation sous la forme d'un arbre[modifier | modifier le code] Donc par. Binomial distribution. Binomial distribution for with n and k as in Pascal's triangle The probability that a ball in a Galton box with 8 layers (n = 8) ends up in the central bin (k = 4) is In probability theory and statistics, the binomial distribution is the discrete probability distribution of the number of successes in a sequence of n independent yes/no experiments, each of which yields success with probability p.

Such a success/failure experiment is also called a Bernoulli experiment or Bernoulli trial; when n = 1, the binomial distribution is a Bernoulli distribution. Specification[edit] Probability mass function[edit] In general, if the random variable X follows the binomial distribution with parameters n and p, we write X ~ B(n, p). For k = 0, 1, 2, ..., n, where is the binomial coefficient, hence the name of the distribution. Different ways of distributing k successes in a sequence of n trials.

Looking at the expression ƒ(k, n, p) as a function of k, there is a k value that maximizes it. Where Example[edit] Loi de Cauchy (probabilités) Un article de Wikipédia, l'encyclopédie libre. La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité classique qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si elle admet une densité par rapport à la mesure de Lebesgue, dépendant des deux paramètres et (a > 0) et définie par : Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).

L'inverse d'une variable aléatoire, de loi de Cauchy, suit une loi de Cauchy. Le quotient de deux variables aléatoires réelles indépendantes suivant des lois normales standards suit une loi de Cauchy. La loi de Cauchy (avec notamment la loi normale et la loi de Lévy) est un cas particulier de loi stable. La loi de Cauchy n'admet ni espérance ni écart type. N'est pas intégrable au sens de Lebesgue car (à l'infini) d'où la divergence de l'intégrale : l'espérance n'existe pas. diverge).

Loi exponentielle. Un article de Wikipédia, l'encyclopédie libre. Une loi exponentielle modélise la durée de vie d'un phénomène sans mémoire, ou sans vieillissement, ou sans usure : la probabilité que le phénomène dure au moins s + t heures sachant qu'il a déjà duré t heures sera la même que la probabilité de durer s heures à partir de sa mise en fonction initiale. En d'autres termes, le fait que le phénomène ait duré pendant t heures ne change rien à son espérance de vie à partir du temps t. Plus formellement, soit X est une variable aléatoire définissant la durée de vie d'un phénomène, d'espérance mathématique .

On suppose que : Alors, la densité de probabilité de X est définie par : si t < 0 pour tout t ≥ 0. et on dit que X suit une loi exponentielle de paramètre ( ou de facteur d'échelle) Cette loi permet entre autres de modéliser la durée de vie de la radioactivité ou d'un composant électronique. Définition[modifier | modifier le code] Densité de probabilité[modifier | modifier le code] L'écart type est donc.

Loi Gamma. Un article de Wikipédia, l'encyclopédie libre. En théorie des probabilités et en statistiques, une distribution Gamma, ou loi Gamma (ou , qui correspond au Une variable aléatoire X suit une loi Gamma de paramètres et (strictement positifs), ce que l'on note aussi , si sa fonction de densité de probabilité peut se mettre sous la forme : Alternativement, la distribution Gamma peut être paramétrée à l'aide d'un paramètre de forme et d'un paramètre d'intensité Les deux paramétrages sont aussi répandus, selon la configuration.

Propriétés[modifier | modifier le code] Somme[modifier | modifier le code] Scaling[modifier | modifier le code] Pour tout t > 0, la variable tX est distribuée selon Γ(k, tθ), où θ est le paramètre d'échelle. ou Pour tout t > 0, la variable tX est distribuée selon Γ(α, (1/t)β) où β est le paramètre d'intensité (rate parameter).

Lien avec les autres distributions[modifier | modifier le code] Contraintes sur les paramètres[modifier | modifier le code] Loi géométrique. Un article de Wikipédia, l'encyclopédie libre. La loi géométrique est une loi de probabilité apparaissant dans de nombreuses applications. La loi géométrique de paramètre p (0 < p < 1) correspond au modèle suivant : On considère une épreuve de Bernoulli dont la probabilité de succès est p et celle d'échec q = 1 - p. On renouvelle cette épreuve de manière indépendante jusqu'au premier succès. Les valeurs de X sont les entiers naturels non nuls 1, 2, 3, ... On dit que X suit une loi géométrique de paramètre p. Calcul de p(k)[modifier | modifier le code] La probabilité p(k) correspond à la probabilité d'obtenir dans une succession de k épreuves de Bernoulli, k − 1 échecs suivis d'un succès.

Définition alternative[modifier | modifier le code] On rencontre parfois pour la loi géométrique, la définition alternative suivante : la probabilité p'(k) est la probabilité, lors d'une succession d'épreuves de Bernoulli indépendantes, d'obtenir k échecs suivi d'un succès. Mais de , c'est-à-dire . Pour alors. Loi hypergéométrique. Un article de Wikipédia, l'encyclopédie libre. La loi hypergéométrique de paramètres associés n, p et A est une loi de probabilité discrète, décrivant le modèle suivant : On tire simultanément n boules dans une urne contenant pA boules gagnantes et qA boules perdantes (avec q = 1 - p, soit un nombre total de boules valant pA + qA = A).

On compte alors le nombre de boules gagnantes extraites et on appelle X la variable aléatoire donnant ce nombre. Cette loi de probabilité s'appelle la loi hypergéométrique de paramètres (n ; p ; A). Il est nécessaire que p soit un réel compris entre 0 et 1, que pA soit entier et que n ≤ A. Une autre paramétrisation très répandue consiste à considérer une loi hypergéométrique de paramètres (A, Na, n) avec A le nombre total de boules, Na le nombre de boules à succès (ici pA) et n le nombre de tirages. Calcul de p(k)[modifier | modifier le code] Il s'agit d'un tirage simultané (c'est-à-dire non ordonné et sans remise) de n éléments parmi A.

Loi log-logistique. Un article de Wikipédia, l'encyclopédie libre. Dans la théorie des probabilités et en statistiques, la loi log-logistique (connue aussi comme la distribution de Fisk en économie) est une loi de probabilité continue pour une variable aléatoire non-négative. Elle est utilisée dans l'étude de la durée de vie d'événement dont l'intensité augmente d'abord pour ensuite décroître, comme pour la mortalité dû au cancer après diagnostic ou traitement.

Elle est aussi utilisée en hydrologie pour modéliser le débit d'un cours d'eau ou le niveau des précipitations, et en économie pour modéliser l'inégalité des revenus. La loi log-logistique est la loi d'une variable aléatoire dont le logarithme est distribué selon une Loi logistique. Caractéristiques[modifier | modifier le code] et sa dispersion décroît lorsque augmente.

La fonction de répartition est où La densité de probabilité est Propriétés[modifier | modifier le code] Moments[modifier | modifier le code] Le et se donne alors par[3],[4] ↑ M.M. Loi log-normale. Un article de Wikipédia, l'encyclopédie libre. En théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance Cette loi est parfois également appelée loi de Galton.

Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants[1]. Caractérisation[modifier | modifier le code] Densité[modifier | modifier le code] La loi log-normale de paramètres admet pour densité pour sont la moyenne et l'écart type du logarithme de la variable (puisque par définition, le logarithme de la variable est distribué selon une loi normale de moyenne et d'écart-type Fonction de répartition[modifier | modifier le code] Par intégration de la fonction de densité, il vient que la fonction de répartition s'exprime en fonction de la fonction d'erreur erf : Moments[modifier | modifier le code] L'espérance est et la variance est.

Loi normale. Un article de Wikipédia, l'encyclopédie libre. En théorie des probabilités et en statistique, la loi normale est l'une des lois de probabilité les plus adaptées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elle est en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elle est également appelée loi gaussienne, loi de Gauss ou loi de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée. Plus formellement, c'est une loi de probabilité absolument continue qui dépend de deux paramètres : son espérance, un nombre réel noté , et son écart type, un nombre réel positif noté .

La courbe de cette densité est appelée courbe de Gauss ou courbe en cloche, entre autres. Lorsqu'une variable aléatoire Parmi les lois de probabilité, la loi normale prend une place particulière grâce au théorème central limite. . ). . . Loi de Pareto (probabilités) Un article de Wikipédia, l'encyclopédie libre. La distribution de Pareto est un type particulier de loi de puissance qui a des applications en sciences physiques et sociales. Elle permet notamment de donner une base théorique au « principe des 80-20 », aussi appelé principe de Pareto. Soit la variable aléatoire X qui suit une loi de Pareto de paramètres ( ), alors la distribution est caractérisée par : avec Les distributions de Pareto sont des distributions continues. Soit une variable aléatoire X suivant une distribution de Pareto, alors la probabilité que X soit plus grande qu'un réel x est donnée par : pour tout x ≥ xm, où xm est la valeur minimale (positive) que peut prendre X, et k est un réel positif.

Il suit que la densité de probabilité de X suit : La distribution de Pareto est définie par deux paramètres, xm et k. L'espérance d'une variable aléatoire suivant une loi de Pareto est (si k ≤ 1, l'espérance est infinie). Sa variance est (De nouveau : si , la variance est infinie). pour. Loi de Poisson. Un article de Wikipédia, l'encyclopédie libre. La loi de Poisson a été introduite en 1838 par Siméon Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile[2]. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires N qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées « arrivées ») qui prennent place pendant un laps de temps donné. Si le nombre moyen d'occurrences dans cet intervalle est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2, ...) est où e est la base de l'exponentielle (2,718...)k!

Est la factorielle de kλ est un nombre réel strictement positif[1]. On dit alors que X suit la loi de Poisson de paramètre λ. Calcul de p(k)[modifier | modifier le code] Ce calcul peut se faire de manière déductive en travaillant sur une loi binomiale de paramètres (T; λ/T). Domaine d'application[modifier | modifier le code] et. Loi uniforme discrète. Un article de Wikipédia, l'encyclopédie libre.

En théorie des probabilités, la loi discrète uniforme est une loi de probabilité discrète indiquant une probabilité de se réaliser identique (équiprobabilité) à chaque valeur d’un ensemble fini de valeurs possibles. Description[modifier | modifier le code] Une variable aléatoire qui peut prendre n valeurs possibles k1 , k2 , …, kn, suit une loi uniforme lorsque la probabilité de n’importe quelle valeur ki est égale à 1/n. Un exemple simple de loi discrète uniforme est le lancer d’un dé non biaisé. Les valeurs possibles de k sont 1, 2, 3, 4, 5, 6 ; et à chaque fois que le dé est lancé, la probabilité d’un score donné est égale à 1/6.

Dans le cas où les valeurs d’une variable aléatoire suivant une loi discrète uniforme sont réelles, il est possible d’exprimer la fonction de répartition en termes de distribution déterministe ; ainsi Cas général[modifier | modifier le code] Cas particulier important[modifier | modifier le code] . Où. Loi uniforme continue. Un article de Wikipédia, l'encyclopédie libre. La loi uniforme continue est une généralisation de la fonction rectangle à cause de la forme de sa fonction densité de probabilité. Elle est paramétrée par les plus petites et plus grandes valeurs a et b que la variable aléatoire uniforme peut prendre. Cette loi continue est souvent notée U(a,b). Caractérisation[modifier | modifier le code] Densité[modifier | modifier le code] La densité de probabilité de la loi uniforme continue est une fonction porte sur l'intervalle Fonction de répartition[modifier | modifier le code] La fonction de répartition est donnée par Fonctions génératrices[modifier | modifier le code] Fonction génératrice des moments[modifier | modifier le code] La fonction génératrice des moments est Fonction génératrice des cumulants[modifier | modifier le code] Propriétés[modifier | modifier le code] Statistiques d'ordre[modifier | modifier le code] Soit X1, ..., Xn un échantillon i.i.d. issu de la loi U(0,1).

Les variances sont par : et Si. Loi de Weibull. Mesure de Dirac.