background preloader

1. Généralités

Facebook Twitter

Martingale (calcul stochastique) Un article de Wikipédia, l'encyclopédie libre.

Martingale (calcul stochastique)

En calcul stochastique, une martingale désigne un type de processus stochastique, c'est-à-dire un processus aléatoire et dynamique. Ce type de processus est tel que sa valeur espérée connaissant l'information disponible à une certaine date s, dénotée , est la valeur à cette même date : (Avec est un processus adapté à la filtration On parlera de sous-martingale si et de sur-martingale si Processus stochastique. Processus de Markov. Un article de Wikipédia, l'encyclopédie libre.

Processus de Markov

Un processus de Markov en temps discret est une séquence de variables aléatoires. L'ensemble de leurs valeurs possibles est appelé l’espace d'états, la valeur étant l'état du processus à l'instant Selon les auteurs, le vocable « chaîne de Markov » désigne les processus de Markov à temps discret ou uniquement les processus de Markov à temps discret et à espace d'états discret, i.e. les processus de Markov à temps discret dont l'espace d'états est fini ou dénombrable. Processus stochastique. Un article de Wikipédia, l'encyclopédie libre.

Processus stochastique

Le calcul classique des probabilités concerne des épreuves où chaque résultat possible (ou réalisation) est mesuré par un nombre, ce qui conduit à la notion de variable aléatoire. Un processus stochastique ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire. Cette notion se généralise à plusieurs dimensions. Marche aléatoire. Un article de Wikipédia, l'encyclopédie libre.

Marche aléatoire

Trois marches aléatoires (indépendantes) isotropes sur le réseau ℤ2 ; 10 000 pas. Cette modélisation mathématique permet de rendre compte de certains phénomènes naturels, dont l'exemple le plus fameux est le mouvement brownien, correspondant par exemple aux mouvements en apparence aléatoires des particules présentes dans le fluide intérieur d'un grain de pollen. Calcul stochastique. Un article de Wikipédia, l'encyclopédie libre.

Calcul stochastique

Le calcul stochastique est l’étude des phénomènes aléatoires dépendant du temps. À ce titre, c'est une extension de la théorie des probabilités. Applications[modifier | modifier le code] Le domaine d’application du calcul stochastique comprend la mécanique quantique, le traitement du signal, la chimie, les mathématiques financières, la météorologie, et même la musique. Processus aléatoires[modifier | modifier le code]

Théorème central limite. Un article de Wikipédia, l'encyclopédie libre.

Théorème central limite

Pour les articles homonymes, voir TCL. La loi normale, souvent appelée la « courbe en cloche » Le théorème central limite (aussi appelé théorème de la limite centrale ou centrée) établit la convergence en loi de la somme d'une suite de variables aléatoires vers la loi normale. Intuitivement, ce résultat affirme que toute somme de variables aléatoires indépendantes et identiquement distribuées tend vers une variable aléatoire gaussienne. La première démonstration de ce théorème, publiée en 1809, est due à Pierre-Simon de Laplace[1],[2], mais le cas particulier où les variables suivent la loi de Bernoulli de paramètre p = 0,5 était connu depuis les travaux de De Moivre[3], en 1733.

Le théorème central limite admet plusieurs généralisations qui donnent la convergence de sommes de variables aléatoires sous des hypothèses beaucoup plus faibles. Avec Illustration[modifier | modifier le code] Tirage à pile ou face. Idem pour 1 à 12 tirages. Alors. Convergence en loi. Un article de Wikipédia, l'encyclopédie libre.

Convergence en loi

En théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. Certaines de ces notions ne sont pas spécifiques des probabilités, mais de l'analyse en général, comme la convergence presque sûre de variables aléatoires, ou encore la convergence Lp. La convergence en loi de suites de variables aléatoires est un concept appartenant plus spécifiquement à la théorie des probabilités, utilisé notamment en statistique et dans l'étude des processus stochastiques.

Moment (mathématiques) Un article de Wikipédia, l'encyclopédie libre.

Moment (mathématiques)

Pour les articles homonymes, voir Moment. En théorie des probabilités et en statistique, le moment d’ordre r ∈ ℕ d’une variable aléatoire réelle X est un indicateur de la dispersion de cette variable, à l’instar par exemple de son écart type, la racine carrée du moment centré d’ordre 2. Le moment dit « ordinaire » d’ordre r ∈ ℕ est défini, s’il existe, par : De manière analogue, on définira d’autres moments, étudiés ou évoqués dans la suite de l’article.

Soit une fonction f : I → ℝ continue sur un intervalle I (non réduit à un point) de ℝ. Ce moment d’ordre r est considéré comme existant si et seulement si xr f(x) est intégrable, c’est-à-dire si et seulement si ∫x∈I |xr f(x)| dx converge. De cette manière, si un moment n’existe pas à un ordre donné, alors tous les moments d’ordre supérieur n’existent pas non plus. Fonction de masse (probabilités) Un article de Wikipédia, l'encyclopédie libre.

Fonction de masse (probabilités)

En théorie des probabilités, la fonction masse[1] est la fonction qui donne la probabilité d'un résultat élémentaire d'une expérience. Elle se distingue de la densité de probabilité en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues, et que c'est leur intégrale sur un domaine qui a valeur de probabilité (et non leurs valeurs elles-mêmes). La loi de probabilité d'une variable aléatoire discrète. Le support est composé des singletons {1}, {3} et {7} et les probabilités associées sont respectivement 0,20, 0,50 et 0,30. Un ensemble ne contenant pas ces points se voit attribuer une probabilité nulle. Soit. Densité de probabilité. Un article de Wikipédia, l'encyclopédie libre.

Densité de probabilité

Formellement, une loi de probabilité possède une densité ƒ, si ƒ est une fonction définie sur positive ou nulle et intégrable, telle que la probabilité de l'intervalle [a, b] est donnée par pour tous nombres a<b. Par exemple, si la variable X a pour densité de probabilité la fonction ƒ, la probabilité que la variable X soit dans l'intervalle [4,3; 7,8] sera Cela implique que l'intégrale de ƒ sur tout. Fonction de répartition. Un article de Wikipédia, l'encyclopédie libre. Fonctions de répartition d'une variable discrète, d'une variable diffuse et d'une variable avec atome, mais non discrète.

En théorie des probabilités ou en statistiques, la fonction de répartition d'une variable aléatoire réelle caractérise la loi de probabilité de cette variable aléatoire réelle. La fonction de répartition de la variable aléatoire réelle est la fonction qui à tout réel associe où le membre de droite représente la probabilité que la variable aléatoire réelle prenne une valeur inférieure ou égale à. Axiomes des probabilités. Un article de Wikipédia, l'encyclopédie libre. Dans la théorie des probabilités, une mesure de probabilité (ou plus brièvement probabilité) ). Une mesure de probabilité doit satisfaire les axiomes des probabilités ou axiomes de Kolmogorov, du nom d'Andreï Nikolaievitch Kolmogorov, mathématicien russe qui les a développés. Tribu (mathématiques) Un article de Wikipédia, l'encyclopédie libre. Progressivement formalisées pendant le premier tiers du XXe siècle, les tribus constituent le cadre dans lequel s'est développée la théorie de la mesure.

Les exemples les plus fameux en sont les tribus boréliennes, du nom d'Émile Borel, qui construisit la tribu borélienne de la droite réelle en 1898, et la tribu de Lebesgue, formée des ensembles mesurables définis par Henri Lebesgue en 1901. En conséquence, les tribus sont aussi fondamentales en théorie des probabilités, dont l'axiomatisation moderne s'appuie sur la théorie de la mesure. Dans ce domaine, les tribus ne sont pas seulement le support du formalisme, mais aussi un outil puissant, qui est à la base de la définition de concepts parmi les plus importants : espérance conditionnelle, martingales, etc. Une minorité de sources exigent également que ne soit pas vide[3] ; cette hypothèse supplémentaire n'est utilisée à aucun endroit de cet article. Formellement : Le couple. Univers (logique) Un article de Wikipédia, l'encyclopédie libre. L'approche précédente, souvent qualifiée de « naïve »[2], s'est avérée impossible à formaliser complètement[3], à cause des nombreux paradoxes qu'elle entraîne[4], et dont le plus connu est le paradoxe de Russell, montrant l'incohérence de la notion d'ensemble de tous les ensembles. et donc d'un véritable univers qui contiendrait tous les objets mathématiques, y compris lui-même. obtenu dans la construction de von Neumann contiendra en pratique tous les objets dont le mathématicien "ordinaire" peut avoir besoin.

À ce sens, on parle souvent en théorie des modèles d'un univers U pour désigner un ensemble qui est un modèle de la théorie considérée (le plus souvent ZFC), c'est-à-dire tel que ses éléments (et la relation d'appartenance entre eux) vérifient tous les axiomes de la théorie. Espace probabilisé. Un article de Wikipédia, l'encyclopédie libre. formé d'un ensemble Ω, d'une tribu ou σ-algèbre , le nombre réel P(A) s'appelle la probabilité de l’événement A.

Ce qui précède est une formulation extrêmement condensée des axiomes des probabilités. Remarquons que lorsque Ω est infini non dénombrable, n'importe lequel de ses sous-ensembles n'est plus nécessairement un événement : en effet, dans ce cas précis, la tribu des événements est choisie strictement incluse dans l'ensemble des parties de l'univers.

Note[modifier | modifier le code] ↑ L'écriture la plus courante est celle du singulier. Voir aussi[modifier | modifier le code] Mouvement brownien. Chaîne de Markov. Théorème central limite. Mesure (mathématiques) Loi des grands nombres. Variable aléatoire. Espérance mathématique. Théorème de Bayes. Formule des probabilités totales. Principe d'inclusion-exclusion. Indépendance (probabilités) Convergence de variables aléatoires. ... ... Sciences de l'aléatoire.

Sciences de l'aléatoire - On Going - Regroupement ordonné (temp)