- Définition et cadre mathématique
Un processus stochastique est une famille de variables aléatoires {Xt} t ϵ
T définie sur un espace de probabilité (Ω,Ϝ,Ρ) et indexée par un ensemble T, généralement le temps (discret ou continu). Chacune des variables aléatoires Xt prend ses valeurs dans un espace d'états S.
- L'analyse de ces processus repose sur des outils comme :
- la théorie de la mesure,
- la convergence des variables aléatoires,
- la martingale,
- les lois de probabilité conditionnelle.
2. Principales classes de processus stochastiques
a. Processus à temps discret
- Chaînes de Markov : Une chaîne de Markov est un processus stochastique à temps discret dans lequel la probabilité de transition vers un nouvel état dépend uniquement de l'état présent, et non de la trajectoire passée. Cette propriété est appelée propriété de Markov. Une chaîne de Markov est définie par un ensemble d'états et une matrice de transition, dont chaque élément Pij représente la probabilité de passer de l'état i à l'état j au pas de temps suivant. Les chaînes de Markov sont largement utilisées dans de nombreux domaines comme la modélisation des systèmes dynamiques, les algorithmes de recherche (ex. : PageRank de Google), les file d'attente, la biologie moléculaire, ou encore l'économie (Ethier et Kurtz, 2005). Un concept clé est la distribution stationnaire, qui décrit la répartition stable des probabilités d'états lorsque la chaîne est ergodique. Les chaînes peuvent aussi être classées selon qu’elles soient irréductibles, apériodiques ou récurrentes, des propriétés qui influencent leur comportement à long terme (Levin et al., 2009 ; Ross, 2014).
- Marches aléatoires : Une marche aléatoire est un processus stochastique fondé sur la somme cumulative de variables aléatoires indépendantes et identiquement distribuées (i.i.d.). À chaque pas de temps, la valeur du processus évolue par l’ajout d’une nouvelle variable aléatoire. Ce modèle simple est l’un des plus anciens en probabilités et a été initialement utilisé pour décrire des phénomènes comme le jeu de pile ou face ou les déplacements aléatoires de particules. Les marches aléatoires peuvent être définies dans des espaces discrets (ex. : Z) ou continus (ex. :
). En une dimension, une marche aléatoire simple symétrique revient à l’origine avec probabilité 1 (propriété de récurrence), alors qu’en dimensions supérieures, ce comportement change (Polya, 1921). Les marches aléatoires sont fondamentales dans la théorie des probabilités, la physique statistique, la biologie évolutive (modèles de dérive génétique), la finance (modèle de Bachelier pour les prix), et la théorie des graphes (random walks on graphs). Elles sont aussi utilisées comme approximation discrète du mouvement brownien (théorème de Donsker). - Processus ARMA/ARIMA : Les processus ARMA (AutoRegressive Moving Average) et ARIMA (AutoRegressive Integrated Moving Average) sont des modèles de séries temporelles largement utilisés en économétrie, en statistiques et en ingénierie pour décrire, modéliser et prévoir l'évolution d'une variable dans le temps. Un modèle ARMA combine deux composantes : une composante autorégressive (AR), où la valeur actuelle dépend linéairement des valeurs passées, et une composante de moyenne mobile (MA), où la valeur actuelle dépend des erreurs aléatoires passées. Le modèle ARIMA intègre en plus une étape de différenciation (Integrated) pour rendre la série stationnaire lorsqu'elle ne l'est pas initialement. Formellement, un modèle ARIMA(p,d,q) peut être représenté par :

où B est l’opérateur de décalage, ε_t est un bruit blanc, et Φ et Θ sont des polynômes en B de degrés p et q. Ces modèles permettent d'étudier des structures temporelles complexes dans des domaines comme la macroéconomie, la météorologie, ou l'hydrologie. Leur caractère stochastique provient du fait que le bruit ε_t est aléatoire et que le processus est donc généré à partir de réalisations probabilistes (Box et al., 2015).
b. Processus à temps continu
- Mouvement brownien (ou Wiener) : Le mouvement brownien est un processus stochastique fondamental à temps continu, noté Bt, caractérisé par des trajectoires continues, une loi normale centrée pour chaque incrément, une stationnarité des accroissements et une indépendance entre les accroissements disjoints. Formulé mathématiquement par Norbert Wiener au début du XXe siècle, ce processus modélise le mouvement aléatoire de particules en suspension dans un fluide (phénomène observé initialement par Robert Brown en 1827).
Le mouvement brownien est un cas limite de marche aléatoire à pas de temps et d’espace de plus en plus petits (théorème de Donsker). Il est à la base du calcul stochastique et des équations différentielles stochastiques, notamment dans le modèle de Black-Scholes en finance. Sa propriété de martingale et son comportement non dérivable en font un objet central dans la théorie de la probabilité et dans la physique statistique (Karatzas et Shreve, 1998 ; Øksendal, 2003).


Si une variable Xt suit un processus de Wiener alors on a :

Où μ et σ sont respectivement le drift ou moyenne par unité de temps et l’écart-type par unité de temps.
- Processus de Poisson : Le processus de Poisson est un processus stochastique à temps continu utilisé pour modéliser l'occurrence d'événements discrets se produisant de manière aléatoire dans le temps ou l'espace. Il est caractérisé par le fait que les événements sont indépendants et que le nombre d’événements dans un intervalle de temps suit une loi de Poisson. La version homogène du processus suppose un taux constant λ, tandis que le processus de Poisson non homogène permet à ce taux de varier avec le temps λ(t). Le processus de Poisson a de nombreuses applications, notamment dans la modélisation des appels téléphoniques, des pannes de systèmes, des arrivées de clients, ou des mutations génétiques. C’est aussi un point de départ pour des processus plus complexes comme les processus de comptage marqués et les processus ponctuels spatiaux. Le processus de Poisson est également utilisé comme base pour la construction d’autres processus comme les chaînes de Markov en temps continu (Ross, 2014 ; Grimmett et Stirzaker, 2001).

avec
- Processus de diffusion : Les processus de diffusion sont une généralisation du mouvement brownien, décrivant l’évolution continue d’une variable aléatoire dans le temps, influencée à la fois par une tendance déterministe (appelée dérive) et par un terme aléatoire (appelé volatilité ou diffusion). Mathématiquement, ils sont modélisés par des équations différentielles stochastiques (EDS) de la forme :

où:
µ est la fonction de dérive, σ la fonction de diffusion, et Bt un mouvement brownien standard. Ces processus sont utilisés dans de nombreux contextes, notamment pour décrire la dynamique des prix en finance (modèle de Black-Scholes), les systèmes physiques (diffusion thermique, particules en suspension), ou les concentrations de polluants dans l’environnement. Leur analyse nécessite des outils issus du calcul stochastique (Itô, Stratonovich) et permet d'étudier la probabilité de franchissement de seuils, les temps de premier passage, et la distribution des extrêmes (Øksendal, 2003 ; Karatzas et Shreve, 1998).
- Processus de Lévy : Les processus de Lévy sont une large classe de processus stochastiques à temps continu qui généralisent le mouvement brownien et le processus de Poisson e intégrant à la fois des composantes continues et des sauts discrets. Un processus de Lévy possède des accroissements stationnaires et indépendants, mais contrairement au mouvement brownien, il peut inclure des discontinuités dans ses trajectoires. Sa décomposition canonique, appelée décomposition de Lévy–Itô, montre qu’un tel processus peut être exprimé comme la somme d’un mouvement brownien, d’un processus de Poisson composé et d’un terme de dérive. Cette classe inclut des processus bien connus tels que le processus de Poisson, le processus de variance gamma, ou le processus de Cauchy. En finance, les processus de Lévy sont utilisés pour modéliser les dynamiques de prix avec sauts, offrant une meilleure description des marchés que les modèles purement browniens (ex. : modèle de Merton, modèle CGMY). Ils jouent également un rôle central dans les modèles de file d’attente, la biologie évolutive et les phénomènes turbulents en physique (Applebaum, 2009 ; Sato, 1999).

3. Propriétés fondamentales
Stationnarité : Un processus stochastique est dit stationnaire lorsque sa distribution de probabilité ne change pas au cours du temps. Plus précisément, un processus est strictement stationnaire si la loi jointe de (Xt1 , Xt2 , ….,.Xtn ) est identique à celle de (Xt1+h , Xt2+h , ….,.Xtn+h ) pour tout h et pour tout choix de temps t1,…tn). Il existe également une notion plus faible appelée stationnarité au second ordre, où seules la moyenne, la variance et la fonction d'autocorrélation sont invariantes dans le temps. Cette propriété est cruciale dans l'analyse des séries temporelles, notamment pour l'application des modèles ARMA/ARIMA, et dans la théorie ergodique. La stationnarité facilite aussi l'estimation statistique, car elle implique que les propriétés statistiques du processus peuvent être apprises à partir d'un échantillon temporel (Grimmett et Stirzaker, 2001 ; Billingsley, 1995).
Indépendance des accroissements : Un processus stochastique possède la propriété d'indépendance des accroissements lorsque les variations du processus sur des intervalles de temps disjoints sont statistiquement indépendantes. Autrement dit, pour tout ensemble d'intervalles non chevauchants, les accroissements correspondants du processus ne dépendent pas les uns des autres. Cette propriété est caractéristique de processus tels que le mouvement brownien ou le processus de Poisson. Par exemple, dans le cas du mouvement brownien Bt , les accroissements Bt2-Bt1, Bt3-Bt2, etc., sont indépendants si les intervalles [t1, t2], [t2, t3], etc., sont disjoints. Cette indépendance facilite considérablement l’analyse théorique et la simulation de tels processus, notamment pour l’étude des trajectoires, des fonctions de transition, ou dans la construction d’algorithmes Monte Carlo (Karatzas et Shreve, 1998 ; Øksendal, 2003).
Martingales : Une martingale est un type particulier de processus stochastique pour lequel la meilleure prédiction de la valeur future, compte tenu de l'information présente, est simplement la valeur actuelle. Formellement, un processus {Xt} adapté à une filtration {Ft} est une martingale si :
Les martingales sont dites sans "mémoire prévisible" car elles ne permettent pas de tirer
profit d'informations passées pour prévoir les gains futurs. Elles sont au cœur de la théorie
moderne de la finance, notamment pour la modélisation des marchés financiers sans
opportunités d’arbitrage (théorie fondamentale de l’évaluation). Elles interviennent aussi
dans l'étude des jeux de hasard, dans les techniques de preuve probabilistes (inégalités de
Doob, convergence), et dans le calcul stochastique (formules d'Itô et théorèmes de
représentation). Le concept de martingale est essentiel dans la formulation rigoureuse des
prix des actifs dérivés et dans les stratégies de couverture dynamique (Karatzas et Shreve,
1998 ; Øksendal, 2003).
Filtrations : En théorie des processus stochastiques, une filtration est une famille croissante de tribus {Ft}t≥0, représentant l’évolution de l’information disponible au cours du temps. À chaque instant t, Ft contient toutes les informations connues jusqu’à ce moment. On dit qu’un processus est adapté à une filtration s’il est mesurable par rapport à chaque Ft . Les filtrations sont indispensables pour formaliser la notion de dépendance temporelle dans les processus, notamment pour les martingales, les temps d’arrêt aléatoires (stopping times), et les équations différentielles stochastiques. Elles sont également fondamentales dans la définition de l’intégrale stochastique d’Itô, ainsi que dans les théorèmes de Girsanov, de Doob, ou de représentation de martingales. Dans les modèles financiers, la filtration représente l’information disponible au marché à chaque instant (Karatzas et Shreve, 1998 ; Øksendal, 2003).
4. Applications pratiques
Les processus stochastiques ont des applications très diverses dans les sciences appliquées et
fondamentales. Leur capacité à représenter des dynamiques incertaines, souvent inaccessibles aux
modèles déterministes, en fait des outils puissants pour la modélisation prédictive et la prise de
décision sous incertitude.
a. Finance quantitative
Les modèles financiers modernes reposent massivement sur le calcul stochastique. Le modèle de
Black-Scholes utilise le mouvement brownien géométrique pour évaluer les options européennes,
tandis que les modèles de Merton ou de Heston intègrent respectivement les sauts et la volatilité
stochastique (Karatzas et Shreve, 1998 ; Robert et Casella, 2004). Les processus de Lévy permettent
également de capturer des comportements extrêmes observés dans les marchés.
b. Biologie et écologie
Les processus de naissance-mort, chaînes de Markov et processus de diffusion sont utilisés pour
modéliser la dynamique des populations, les épidémies, et la dispersion des espèces. En épidémiologie, les modèles stochastiques permettent d’évaluer l'incertitude autour des taux de transmission (Durrett, 2019 ; Ross, 2014).
c. Physique et chimie
Le mouvement brownien a été à l’origine des premières théories sur le comportement des particules
en suspension. Aujourd’hui, les EDS sont utilisées dans la mécanique statistique, la dynamique des
fluides et la physique quantique pour modéliser les trajectoires de particules ou les champs
fluctuants (Øksendal, 2003 ; Applebaum, 2009).
d. Intelligence artificielle
Les processus décisionnels markoviens (MDP) forment la base théorique de l’apprentissage par
renforcement, où un agent apprend à optimiser une stratégie dans un environnement incertain. Les
algorithmes comme Q-learning, les filtres de Kalman et les HMM sont appliqués dans la robotique, la
vision par ordinateur, et la prévision séquentielle (Elliott et al., 1995 ; Robert et Casella, 2004).
e. Sciences environnementales
Les modèles stochastiques sont utilisés pour simuler le climat (précipitations, températures), prévoir
la pollution atmosphérique, et estimer la probabilité d’événements extrêmes comme les sécheresses
ou les inondations. Les processus de Poisson et les SPDE permettent de modéliser la variabilité
spatio-temporelle des données environnementales (Grimmett et Stirzaker, 2001 ; Sato, 1999).
- Simulation et estimation
La simulation et l'estimation jouent un rôle crucial dans l'étude des processus stochastiques,
particulièrement lorsqu'une solution analytique est difficile ou impossible à obtenir. Plusieurs
méthodes numériques sont utilisées pour estimer les paramètres des modèles, générer des
trajectoires ou inférer des structures cachées (Durrett, 2019 ; Karatzas et Shreve, 1998).
- Méthode de Monte Carlo : Cette approche consiste à simuler un grand nombre de trajectoires aléatoires du processus stochastique afin d'estimer des caractéristiques statistiques (espérance, variance, probabilités de franchissement, etc.). Elle est particulièrement utile pour évaluer des intégrales inaccessibles analytiquement. Les méthodes de Monte Carlo sont largement utilisées dans les modèles financiers pour le pricing d’options complexes (Robert et Casella, 2004).
- MCMC (Monte Carlo par chaîne de Markov) : Cette technique étend la méthode de Monte
Carlo aux situations où l'on souhaite échantillonner des variables à partir de distributions
conditionnelles inaccessibles. MCMC permet de générer des échantillons dépendants mais
convergeant vers une distribution cible. Elle est très utilisée dans l'inférence bayésienne, les
modèles hiérarchiques, ou encore pour estimer des modèles de diffusion avec données
partiellement observées (Ross, 2014 ; Robert et Casella, 2004).
- Algorithme EM (Expectation-Maximization) : Il est utilisé pour estimer les paramètres de
modèles statistiques impliquant des données incomplètes ou des variables latentes, comme
les modèles de Markov cachés (HMM). Le processus alterne entre l'étape E (calcul des
espérances conditionnelles) et l'étape M (maximisation de la vraisemblance attendue).
L'algorithme EM est fondamental dans l’apprentissage non supervisé et dans la détection de
régimes cachés dans les séries temporelles (Elliott et al., 1995).
- Méthodes numériques de résolution d’EDS : Lorsque le modèle est formulé comme une
équation différentielle stochastique, des schémas numériques comme celui d’Euler-
Maruyama ou de Milstein sont utilisés pour générer des trajectoires approchées. Ces
techniques sont essentielles pour étudier les modèles continus de type Itô (Øksendal, 2003 ;
Karatzas et Shreve, 1998).
- Avancées récentes et recherches actuelles
Les développements récents dans la théorie et les applications des processus stochastiques reflètent
l’interdisciplinarité croissante de cette branche mathématique. Plusieurs domaines de recherche se
sont intensifiés, notamment ceux qui croisent les probabilités avec les graphes, l’analyse fonctionnelle, l’informatique théorique ou encore la physique quantique.
- Processus stochastiques sur graphes et réseaux complexes : Cette ligne de recherche
modélise les dynamiques aléatoires sur des structures comme les réseaux sociaux, les
infrastructures de communication ou les systèmes biologiques. Les chaînes de Markov sur
graphes, les marches aléatoires sur réseaux et les processus de contact sont utilisés pour
étudier la propagation d’informations ou d’épidémies (Levin et al., 2009).
- Processus adaptatifs et à mémoire variable : Dans les systèmes biologiques, cognitifs et économiques, les comportements sont influencés par une mémoire du passé. Les processus
adaptatifs à mémoire longue, comme les processus ARFIMA ou les modèles à mémoire
variable, permettent de représenter cette dépendance temporelle de manière plus réaliste
(Grimmett et Stirzaker, 2001 ; Durrett, 2019). - Équations différentielles partielles stochastiques (SPDE) : Il s’agit d’une généralisation des
EDS aux dimensions infinies, très utilisée dans la modélisation des systèmes physiques distribués, comme la dynamique des fluides, la propagation de chaleur aléatoire ou les champs quantiques. Des solutions faibles ou en loi sont souvent recherchées à l’aide d’outils d’analyse fonctionnelle avancés (Øksendal, 2003 ; Applebaum, 2009). - Modèles hybrides combinant bruit blanc et sauts : Ces modèles mêlent un bruit continu (type brownien) et un bruit de saut (type Lévy ou Poisson), pour mieux refléter la réalité de nombreux phénomènes complexes, notamment en finance et en ingénierie. Ils permettent de simuler des dynamiques irrégulières, ponctuellement perturbées (Sato, 1999 ; Applebaum, 2009).
Conclusion
Les processus stochastiques constituent une structure unificatrice pour comprendre le hasard dans le
temps. Leur étude est essentielle tant pour la théorie que pour l'application à des systèmes réels complexes. Ils offrent un langage mathématique transversal utilisé dans la modélisation, la simulation et la prédiction.
Références
- Applebaum, D. (2009). Lévy Processes and Stochastic Calculus (2nd ed.). Cambridge
University Press.
- Billingsley, P. (1995). Probability and Measure. (3rd ed.). Wiley, 608p
- Box, G. E. P., Jenkins, G. M., Reinsel, G. C., Ljung, G.M. (2015). Time Series Analysis:Forecasting and Control (5th ed.). Wiley, 720p.
- Durrett, R. (2019). Probability: Theory and Examples (5th ed.). Cambridge University Press.
- Elliott, R. J., Aggoun, L., & Moore, J. B. (1995). Hidden Markov Models: Estimation and Control. Springer, 361p.
- Ethier, S. N., Kurtz, T. G. (2005). Markov Processes: Characterization and Convergence. Wiley.
- Grimmett, G. R., Stirzaker, D. R. (2001). Probability and Random Processes. Oxford University Press.
- Karatzas, I., Shreve, S. E. (1998). Brownian Motion and Stochastic Calculus. (2nd ed.). Springer.
- Levin, D. A., Peres, Y., Wilmer, E. L. (2009). Markov Chains and Mixing Times. American Mathematical Society, 461p.
- Øksendal, B. (2003). Stochastic Differential Equations: An Introduction with Applications (6th ed.). Springer.
- Pólya, G. (1921). On a problem of probability theory concerning random walk in a street network.Mathematische Annalen, 84(1–2), 149–160.
- Robert, C. P., Casella, G. (2004). Monte Carlo Statistical Methods. (2nd ed.). Springer, 683p.
- Ross, S. M. (2014). Introduction to Probability Models (11th ed.). Academic Press.
- Sato, K-I. (1999). Lévy Processes and Infinitely Divisible Distributions. Cambridge UniversityPress, 486p.