Cet article est une ébauche concernant les probabilités et la statistique.
Vous pouvez partager vos connaissances en l’améliorant (comment ? ) selon les recommandations des projets correspondants.
Loi normale rectifiée Paramètres μ ∈ R {\displaystyle \mu \in \mathbb {R} } paramètre de position σ > 0 {\displaystyle \sigma >0\,} paramètre d'échelle Support x ∈ [ 0 , + ∞ [ {\displaystyle x\in [0,+\infty [\!} Densité de probabilité Φ ( − μ σ ) δ ( x ) + 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 U ( x ) . {\displaystyle \scriptstyle \Phi (-{\frac {\mu }{\sigma }})\delta (x)+{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\mathrm {e} ^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}}{\textrm {U}}(x).} modifier
En théorie des probabilités et en statistique, la loi normale rectifiée est une modification de la loi normale lorsque ses valeurs négatives sont « remises à » 0. C'est une loi mixte issue d'un mélange entre une loi de probabilité discrète (mesure de Dirac en 0) et une loi de probabilité à densité (loi normale tronquée sur ] 0 , ∞ [ {\displaystyle \scriptstyle ]0,\infty [} ).
Une variable aléatoire qui suit une loi normale rectifiée est notée : X ∼ N R ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}^{\textrm {R}}(\mu ,\sigma ^{2})} .
Densité de probabilité La densité de probabilité d'une loi normale rectifiée est donnée par
f ( x ; μ , σ 2 ) = Φ ( − μ σ ) δ ( x ) + 1 2 π σ 2 e − ( x − μ ) 2 2 σ 2 U ( x ) . {\displaystyle f(x;\mu ,\sigma ^{2})=\Phi (-{\frac {\mu }{\sigma }})\delta (x)+{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\;\mathrm {e} ^{-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}}{\textrm {U}}(x).} Comparaison d'une loi normale, d'une loi normale rectifiée et d'une loi normale tronquée. Ici, Φ {\displaystyle \Phi } est la fonction de répartition de la loi normale :
Φ ( x ) = 1 2 π ∫ − ∞ x e − t 2 / 2 d t x ∈ R , {\displaystyle \Phi (x)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{x}\mathrm {e} ^{-t^{2}/2}\,\mathrm {d} t\quad x\in \mathbb {R} ,} δ {\displaystyle \delta } est la distribution de Dirac :
δ ( x ) = { ∞ , x = 0 0 , x ≠ 0 {\displaystyle \delta (x)={\begin{cases}\infty ,&x=0\\0,&x\neq 0\end{cases}}} et, U {\displaystyle {\textrm {U}}} est la fonction de Heaviside:
U ( x ) = { 0 , x ≤ 0 , 1 , x > 0. {\displaystyle {\textrm {U}}(x)={\begin{cases}0,&x\leq 0,\\1,&x>0.\end{cases}}}
Une alternative simple est de considérer le cas où
S ∼ N ( μ , σ 2 ) , X = max ( 0 , S ) , {\displaystyle S\sim {\mathcal {N}}(\mu ,\sigma ^{2}),X=\max(0,S),} alors,
X ∼ N R ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}^{\textrm {R}}(\mu ,\sigma ^{2})}
Références (en) Maxime Beauchamp, « On numerical computation for the distribution of the convolution of N independent rectified Gaussian variables », Journal de la Société Française de Statistique , vol. 159, no 1, 2018 (lire en ligne) Portail des probabilités et de la statistique