Distribución exponencial
Función de densidad de probabilidad
Función de distribución de probabilidad Parámetros
λ
>
0
{\displaystyle \lambda >0\,}
Dominio
[
0
,
∞
)
{\displaystyle [0,\infty )\!}
Función de densidad (pdf)
λ
e
−
λ
x
{\displaystyle \lambda e^{-\lambda x}}
Función de distribución (cdf)
1
−
e
−
λ
x
{\displaystyle 1-e^{-\lambda x}}
Media
1
/
λ
{\displaystyle 1/\lambda \,}
Mediana
ln
(
2
)
/
λ
{\displaystyle \ln(2)/\lambda \,}
Moda
0
{\displaystyle 0\,}
Varianza
1
/
λ
2
{\displaystyle 1/\lambda ^{2}\,}
Coeficiente de simetría
2
{\displaystyle 2\,}
Curtosis
9
{\displaystyle 9\,}
Entropía
1
−
ln
(
λ
)
{\displaystyle 1-\ln(\lambda )\,}
Función generadora de momentos (mgf)
(
1
−
t
λ
)
−
1
{\displaystyle \left(1-{\frac {t}{\lambda }}\right)^{-1}\,}
Función característica
(
1
−
i
t
λ
)
−
1
{\displaystyle \left(1-{\frac {it}{\lambda }}\right)^{-1}\,}
En Teoría de Probabilidad y Estadística , la distribución exponencial es una distribución continua que se utiliza para modelar tiempos de espera para la ocurrencia de un cierto evento. Esta distribución al igual que la distribución geométrica tiene la propiedad de pérdida de memoria. La distribución exponencial es un caso particular de la distribución gamma .
Se dice que una variable aleatoria continua
X
{\displaystyle X}
tiene una distribución exponencial con parámetro
λ
>
0
{\displaystyle \lambda >0}
y escribimos
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
si su función de densidad es
f
X
(
x
)
=
λ
e
−
λ
x
{\displaystyle f_{X}(x)=\lambda e^{-\lambda x}}
para
x
≥
0
{\displaystyle x\geq 0}
.
Función de Distribución[ editar ]
Su función de distribución acumulada está dada por
F
X
(
x
)
=
1
−
e
−
λ
x
{\displaystyle F_{X}(x)=1-e^{-\lambda x}}
para
x
≥
0
{\displaystyle x\geq 0}
.
Parametrización Alternativa[ editar ]
La distribución exponencial en ocasiones se parametriza en términos del parámetro de escala
β
=
1
/
λ
{\displaystyle \beta =1/\lambda }
en cuya caso, la función de densidad será
f
X
(
x
)
=
1
β
e
−
x
β
{\displaystyle f_{X}(x)={\frac {1}{\beta }}\;e^{-{\frac {x}{\beta }}}}
para
x
≥
0
{\displaystyle x\geq 0}
.
Función de Supervivencia[ editar ]
De forma adicional esta distribución presenta una función adicional que es función Supervivencia (S), que representa el complemento de la Función de distribución .
S
(
x
)
=
P
[
X
>
x
]
=
{
1
para
x
<
0
e
−
λ
x
para
x
≥
0
{\displaystyle S(x)=\operatorname {P} [X>x]=\left\{{\begin{matrix}1&{\text{para }}x<0\\e^{-\lambda x}&{\text{para }}x\geq 0\end{matrix}}\right.}
Si
X
{\displaystyle X}
es una variable aleatoria tal que
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
entonces
La media de la variable aleatoria
X
{\displaystyle X}
es
E
[
X
]
=
1
λ
{\displaystyle \operatorname {E} [X]={\frac {1}{\lambda }}}
La varianza de la variable aleatoria
X
{\displaystyle X}
es
Var
[
X
]
=
1
λ
2
{\displaystyle \operatorname {Var} [X]={\frac {1}{\lambda ^{2}}}}
El
n
{\displaystyle n}
-ésimo momento de la variable aleatoria
X
{\displaystyle X}
es
E
[
X
n
]
=
n
!
λ
n
{\displaystyle \operatorname {E} [X^{n}]={\frac {n!}{\lambda ^{n}}}}
La función generadora de momentos de
X
{\displaystyle X}
para
λ
>
t
{\displaystyle \lambda >t}
está dada por
M
X
(
t
)
=
(
1
−
t
λ
)
−
1
=
λ
λ
−
t
{\displaystyle M_{X}(t)=\left(1-{\frac {t}{\lambda }}\right)^{-1}={\frac {\lambda }{\lambda -t}}}
Si
X
{\displaystyle X}
es una variable aleatoria tal que
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
y
c
>
0
{\displaystyle c>0}
una constante entonces
c
X
∼
Exp
(
λ
c
)
{\displaystyle cX\sim \operatorname {Exp} \left({\frac {\lambda }{c}}\right)}
Sea
X
{\displaystyle X}
una variable aleatoria tal que
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
entonces para cualesquiera
x
,
y
≥
0
{\displaystyle x,y\geq 0}
P
[
X
>
x
+
y
|
X
>
y
]
=
P
[
X
>
x
]
{\displaystyle \operatorname {P} [X>x+y|X>y]=\operatorname {P} [X>x]}
Esto puede demostrarse fácilmente pues
P
[
X
>
x
+
y
|
X
>
y
]
=
P
[
X
>
x
+
y
∩
X
>
y
]
P
[
X
>
y
]
=
P
[
X
>
x
+
y
]
P
[
X
>
y
]
=
e
−
λ
(
x
+
y
)
e
−
λ
y
=
e
−
λ
x
=
P
[
X
>
x
]
{\displaystyle {\begin{aligned}\operatorname {P} [X>x+y|X>y]&={\frac {\operatorname {P} [X>x+y\cap X>y]}{\operatorname {P} [X>y]}}\\&={\frac {\operatorname {P} [X>x+y]}{\operatorname {P} [X>y]}}\\&={\frac {e^{-\lambda (x+y)}}{e^{-\lambda y}}}\\&=e^{-\lambda x}\\&=\operatorname {P} [X>x]\end{aligned}}}
La función cuantil (inversa de la función de distribución acumulada) para una variable aleatoria
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
está dada por
F
−
1
(
p
)
=
−
ln
(
1
−
p
)
λ
0
≤
p
<
1
{\displaystyle F^{-1}(p)={\frac {-\ln(1-p)}{\lambda }}\qquad 0\leq p<1}
por lo que los cuantiles son:
El primer cuartil es
F
−
1
(
1
4
)
=
−
ln
(
3
4
)
λ
=
1
λ
ln
(
4
3
)
{\displaystyle F^{-1}\left({\frac {1}{4}}\right)=-{\frac {\ln \left({\frac {3}{4}}\right)}{\lambda }}={\frac {1}{\lambda }}\ln \left({\frac {4}{3}}\right)}
La mediana es
F
−
1
(
1
2
)
=
−
ln
(
1
2
)
λ
=
ln
(
2
)
λ
{\displaystyle F^{-1}\left({\frac {1}{2}}\right)=-{\frac {\ln \left({\frac {1}{2}}\right)}{\lambda }}={\frac {\ln(2)}{\lambda }}}
Y el tercer cuartil está dado por
F
−
1
(
3
4
)
=
−
ln
(
1
4
)
λ
=
ln
(
4
)
λ
{\displaystyle F^{-1}\left({\frac {3}{4}}\right)=-{\frac {\ln \left({\frac {1}{4}}\right)}{\lambda }}={\frac {\ln(4)}{\lambda }}}
Valor en riesgo condicional (pérdida esperada)[ editar ]
El valor condicional en riesgo (CVaR) también conocido como déficit esperado o supercuantil para Exp(λ ) se obtiene de la siguiente manera:[ 1]
q
¯
α
(
X
)
=
1
1
−
α
∫
α
1
q
p
(
X
)
d
p
=
1
(
1
−
α
)
∫
α
1
−
ln
(
1
−
p
)
λ
d
p
=
−
1
λ
(
1
−
α
)
∫
1
−
α
0
−
ln
(
y
)
d
y
=
−
1
λ
(
1
−
α
)
∫
0
1
−
α
ln
(
y
)
d
y
=
−
1
λ
(
1
−
α
)
[
(
1
−
α
)
ln
(
1
−
α
)
−
(
1
−
α
)
]
=
−
ln
(
1
−
α
)
+
1
λ
{\displaystyle {\begin{aligned}{\bar {q}}_{\alpha }(X)&={\frac {1}{1-\alpha }}\int _{\alpha }^{1}q_{p}(X)dp\\&={\frac {1}{(1-\alpha )}}\int _{\alpha }^{1}{\frac {-\ln(1-p)}{\lambda }}dp\\&={\frac {-1}{\lambda (1-\alpha )}}\int _{1-\alpha }^{0}-\ln(y)dy\\&={\frac {-1}{\lambda (1-\alpha )}}\int _{0}^{1-\alpha }\ln(y)dy\\&={\frac {-1}{\lambda (1-\alpha )}}[(1-\alpha )\ln(1-\alpha )-(1-\alpha )]\\&={\frac {-\ln(1-\alpha )+1}{\lambda }}\\\end{aligned}}}
Probabilidad de superación amortiguada (bPOE)[ editar ]
La probabilidad amortiguada de superación es uno menos el nivel de probabilidad en el que el CVaR es igual al umbral
x
{\displaystyle x}
. Se obtiene de la siguiente manera:[ 1]
p
¯
x
(
X
)
=
{
1
−
α
|
q
¯
α
(
X
)
=
x
}
=
{
1
−
α
|
−
ln
(
1
−
α
)
+
1
λ
=
x
}
=
{
1
−
α
|
ln
(
1
−
α
)
=
1
−
λ
x
}
=
{
1
−
α
|
e
ln
(
1
−
α
)
=
e
1
−
λ
x
}
=
{
1
−
α
|
1
−
α
=
e
1
−
λ
x
}
=
e
1
−
λ
x
{\displaystyle {\begin{aligned}{\bar {p}}_{x}(X)&=\{1-\alpha |{\bar {q}}_{\alpha }(X)=x\}\\&=\{1-\alpha |{\frac {-\ln(1-\alpha )+1}{\lambda }}=x\}\\&=\{1-\alpha |\ln(1-\alpha )=1-\lambda x\}\\&=\{1-\alpha |e^{\ln(1-\alpha )}=e^{1-\lambda x}\}=\{1-\alpha |1-\alpha =e^{1-\lambda x}\}=e^{1-\lambda x}\end{aligned}}}
Divergencia de Kullback-Leibler [ editar ]
La divergencia de Kullback-Leibler dirigida en nats de
e
λ
{\displaystyle e^{\lambda }}
(distribution de aproximación) de
e
λ
0
{\displaystyle e^{\lambda _{0}}}
(distribución "verdadera") viene dada por
Δ
(
λ
0
∥
λ
)
=
E
λ
0
(
log
p
λ
0
(
x
)
p
λ
(
x
)
)
=
E
λ
0
(
log
λ
0
e
λ
0
x
λ
e
λ
x
)
=
log
(
λ
0
)
−
log
(
λ
)
−
(
λ
0
−
λ
)
E
λ
0
(
x
)
=
log
(
λ
0
)
−
log
(
λ
)
+
λ
λ
0
−
1.
{\displaystyle {\begin{aligned}\Delta (\lambda _{0}\parallel \lambda )&=\mathbb {E} _{\lambda _{0}}\left(\log {\frac {p_{\lambda _{0}}(x)}{p_{\lambda }(x)}}\right)\\&=\mathbb {E} _{\lambda _{0}}\left(\log {\frac {\lambda _{0}e^{\lambda _{0}x}}{\lambda e^{\lambda x}}}\right)\\&=\log(\lambda _{0})-\log(\lambda )-(\lambda _{0}-\lambda )E_{\lambda _{0}}(x)\\&=\log(\lambda _{0})-\log(\lambda )+{\frac {\lambda }{\lambda _{0}}}-1.\end{aligned}}}
Distribución de máxima entropía[ editar ]
Entre todas las distribuciones de probabilidad continuas con soporte cerrada-abierta 0, ∞ y media μ , la distribución exponencial con λ = 1/μ tiene la mayor entropía diferencial. En otras palabras, es la distribución de probabilidad de máxima entropía para una variante aleatoria X que es mayor o igual que cero y para la que E[X ] es fija.[ 2]
Distribución del mínimo de variables aleatorias exponenciales[ editar ]
Sean X 1 , ..., X n variables aleatorias exponencialmente distribuidas con parámetros de tasa λ 1 , ..., λn . Entonces
min
{
X
1
,
…
,
X
n
}
{\displaystyle \min \left\{X_{1},\dotsc ,X_{n}\right\}}
también se distribuye exponencialmente, con el parámetro
λ
=
λ
1
+
⋯
+
λ
n
.
{\displaystyle \lambda =\lambda _{1}+\dotsb +\lambda _{n}.}
Esto puede verse considerando la función de distribución acumulativa complementaria :
Pr
(
min
{
X
1
,
…
,
X
n
}
>
x
)
=
Pr
(
X
1
>
x
,
…
,
X
n
>
x
)
=
∏
i
=
1
n
Pr
(
X
i
>
x
)
=
∏
i
=
1
n
exp
(
−
x
λ
i
)
=
exp
(
−
x
∑
i
=
1
n
λ
i
)
.
{\displaystyle {\begin{aligned}&\Pr \left(\min\{X_{1},\dotsc ,X_{n}\}>x\right)\\={}&\Pr \left(X_{1}>x,\dotsc ,X_{n}>x\right)\\={}&\prod _{i=1}^{n}\Pr \left(X_{i}>x\right)\\={}&\prod _{i=1}^{n}\exp \left(-x\lambda _{i}\right)=\exp \left(-x\sum _{i=1}^{n}\lambda _{i}\right).\end{aligned}}}
El índice de la variable que alcanza el mínimo se distribuye según la distribución categórica
Pr
(
X
k
=
min
{
X
1
,
…
,
X
n
}
)
=
λ
k
λ
1
+
⋯
+
λ
n
.
{\displaystyle \Pr \left(X_{k}=\min\{X_{1},\dotsc ,X_{n}\}\right)={\frac {\lambda _{k}}{\lambda _{1}+\dotsb +\lambda _{n}}}.}
Puede verse una prueba dejando que
I
=
argmin
i
∈
{
1
,
⋯
,
n
}
{
X
1
,
…
,
X
n
}
{\displaystyle I=\operatorname {argmin} _{i\in \{1,\dotsb ,n\}}\{X_{1},\dotsc ,X_{n}\}}
. Entonces,
Pr
(
I
=
k
)
=
∫
0
∞
Pr
(
X
k
=
x
)
Pr
(
∀
i
≠
k
X
i
>
x
)
d
x
=
∫
0
∞
λ
k
e
−
λ
k
x
(
∏
i
=
1
,
i
≠
k
n
e
−
λ
i
x
)
d
x
=
λ
k
∫
0
∞
e
−
(
λ
1
+
⋯
+
λ
n
)
x
d
x
=
λ
k
λ
1
+
⋯
+
λ
n
.
{\displaystyle {\begin{aligned}\Pr(I=k)&=\int _{0}^{\infty }\Pr(X_{k}=x)\Pr(\forall _{i\neq k}X_{i}>x)\,dx\\&=\int _{0}^{\infty }\lambda _{k}e^{-\lambda _{k}x}\left(\prod _{i=1,i\neq k}^{n}e^{-\lambda _{i}x}\right)dx\\&=\lambda _{k}\int _{0}^{\infty }e^{-\left(\lambda _{1}+\dotsb +\lambda _{n}\right)x}dx\\&={\frac {\lambda _{k}}{\lambda _{1}+\dotsb +\lambda _{n}}}.\end{aligned}}}
Nótese que
max
{
X
1
,
…
,
X
n
}
{\displaystyle \max\{X_{1},\dotsc ,X_{n}\}}
max
{
X
1
,
…
,
X
n
}
{\displaystyle \max\{X_{1},\dotsc ,X_{n}\}}
no es una distribución exponencial, si X 1 , …, X n no todos tienen parámetro 0.[ 3]
Momentos conjuntos de estadísticos de orden exponencial i.i.d[ editar ]
Sean
X
1
,
…
,
X
n
{\displaystyle X_{1},\dotsc ,X_{n}}
n
{\displaystyle n}
independent and identically distributed variables aleatorias exponenciales con parámetro de tasa λ .
Sean
X
(
1
)
,
…
,
X
(
n
)
{\displaystyle X_{(1)},\dotsc ,X_{(n)}}
los correspondientes estadísticos de orden .
Para
i
<
j
{\displaystyle i<j}
, el momento conjunto
E
[
X
(
i
)
X
(
j
)
]
{\displaystyle \operatorname {E} \left[X_{(i)}X_{(j)}\right]}
de los estadísticos de orden
X
(
i
)
{\displaystyle X_{(i)}}
y
X
(
j
)
{\displaystyle X_{(j)}}
viene dado por
E
[
X
(
i
)
X
(
j
)
]
=
∑
k
=
0
j
−
1
1
(
n
−
k
)
λ
E
[
X
(
i
)
]
+
E
[
X
(
i
)
2
]
=
∑
k
=
0
j
−
1
1
(
n
−
k
)
λ
∑
k
=
0
i
−
1
1
(
n
−
k
)
λ
+
∑
k
=
0
i
−
1
1
(
(
n
−
k
)
λ
)
2
+
(
∑
k
=
0
i
−
1
1
(
n
−
k
)
λ
)
2
.
{\displaystyle {\begin{aligned}\operatorname {E} \left[X_{(i)}X_{(j)}\right]&=\sum _{k=0}^{j-1}{\frac {1}{(n-k)\lambda }}\operatorname {E} \left[X_{(i)}\right]+\operatorname {E} \left[X_{(i)}^{2}\right]\\&=\sum _{k=0}^{j-1}{\frac {1}{(n-k)\lambda }}\sum _{k=0}^{i-1}{\frac {1}{(n-k)\lambda }}+\sum _{k=0}^{i-1}{\frac {1}{((n-k)\lambda )^{2}}}+\left(\sum _{k=0}^{i-1}{\frac {1}{(n-k)\lambda }}\right)^{2}.\end{aligned}}}
Esto puede verse invocando la ley de la expectativa total y la propiedad sin memoria:
E
[
X
(
i
)
X
(
j
)
]
=
∫
0
∞
E
[
X
(
i
)
X
(
j
)
∣
X
(
i
)
=
x
]
f
X
(
i
)
(
x
)
d
x
=
∫
x
=
0
∞
x
E
[
X
(
j
)
∣
X
(
j
)
≥
x
]
f
X
(
i
)
(
x
)
d
x
(
since
X
(
i
)
=
x
⟹
X
(
j
)
≥
x
)
=
∫
x
=
0
∞
x
[
E
[
X
(
j
)
]
+
x
]
f
X
(
i
)
(
x
)
d
x
(
by the memoryless property
)
=
∑
k
=
0
j
−
1
1
(
n
−
k
)
λ
E
[
X
(
i
)
]
+
E
[
X
(
i
)
2
]
.
{\displaystyle {\begin{aligned}\operatorname {E} \left[X_{(i)}X_{(j)}\right]&=\int _{0}^{\infty }\operatorname {E} \left[X_{(i)}X_{(j)}\mid X_{(i)}=x\right]f_{X_{(i)}}(x)\,dx\\&=\int _{x=0}^{\infty }x\operatorname {E} \left[X_{(j)}\mid X_{(j)}\geq x\right]f_{X_{(i)}}(x)\,dx&&\left({\textrm {since}}~X_{(i)}=x\implies X_{(j)}\geq x\right)\\&=\int _{x=0}^{\infty }x\left[\operatorname {E} \left[X_{(j)}\right]+x\right]f_{X_{(i)}}(x)\,dx&&\left({\text{by the memoryless property}}\right)\\&=\sum _{k=0}^{j-1}{\frac {1}{(n-k)\lambda }}\operatorname {E} \left[X_{(i)}\right]+\operatorname {E} \left[X_{(i)}^{2}\right].\end{aligned}}}
La primera ecuación se sigue de la ley de la expectativa total .
La segunda ecuación explota el hecho de que una vez que condicionamos en
X
(
i
)
=
x
{\displaystyle X_{(i)}=x}
, debe seguirse que
X
(
j
)
≥
x
{\displaystyle X_{(j)}\geq x}
. La tercera ecuación se basa en la propiedad sin memoria para reemplazar
E
[
X
(
j
)
∣
X
(
j
)
≥
x
]
{\displaystyle \operatorname {E} \left[X_{(j)}\mid X_{(j)}\geq x\right]}
con
E
[
X
(
j
)
]
+
x
{\displaystyle \operatorname {E} \left[X_{(j)}\right]+x}
.
Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos de una variable continua que transcurren entre dos sucesos, que se distribuyen según la distribución de Poisson .
El tiempo transcurrido en un centro de llamadas hasta recibir la primera llamada del día se podría modelar como una exponencial.
El intervalo de tiempo entre terremotos (de una determinada magnitud) sigue una distribución exponencial.
Supongamos una máquina que produce hilo de alambre, la cantidad de metros de alambre hasta encontrar una falla en el alambre se podría modelar como una exponencial.
En fiabilidad de sistemas , un dispositivo con tasa de fallo constante sigue una distribución exponencial.
Distribuciones Relacionadas [ editar ]
Si
X
∼
Laplace
(
μ
,
β
−
1
)
{\displaystyle X\sim \operatorname {Laplace} (\mu ,\beta ^{-1})}
entonces
|
X
−
μ
|
∼
Exp
(
β
)
{\displaystyle |X-\mu |\sim \operatorname {Exp} (\beta )}
.
Si
X
∼
Pareto
(
1
,
λ
)
{\displaystyle X\sim \operatorname {Pareto} (1,\lambda )}
entonces
ln
(
X
)
∼
Exp
(
λ
)
{\displaystyle \ln(X)\sim \operatorname {Exp} (\lambda )}
.
Si
X
∼
Γ
(
1
,
λ
)
{\displaystyle X\sim \Gamma (1,\lambda )}
entonces
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
.
Si
X
1
,
X
2
,
…
,
X
n
{\displaystyle X_{1},X_{2},\dots ,X_{n}}
son variables aleatorias independientes tales que
X
i
∼
Exp
(
λ
)
{\displaystyle X_{i}\sim \operatorname {Exp} (\lambda )}
entonces
∑
i
=
1
n
X
i
∼
Γ
(
n
,
λ
)
{\displaystyle \sum \limits _{i=1}^{n}X_{i}\sim \Gamma \left(n,\lambda \right)}
, donde
Γ
(
n
,
λ
)
{\displaystyle \Gamma \left(n,\lambda \right)}
es la distribución de Erlang con parámetros
n
∈
N
{\displaystyle n\in \mathbb {N} }
y
λ
{\displaystyle \lambda }
, esto es
∑
i
=
1
n
X
i
∼
Erlang
(
n
,
λ
)
{\displaystyle \sum \limits _{i=1}^{n}X_{i}\sim \operatorname {Erlang} \left(n,\lambda \right)}
. Es decir, la suma de
n
{\displaystyle n}
variables aleatorias independientes con distribución exponencial con parámetro
λ
{\displaystyle \lambda }
es una variable aleatoria con distribución de Erlang .
Distribución cumulativa ajustada a máximos anuales de lluvias diarias[ 4]
Inferencia Estadística[ editar ]
Suponga que
X
{\displaystyle X}
es una variable aleatoria tal que
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
y
x
1
,
x
2
,
…
,
x
n
{\displaystyle x_{1},x_{2},\dots ,x_{n}}
es una muestra proveniente de
X
{\displaystyle X}
.
Estimación de Parámetros[ editar ]
El estimador por máxima verosimilitud de
λ
{\displaystyle \lambda }
se construye como sigue:
La función de verosimilitud está dada por
L
(
λ
)
=
∏
i
=
1
n
λ
e
−
λ
x
i
=
λ
n
exp
(
−
λ
∑
i
=
1
n
x
i
)
=
λ
n
exp
(
−
λ
n
x
¯
)
{\displaystyle {\begin{aligned}{\mathcal {L}}(\lambda )&=\prod _{i=1}^{n}\lambda e^{-\lambda x_{i}}\\&=\lambda ^{n}\operatorname {exp} \left(-\lambda \sum _{i=1}^{n}x_{i}\right)\\&=\lambda ^{n}\operatorname {exp} (-\lambda n{\bar {x}})\end{aligned}}}
donde
x
¯
=
1
n
∑
i
=
1
n
x
i
{\displaystyle {\bar {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}
es la media muestral.
Tomando logaritmos a la función de verosimilitud
ln
L
(
λ
)
=
ln
(
λ
n
exp
(
−
λ
n
x
¯
)
)
=
n
ln
λ
−
λ
n
x
¯
{\displaystyle {\begin{aligned}\ln {\mathcal {L}}(\lambda )&=\ln \left(\lambda ^{n}\operatorname {exp} (-\lambda n{\bar {x}})\right)\\&=n\ln \lambda -\lambda n{\bar {x}}\end{aligned}}}
derivando respecto a
λ
{\displaystyle \lambda }
obtenemos
d
ln
L
d
λ
=
d
d
λ
(
n
ln
λ
−
λ
n
x
¯
)
=
n
λ
−
n
x
¯
{\displaystyle {\begin{aligned}{\frac {d\ln {\mathcal {L}}}{d\lambda }}&={\frac {d}{d\lambda }}(n\ln \lambda -\lambda n{\bar {x}})\\&={\frac {n}{\lambda }}-n{\bar {x}}\end{aligned}}}
Si igualamos a
0
{\displaystyle 0}
obtenemos el estimador
λ
^
{\displaystyle {\hat {\lambda }}}
dado por
λ
^
=
1
x
¯
{\displaystyle {\hat {\lambda }}={\frac {1}{\bar {x}}}}
El estimador
λ
^
{\displaystyle {\hat {\lambda }}}
es un estimador NO insesgado pues
E
[
λ
^
]
≠
λ
{\displaystyle \operatorname {E} [{\hat {\lambda }}]\neq \lambda }
En la hidrología , la distribución exponencial se emplea para analizar variables aleatorias extremos de variables como máximos mensuales y anuales de la precipitación diaria.[ 5]
Métodos computacionales[ editar ]
Generador de números pseudoaleatorios[ editar ]
Para obtener números pseudoaleatorios la variable aleatoria
X
{\displaystyle X}
con distribución exponencial y parámetro
λ
{\displaystyle \lambda }
, se utiliza un algoritmo basado en el método de la transformada inversa .
Para generar un valor de
X
∼
Exp
(
λ
)
{\displaystyle X\sim \operatorname {Exp} (\lambda )}
a partir de una variable aleatoria
U
∼
U
(
0
,
1
)
{\displaystyle U\sim \operatorname {U} (0,1)}
se utiliza el siguiente algoritmo
X
=
−
1
λ
ln
(
1
−
U
)
{\displaystyle X=-{\frac {1}{\lambda }}\ln(1-U)}
utilizando el hecho de que si
U
∼
U
(
0
,
1
)
{\displaystyle U\sim \operatorname {U} (0,1)}
entonces
1
−
U
∼
U
(
0
,
1
)
{\displaystyle 1-U\sim \operatorname {U} (0,1)}
por lo que una versión más eficiente del algoritmo es
X
=
−
1
λ
ln
(
U
)
{\displaystyle X=-{\frac {1}{\lambda }}\ln(U)}
Se puede usar software y un programa de computadora para el ajuste de una distribución de probabilidad , incluyendo la exponencial, a una serie de datos:
↑ a b Norton, Matthew; Khokhlov, Valentyn; Uryasev, Stan (2019). «Calculating CVaR and bPOE for common probability distributions with application to portfolio optimization and density estimation» . Annals of Operations Research (Springer) 299 (1- 2): 1281-1315. doi :10.1007/s10479-019-03373-1 . Archivado desde el original el 31 de marzo de 2023. Consultado el 27 de febrero de 2023 .
↑ Park, Sung Y.; Bera, Anil K. (2009). «Modelo de heteroscedasticidad condicional autorregresiva de entropía máxima» . Journal of Econometrics (Elsevier) 150 (2): 219-230. Archivado desde el original el 7 de marzo de 2016. Consultado el 2 de junio de 2011 .
↑ Michael, Lugo. «The expectation of the maximum of exponentials» . Archivado desde el original el 20 de diciembre de 2016. Consultado el 13 de diciembre de 2016 .
↑ Cumfreq, a free computer program for cumulative frequency analysis and probability distribution fitting. [1]
↑ Ritzema (ed.), H.P. (1994). Frequency and Regression Analysis . Chapter 6 in: Drainage Principles and Applications, Publication 16, International Institute for Land Reclamation and Improvement (ILRI), Wageningen, The Netherlands. pp. 175-224. ISBN 90-70754-33-9 .