Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Examenfinal Estadistica y Prob

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 4

Curso: Introducción a la Probabilidad y Estadística CM -274

Examen Final
• Responde cada pregunta, justificando, los resultados utilizados. Cada pregunta del examen contiene
el desarrollo de propiedades hechas en clase y en las notas de clase.
• Está prohibido compatir cuadernos entre estudiantes. Si se trasgede esta regla, se eliminará la uti-
lización de los cuadernos en el examen.
• Se prohiben, copias de todo índole, así como el uso de libros electrónicos.

1. Resuelve los siguiente:

(a) (1 pto) Sea X ∼ N (µ, σ2 ). Encuentra la función de distribución de probabilidad de | X − µ| y su


valor esperado.
(b) (1 pto) Muestra que la media µ, la mediana m y la varianza σ2 de una variable aleatoria continua
X, satisface la siguiente desigualdad:

( µ − m )2 ≤ σ 2 .
(c) (2 pto) Sean X e Y tienen la función densidad bivariada normal,
( )
1 1 2 2
f ( x, y) = exp − ( x − 2ρxy + y ) .
2(1 − ρ2 )
p
2π 1 − ρ2
q
Muestra que X y Z = (Y − ρX )/ 1 − ρ2 son variables independientes N (0, 1) y deduce que ,

1 1
P( X > 0, Y > 0) =
+ sin−1 ρ.
4 2π
q
Si Z = max{ X, Y }, muestra también que E( Z ) = (1 − ρ)/π y E( Z2 ) = 1.

2. Responde las siguientes preguntas:

(a) (1 pto) X e Y tienen densidad conjunta,

f ( x, y) = cx n1 −1 (y − x )n2 −1 e−y para 0 < x < y < ∞.


Encuentra (a) la constante c, (b) las distribuciones marginales de X e Y.
(b) (1 pto) Si X1 , X2 son variables aleatorias uniformes e independientes sobre el intervalo (0, 1),
encuentra la densidades de (a)X1 + X2 , (b) X1 − X2 (c) | X1 − X2 |, (d) = X1 /X2 .
(c) (1 pto) Dado n números aleatorios independientes X1 , X2 , . . . , Xn desde (0, 1) llamados números
pseudoaleatorios, muestra que:
n
• Y = −2 ∑ 2 log X1 , tiene una distribución χ2 con 2n grados de libertad.
i =1
• las variables,

p
ξ=− −2 log X1 cos(2πX2 ),
p
η = − −2 log X1 sin(2πX2 ),

son independientes N (0, 1).

1
(d) (1 pto) Muestra que si F ( x, y) es la función de distribución de X e Y, además que,

Z = max( X, Y ) W = min( X, Y ),
entonces,

FZ (z) = F (z, z), FW (w) = FX (w) + FY (w) − F (w, w).

Si F ( x, y) es continua, encuentra las densidades de Z y W.

3. Sea { X1 , X2 , X3 , . . . , Xn } un conjunto de variables aleatorias independientes, idénticamente distribuidas


con función de distribución y densidad común F y f respectivamente. Sea X(1) el menor valor
de { X1 , X2 , X3 , . . . , Xn }, X(2) , el segundo menor valor, X(3) , el tercero menor valor y en general,
X(k) (1 ≤ k ≤ n) el k-ésimo menor valor de { X1 , X2 , X3 , . . . , Xn }. Entonces X(k) se le llama k-ésimo
estadístico de orden y el conjunto { X(1) , X(2) , X(3) , . . . , X(n) }, se dice que consisten de los estadísticos
de orden de { X1 , X2 , X3 , . . . , Xn }.

Por esta definición, por ejemplo, si en un punto ω del espacio muestral, X1 (ω ) = 8, X2 (ω ) =


2, X3 (ω ) = 5 y X4 (ω ) = 6, entonces los estadísticos de orden de { X1 , X2 , X3 , X4 } es { X(1) , X(2) , X(3) , X(4) },
donde, X(1) (ω ) = 2, X(2) (ω ) = 5, X(3) (ω ) = 6 y X(4) (ω ) = 8. La continuidad de Xi implica que
P( X(i) = X( j) = 0. Así:

P( X(1) < X(2) < X(3) < · · · X(n) ) = 1.

Hay algunas propiedades, con respecto al tema:

Si tenemos el conjunto { X(1) , X(2) , . . . X(n) } los estimadores de orden de las variables aleatorias idén-
ticamente distribuidas e independientes X1 , X2 , . . . Xn con funciones de distribución de probabilidad
y densidad F y f respectivamente. Entonces Fk y f k , las funciones distribución de probabilidad y
densidad de X(k) respectivamente, están dadas por:
 
n
Fk ( x ) = ∑ i [ F(x)]i [1 − F(x)]n−i , −∞ < x < ∞.
i =k

n!
f k (x) = f ( x )[ F ( x )]k−1 [1 − F ( x )]n−k , −∞ < x < ∞.
( k − 1) ! ( n − k ) !

Si tenemos el conjunto { X(1) , X(2) , . . . X(n) } los estimadores de orden de las variables aleatorias idén-
ticamente distribuidas e independientes X1 , X2 , . . . Xn con funciones de distribución de probabilidad
y densidad F y f respectivamente. Entonces para x < y, f ij ( x, y), la función densidad de probabilidad
conjunta de X(i) y X( j) (i < j) es dada por:

n!
f ij ( x, y) = f ( x ) f (y)[ F ( x )]i−1 [ F (y) − F ( x )] j−i−1 [1 − F (y)]n− j .
( i − 1) ! ( j − i − 1) ! ( n − j )

Esto es claro que para x ≥ y, f ij ( x, y) = 0.

(a) (1 ptos) Sean X1 y X2 dos variables aleatorias exponencial independientes cada una con paramétro
λ. Muestra que X(1) y X(2) − X(1) son independientes.
(b) (1 ptos) Sean X1 , X2 y X3 variables aleatorias independientes de (0, 1). Encuentra la función
de densidad de probabilidad y el valor esperado del rango medio de estas variables aleatorias
[ X(1) + X(2) ]/2.

2
(c) (1 pto) Sea X1 , X2 , . . . , Xn variables aleatorias independientes exponenciales con parámetros λ y
sea X(1) ≤ X(2) ≤ · · · X(n) , sus estadísticos de orden. Muestra que:

Y1 = nX(1) , Yr = (n + 1 − r )( X(r) − X(r−1) ), 1 < r ≤ n,

son también independientes y tienen la misma distribución conjunta de las Xi .

4. (a) (1 ptos) Sea X una variable aleatoria que toma valores enteros no negativos y es asociado con
una transformada de la forma:

3 + 4e2s + 2e3s
MX (s ) = c · ,
3 − es
donde c es un escalar. Encuentra E( X ) y p X (1).
(b) (1 pto) La función de matricial simétrica G ( X ) de la matriz X de orden m × n es llamada convexa,
si para cada par de matrices X1 , X2 de matrices m × n y 0 ≤ λ ≤ 1, satisface:

G (λX1 + (1 − λ) X2 ) ≤ λG ( X1 ) + (1 − λ) G ( X2 ),
donde para matrices simétricas X, Y escribimos X ≥ Y si X − Y es una matriz definida no neg-
ativa. Sea X una variable aleatoria, esto es una matriz, cuyos elementos son variables aleatorias
y G una función matricial convexa. Entonces prueba que:

G (EX ) ≤ EG ( X ).
También para una matriz aleatoria positiva muestra que:

E( X −1 ) ≥ (E( X ))−1 .
(c) (1 pto) Muestra que si E(Y ) < ∞ y Y > 0, entonces,

E log(Y ) ≤ log E(Y ).


Usa este resultado para probar, que si tenemos X1 , X2 , . . . Xn variables aleatorias idénticamente
distribuidas independientes, con P( Xi > 0) = 1 y V(log Xi ) = σ2 , se cumple, que para cada
e>0

σ2
P(en[E(log Yi )−e] < X1 X2 . . . Xn < en[E(log Yi )+e] ) ≥ 1 − .
ne2
Y así deducimos,
!
n ne σ2
P X1 X2 . . . Xn < (EYi ) e ≥ 1− .
ne2

5. (a) (1 pto) Para un entero positivo n, sea τ (n) = (2k , i ), donde i es el resto de dividir n por 2k , la
mayor potencia de 2. Por ejemplo τ (10) = (23 , 2), τ (12) = (23 , 4), τ (19) = (24 , 3) y τ (69) =
(26 , 5). En un experimento un punto es seleccionado aleatoriamente en [0, 1]. Para n ≥ 1, τ (n) =
(2k , i ), sea,
 " #

1 i i+1
si la salida está en ,
Xn = 2k 2k

0 en otros casos.

Muestra que Xn converge a 0 en probabilidad, mientras que no converge en ningún punto, y


mucho menos en convergencia casi segura.

3
(b) (1 pto) En una secuencia de variables aleatorias X1 , X2 , . . . , Xn , . . . supongamos que Xk , de-
pende sólo de Xk−1 , Xk+1 , pero que es independiente de todas las otras variables aleatorias
(k = 2, 3, . . . ). Muestra que si, la varianza es finita, entonces la ley de los grandes números
débil se cumple.
(c) (1 pto) Sean X1 , X2 , . . . variables aleatorias independientes, idénticamente distribuidas con me-
dia 2. Sean Y1 , Y2 , . . . variables aleatorias independientes, idénticamente distribuidas con media
3. Muestra que:

X1 + X2 + · · · + X n 2

Y1 + Y2 + · · · + Yn 3
con probabilidad 1. ¿Importa si los Xi son independientes del Yj ?.
6. El teorema de límite central en el contexto de Levy-Lindeberg, dice que si E( Xi ) = µ y V( Xi ) =
σ2 , entonces:

n( X n − µ) ∑n ( X − µ)
Sn∗ = = i=1√ i → N (0, 1),
σ nσ

Esto es, para cada x,


Z x
1 2 /2
lim P(Sn∗ ≤ x ) = Φ( x ) = √ e−u du.
n→∞ 2π
−∞

(a) (1 pto) Sean { X1 , X2 , . . . } una secuencia de variables aleatorias normales independientes. Sea
Sn = X12 + X22 + · · · + Xn2 . Encuentra:

lim P(Sn ≤ n + n ).
n→∞

Sugerencia: Si X1 , X2 , . . . , Xn son variables aleatorias normales independientes. Entonces X =


X12 + X22 + · · · + Xn2 se refiere a una distribución chi-cuadrado con n grados de libertad, es una
distribución gamma con parámetros (n/2, 1/2).
(b) (1 pto) Compara los resultados dados por la desigualdad de Chebyshev y el teorema de límite
central, para las probabilidades,

P(−k < Sn∗ ≤ k) para k = 1, 2, 3.


(c) (1 pto) Sea X1 , X2 , . . . variables aleatorias independientes, con una función densidad común
f ( x ) = 1/[2| x |(log | x |)2 ] para | x | < e−1 . Muestra que las variables aleatorias Xi tiene cero como
media y tienen finita varianza, pero que no satisfacen el teorema de límite central.

También podría gustarte