Examenfinal Estadistica y Prob
Examenfinal Estadistica y Prob
Examenfinal Estadistica y Prob
Examen Final
• Responde cada pregunta, justificando, los resultados utilizados. Cada pregunta del examen contiene
el desarrollo de propiedades hechas en clase y en las notas de clase.
• Está prohibido compatir cuadernos entre estudiantes. Si se trasgede esta regla, se eliminará la uti-
lización de los cuadernos en el examen.
• Se prohiben, copias de todo índole, así como el uso de libros electrónicos.
( µ − m )2 ≤ σ 2 .
(c) (2 pto) Sean X e Y tienen la función densidad bivariada normal,
( )
1 1 2 2
f ( x, y) = exp − ( x − 2ρxy + y ) .
2(1 − ρ2 )
p
2π 1 − ρ2
q
Muestra que X y Z = (Y − ρX )/ 1 − ρ2 son variables independientes N (0, 1) y deduce que ,
1 1
P( X > 0, Y > 0) =
+ sin−1 ρ.
4 2π
q
Si Z = max{ X, Y }, muestra también que E( Z ) = (1 − ρ)/π y E( Z2 ) = 1.
p
ξ=− −2 log X1 cos(2πX2 ),
p
η = − −2 log X1 sin(2πX2 ),
1
(d) (1 pto) Muestra que si F ( x, y) es la función de distribución de X e Y, además que,
Z = max( X, Y ) W = min( X, Y ),
entonces,
Si tenemos el conjunto { X(1) , X(2) , . . . X(n) } los estimadores de orden de las variables aleatorias idén-
ticamente distribuidas e independientes X1 , X2 , . . . Xn con funciones de distribución de probabilidad
y densidad F y f respectivamente. Entonces Fk y f k , las funciones distribución de probabilidad y
densidad de X(k) respectivamente, están dadas por:
n
Fk ( x ) = ∑ i [ F(x)]i [1 − F(x)]n−i , −∞ < x < ∞.
i =k
n!
f k (x) = f ( x )[ F ( x )]k−1 [1 − F ( x )]n−k , −∞ < x < ∞.
( k − 1) ! ( n − k ) !
Si tenemos el conjunto { X(1) , X(2) , . . . X(n) } los estimadores de orden de las variables aleatorias idén-
ticamente distribuidas e independientes X1 , X2 , . . . Xn con funciones de distribución de probabilidad
y densidad F y f respectivamente. Entonces para x < y, f ij ( x, y), la función densidad de probabilidad
conjunta de X(i) y X( j) (i < j) es dada por:
n!
f ij ( x, y) = f ( x ) f (y)[ F ( x )]i−1 [ F (y) − F ( x )] j−i−1 [1 − F (y)]n− j .
( i − 1) ! ( j − i − 1) ! ( n − j )
(a) (1 ptos) Sean X1 y X2 dos variables aleatorias exponencial independientes cada una con paramétro
λ. Muestra que X(1) y X(2) − X(1) son independientes.
(b) (1 ptos) Sean X1 , X2 y X3 variables aleatorias independientes de (0, 1). Encuentra la función
de densidad de probabilidad y el valor esperado del rango medio de estas variables aleatorias
[ X(1) + X(2) ]/2.
2
(c) (1 pto) Sea X1 , X2 , . . . , Xn variables aleatorias independientes exponenciales con parámetros λ y
sea X(1) ≤ X(2) ≤ · · · X(n) , sus estadísticos de orden. Muestra que:
4. (a) (1 ptos) Sea X una variable aleatoria que toma valores enteros no negativos y es asociado con
una transformada de la forma:
3 + 4e2s + 2e3s
MX (s ) = c · ,
3 − es
donde c es un escalar. Encuentra E( X ) y p X (1).
(b) (1 pto) La función de matricial simétrica G ( X ) de la matriz X de orden m × n es llamada convexa,
si para cada par de matrices X1 , X2 de matrices m × n y 0 ≤ λ ≤ 1, satisface:
G (λX1 + (1 − λ) X2 ) ≤ λG ( X1 ) + (1 − λ) G ( X2 ),
donde para matrices simétricas X, Y escribimos X ≥ Y si X − Y es una matriz definida no neg-
ativa. Sea X una variable aleatoria, esto es una matriz, cuyos elementos son variables aleatorias
y G una función matricial convexa. Entonces prueba que:
G (EX ) ≤ EG ( X ).
También para una matriz aleatoria positiva muestra que:
E( X −1 ) ≥ (E( X ))−1 .
(c) (1 pto) Muestra que si E(Y ) < ∞ y Y > 0, entonces,
σ2
P(en[E(log Yi )−e] < X1 X2 . . . Xn < en[E(log Yi )+e] ) ≥ 1 − .
ne2
Y así deducimos,
!
n ne σ2
P X1 X2 . . . Xn < (EYi ) e ≥ 1− .
ne2
5. (a) (1 pto) Para un entero positivo n, sea τ (n) = (2k , i ), donde i es el resto de dividir n por 2k , la
mayor potencia de 2. Por ejemplo τ (10) = (23 , 2), τ (12) = (23 , 4), τ (19) = (24 , 3) y τ (69) =
(26 , 5). En un experimento un punto es seleccionado aleatoriamente en [0, 1]. Para n ≥ 1, τ (n) =
(2k , i ), sea,
" #
1 i i+1
si la salida está en ,
Xn = 2k 2k
0 en otros casos.
3
(b) (1 pto) En una secuencia de variables aleatorias X1 , X2 , . . . , Xn , . . . supongamos que Xk , de-
pende sólo de Xk−1 , Xk+1 , pero que es independiente de todas las otras variables aleatorias
(k = 2, 3, . . . ). Muestra que si, la varianza es finita, entonces la ley de los grandes números
débil se cumple.
(c) (1 pto) Sean X1 , X2 , . . . variables aleatorias independientes, idénticamente distribuidas con me-
dia 2. Sean Y1 , Y2 , . . . variables aleatorias independientes, idénticamente distribuidas con media
3. Muestra que:
X1 + X2 + · · · + X n 2
→
Y1 + Y2 + · · · + Yn 3
con probabilidad 1. ¿Importa si los Xi son independientes del Yj ?.
6. El teorema de límite central en el contexto de Levy-Lindeberg, dice que si E( Xi ) = µ y V( Xi ) =
σ2 , entonces:
√
n( X n − µ) ∑n ( X − µ)
Sn∗ = = i=1√ i → N (0, 1),
σ nσ
(a) (1 pto) Sean { X1 , X2 , . . . } una secuencia de variables aleatorias normales independientes. Sea
Sn = X12 + X22 + · · · + Xn2 . Encuentra:
√
lim P(Sn ≤ n + n ).
n→∞