Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Transformación de Variables

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 7

Capítulo 7

Funciones de variables aleatorias


(opcional)
7.1 Introducción
Este capítulo contiene un amplio espectro de material. Los capítulos 5 y 6 tratan tipos es-
pecíficos de distribuciones, tanto discretas como continuas. Éstas son distribuciones que
suelen aplicarse en muchos campos, por ejemplo en el de la confiabilidad, el de control
de calidad y el de muestreo de aceptación. En este capítulo comenzamos a estudiar un
tema más general: el de la distribución de funciones de variables aleatorias. Se presentan
las técnicas generales y se ilustran con ejemplos. Las presentaciones van seguidas por un
concepto relacionado, el de funciones generadoras de momentos, que pueden ser útiles
para el aprendizaje de distribuciones de funciones lineales de variables aleatorias.
En los métodos estadísticos estándar, el resultado de la prueba de hipótesis estadís-
ticas, la estimación, o incluso las gráficas estadísticas, no involucra a una sola variable
aleatoria sino a funciones de una o más variables aleatorias. Como resultado, la inferen-
cia estadística requiere la distribución de tales funciones. Por ejemplo, es común que se
utilicen promedios de variables aleatorias. Además, las sumatorias y las combinacio-
nes lineales más generales son importantes. Con frecuencia nos interesa la distribución
de las sumas de cuadrados de variables aleatorias, en particular la manera en que se utili-
zan las técnicas del análisis de varianza, las cuales se estudiarán en los capítulos 11 a 14.

7.2 Transformaciones de variables


Con frecuencia, en la estadística se enfrenta la necesidad de derivar la distribución de
probabilidad de una función de una o más variables aleatorias. Por ejemplo, suponga que
X es una variable aleatoria discreta con distribución de probabilidad f (x), suponga
también que Y = u (X) define una transformación uno a uno entre los valores de X y Y.
Queremos encontrar la distribución de probabilidad de Y. Es importante notar que la
transformación uno a uno implica que cada valor x está relacionado con un, y sólo un,
valor y = u(x), y que cada valor y está relacionado con un, y sólo un, valor x = w(y),
donde w(y) se obtiene al resolver y = u(x) para x en términos de y.

211
212 Capítulo 7 Funciones de variables aleatorias (opcional)

A partir de lo expuesto respecto a las distribuciones de probabilidad discreta en el


capítulo 3, nos quedó claro que la variable aleatoria Y toma el valor y cuando X toma
el valor w(y). En consecuencia, la distribución de probabilidad de Y es dada por

g(y) = P (Y = y) = P [X = w(y)] = f [w(y)].

Teorema 7.1: Suponga que X es una variable aleatoria discreta con distribución de probabilidad f (x).
Definamos con Y = u(X) una transformación uno a uno entre los valores de X y Y, de
manera que la ecuación y = u (x) se resuelva exclusivamente para x en términos de y,
digamos, x = w(y). Entonces, la distribución de probabilidad de Y es

g(y) = f [w(y)].

Ejemplo 7.1: Sea X una variable aleatoria geométrica con la siguiente distribución de probabilidad
x −1
3 1
f (x ) = , x = 1, 2, 3, . . . .
4 4

Calcule la distribución de probabilidad de la variable aleatoria Y = X2.


Solución: Como todos los valores de X son positivos, la transformación define una corresponden-
cia uno a uno entre los valores x y y, y = x2 y x = √y. Por lo tanto,

√y −1
f ( √y) = 3 1
, y = 1, 4, 9, . . . ,
g(y) = 4 4
0, en cualquier caso.

De manera similar, para una transformación de dos dimensiones, tenemos el resul-


tado en el teorema 7.2.

Teorema 7.2: Suponga que X1 y X2 son variables aleatorias discretas, con distribución de probabilidad
conjunta f (x1, x2). Definamos con Y1 = u1(X1, X2) y Y2 = u2(X1, X2) una transformación
uno a uno entre los puntos (x1, x2) y (y1, y2), de manera que las ecuaciones

y 1 = u 1 (x 1 , x 2 ) y y 2 = u 2 (x 1 , x 2 )

se pueden resolver exclusivamente para x1 y x2 en términos de y1 y y2, digamos x1 = w1


(y1, y2) y x2 = w2(y1, y2). Entonces, la distribución de probabilidad conjunta de Y1 y Y2 es

g(y 1 , y 2 ) = f [w 1 (y 1 , y 2 ), w 2 (y 1 , y 2 )].

El teorema 7.2 es muy útil para encontrar la distribución de alguna variable aleatoria
Y1 = u1(X1, X2), donde X1 y X2 son variables aleatorias discretas con distribución de pro-
babilidad conjunta f (x1, x2). Definimos simplemente una segunda función, digamos Y2 =
u2(X1, X2), manteniendo una correspondencia uno a uno entre los puntos (x1, x2) y (y1, y2),
y obtenemos la distribución de probabilidad conjunta g(y1, y2). La distribución de Y1
es precisamente la distribución marginal de g(y1, y2) que se encuentra sumando los valo-
res y2. Si denotamos la distribución de Y1 con h(y1), podemos escribir
h(y 1 ) = g(y 1 , y 2 ).
y2
7.2 Transformaciones de variables 213

Ejemplo 7.2: Sean X1 y X2 dos variables aleatorias independientes que tienen distribuciones de Poisson
con los parámetros μ1 y μ2, respectivamente. Calcule la distribución de la variable alea-
toria Y1 = X1 + X2.
Solución: Como X1 y X2 son independientes, podemos escribir
e−μ 1 μx1 1 e−μ 2 μx2 2 e−( μ 1 +μ 2 ) μx1 1 μx2 2
f (x 1 , x 2 ) = f (x 1 )f (x 2 ) = = ,
x 1! x2! x 1 !x 2 !

donde x1 = 0, 1, 2,... y x2 = 0, 1, 2,.... Definamos ahora una segunda variable aleatoria,


digamos Y2 = X2. Las funciones inversas son dadas por x1 = y1 – y2 y x2 = y2. Si usamos
el teorema 7.2, encontramos que la distribución de probabilidad conjunta de Y1 y Y2 es

e−( μ 1 +μ 2 ) μy1 1 −y 2 μy2 2


g(y 1 , y 2 ) = ,
(y 1 − y 2 )!y 2 !

donde y1 = 0, 1, 2,... y y2 = 0, 1, 2,..., y1. Advierta que, como x1 > 0, la transformación


x1 = y1 – x2 implica que y2 y, por lo tanto, x2 siempre deben ser menores o iguales que y1.
En consecuencia, la distribución de probabilidad marginal de Y1 es

μy1 1 −y 2 μy2 2
y1 y1
h(y 1 ) = g(y 1 , y 2 ) = e−( μ 1 +μ 2 )
y 2 =0 y 2 =0
(y 1 − y 2 )!y 2 !
−( μ 1 +μ 2 ) y1
e y1 !
= μy 1 −y 2 μy2 2
y1 ! y 2 =0
y 2 !(y 1 − y 2 )! 1
−( μ 1 +μ 2 ) y 1
e y 1 y 1 −y 2 y 2
= μ μ2 .
y1 ! y 2 =0
y2 1

Al reconocer esta suma como la expansión binomial de (μ1 + μ2) y1, obtenemos

e− ( μ 1 + μ 2) (μ1 + μ 2) y 1
h(y 1) = , y1 = 0, 1, 2, . . . ,
y 1!

a partir de lo cual concluimos que la suma de las dos variables aleatorias independientes
que tienen distribuciones de Poisson, con los parámetros μ1 y μ2, tiene una distribución
de Poisson con el parámetro μ1 + μ2.
Para calcular la distribución de probabilidad de la variable aleatoria Y = u(X),
cuando X es una variable aleatoria continua y la transformación es uno a uno, necesita-
remos el teorema 7.3. La demostración de este teorema se deja al lector.

Teorema 7.3: Suponga que X es una variable aleatoria continua con distribución de probabilidad f (x).
Definamos con Y = u(X) una correspondencia uno a uno entre los valores de X y Y, de
manera que la ecuación y = u(x) se resuelva exclusivamente para x en términos de y,
digamos x = w(y). Entonces, la distribución de probabilidad de Y es

g(y) = f [w(y)]|J |,
donde J = w(y) y se llama jacobiano de la transformación.
214 Capítulo 7 Funciones de variables aleatorias (opcional)

Ejemplo 7.3: Sea X una variable aleatoria continua con la siguiente distribución de probabilidad
x
, 1 < x < 5,
f (x ) = 12
0, en cualquier caso.

Calcule la distribución de probabilidad de la variable aleatoria Y = 2X – 3.


Solución: La solución inversa de y = 2x – 3 produce x = (y + 3)/2, de la que obtenemos J = w(y)
= dx/dy = 1/2. Por lo tanto, usando el teorema 7.3 encontramos que la función de den-
sidad de Y es
( y +3) /2 y +3
1
= , −1 <y < 7,
g(y) = 12 2 48
0, en cualquier caso.

Para calcular la distribución de probabilidad conjunta de las variables aleatorias


Y1 = u1(X1, X2) y Y2 = u2(X1, X2), cuando X1 y X2 son continuas y la transformación es uno
a uno, necesitamos un teorema adicional análogo al teorema 7.2, el cual establecemos
sin demostración.

Teorema 7.4: Suponga que X1 y X2 son variables aleatorias continuas con distribución de probabili-
dad conjunta f (x1, x2). Definamos con Y1 = u1(X1, X2) y Y2 = u2(X1, X2) una transforma-
ción uno a uno entre los puntos (x1, x2) y (y1, y2), de manera que las ecuaciones y1 =
u1(x1, x2) y y2 = u2(x1, x2) se resuelven exclusivamente para x1 y x2 en términos de y1 y y2,
digamos x1 = w1(y1, y2) y x2 = w2(y1, y2). Entonces, la distribución de probabilidad con-
junta de Y1 y Y2 es

g(y 1 , y 2 ) = f [w 1 (y 1 , y 2 ), w 2 (y 1 , y 2 )]|J |,

donde el jacobiano es el determinante 2 × 2


∂x 1 ∂x 1
∂y 1 ∂y 2
J =
∂x 2 ∂x 2
∂y 1 ∂y 2

y ∂x
∂y 1 es simplemente la derivada de x1 = w1(y1, y2) respecto a y1, con y2 constante, que
1

en cálculo se denomina derivada parcial de x1 respecto a y1. Las otras derivadas parciales
se definen de manera similar.

Ejemplo 7.4: Sean X1 y X2 dos variables aleatorias continuas con la siguiente distribución de probabi-
lidad conjunta
4x 1 x 2 , 0 < x1 < 1, 0 <x 2 < 1,
f (x 1 , x 2 ) =
0, en cualquier caso.

Calcule la distribución de probabilidad conjunta de Y1 = X 12 y Y2 = X 1 X 2 .


Solución: Las soluciones inversas de y 1 = x 21 y y 2 = x 1 x 2 son x 1 = √y 1 y x 2 = y 2 / √y 1 , de
las que obtenemos
1/(2 √y 1 ) 0 1
J = 3/2 = .
−y 2 /2y 1 1/ √y 1 2y 1
7.2 Transformaciones de variables 215

Para determinar el conjunto B de puntos en el plano y1y2 en el que se traza el conjunto A


de puntos en el plano x1x2 escribimos
x 1 = √y 1 y x 2 = y 2 / √y 1 .

Luego, al establecer x1 = 0, x2 = 0, x1 = 1 y x2 = 1, las fronteras del conjunto A se trans-


forman en y1 = 0, y2 = 0, y1 = 1 y y2 = √y 1 o y 22 = y1. Las dos regiones se ilustran en la
figura 7.1. Al trazar el conjunto A = {(x1, x2) | 0 < x1 < 1, 0 < x2 < 1} en el conjunto
B = {(y 1 , y 2 ) | y 22 < y1 < 1, 0 < y2 < 1}, se vuelve evidente que la transformación
es uno a uno. Del teorema 7.4, la distribución de probabilidad conjunta de Y1 y Y2 es

y2 1 2y 2
, y 22 < y1 < 1, 0 < y2 < 1,
g(y 1 , y 2 ) = 4( √y 1 ) = y1
√y 1 2y 1 0, en cualquier caso.

x2 y2

x 2 =1
1 1

=y
1
2
y2
x 1 =0

x 1 =1

y 1 =0

y 1 =1
A B

x1 y1
0 x2 = 0 1 y 2 =0

Figura 7.1: Gráfica del conjunto A en el conjunto B.

A menudo surgen problemas cuando deseamos encontrar la distribución de pro-


babilidad de la variable aleatoria Y = u(X) y X es una variable aleatoria continua y la
transformación no es uno a uno. Es decir, a cada valor x le corresponde exactamente un
valor y; pero a cada valor y le corresponde más de un valor x. Por ejemplo, suponga que
f (x) es positiva en el intervalo –1 < x < 2 y cero en cualquier caso. Considere la transfor-
mación y = x2 . En este caso, x = ± √y para 0 < y < 1 y x = √y para 1 < y < 4. Para
el intervalo 1 < y < 4, la distribución de probabilidad de Y se calcula como antes, con el
teorema 7.3. Es decir,
f ( √y)
g(y) = f [w(y)]|J | = , 1 < y < 4.
2 √y

Sin embargo, cuando 0 < y < 1, podemos dividir el intervalo –1 < x < 1 para obtener las
dos funciones inversas
x = − √y, − 1< x < 0, y x = √y, 0 < x < 1.
216 Capítulo 7 Funciones de variables aleatorias (opcional)

Entonces, a todo valor y le corresponde un solo valor x para cada partición. En la figura
7.2 vemos que

P (a < Y < b) = P (− √b < X < − √a) + P ( √a < X < √b)


− √a √b
= f (x ) dx + f (x ) dx .
− √b √a

y = x2

x
-1 - b - a a b 1

Figura 7.2: Función decreciente y creciente.

Al cambiar la variable de integración de x a y, obtenemos

a b
P (a < Y < b) = f (− √y)J 1 dy + f ( √y)J 2 dy
b a
b b
=− f (− √y)J 1 dy + f ( √y)J 2 dy,
a a

donde d(− √y) −1


J1 = = = −|J 1 |
dy 2 √y

y d( √y) 1
J2 = = = |J 2 |.
dy 2 √y
Por lo tanto, podemos escribir
b
P (a < Y < b) = [ f (− √y)|J 1 | + f ( √y)|J 2 |] dy,
a

y entonces
f (− √y) + f ( √y)
g(y) = f (− √y)|J 1 | + f ( √y)|J 2 | = , 0 < y < 1.
2 √y
7.2 Transformaciones de variables 217

La distribución de probabilidad de Y para 0 < y < 4 se puede escribir ahora como


f ( − √ y )+ f ( √ y )
2√ y , 0 < y < 1,
g(y) = f (√y )
1 < y < 4,
2√ y ,
0, en cualquier caso.
Este procedimiento para calcular g(y) cuando 0 < y < 1 se generaliza en el teorema
7.5 para k funciones inversas. Para transformaciones de funciones de diversas variables
que no son uno a uno se recomienda al lector Introduction to Mathematical Statistics de
Hogg, McKean y Craig (2005; véase la bibliografía).

Teorema 7.5: Suponga que X es una variable aleatoria continua con distribución de probabilidad f (x).
Definamos con Y = u(X) una transformación entre los valores de X y Y que no es uno a
uno. Si el intervalo sobre el que se define X se puede dividir en k conjuntos mutuamen-
te disjuntos de manera que cada una de las funciones inversas

x1 = w 1 (y), x 2 = w 2 (y), ... , x k = w k (y)

de y = u(x) defina una correspondencia uno a uno, entonces la distribución de probabi-


lidad de Y es
k
g(y) = f [w i (y)]|J i |,
i =1
donde J i = w i (y), i = 1, 2, . . . , k .

Ejemplo 7.5: Demuestre que Y = (X – μ)2/σ2 tiene una distribución chi cuadrada con 1 grado de liber-
tad cuando X tiene una distribución normal con media μ y varianza σ2.
Solución: Sea Z = (X – μ)/σ, donde la variable aleatoria Z tiene la distribución normal estándar
1 −z 2 /2
f (z ) = e , −∞ < z < ∞.
√2π
Ahora debemos calcular la distribución de la variable aleatoria Y = Z 2. Las soluciones
inversas de y = z2 son z = ± √y. Si designamos z1 = – √y y z2 = √y, entonces J1 = –1/2
√y y J2 = –1/2 √y. Entonces, por el teorema 7.5, tenemos
1 −y/2 −1 1 −y/ 2 1 1 1/2−1 −y/ 2
g(y) = e + e = y e , y > 0.
√2π 2 √y √2π 2 √y √2π

Como g(y) es una función de densidad, se deduce que


∞ ∞
1 Γ(1/2) y 1/2−1 e−y/ 2 Γ(1/2)
1= y 1/2−1 e−y/ 2 dy = dy = ,
√2π 0 √π 0 √2Γ(1/2) √π
la integral es el área bajo una curva de probabilidad gamma con los parámetros α = 1/2
y β = 2. Por lo tanto, √π = Γ(1/2) y la densidad de Y es dada por
1
√2Γ(1/2)
y 1/2−1 e−y/ 2 , y > 0,
g(y) =
0, en cualquier caso.

que se considera una distribución chi cuadrada con 1 grado de libertad.

También podría gustarte