Inferencia
Inferencia
Inferencia
Virgilio L. Foglia
E-mail address: ing@foglia.com.ar
URL: http://www.ifoglia.com
Contents
Chapter 1. ESTIMACION 5
1. De…nición de Estimador 5
2. Método de máxima verosimilitud 7
3. Estadistico muestral y Su…ciencia 10
4. Estimación de de una población Poisson 11
5. Estimación de p de una población Bernouilli 12
6. Estimación de en una población Gamma 14
7. Estimación de parámetros en una población normal 16
8. Estimador en pool 19
Chapter 2. INTERVALOS DE CONFIANZA 23
1. De…nición de Intervalo de Con…anza 23
2. Método del estadístico pivotal 25
3. IC para de una población normal con conocida 26
4. IC para 2 de una población normal con desconocida 28
5. Método del estadístico muestral 29
6. IC para p de una población Bernouilli 30
7. IC para de una Poisson 32
8. IC para en una población Normal de desconocida 33
9. IC en dos poblaciones normales independientes 34
10. IC para = x y (desvíos conocidos) 34
11. IC para = x y (desvíos desconocidos e iguales) 35
12. IC para = x y (desvíos desconocidos) 36
2
13. IC para '2 = x
2 37
y
3
CHAPTER 1
ESTIMACION
1. De…nición de Estimador
Considérese una v.a. X continua cuya función de densidad es f (x= ). Esta
densidad es conocida salvo su parámetro .
(Si X fuese discreta la densidad sería p(x= ). Además si los parámetros de-
sconocidos fuesen dos, escribiriamos f (x= 1 ; 2 ), o p(x= 1 ; 2 ))
A continuación se toma una muestra X1 X2 Xn independiente(podría no serlo,
pero en todo lo que sigue se considerarán muestras independientes).
Se tendrá entonces:
f (x= )
X1 X2 Xn
En la práctica la muestra son n números reales x1 x2 xn totalmente conocidos. La
intención es, con estos números, realizar alguna operación que nos proporcione una
estimación del valor del parámetro . Supongamos que se propone como operación,
cierta función g de la muestra, llamada la función estimadora, se tendría
b = g(x1 x2 xn )
Aquí b sería un número, que representa la estimación de , con la muestra x1 x2 xn
que tenemos.
Este planteo tiene dos problemas: 1 ) conocemos la estimación b, pero como
es desconocido, no tenemos forma de saber si b esta cerca o lejos del ; 2 ) si se
toma otra muestra, los x1 x2 xn cambiarán, y también la estimación b. O sea, el
valor estimado no es el mismo siempre, cambiará con la muestra.
Por eso para poder evaluar una función estimadora g, es necesario tener en
cuenta que la muestra son variables aleatorias X1 X2 Xn y la correspondiente
estimación b también lo será, o sea
b = g(X1 X2 Xn )
Aquí b , el estimador, es una variable aleatoria, que depende de la muestra
también aleatoria, y tendrá su correspondiente función de densidad f b (b= ).
El problema general de estimación es el de averiguar la expresión de la fun-
ción estimadora g, que hace que la variable aleatoria estimador b tenga buenas
propiedades.
2.1. Método de los momentos. Este método para encontrar la función esti-
madora de un estimador, suele ser muy simple de aplicar, pero el estimador obtenido
no tiene tan buenas propiedades como el de MV. Se lo presentará para una población
con dos parámetros 1 y 2 . Consideremos el caso continuo
f (x= 1 ; 2)
X1 X2 Xn
Cuando se estudiaron los conceptos de media y varianza de una v.a. se de…nió:
Si se tiene la densidad poblacional f (x= 1 ; 2 ), la media y varianza "poblacionales"
serán:
Z Z
2
= xf (x= 1 ; 2 )dx = g( 1 ; 2 ) = (x )2 f (x= 1 ; 2 )dx = h( 1 ; 2 )
dom dom
Aquí no hace falta integrar ya que para la gamma la media y variaza "poblacionales"
son = y 2 = 2 y para la muestra la media y varianza "muestrales" son X
y S 2 . Igualando queda el sistema
(
X=
S2 = 2
Resolviendo resultan, como v.a. los estimadores
2
X X
b= 2 y b= 2
S S
Remark 3. Si la población tiene un solo parámetro a estimar, como por ejem-
plo la Po ( ), no hace falta un sistema con dos ecuaciones, basta con una. En este
caso la media "poblacional" es = , y la "muestral" es X. Luego igualando
X = , resulta el estimador, como v.a. b = X.
Pero claro, hasta ahora no se dijo nada respecto de quien es la función g(X1 X2
Xn ) que de…ne al estadístico muestral; puede ser cualquier función?
Para evaluar este tema se requeriría el concepto de función de densidad condi-
cional(que no fué visto). Así que para evitar esto se de…nirá, bastante ambigua-
mente, un concepto sobre información.
En (3.1), diremos que la muestra tiene cierta "información" respecto de .
Parece razonable, ya que si no la tuviese, no sería posible, solo con la muestra
estimar . De…nimos entonces a la información que contiene la muestra respecto
de a Inf (X1 X2 Xn ):
Por ejemplo si tomamos una muestra de tamaño 1, la información que contiene
respecto de sería Inf (X1 ), en cambio si tomamos una muestra de tamaño 3, la
información sería Inf (X1 X2 X3 ). En este caso es razonable pensar que Inf (X1 )
Inf (X1 X2 X3 ). O sea que cuanto mayor es la muestra, mayor información tendrá
respecto de . Aunque esto no siempre ocurre, lo habitual es que muestras mas
grandes, tengan mayor información respecto de .
Si utilizamos un estadistico muestral como en (3.2), H en general tendrá tam-
bién cierta información respecto de . De…nimos la información que contiene H
respecto de , a Inf (H).
Si la función g con la cual de…nimos el estadístico es una función cualquiera,
lo habitual es que Inf (H) Inf (X1 X2 Xn ). Esto es así ya que la información
que tenemos inicialmente es la de toda la muestra, Inf (X1 X2 Xn ). Y si por
comodidad resolvemos utilizar H = g(X1 X2 Xn ), que es una sola variable, la
información en general será menor.
Definition 1. Un estadístico muestral es su…ciente respecto de un parámetro
si
Inf (H) = Inf (X1 X2 Xn )
O sea, si logramos encontrar una función g tal que H = g(X1 X2 Xn ) sea
su…ciente respecto de , esta resuelto el problema. Descartamos utilizar toda la
muestra, y a partir de ahora usaremos solo H para "fabricar" estimaciones de ,
intervalos de con…anza sobre , o pruebas de hipótesis sobre , con la seguridad que
lo obtenido será tan bueno como si hubiese sido obtenido con toda la muestra, pero
mucho mas simple operativamente.
Solo falta un método para, dada la densidad de una muestra, averiguar si existe
un estadístico su…ciente para . Esto lo proporciona el siguiente teorema.
Theorem 1. Teorema de factorización de Neyman: Dada la densidad de
la muestra f (x1 x2 xn = ), entonces h = g(x1 x2 xn ) es un estadístico su…ciente
respecto de , si la densidad se puede factorizar así
f (x1 x2 xn = ) = u(h; ) v(x1 x2 xn )
O sea, un factor que es función solo a h y , y el otro, solo función de la mues-
tra(aquí no puede aparecer ).
x
La densidad de la Poisson es p(x= ) = e x! . Luego la densidad de la muestra
x1 x2 xn
p(x1 x2 xn = ) = e e e
x1 ! x2 ! xn !
x1 +x2 + +xn
n
= e
x1 !x2 ! xn !
Inspeccionando, si designamos h = x1 + x2 + +xn queda
h i 1
p(x1 x2 xn = ) = e n h = u(h; ) v(x1 x2 xn )
x1 !x2 ! xn !
Luego H = X1 + X2 + Xn es un estadístico su…ciente para . Y utilizando
(4.3) Po (n )
H
h
n (n )
Por ejemplo para estimar por MV: la densidad de H es p(h= ) = e h! , la
h
n (n )
verosimilitud de H es L( =h) = e h! , luego ln L( =h) = n + h ln(n )
ln(h!) y derivando
d ln L( =h) n h
= n+h 0 = 0 luego resulta b =
d n n
En de…nitiva para una muestra de una Poisson(4.1), se puede trabajar solo con el
estadístico su…ciente como en (4.3) y obtener el estimador
b = H = X1 + X2 + Xn
n n
Que es insesgado, ya que E( ) = b E(X1 )+E(X2 )+ E(Xn )
= + +
= n
= ; y
n n n
b
V ar( ) = V ar(X1 )+V ar(X2 )+ V ar(Xn )
= + + + n
= n2 = n .
n2 n2
vale 1. Con esta introducción supongamos que tenemos una muestra de tamaño n
de una Bernouilli(p) t Bi (1; p)
Bi (1; p)
X1 X2 Xn
La densidad de la muestra es
p(x1 x2 xn =p) = px1 (1 p)1 x1 px2 (1 p)1 x2 pxn (1 p)1 xn
Bi (n; p)
H
Si queremos estimar p por MV: la densidad de H es pBi (h=n; p) = nh ph (1 p)n h ,
la verosimilitud de H es L(p=h) = nh ph (1 p)n h , luego ln L(p=h) = ln nh +
h ln p + (n h) ln(1 p) derivando
d ln L(p=h) 1 1 h
=0+h (n h) =0 luego resulta pb =
dp p 1 p n
En de…nitiva para una muestra de una Bernouilli(p) u Bi (1; p), se puede trabajar
solo con el estadístico su…ciente y obtener el estimador
H X1 + X2 + Xn
pb = =
n n
14 1. ESTIM AC IO N
(n) h
n 1
e h , la verosimilitud será L( =h) = (n) hn 1 e h = h (n) n e h y su
logaritmo
hn 1
ln L( =h) = ln( ) + n ln h
(n)
d ln L( =h) n
= 0+ h=0
d
De aquí surge que
b= n = n
=
1
H X1 + X2 + Xn X
6.1. Función de un estadístico su…ciente. Sea f (x= ) una población, X1 X2
Xn una muestra de esta población, y H = g(X1 X2 Xn ) un estadístico su…ciente
para .
Si nuestro interés es averiguar información respecto del desconocido, y nos
preguntan que preferimos conocer: toda la muestra o solo el valor de H? La
respuesta sería "indistinto", ya que los dos tienen la misma información respecto
de (aunque como vimos es mas práctica la segunda opción, pues trabajamos con
solo una v.a.).
Pero que tal si la opción es, que preferimos conocer: solo H, o solo el valor de
T = 3H? Aquí la respuesta tambiés es "indistinto". En efecto, si nos dan T , lo
dividimos por 3, y tenemos H. O sea H y T tienen la misma información respecto
de . O sea también T es un estadístico su…ciente. De aquí el resultado:
Lemma 1. Si H es su…ciente, y T = g(H) con g inyectiva =) T será su…ciente
también
Este resultado se aplicará varias veces en lo que sigue. Por ejemplo es usual
que, respecto de un parámetro , resulte H = X1 + X2 + Xn un estadístico
su…ciente. Pero entonces X = H n también será su…ciente(ya que conociendo X
podemos averiguar H).
2
Sin embargo T = X en general no será su…ciente(conocido T , no queda unívo-
camente de…nido el valor de X, ya que puede ser X o X, pues la función cuadrática
no es inyectiva).
A continuación se presentará un listado de estadísticos su…cientes para distintas
distribuciones y parámetros.
6.2. Listado de estadísticos su…cientes. A continuación se presenta un
listado de estadísticos su…cientes(todos surgen del teorema de factorización).
Cuando un parámetro es conocido, se le pondrá un circulo como subíndice(" ").
Además en el caso de dos parámetros desconocidos, aparece como estadístico, una
pareja su…ciente (H1 ; H2 ).
N ( ; 2 ) H = X1 + X2 + Xn
N ( ; 2 ) H = (X1 )2 + +(Xn )2
N ( ; ) H1 = X1 + X2 + Xn y H2 = (X1 X)2 + +(Xn X)2
2
Po ( ) H = X1 + X2 + Xn
G( ; ) H1 = X1 X2 Xn y H2 = X1 + X2 + Xn
Bi (1; p) H = X1 + X2 + Xn
16 1. ESTIM AC IO N
2
Entonces sabemos que nS2 se distribuye según una 2n , pero ahora queremos analizar
como se distribuye S 2 . Pero necesitamos otro resultado.
Producto de una Gamma por una cte
X G( ; ) ! Y = cte X ! Y G( ; cte )
2
Usando esto, como nS2 G( n2 ; 12 ), si multiplicamos el lado izquierdo por la con-
2
stante n , el lado derecho será una G( n2 ; 2n2 ) o sea
n n
S 2 G( ; 2 )
2 2
luego resulta, utilizando = y var = 2
n=2 n=2 2 4
E(S 2 ) = = 2
(insesgado) y V ar(S 2 ) = =
n=2 2 (n=2 2 )2 n
Entonces el estimador de varianza S 2 es insesgado, y la varianza de este estimador
4
es 2n (como en todo estimador, la varianza del estimador mide que tan cerca de 2
estará S 2 ).
2
Aplicando el método de MV se obtienen los estimadores de yv=
X1 + X2 + Xn (X1 X)2 + +(Xn X)2
b= = X y vb =
n n
Si se consulta el listado de estadísticos su…cientes, resulta b = Hn1 y vb = Hn2 ambos
estimadores son su…cientes.
Respecto del primero se tiene que
b=X N ( ; p ) o sea insesgado
n
Para el segundo, para ver si es insesgado habría que evaluar E(bv ) pero, como da
un poco de trabajo, se presenta el resultado
n 1 2
E(b
v) =
n
O sea es sesgado. El estimador vb no estima 2 , sinó un "poco" menos. Si se corrige
por sesgo, designando S 2 al estimador insesgado
(X1 X)2 + +(Xn X)2
2 vb n (X1 X)2 + +(Xn X)2
S = n 1 = n 1 = este sí es insesgado
n n
n 1
O sea, cuando se conoce la media de la normal( ), como fué analizado anterior-
mente, en el estimador de varianza se divide por n. Pero al desconocer la media, el
divisor debe ser n 1 para que el estimador sea insesgado.
Para analizar su distribución, procediendo como en el caso anterior, pasando
n 1 a la izquierda, y dividiendo por 2 resulta
2 2
(n 1)S 2 X1 X Xn X
(7.1) 2
= + +
(7.2)
(n 1)=2 (n 1)=2 2 4
E(S 2 ) = 2
= 2 (insesgado) y V ar(S 2 ) = 2 2
=
(n 1)=2 ((n 1)=2 ) n 1
Aquí se obtuvieron los estimadores X y S 2 para estimar los parámetros y
2
ambos desconocidos. Ambos estimadores se construyeron utilizando la misma
muestra X1 X2 Xn . Por este motivo, lo esperable es que las v.a. X y S 2 sean
dependientes. Sin embargo se demuestra(y no es tan simple), que para población
normal los estimadores X y S 2 son v.a. independientes. Este resultado se usará
más adelante.
8. Estimador en pool
Ahora se analizará una situación que se presenta a veces, cuando se tienen dos
poblaciones independientes, que comparten un mismo parámetro, y se quiere, con
las dos muestras estimar este parámetro común. Concretamente
f (x= ) f (y= )
X 1 X 2 X nx Y1 Y2 Yny
Supongamos, que por MV o el método que sea, tenemos los estimadores insesgados
b x = gx (X1 X2 X nx ) y b y = gy (Y1 Y2 Yny )
Entonces para estimar , podriamos utilizar b x , o también b y .
Pero ya que tenemos dos muestras, la idea es ver si podemos combinarlos en
un solo estimador que llamaremos b pool .
Una primera propuesta podría ser promediar ambas estimaciones, o sea
bx + by
b pool =
2
Esto parece atractivo, sin embargo si por ejemplo nx = 5 y ny = 1000, probable-
mente el estimador b y será mucho mas con…able(tendrá menor varianza) que el b x ,
y entonces al promediar un estimador malo con uno bueno, estariamos arruinando
el estimador bueno.
Notar que esta propuesta de estimador en pool equivale a
b pool = 1 b x + 1 b y
2 2
O sea el estimador asigna igual "peso" a cada estimador, en este caso 12 y 12 . Quizás,
si el mejor es b y lo correcto seriá usar otros "pesos", por ejemplo 10
1
y 109
.
Entonces la idea es proponer como estimador en pool una expresión del tipo
b pool = x
bx + y
b y donde x y y son los "pesos" a determinar
20 1. ESTIM AC IO N
Un requisito importante que se debe cumplir para que este estimador sea útil, es
que estos "pesos" x y y , no dependan de . Y esto es así ya que un estimador
debe depender solo de las muestras, conocidas, y nunca del parámetro que se
quiere estimar.
Example 8. Si se tiene tres muestras independientes de poblaciones que com-
parten el mismo parámetro
f (x= ) f (y= ) f (z= )
X 1 X 2 X nx Y1 Y2 Yny Z1 Z2 Znz
El estimador en pool de , b pool = x
bx + y
by + z
b z tendrá
V ar 1
( b x)
x =
V ar 1( b 1( b 1( b
x) + V ar y) + V ar z)
V ar 1
( b y)
y =
V ar 1( b 1( b 1( b
x) + V ar y) + V ar z)
V ar 1
( b z)
z =
V ar 1( b 1( b 1( b
x) + V ar y) + V ar z)
(útil si x, y y z no dependen de ).
8. ESTIM ADOR EN POOL 21
2
Example 9. Se tienen artículos de peso A N( ; ). Se venden en cajas de
5 y cajas de 10. Se tienen las muestras:
I X1 X2 X8 de pesos de 8 cajas chicas
I Y1 Y2 Y3 de pesos de 3 cajas grandes
Se pide estimar y 2 ?
Solution 1. Primero hay que averiguar de que poblaciones provienen las dos
muestras. Para esto llamemos X a el peso de una cualquiera de las 8 cajas chicas.
Como X = A1 + A2 + +A5 N (5 ; 5 2 ), entonces la muestra X1 X2 X8
2
proviene de una N (5 ; 5 ). Además llamando Y al peso de una cualquiera de las
cajas grandes, y como Y = A1 + A2 + +A10 N (10 ; 10 2 ), la población de la
segunda muestra es N (10 ; 10 2 ). En de…nitiva se tiene
N (5 ; 5 2 ) N (10 ; 10 2
)
X1 X2 X8 Y1 Y2 Y3
I 2 I
Sx
Como Sx2 !5 2
(es estimador insesgado de 5 2
), resulta 5 ! 2
(estimador
2 I Sy2 I
insesgado de ). Además como Sy2
! 10 , resulta también ! 2 . En- 2
10
2
tonces, para lograr un mejor estimador de , la idea es combinar en pool los esti-
S2 S2
madores insesgados 5x y 10y . Para obtenerlo se necesitan las varianzas de estos dos
estimadores. Se recuerda la expresión de la varianza de un estimador de varianza,
vista en (7.2)
2 4
V ar(S 2 ) = (donde 4
=( 2 2
) es el cuadrado de la varianza poblacional)
n 1
Entonces:
2(5 2 )2 2(10 2 )2
S2 8 1 2 4 Sy2 3 1 2 4
V ar( x ) = = y V ar( ) = =
5 52 8 1 10 102 3 1
Luego
2
2
8 1 Sx 3 1 Sy S2 S2 S2 S2
2 2 4 5 + 2 4 10 (8 1) 5x + (3 1) 10y 7 x + 2 10y
Spool = 8 1 3 1 = = 5
2 4 + 2 4
(8 1) (3 1) 7+2
O sea, y esto es general para un estimador en pool de varianza, los dos estimadores
S2 S2
insesgados 5x y 10y se combinan en pool con "pesos" proporcionales a los grados de
libertad de los estimadores de varianza involucrados, o sea 8-1 y 3-1
Sx2 S2
2 7 5+ 2 10y
Spool =
7+2
Además vale también que
2
(7 + 2)Spool 2
2 7+2
2
Notar que al tener la 27+2 , 9 grados de libertad, el estimador Spool es mejor que
los dos iniciales(tiene menor varianza). Ahora se analizará un estimador para el
I I I I
parámetro . Como X ! 5 y Y ! 10 , resultan X 5 ! y 10 Y
! ambos
estimadores insesgador de . Para combinarlos el pool se necesitan sus varianzas
2 2
5 2 10 2
X Y
V ar( ) = 82 = y V ar( ) = 32 =
5 5 40 10 10 30
22 1. ESTIM AC IO N
Luego
40 X 30 Y
2 5 + 2 10 40 X Y
5 + 30 10
bpool = 40 30 =
2 + 2 40 + 30
Que expresado en función de X y Y queda
8 3
bpool = X+ Y
70 70
Por ejemplo si interesa la distribución de este estimador, como es insesgado E(bpool ) =
, y al ser lineal de poblaciones normales
r
82 5 2 32 10 2
bpool N ( ; + ) = N( ; p )
702 8 702 3 70
CHAPTER 2
INTERVALOS DE CONFIANZA
f (x= )
X1 X2 Xn
Supongamos que encontramos dos funciones de la muestra, L = l(X1 X2 Xn ) y
U = u(X1 X2 Xn ) (obviamente L y U son v.a., ya que son funciones de la muestra,
23
24 2. IN TERVALO S D E C O N FIAN ZA
NC
a1 a2
v(a1) v(1-a2) v
26 2. IN TERVALO S D E C O N FIAN ZA
N( ; )
X1 X2 Xn
1) Partimos de H = X1 + X2 + +Xn que es su…ciente respecto de . Pero por
comodidad se usará X = H
n que es también su…ciente, y de paso es un estimador
de .
2) Distribución: X N ( ; pn )
3) Estadístico pivotal: estandarizando resulta Z = X=pn N (0; 1) y este es
un estadístico pivotal
4) En la N(0;1) se buscan dos fractiles que encierren probabilidad NC(tomamos
z =2 y z1 =2 ). Entonces resultará
P (z =2 Z z1 =2 ) = NC
X p
5) Reemplazando aquí Z = = n
queda
X
P (z =2 p z1 =2 ) = NC
= n
3. IC PARA DE UNA POBLACIÓN NORM AL CON CONOCIDA 27
P (X z1 =2 p X z =2 p ) = NC
n n
En el caso particular de la N (0; 1), por la simetría, resulta z =2 = z1 =2 , expre-
sando el intervalo en función de z1 =2 , queda el intervalo
X z1 =2 p ; X + z1 =2 p o también expresado X z1 =2 p
n n n
2
4. IC para de una población normal con desconocida
2
N( ; )
X1 X2 Xn
1) Del listado de estadísticos su…cientes H1 = X1 + X2 + Xn y H2 = (X1
X)2 + +(Xn X)2 son su…cientes respecto de la pareja ( ; 2 ). Usaremos aquí S 2 =
H2 (X1 X)2 + +(Xn X)2
n 1 = n 1 que es también su…ciente, y de paso es un estimador
2
de . 2
(n 1)S 2
2) Como (n 1)S2
2
n 1 estonces 2 es un estadístico pivotal
3) En la 2n 1 se buscan dos fractiles que encierren probabilidad NC(tomamos
2 2
n 1; =2 y n 1;1 =2 ). Entonces resultará
2 2 2
P( n 1; =2 n 1 n 1;1 =2 ) = NC
4) Reemplazando el estadístico pivotal
2 (n 1)S 2 2
P( n 1; =2 2 n 1;1 =2 ) = NC
En de…nitiva queda:
" # "s s #
(n 1)S 2 (n 1)S 2 (n 1)S 2 (n 1)S 2
IC 2 : 2 ; 2 y también IC : 2 ; 2
n 1;1 =2 n 1; =2 n 1;1 =2 n 1; =2
Notar que la amplitud es una v.a, en efecto aparece S 2 , que depende de la mues-
tra(que todavía no hemos tomado!!). Si igualamos esta expresión de amplitud a un
valor dado, no podremos despejar n pues nos queda el S 2 que desconocemos. Una
alternativa consiste en re-de…nir el concepto de amplitud del intervalo. Se de…ne
amplitud al cociente entre el extremo superior / extremo inferior del intervalo
(n 1)S 2
2
ext: sup 2
n 1; =2 n 1;1 =2
amplitud = = (n 1)S 2
= 2
ext: inf 2 n 1; =2
n 1;1 =2
5. M ÉTODO DEL ESTADíSTICO M UESTRAL 29
Por ejemplo, supongamos que interesa averiguar que tamaño de muestra habrá que
tomar, para obtener un IC de N C = 0:90 tal que su extremo superior sea un 30%
mayor que el inferior. Entonces el IC 2 para 2 deberá tener una amplitud =
1:32 = 1: 69. Para esto deberá cumpirse
2
n 1;0:95
2 = 1:69
n 1;0:05
Probando con el pqrs resulta n 1 = 80, o sea se necesita una muestra de tamaño
81.
Remark 12. 3) En el caso del IC tomamos como fractiles z =2 y z1 =2 , y
se comentó que esta elección de 1 = 2 = 2 es la óptima, ya que con ellos se
obtiene el intervalo mas angosto. Sin embargo, para un IC 2 , como la 2n 1 no es
simétria, la elección de los fractiles 2n 1;1 =2 y 2n 1; =2 no es la óptima. O sea,
para un dado, habrían que elegir 1 y 2 , con 1 + 2 = de manera que el IC
tenga amplitud mínima. O sea(ver expresión de la amplitud)
1 1
buscar 1 tal que: 2 2 sea mínimo
n 1; 1 n 1;1 1
p(x= )
X1 X2 Xn
1) Sea H = g(X1 X2 Xn ) un estadístico su…ciente respecto de
2) Averiguamos la distribución de H, supongamos que
H p(h= )
3) Sea h = g(x1 x2 xn ) el valor del estadístico para la muestra concreta que ten-
emos(este valor lo conocemos). Aunque no se demostrará el método, se justi…cará
intuitivamente el procedimiento.
La expresión de la densidad de H, que es p(h= ), la conocemos salvo a ; y de
ella salió el h que conocemos.
Ahora, que tal si a le damos valores crecientes 1 2 100 y gra…camos las
correspondientes p(h= i ). La densidad irá cambiando de lugar según el valor de i .
A continuación elegimos cual es el valor de i que hace que p(h= i ) tenga
sus "bastones" altos alrededor de h. Supongamos que este valor es 40 .
Entonces 40 hace que el h observado muestralmente sea un valor "razon-
able" de observar. Si nuestro interés fuese estimar , entonces 40 serviría
como estimador de .
Seguidamente probamos con 41 42 etc y supongamos que vemos que
p(h= i ) se va corriendo más y más a la derecha. A medida que incre-
mentamos i, la correspondiente densidad p(h= i ) hace que el h obtenido
sea cada vez más "irrazonable" en relación al respectivo i . Entonces un
30 2. IN TERVALO S D E C O N FIAN ZA
Bi (1; p)
X1 X2 Xn
Para concretar supongamos que se fabricaron 20 artículos con una máquina en que
P (art{culo def ectuoso) = p, y se encontraron 5 artículos defectuosos. Se quiere un
ICp al 90%. Se tendrá entonces
Bi (1; p)
X1 X2 X20
Ahora sí, para p = 0; 455, resulta P (H 5) = 0:0505 ' 0:05, y entonces psup =
0; 455.
Para resolver la segunda ecuación, en el centro del "tetris" ponemos 4 y Botón.
De esta manera, en la casilla derecha del "tetris" …gurará P (H 5). Aquí también
32 2. IN TERVALO S D E C O N FIAN ZA
hay que probar varias veces. Supongamos que ponemos p = 0; 104; entonces resulta
N( ; )
X1 X2 Xn
1) Partimos de H = X1 + X2 + +Xn que es su…ciente respecto de . Pero por
comodidad se usará X = H
n que es también su…ciente, y de paso es un estimador
de .
2) Distribución: X N ( ; pn )
3) Estadístico pivotal: estandarizando resulta Z = X=pn N (0; 1) pero este
NO es un estadístico pivotal. En efecto, debería depender solo de la muestra y del
parámetro , pero depende también de que es desconocido.
Una salida "ingenua" a esta di…cultad sería, con la muestra estimar con el
estimador que conocemos
s
(X1 X)2 + +(Xn X)2
S=
n 1
y lo reemplazamos en el estadístico anterior, quedando
X
Z = p
S= n
Pero el problema es que este estadístico, si bién depende solo de la muestra y el
parámetro , no conocemos su distribución. Para que sea N (0; 1), en el denomi-
nador debe …gurar la conocida,
p NO la v.a. S que es un estimador de .
Pero dividiendo por = n el numerador y denominador queda
Xp Xp
= n = n
Z = S
= q
S2
2
Xp
Notar que en el numerador …gura = n
= Z, que es N (0; 1). Además dentro del
radical del denominador
(n 1)S 2
S2 2 U 2
2
= = donde U n 1
n 1 n 1
Luego(apelando a la independencia entre X y S 2 ), y según la de…nición de la T de
Student
X Z
Z = p =q Tn 1
S= n U
n 1
34 2. IN TERVALO S D E C O N FIAN ZA
decir que las varianzas de las dos poblaciones son iguales, y si '2 > 1
signi…ca que 2x > 2y , etc.
Para se analizarán tres casos según los desvíos de las poblaciones sean :
conocidos ambos, desconocidos pero iguales, y desconocidos(sin suponer igualdad).
Para '2 se analizará un solo caso.
N ( x; x ) N ( y; y )
X 1 X 2 X nx Y1 Y2 Yny
Como estimador de tomamos b = X Y (es función de su…cientes), y además
como
2 2
E(b) = y V ar(b) = x y
x y = +
nx ny
11. IC PARA = x y (DESVíOS DESCONOCIDOS E IGUALES) 35
resultará s
2 2
b=X Y N( ; x
+
y
)
nx ny
y resulta el estadístico pivotal
(X Y)
q 2 2
Z
y
x
nx + ny
N ( x; ) N ( y; )
X 1 X 2 X nx Y1 Y2 Yny
Como estimador de tomamos b = X Y (es función de su…cientes), y además
como
2 2
1 1
E(b) = x y = y V ar(b) = + = 2
( + )
nx ny nx ny
resultará s
b=X 1 1
Y N( ; + )
nx ny
luego
(X Y )
q Z
1 1
nx + ny
Este si es pivotal respecto del parámetro . Buscando los fractiles tnx +ny 2;1 2
y planteando
(X Y)
P ( tnx +ny 2;1 2
q +tnx +ny 2;1 2
) = NC
1 1
Spool nx + ny
N ( x; x) N ( y; y)
X 1 X 2 X nx Y1 Y2 Yny
Como estimador de tomamos b = X Y (es función de su…cientes), y además
como
2 2
E(b) = y V ar(b) = x y
x y = +
nx ny
resultará s
2 2
b=X Y N( ; x
+
y
)
nx ny
luego
(X Y)
q 2 2
Z
y
x
nx + ny
nx + ny
2
13. IC para '2 = x
2
y
N ( x; x) N ( y; y)
X 1 X 2 X nx Y1 Y2 Yny
Como estadísticos su…cientes respecto de 2x y 2y usaremos Sx2 y Sy2 . Además
llamemos Ux y Uy a los correspondientes estadísticos pivotales para 2x y 2y , o sea
(nx 1)Sx2 2
(ny 1)Sy2 2
Ux = 2 nx 1 y Uy = 2 ny 1
x y
O sea
Sx2 =Sy2
Fn x 1;ny 1
'2
2
es un estadístico pivotal respecto del parámetro '2 = x
2 . Buscando los fractiles de
y
la Fnx 1;ny 1 resultará
P (fnx 1;ny 1; 2 Fn x 1;ny 1 fnx 1;ny 1;1 2
) = NC
luego reemplazando
Sx2 =Sy2
P (fnx 1;ny 1; 2 fnx 1;ny 1;1 ) = NC
'2 2
38 2. IN TERVALO S D E C O N FIAN ZA
e invirtiendo resulta
" #
Sx2 =Sy2 Sx2 =Sy2
IC'2 al NC : ;
fnx 1;ny 1;1 2
fnx 1;ny 1; 2
14. IC para = x
en dos poblaciones gamma independientes
y
G(1; x ) G(1; y )
X 1 X 2 X nx Y1 Y2 Yny
Utilizando los correspondientes estadísticos su…cientes para x y y
recordando que cuando a una v.a. gamma se la multiplica por una constante, el
respectivo beta queda dividido por esta constante(en este caso la constante utilizada
es 2 )
x y
2 x Hx G(nx ; ) y2 y Hy G(ny ; )
2 x 2 y
o sea
2nx 1 2ny 1
2 x Hx G( ; ) y2 y Hy G( ; )
2 2 2 2
quedando
2 2
2 x Hx 2nx y2 y Hy 2ny
otro resultado anterior decía: cuando a una v.a. que es 2 x se la divide por sus g.l.;
y a otra independiente que es 2 y se la divide también por sus g.l., y luego se hace
el cociente, se obtiene una F x ; y o sea
2 x Hx
2nx
2 y Hy
F2nx ;2ny
2ny
Hx Hy
como nx =X y ny = Y , y simpli…cando
x X
(14.1) F2nx ;2ny
y Y
llamando = x
queda
y
X
F2nx ;2ny
Y
Como este es un estadístico pivotal para resulta
X
P (f2nx ;2ny ; 2 F2nx ;2ny f2nx ;2ny ;1 2
) = N C y P (f2nx ;2ny ; 2 f2nx ;2ny ;1 2
) = NC
Y
o sea
Y Y
IC al NC : f2nx ;2ny ; 2 ; f2nx ;2ny ;1 2
X X
15. UN EJEM PLO CON POBLACIONES NORM ALES 39
Remark 14. A veces lo que interesa como parámetro es el cociente entre las
medias de las dos exponenciales. Como x = 1 y y = 1 , luego = x = y ,
x y y x
luego reemplazando en (14.1) el estadístico pivotal en este caso sería
1X
F2nx ;2ny
Y
Remark 15. Un enfoque parecido se puede aplicar si las poblaciones son G( x ; x )
y G( y ; x ) independientes, con x y y conocidos y números naturales, cuando el
parámetro de interés es el cociente entre los betas.
Solución
Primero, esto es importante, hay que averiguar las poblaciones de las que
provienen las muestras.
Si A N ( ; ), y X es el peso de una caja con 2 artículos, entonces
2
X = + A1 + A2 N( + 2 ; 2 )
Idem si Y es el peso de una caja con 4 artículos, entonces
2
Y = + A1 + A2 + A3 + A4 N( + 4 ; 4 )
Luego se tienen las poblaciones y muestras
N ( + 2 ; 2 2) N ( + 4 ; 4 2) N ( ; 2)
X1 X2 X4 Y1 Y2 Y6 A1 A2 A4
IC
Para estimar 2 disponemos de los estimadores Sx2 =2, Sy2 =4 y de Sa2 . El mejor
estimador de 2 con las muestras disponibles es(utilizando pesos proporcionales a
los grados de libertad de cada estimador de 2 )
S2 S2
2 (4 1) 2x + (6 1) 4y + (4 1)Sa2 2
Spool = que tiene 11 gl (haciendo cuentas Spool = 4:15, Spool = 2:037)
(4 1) + (6 1) + (4 1)
luego
2
11Spool 2
2 11
2 2
Como(pqrs) 11;0:95 = 19:68 y 11;0:05 = 4:57 reemplazando valores queda
Por supuesto, para obtener IC podríamos haber utilizado solo la tercera muestra,
con Sa2 que tiene solo 3gl. Pero el intervalo no sería el mejor, sería mas ancho,
ya que estaríamos desperdiciando la información respecto de 2 que contienen las
otras dos muestras.
IC
Necesitamos un estimador de . Hay varias opciones.
2
La más simple sería A. Como E(A) = y V ar(A) = 4 estandarizando
A
p =Z N (0; 1)
=:4
No es pivotal ya que es desconocido. Si lo reemplazamos por un estimador,
:
el mejor sin duda es Spool y entonces quedaría
:
A Spool 2:037
:
p = T11 con el IC al 90% : A t11;0:95 p = 10 1:796 p = [8:17; 11:83]
Spool =:4 :
4 :
4
Pero con esta solución, hemos desperdiciado la información respecto de que tam-
I I
bién tienen las otras dos muestras. Por ejemplo X ! + 2 y Y ! + 4 , que
I I
no son estimadores de , sin embargo Y X ! 2 , y entonces Y 2 X ! , sí es
un estimador insesgado de .
Podríamos con este estimador construir un IC como recién hicimos con A.
Pero como Y 2 X depende solo de las dos primeras muestras, A de la tercera, y
son independientes, entonces la idea es obtener el estimador en pool de con estos
dos.
Tenemos
Y X I I
! y A !
2
con
2 2
4 2 2
Y X 6 + 4 7 2
(15.1) V ar( )= = y V ar(A) =
2 22 24 4
2
Luego(simpli…cando el )
24 Y X
7 ( 2 )+ 4A 6 Y X 7
bpool = 24 = ( )+ A
7 +4
13 2 13
:
Para llegar a la T usamos el Spool anterior, y reemplazando la expresión de bpool
queda
6 Y X 7
( 13 ( 2 ) + 13 A)
q = T11
: 7 :
S
52 pool
y luego " #
r
6 Y X 7 : 7 :
IC al 95% : ( ( ) + A) t11;0:95 S
13 2 13 52 pool
reemplazando valores queda
IC al 95% : [8:20; 10:88]
de amplitud menor que el obtenido con solo A(antes 3.66, ahora 2.68), ya que
el estimador de que utilizamos es superior.
IC
I I
Aquí como X ! + 2 y Y ! + 4 , que no son estimadores de , sin
I
embargo 2X Y ! , y entonces b = 2X Y , sí es un estimador insesgado de
. Podriamos construir el IC basandonos en este estimador. Pero claro, no hemos
utilizado la tercer muestra. Se propondrá un método mas general para evaluar si
esto es posible.
I I I
En principio tenemos X ! + 2 , Y ! + 4 y A ! , todos estimadores
independientes. Se propone ahora
b pool = X + Y + A
Donde , y son constantes a determinar. No se trata del concepto de estimador
en pool visto antes, donde los estimadores estimaban el mismo parámetro, sinó que
ahora estiman combinaciones lineales diferentes de los parámetros. Como queremos
que
E( b pool ) =
deberá ser
E( b pool ) = E( X + Y + A) = ( + 2 ) + ( + 4 ) + =
Y agrupando
( + ) + (2 + 4 + ) =
Para que esta igualdad se cumpla 8 y 8 deberá ser
+ =1 + =1
o sea
2 +4 + =0 +2 = 2
Resolviendo el sistema en y resulta
+2 y
= = ( + 1)
2 2
Luego el estimador insesgado de sería
(15.2) b pool = ( + 2)X ( + 1)Y + A
2 2
Este estimador, para cualquier valor de , cumple siempre E( b pool ) = . Como
lo desconocemos, elegiremos este valor de manera que
V ar( b pool ) : sea mínima
42 2. IN TERVALO S D E C O N FIAN ZA
Pero
(15.3) V ar( b pool ) = ( + 2)2 V ar(X) + ( + 1)2 V ar(Y ) + 2
V ar(A)
2 2
2 2 2
2 4
= ( + 2)2 +( + 1)2 + 2
2 4 2 6 4
1 2 1
= ( + 2)2 + ( + 1)2 + 2 2
2 2 2 3 4
Derivando la llave respecto de e igualando a cero
1 1 1 2 1
2( + 2)( ) + 2( + 1)( ) + 2 =0
2 2 2 2 2 3 4
De aquí resulta = 20 13 para lograr varianza mínima. Reemplazando en (15.2)
queda el estimador óptimo deseado
b pool = 16 X 3
Y
20
A
13 13 13
Obviamente E( b pool ) = , pero veamos su varianza(ver 15.3)
2 2 2 2 2 2
16 2 3 4 20 18
V ar( b pool ) = + + = 2
13 4 13 6 13 4 13
luego
b pool 18 2
N( ; )
13
y también
b pool
q =Z N (0; 1)
18
13
:
y utilizando Spool
b
qpool T11
18 :
13 Spool
luego " r #
16 3 20 18 :
IC al 95% : ( X Y A) t11;0:95 S
13 13 13 13 pool
Aquí 1316
X 3 20 b pool = 16:46 es la estimación del peso …jo,
13 Y 13 A = de las
cajas, y el intervalo resulta
" r #
18
16:46 1:796 2:037 = [12:16; 20:76]
13
valor medido por el instrumento será X11 = g1 + E11 N (g1 ; ), el segundo valor
X12 = g1 + E12 N (g1 ; ), y el tercero X13 = g1 + E13 N (g1 ; ), o sea las tres
mediciones en el primer tubo constituyen la muestra obtenida y se tendrá
N (g1 ; )
(16.2)
X11 X12 X13
Como esto lo hacemos para los 4 tubos, se tendrán(con los respectivos valores
muestrales)
N (g1 ; ) N (g2 ; ) N (g3 ; ) N (g4 ; )
X11 X12 X13 X21 X22 X23 X31 X32 X33 X41 X42 X43
X 1 = 80 S1 = 2 X 2 = 90 S1 = 1 X 3 = 87 S1 = 3 X 4 = 83 S1 = 2
Se obtendrá solo el ICg1 al 90%, para el primer tubo(los otros salen en forma
similar).
I
Como X 1 ! g1 entonces X 1 N (g1 ; p3 ) y
X1 g1
=Z N (0; 1)
p
3
q
2
Llamando 2 + = queda
g 3 x
N ( g ; x)
X1 X2 X3 X4
X 1 +X 2 +X 3 +X 4 I
Ahora sí: X = 4 ! g con X N( g;
px )
4
luego
X g
=Z N (0; 1)
px
4
2
Como estimador de x usamos(teniendo en cuenta que X = 85)
(X 1 X)2 + (X 2 X)2 + (X 3 X)2 + (X 4 X)2
Sx2 = = 19:33(o sea Sx = 4:4)
4 1
Como tiene 3 gl, resulta
X g
Sx
T3
p
4
Y el intervalo deseado para la concentración media glucosa de ese tipo de animales
será:
Sx 4:4
IC g al 90%: X t3;0:95 p = 85 2:35 p = [79:83; 90:17] (de long: 10.34)
4 4
Remark 17. En este problema se hicieron en total 12 mediciones. Para la
parte (a), se repartieron en 3 por tubo, para lograr mejores estimaciones de los gi
y por lo tanto ICgi mas angostos. La parte (b) se resolvió utilizando las mismas
mediciones, con otra teoría. Sin embargo, y manteniendo las 12 mediciones, si
el objetivo del problema es obtener solo el IC g , lo más apropiado hubiese sido
tomar una muestra de 12 animales, con solo q una medición por animal. En este
caso, cada Xi sería Xi = Gi + Ei N ( g ; 2 + 2 ) teniendo(llamando
g x a este
desvío)
N ( g ; x)
I Sx
X1 X2 X12 y como X ! g, Sx2 con 11gl, resulta IC g
al 90% : X t11;0:95 p
X , Sx 12
Luego resulta r
p(1 p)
Pb N (p; )
n
y entonces estandarizando, y reemplazando Pb = h
n = pb
pb p
q =Z N (0; 1)
p(1 p)
n
q
b(1 p
p b)
Bien entendido: hay que calcular los dos extremos con pb z1 2 n , luego
z12 z12
a cada extremo se le suma 2n
2
, y luego ambos extremos se dividen por 1 + n
2
.
z12
Esto sería muy complicado. Sin embargo notar que como n es grande, 2n
2
'0y
z12
1+ n
2
' 1. Utilizando esto queda …nalmente
" r #
pb(1 pb)
ICp al NC : pb z1 2
n
Una expresión muy simple, y razonable ya que el intervalo es: pb (que esqun esti-
mador de p), mas/menos un plus, que depende del desvío del estimador( pb(1n pb) )
y del fractil. Este sería un intervalo óptimo pero aproximado.
Remark 21. El IC para p que vimos anteriormente, con el método del estadís-
tico muestral era óptimo y exacto. Sin embargo tiene el inconveniente que se hace
muy difícil evaluar tamaño de muestra. Con esta última expresión, aproximada, es
mucho mas simple. Supongamos que interesa un ICp con N C = 90%, pero quere-
mos averiguar que tamaño de muestra será necesario para que la semi-amplitud del
intervalo sea por ejemplo 0.05. Entonces la ecuación a resolver sería(z0:95 = 1:645)
r
pb(1 pb)
1:645 = 0:05
n
de aquí hay que despejar n
2
1:645
n= pb(1 pb)
0:05
Pero claro, como todavía no hemos tomado la muestra, no conocemos pb. Entonces
esto no tendría solución! Estas situaciones son comunes cuando hay que averiguar
tamaño de muestra. Suelen haber algunas cantidades cuyos valores se desconocen,
48 2. IN TERVALO S D E C O N FIAN ZA
y no se puede despejar el n. Lo que se hace es darle algún valor a pb. Pero cual?
En esta expresión aparece una función cuadrática del tipo y = x(1 x). Es una
parábola invertida con raíz en 0 y 1(representarla!). Se busca cual es el valor de x
que da el máximo. Este valor es x = 0:5. O sea si usamos pb = 0:5, resulta n = 271.
Cualquier otro valor de pb que usemos, dará un n menor. De esta manera, tomar
n = 271 es la opción mas conservadora. Después, cuando tomemos la muestra, y
obtengamos el ICp , notaremos que su semiamplitud será, como máximo 0.05.
Example 14. Intervalo de con…anza para de una muestra de población
Po ( ), cuando n es grande
Po ( )
X1 X2 Xn
Aquí H = X1 + X2 + +Xn Po (n ) es su…ciente. Igual que en el ejemplo
b
anterior, usaremos = n =H X1 +X2 + +Xn
que también es su…ciente, y de paso es
n
un estimador de . Como en su expresión aparece una suma, si n es grande, por
el TCL resultará
b N (; )
y como
H n H n
E( b ) = E( ) = = y V ar( b ) = V ar( ) = 2 =
n n n n n
luego r
b N( ; )
n
y entonces estandarizando
b
q =Z N (0; 1)
n
z12 z12
igual que antes, si n es grande, 2n
2
'0y 4n2
2
' 0 y entonces
2 s 3
b
IC al NC : 4b z1 5
2
n
Nuevamente, la expresión b
qdel intervalo es atractiva: (que es el estimador de )
b
mas/menos el fractil por n que es el desvío del estimador. Este sería un intervalo
óptimo pero aproximado.
17. INTERVALOS NO EXACTOS [ NO ÓPTIM OS 49
Remark 22. Si interesa que tamaño de muestra habría que tomar, para obtener
un IC con N C = 90% con semiamplitud, por ejemplo 0:5, habría que resolver(z0:95 =
1:645) s
b 1:645
2
1:645 = 0:5 o sea n = b = 10:82b
n 0:5
Como se desconoce b habría que asignarle un valor. Pero aquí no podemos tomar el
valor que de el n máximo posible, ya que sería 1. En un caso como este, se requiere
alguna información adicional sobre la población, por ejemplo que "di…cilmente se
mayor que 5". Entonces usando b = 5, resulta n = 54.
Example 15. Intervalo de con…anza para de una muestra de la sigu-
iente población, cuando n es grande
f (x= ) = 2x2 para 0 x
X1 X2 Xn
Esta densidad es triangular entre 0 y .
f(x/tita)= 2x/tita2
tita x
luego
" #
2 8H 2 8H 8H
P( 8n;0:05 8n;0:95 ) = 0:9 y queda IC al 90% : 2 ; 2
8n;0:95 8n;0:05
PRUEBAS DE HIPOTESIS
N(10;0.5)
_
10 12.5 x
Esta normal nos dice que si = 10, el X obtenido de la muestra estará alrededor de
10. Pero si 2 Ha , por ejemplo = 12:5, la normal será otra, una N (12:5; 0:5),
mas corrida a la derecha(representada en punteado), y el X tomaría en general
valores mas grandes(alrededor de 12:5). Comprendido esto, ahora se determinará
RC, la región crítica(o región de rechazo) de esta PH. Es un intervalo de
valores que puede tomar X , tal que, si = 10, la probabilidad que X caiga en
RC sea muy baja. A esta probabilidad se la designará , nivel de signi…cación
de la PH, y usaremos en este ejemplo = 0:05. Pero hay muchas regiones con
= 0:05. Un segundo requisito es elegir la RC, en que es mas probable que caiga
X si 2 Ha . Pero como vimos que si 2 Ha , el X muestral estará mas a la
derecha, buscamos una región crítica hacia la derecha, o sea
Si = 10, buscamos xcr : P (X xcr ) = = 0:05
O sea, deberá ser P (X < xcr ) = 0:95, luego Fz ( xcr0:510 )
= 0:95, o sea(pqrs),
xcr 10
0:5 = 1:645, esto es xcr = 10:82, luego la región crítica es
RC : [10:82; 1)
y representando
N(10;0.5)
_
10 10.82 RC x
después la cambiaremos.
empleada es
Regla de decisión de una PH
(0.2) Si X 2 RC =) Se Rechaza H0 = Aceptamos Ha
Si X 2
= RC =) NO se Rechaza H0
0.1. Decisión usando el valor de p. Con la regla(0.2), la decisión se tomaba
utilizando el estadístico X (según caiga o no en la RC).
Para la PH con RC : [10:82; 1), veamos tres casos, según el valor concreto de
X, y teniendo en cuenta la Regla de decisión.
Caso 1: X = 10:5. En este caso NO Rechazamos H0 . No se puede decidir
nada.
Caso 2: X = 10:9. En este caso Rechazamos H0 y Aceptamos Ha . Se
decide cambiar el proceso productivo.
Caso 3: X = 11:5. En este caso Rechazamos H0 y Aceptamos Ha . Se
decide cambiar el proceso productivo.
Esto es correcto.
Sin embargo, en los casos 2 y 3, aunque la decisión es la misma, parecería que en
el 3, la decisión de cambiar el proceso productivo, es en algún sentido mas "fuerte"
que en el 2. Y sin embargo este aspecto no está contemplado en la Regla.
Otra forma, mas completa, de tomar una decisión en una PH es utilizando el
"valor de p". En lugar de decidir con X, lo haremos con p = g(X) que es una
función de X.
Recordar que la condición para hallar el comienzo de la región crítica, xcr ,
fué(imponiendo = 0:05)
(0.3) Si = 10, buscamos xcr : P (X xcr ) = = 0:05
y de aquí resultó RC : [10:82; 1) y la …gura
N(10;0.5)
_
10 10.82 RC x
1
P(Rech)
10 µ
0.3. Curva de potencia ideal. La curva de potencia ideal para las hipótesis
del ejemplo, sería
1
P(Rech)
10 µ
1
P(Rech)
0.36
0.64
10 11 µ
O sea, hay un riesgo del 36% de no rechazar, y por lo tanto no poder tomar ninguna
decisión(cuando en realidad querriamos efectuar el cambio).
Nos gustaría para = 11 una probabilidad de rechazar de 0:90, y de no rechazar
0:1.
60 3. PRU EBAS D E H IPO TESIS
1
P(Rech) 0.10
0.90
10 11 µ