Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Teoria Pc4 Esta 2 (Mejorado 2020)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

Estadística No paramétrica

Estudiaremos para esta pc algunas de las más importantes pruebas de


hipótesis no paramétricas, a continuación enumeraré cada una y su
respectivo uso, más adelante se encuentra el desarrollo de cada uno:
1. Prueba de K-categorías: Sirve para analizar proporciones asociadas a
elementos de una variable cualitativa (de preferencia) o cuantitativa
discreta
2. Pruebas de bondad de ajuste: Sirve para analizar si la distribución de
una variable cuantitativa se asemeja a otra conocida, existe tres
pruebas de bondad de ajuste:
 Prueba Chi-cuadrado: Prueba general, sirve para cualquier tipo
de variable cuantitativa (discreta o continua), en el examen
viene siempre para las distribuciones de Poisson, Binomial y
Exponencial.
 Prueba de Klomogorov-Smirnov (k-s): Se usa de preferencia en
variables cuantitativas continuas no agrupadas, viene como
reporte de minitab y casi siempre para una distribución normal.
 Prueba de Jarque-Bera (JB): Se usa únicamente para aproximar
a una distribución Normal.
3. Prueba de Levene: Sirve para analizar si las varianzas de varios grupos
o poblaciones son homogéneas entre sí.
4. Prueba de Kruskal-Wallis: Sirve para analizar si la media o mediana
(tendencia central) de dos o más grupos son semejantes entre sí, la
variable analizada debe de ser cuantitativa continua.
5. Prueba de Homogeneidad: Sirve para saber si una variable se
comporta de manera similar entre diferentes estratos o poblaciones.
6. Prueba de independencia: Se usa para analizar si dos variables
cualitativas (de preferencia) guardan alguna relación entre sí.
Prueba de K-Categorías

Hp : Las proporciones ( o frecuencias) de las diferentes clases siguen la razón


………………..
Ha : Al menos una de las clases no sigue la razón ……………….
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)

Cálculo de valores esperados:

Variable Oi Pi εi = n.pi
K1 O1 ε1
K2 O2 ε2 Oi : frecuencia observada
K3 O3 ε3 Pi : proporción esperada
K4 O4 ε4 εi : frecuencia esperada
TOTAL n 1 n Grados de libertad = K-1

Estadístico de prueba:
(𝑂𝑖 − 𝜀𝑖)2 2
𝑋2 = ∑ ~𝑋(𝑘−1) 𝑠𝑖 𝑛 ≥ 50 𝑦 𝐺𝐿 > 1
𝜀𝑖

2
(|𝑂𝑖 − 𝜀𝑖| − 0.5)2 2
𝑋 =∑ ~𝑋(𝑘−1) 𝑠𝑖 𝑛 < 50 ó 𝐺𝐿 = 1
𝜀𝑖

Región crítica:

Calculo del estadístico


Decisión y conclusión.

Profesor UP: Jorge Quispe 954783419


Pruebas de Bondad de Ajuste

1. Prueba chi-cuadrado

Hp : La variable en estudio sigue una distribución que se aproxima a …………


Ha : La variable en estudio NO sigue una distribución que se aproxima a …………
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)
Calculo de valores esperados:

Variable Oi Pi εi = n.pi Observación:


K1 O1 ε1 Si algún valor esperado es menor
K2 O2 ε2 Oi : frecuencia observada a 5 se debe de fusionar con otro
K3 O3 ε3 Pi : PROBABILIDAD esperada hasta que sume por lo menos 5
K4 O4 ε4 εi : frecuencia esperada
TOTAL n 1 n

Recordar:
𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑏𝑖𝑛𝑜𝑚𝑖𝑎𝑙: 𝑓(𝑥) = 𝐶𝑥𝑛 ∗ 𝜋 𝑥 ∗ (1 − 𝜋)𝑛−𝑥
𝑒 −𝜇 ∗𝜇 𝑥
𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑑𝑒 𝑃𝑜𝑖𝑠𝑠𝑜𝑛: 𝑓(𝑥) = 𝑥!
𝑥
− 𝑜
𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝑒𝑥𝑝𝑜𝑛𝑒𝑛𝑐𝑖𝑎𝑙: 𝑃(𝑥 ≤ 𝑥𝑜 ) = 𝐹(𝑥𝑜 ) = 1 − 𝑒 𝛽

Grados de libertad: 𝐺𝐿 = 𝐾 − 𝑚 − 1 ; 𝑚: 𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝑝𝑎𝑟𝑎𝑚𝑒𝑡𝑟𝑜𝑠 𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜𝑠.

Estadístico de prueba:

2
(𝑂𝑖 − 𝜀𝑖)2 2
𝑋 =∑ ~𝑋(𝐺𝐿) 𝑠𝑖 𝑛 ≥ 50 𝑦 𝐺𝐿 > 1
𝜀𝑖

(|𝑂𝑖 − 𝜀𝑖| − 0.5)2 2


𝑋2 = ∑ ~𝑋(𝐺𝐿) 𝑠𝑖 𝑛 < 50 ó 𝐺𝐿 = 1
𝜀𝑖

Profesor UP: Jorge Quispe 954783419


Región crítica:

Calculo del estadístico


Decisión y conclusión.

2. Prueba de Kolmogorov-Smirnov (Ks)


Hp : La variable en estudio sigue una distribución que se aproxima a una distribución
Normal.
Ha : La variable en estudio NO sigue una distribución que se aproxima a una distribución
Normal.
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)
Estadístico de prueba:

𝑍 = 𝐷√𝑛 ; 𝐷 = 𝑚𝑎𝑥{|𝐹𝑟𝑜𝑖 − 𝐹𝑟𝑒𝑖|}


Región crítica:

Calculo del estadístico


Decisión y conclusión.
Observación: La prueba Ks normalmente aparece como un reporte de minitab:

Profesor UP: Jorge Quispe 954783419


3. Prueba de Jarque-Bera (JB)
Hp : La variable en estudio sigue una distribución que se aproxima a una distribución
Normal.
Ha : La variable en estudio NO sigue una distribución que se aproxima a una distribución
Normal.
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)
Estadístico de prueba:

𝑛 2
𝐾2 2
𝐽𝐵 = ∗ (𝐴 + ) ~ 𝑋(2)
6 4

Región crítica:

Calculo del estadístico


Decisión y conclusión.

Prueba de Igualdad de varianzas


Observación:
1. Antes de hacer la prueba de homogeneidad de varianzas se debe de hacer la
prueba de normalidad de las variables (prueba k-s o JB)
2. Si se llega a demostrar que todas las variables son normales entonces lo correcto
es efectuar la prueba F o la prueba de barlet.
3. Si alguna de las variables involucradas no es normal entonces se debe
forzosamente usar la prueba de Levene.
4. Todas las pruebas anteriores se presentan en un reporte de Minitab.

Prueba de levene
Hp: Las varianzas de los K-grupos son homogéneas.
Ha: en al menos uno la varianza es diferente.
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)

Profesor UP: Jorge Quispe 954783419


Estadístico de prueba:
(𝑁 − 𝑘) ∑ 𝑁𝑖 (𝑍𝑖. − 𝑍.. )
𝑊 = ∗ ~ 𝐹(𝑘−1,𝑁−𝑘)
(𝑘 − 1) ∑ ∑(𝑍 − 𝑍 )2
𝑖𝑗 𝑖.

Región crítica:

Calculo del estadístico


Decisión y conclusión.

Prueba de Kruskal-Wallis (KW)


Hp: Las medias o medianas de los K-grupos son similares.
Ha: en al menos uno de los grupos la media o mediana es diferente.
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)
Calculo de rangos:

Estadístico de prueba:

12 𝑇𝑖2 2
𝐻 = ∑ − 3(𝑛 + 1) ~ 𝑋(𝑘−1)
𝑛(𝑛 + 1) 𝑛𝑖
Región crítica:

Calculo del estadístico


Decisión y conclusión.

Profesor UP: Jorge Quispe 954783419


Prueba de Homogenidad
Hp: La variable en estudio se comporta de manera similar en los diferentes estratos o
poblaciones.
Ha: en al menos un estrato o población el comportamiento es diferente.
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)
Calculo de valores esperados:

Grados de libertad: 𝐺𝐿 = (𝑛𝑜 𝑓𝑖𝑙𝑎𝑠 − 1) ∗ (𝑛𝑜 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠 − 1)


Estadístico de prueba:

2
(𝑂𝑖𝑗 − 𝜀𝑖𝑗)2 2
𝑋 = ∑∑ ~𝑋(𝐺𝐿) 𝑠𝑖 𝑛 ≥ 50 𝑦 𝐺𝐿 > 1
𝜀𝑖𝑗

2
(|𝑂𝑖𝑗 − 𝜀𝑖𝑗| − 0.5)2 2
𝑋 = ∑∑ ~𝑋(𝐺𝐿) 𝑠𝑖 𝑛 < 50 ó 𝐺𝐿 = 1
𝜀𝑖𝑗

Región crítica:

Calculo del estadístico


Decisión y conclusión.

Profesor UP: Jorge Quispe 954783419


Prueba de Independencia
Hp: Las variables en estudio son Independientes.
Ha: Las variables en estudio NO son Independientes.
𝛼 = 0.05 (𝑢𝑛𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙 𝑑𝑒𝑟𝑒𝑐ℎ𝑎)
Calculo de valores esperados:

Grados de libertad: 𝐺𝐿 = (𝑛𝑜 𝑓𝑖𝑙𝑎𝑠 − 1) ∗ (𝑛𝑜 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠 − 1)


Estadístico de prueba:

2
(𝑂𝑖𝑗 − 𝜀𝑖𝑗)2 2
𝑋 = ∑∑ ~𝑋(𝐺𝐿) 𝑠𝑖 𝑛 ≥ 50 𝑦 𝐺𝐿 > 1
𝜀𝑖𝑗

(|𝑂𝑖𝑗 − 𝜀𝑖𝑗| − 0.5)2 2


𝑋2 = ∑ ∑ ~𝑋(𝐺𝐿) 𝑠𝑖 𝑛 < 50 ó 𝐺𝐿 = 1
𝜀𝑖𝑗

Región crítica:

Calculo del estadístico


Decisión y conclusión.

Profesor UP: Jorge Quispe 954783419


Análisis de las Medidas de Asociación

1. Covarianza
 Medida de asociación absoluta
 Toma cualquier valor real
 Rangos:
𝐶𝑜𝑣(𝑥𝑦) = 𝜎𝑥𝑦 < 0 → 𝑅𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑖𝑛𝑣𝑒𝑟𝑠𝑎 𝑜 𝑖𝑛𝑑𝑖𝑟𝑒𝑐𝑡𝑎
𝐶𝑜𝑣(𝑥𝑦) = 𝜎𝑥𝑦 = 0 → 𝑁𝑜 𝑒𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑐𝑜𝑛𝑐𝑙𝑢𝑖𝑟
𝐶𝑜𝑣(𝑥𝑦) = 𝜎𝑥𝑦 > 0 → 𝑅𝑒𝑙𝑎𝑐𝑖ó𝑛 𝐷𝑖𝑟𝑒𝑐𝑡𝑎

2. Coeficiente de Correlación
 Medida de asociación relativa
 Solo toma valores entre -1 y 1

𝑆𝑥𝑦 𝑆𝑃(𝑋𝑌)
𝑟= =
𝑆𝑥 𝑆𝑦 √𝑆𝐶(𝑋) ∗ 𝑆𝐶(𝑌)

(∑ 𝑋)2
𝑆𝑢𝑚𝑎 𝑑𝑒 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑎: 𝑆𝐶(𝑋) = ∑ 𝑋 2 − 𝑛 ∗ 𝜇𝑥2 = ∑ 𝑋 2 −
𝑛
(∑ 𝑌)2
𝑆𝑢𝑚𝑎 𝑑𝑒 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑜𝑠 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑎: 𝑆𝐶(𝑌) = ∑ 𝑌 2 − 𝑛 ∗ 𝜇𝑦2 = ∑ 𝑌 2 −
𝑛
∑𝑋∑𝑌
𝑆𝑢𝑚𝑎 𝑑𝑒 𝑝𝑟𝑜𝑑𝑢𝑐𝑡𝑜𝑠 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑎: 𝑆𝑃(𝑋𝑌) = ∑ 𝑋𝑌 − 𝑛 ∗ 𝜇𝑥 𝜇𝑦 = ∑ 𝑋𝑌 −
𝑛

Prueba de significación de la correlación

Hp : ρ = 0 (No existe correlación significativa, las variables pueden ser independientes)


Ha : ρ ≠ 0 (Existe correlación significativa, las variables son dependientes)
𝛼 = 0.10 (𝑏𝑖𝑙𝑎𝑡𝑒𝑟𝑎𝑙)
Estadístico de prueba:
𝑟
𝑇= ~ 𝑇(𝑛−2)
2
√1 − 𝑟
𝑛−2

Profesor UP: Jorge Quispe 954783419


Región crítica:

Calculo del estadístico


Decisión y conclusión.

Prueba general de la correlación

Hp : ρ
Ha : ρ
𝛼 =
Estadístico de prueba:

donde:

Intervalo de confianza para la correlación:

Profesor UP: Jorge Quispe 954783419

También podría gustarte