Pruebas No Paramètricas
Pruebas No Paramètricas
Pruebas No Paramètricas
1. Pruebas no Paramétricas
A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar en las
características de la muestra que ha seleccionado, aquellas que distinguen a la población de
donde ésta procede; hay dos formas de actuar: 1) estimar el valor de un parámetro a partir de
la muestra, y 2) contrastar si su hipótesis es confirmada en la muestra, poniendo a prueba la
hipótesis de las diferencias nulas (Ho), la que de no confirmarse se explica por la hipótesis
alterna (H1 ), que acepta que esas diferencias existen dentro de cierto margen de
probabilidad: cuando son significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la
hipótesis nula y se acepta la hipótesis alterna.2 (John Wiley , 1999)
1.1. Ji Cuadrado
Esta prueba de hipótesis se usa para comparar la posible diferencia entre las frecuencias
observadas en la distribución de una variable con respecto a las esperadas, en razón de una
determinada hipótesis.4,11-16 Por ejemplo: al comparar los resultados obtenidos con una
nueva técnica quirúrgica usada en 255 individuos intervenidos en comparación con la técnica
utilizada ordinariamente.
Pasos a seguir
Primero: Planteamiento de hipótesis estadísticas
Ho: Fo = Fe. Las frecuencias observadas son iguales a las frecuencias esperadas
Ha: Fo ≠ Fe. Las frecuencias observadas difieren de las frecuencias esperadas
Segundo: Disposición de ambas distribuciones de frecuencias. Para obtener la distribución
de frecuencias esperada (teórica) se aplican los porcentajes de los resultados de la técnica
quirúrgica tradicional al total de pacientes.
Tercero: Cálculo del valor de χ2 mediante la fórmula:
Los grados de libertad se refieren, en esta prueba, al numero de modalidades menos una.
Como fue de cuatro modalidades (columnas) en el renglón a considerar, son 3 grados de
libertad (número de columnas menos uno); así, en la tabla de χ 2 al cruzar renglón de los
grados de libertad con las columnas de los niveles de significancia al 0.05 se obtiene un valor
crítico de p= 0.05 de 7.81 y al 0.01 es de 11.34. En vista de que el valor calculado de la ji
cuadrada rebasa, en ambos casos, los valores críticos de las tablas al nivel de 5 % y 1 %, se
puede rechazar la hipótesis nula ( Ho: Fo = Fe ) con una p < 0.01. (Gómez-Gómez M, 2001)
Segundo. Conocer el número total de casos observados (N). Tercero. Conocer la frecuencia
de las ocurrencias en cada una de las categorías Cuarto. Se habla de valores binomiales, con
una N de 2-30, k de 0-30 y p desde 0.01 a 0.50. Quinto. Si la probabilidad asociada con el
valor observado de valores aún más extremos, es igual o menor al de alfa se rechaza la
hipótesis nula.12-16 Alternativa. Debido a que se utilizan sólo datos categóricos no hay
opción. Si la variable de la prueba no es dicotómica, por lo que se requiere considerar más
de dos categorías, se deberá usar la Ji cuadrada para bondad de ajuste (Reynaga Obregón J,
2001)
1.5. La U de Mann-Whitney
es la más popular de las pruebas para el estudio de dos muestras independientes. Es
equivalente a la prueba de suma de rangos de Wilcoxon y a la prueba de dos grupos de
Kruskal-Wallis. Es la alternativa no paramétrica a la comparación de dos promedios
independientes a través de la t de Student. Se utiliza cuando se desea efectuar la comparación
de dos grupos en quienes se les ha medido una variable cuantitativa continua que no tiene
una distribución normal o cuando la variable es de tipo cuantitativa discreta. Tiene tres
asunciones:
1) La variable independiente es dicotómica y la escala de medición de la variable dependiente
es al menos ordinal;
2) Los datos son de muestras aleatorias de observaciones independientes de dos grupos
independientes, por lo que no hay observaciones repetidas;
3) La distribución de la población de la variable dependiente para los dos grupos
independientes comparte una forma similar no especificada, aunque con una posible
diferencia en las medidas de tendencia central. Las observaciones de ambos grupos se
combinan y acomodan, con el rango promedio en el caso de pares. El número de pares debe
ser pequeño en relación al número total de observaciones. Si las poblaciones son idénticas en
situación, los rangos deben mezclarse al azar entre las dos muestras. Se calcula el número de
veces que una cuenta del grupo 1 precede una cuenta del grupo 2 y el número de veces que
una cuenta del grupo 2 precede una cuenta del grupo 1. La U de Mann-Whitney es el número
más pequeño de estos dos números.
Alternativas. La alternativa paramétrica es la t de Student para muestras independientes, que
es más poderosa que la U de Mann-Whitney cuando se llenan todas las asunciones, mientras
que, si los datos no se distribuyen normalmente, el tamaño de muestra es pequeño, los grupos
son de diferente tamaño, la U de Mann-Whitney es más poderosa, sobre todo cuando las colas
de la distribución son grandes y hay la presencia de residuales. Una alternativa no paramétrica
que puede ser utilizada, sobre todo si las colas de la distribución no son similares es la prueba
de la mediana (Downie N M, 1999)
Bibliografìa
Daniel WW. Biostatistics. A foundation for analysis in the health sciences. 7th ed. New York:
John Wiley and Sons Inc, 1999: 658- 736.
Pett MA. Nonparametric statistics for health care research. Thousand Oaks, Cal: Sage
Publications Inc, 1997.
Bradley JV. Distributin-free stat isticalt ests. Englewood Cliffs, N J: Prentice-Hall, 1998.
Downie N M, Heath RW. Métodos estadísticos aplicados. 5ª ed. México: Harla, 1999: 251-
65.
Siegel S, Castellan N J. Estadística no paramétrica aplicada a las ciencias de la conducta.
4ªed. México: Editorial Trillas, 1995: 151-7.
Pearson ES. The choice of statistical test illustrated on the interpretation of data in a 2 x 2
table. Biometrika 2002; 34: 139-67.
Visauta-Vinacua B. Análisis estadístico con SPSS para Windows. Estadística básica. Madrid:
McGraw-Hill, 1997: 238-74.
Álvarez-Cáceres R. Estadística multivariante y no paramétrica con SPSS. Aplicación a las
ciencias de la salud. Madrid: Díaz de Santos, 1996.
Kolmogorov AN. Sulla determinazione empirical di una legge di distribuzione. Giornale Inst
Ital Altuari 2003; 4: 83-91.