Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Pruebas No Paramètricas

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

NOMBRE: Erik Romel Jimenez Rivera

GRADO: 4to Año

1. Pruebas no Paramétricas
A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar en las
características de la muestra que ha seleccionado, aquellas que distinguen a la población de
donde ésta procede; hay dos formas de actuar: 1) estimar el valor de un parámetro a partir de
la muestra, y 2) contrastar si su hipótesis es confirmada en la muestra, poniendo a prueba la
hipótesis de las diferencias nulas (Ho), la que de no confirmarse se explica por la hipótesis
alterna (H1 ), que acepta que esas diferencias existen dentro de cierto margen de
probabilidad: cuando son significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la
hipótesis nula y se acepta la hipótesis alterna.2 (John Wiley , 1999)

1.1. Ji Cuadrado
Esta prueba de hipótesis se usa para comparar la posible diferencia entre las frecuencias
observadas en la distribución de una variable con respecto a las esperadas, en razón de una
determinada hipótesis.4,11-16 Por ejemplo: al comparar los resultados obtenidos con una
nueva técnica quirúrgica usada en 255 individuos intervenidos en comparación con la técnica
utilizada ordinariamente.

Pasos a seguir
Primero: Planteamiento de hipótesis estadísticas
Ho: Fo = Fe. Las frecuencias observadas son iguales a las frecuencias esperadas
Ha: Fo ≠ Fe. Las frecuencias observadas difieren de las frecuencias esperadas
Segundo: Disposición de ambas distribuciones de frecuencias. Para obtener la distribución
de frecuencias esperada (teórica) se aplican los porcentajes de los resultados de la técnica
quirúrgica tradicional al total de pacientes.
Tercero: Cálculo del valor de χ2 mediante la fórmula:

En donde: o = frecuencia observada en una modalidad.


e = frecuencia esperada en la misma modalidad.

Cuarto: Comparación de la χ 2 calculada con el valor crítico que aparece en el cuadro de χ 2


y conclusión respecto a las hipótesis planteadas.

Los grados de libertad se refieren, en esta prueba, al numero de modalidades menos una.
Como fue de cuatro modalidades (columnas) en el renglón a considerar, son 3 grados de
libertad (número de columnas menos uno); así, en la tabla de χ 2 al cruzar renglón de los
grados de libertad con las columnas de los niveles de significancia al 0.05 se obtiene un valor
crítico de p= 0.05 de 7.81 y al 0.01 es de 11.34. En vista de que el valor calculado de la ji
cuadrada rebasa, en ambos casos, los valores críticos de las tablas al nivel de 5 % y 1 %, se
puede rechazar la hipótesis nula ( Ho: Fo = Fe ) con una p < 0.01. (Gómez-Gómez M, 2001)

1.2. Prueba binomial


La prueba binomial compara las frecuencias observadas en cada una de las dos categorías de
una variable dicotómica con respecto a las frecuencias esperadas bajo una distribución
binomial que tiene un parámetro de probabilidad específico que, por defecto, para ambas
categorías es 0.5. Para cambiar las probabilidades se puede ingresar una proporción de la
prueba para el primer grupo por lo que la probabilidad para el segundo será 1 menos la
probabilidad especificada para el primero. La prueba está basada en la distribución binomial,
que permite estimar que la probabilidad en una muestra de sujetos que puedan proceder de
una población binomial cuyo valor de p y q (donde q es la probabilidad contraria) son
similares a los de la población de donde se obtuvo la muestra. Se asume que:
1) Las observaciones son seleccionadas al azar, son independientes y se obtienen de una sola
muestra;
2) Los datos son de dos categorías distintas, que se les ha asignado un valor de 1 y 0. Esto
quiere decir que si la variable no es dicotómica se deben colapsar los datos en dos categorías
mutuamente excluyentes; y,
3) Se debe de especificar la probabilidad de ocurrencia de un evento en la población dada.
Esta proporción teórica puede venir de registros públicos, censos o investigaciones previas.
La prueba binomial está indicada cuando la variable a ser examinada es dicotómica, es
especialmente útil en casos de tamaño de muestra pequeños, que no se cumplen los requisitos
de la bondad de ajuste de la Ji cuadrada.

Pasos a seguir Primero: Planteamiento de hipótesis estadísticas


Ho: p = po Las frecuencias observadas son iguales a las frecuencias esperadas
Ha: p ≠ po Las frecuencias observadas difieren de las frecuencias esperadas.

Segundo. Conocer el número total de casos observados (N). Tercero. Conocer la frecuencia
de las ocurrencias en cada una de las categorías Cuarto. Se habla de valores binomiales, con
una N de 2-30, k de 0-30 y p desde 0.01 a 0.50. Quinto. Si la probabilidad asociada con el
valor observado de valores aún más extremos, es igual o menor al de alfa se rechaza la
hipótesis nula.12-16 Alternativa. Debido a que se utilizan sólo datos categóricos no hay
opción. Si la variable de la prueba no es dicotómica, por lo que se requiere considerar más
de dos categorías, se deberá usar la Ji cuadrada para bondad de ajuste (Reynaga Obregón J,
2001)

1.3. Prueba de las rachas


La prueba de las rachas mide hasta qué punto en una variable dicotómica la observación de
uno de sus atributos puede influir en las siguientes observaciones; es decir, si el orden de
ocurrencia en la observación de uno de los atributos de una variable dicotómica ha sido por
azar. 12-16 Una racha es una secuencia de observaciones de un mismo atributo o cualidad.
Una serie de datos en los que hay muchas o pocas rachas, hacen pensar que éstas no han
ocurrido por azar. Alternativa. Para probar que dos muestras vienen de poblaciones con las
mismas distribuciones, se emplea la prueba de rachas sugerida por Wald-Wolfowitz (Pett
MA. Nonparametric , 1997)

1.4. Prueba de Kolmogorov-Smirnov


Para una muestra La prueba se usa para definir si el grado de ajuste de los datos a una
distribución teórica: que puede ser con tendencia a la normal, a la de Poisson o exponencial.
La prueba Z de Kolmogorov-Smirnov (K-S), se computa a partir de la diferencia mayor (en
valor absoluto) entre la distribución acumulada de una muestra (observada) y la distribución
teórica. La bondad de ajuste de la muestra permite suponer de manera razonable, que las
observaciones pudieran corresponder a la distribución específica. La contribución de
Kolmogorov 17 corresponde al problema relacionado con una sola muestra, mientras que la
de Smirnov 18 se ocupa de responder al problema respecto a dos muestras, tratando de probar
la hipótesis de igualdad entre las poblaciones de origen de una con respecto a la de la otra.
La prueba de K-S no precisa que las observaciones sean agrupadas (como es el caso de la Ji
cuadrada). Se usa en cualquier muestra de cualquier tamaño, mientras que la Ji cuadrada
requiere muestras con un tamaño mínimo. Esta prueba no se debe usar cuando los parámetros
tienen que ser estimados a partir de la población y es útil, especialmente cuando se conoce la
estructura en que subyace la distribución de la variable en estudio. Es más poderosa que la Ji
cuadrada, especialmente cuando el tamaño de la muestra es pequeño y el nivel de medición
de la variable es ordinal. Se considera más poderosa que la Ji cuadrada y que la prueba
binomial; requiere que la variable dependiente sea una variable cuantitativa continua.
Alternativa. No hay opción paramétrica. Una alternativa no paramétrica es la prueba de
bondad de ajuste de Ji cuadrada.12-16 (Prentice-Hall, 1968., 1998)

1.5. La U de Mann-Whitney
es la más popular de las pruebas para el estudio de dos muestras independientes. Es
equivalente a la prueba de suma de rangos de Wilcoxon y a la prueba de dos grupos de
Kruskal-Wallis. Es la alternativa no paramétrica a la comparación de dos promedios
independientes a través de la t de Student. Se utiliza cuando se desea efectuar la comparación
de dos grupos en quienes se les ha medido una variable cuantitativa continua que no tiene
una distribución normal o cuando la variable es de tipo cuantitativa discreta. Tiene tres
asunciones:
1) La variable independiente es dicotómica y la escala de medición de la variable dependiente
es al menos ordinal;
2) Los datos son de muestras aleatorias de observaciones independientes de dos grupos
independientes, por lo que no hay observaciones repetidas;
3) La distribución de la población de la variable dependiente para los dos grupos
independientes comparte una forma similar no especificada, aunque con una posible
diferencia en las medidas de tendencia central. Las observaciones de ambos grupos se
combinan y acomodan, con el rango promedio en el caso de pares. El número de pares debe
ser pequeño en relación al número total de observaciones. Si las poblaciones son idénticas en
situación, los rangos deben mezclarse al azar entre las dos muestras. Se calcula el número de
veces que una cuenta del grupo 1 precede una cuenta del grupo 2 y el número de veces que
una cuenta del grupo 2 precede una cuenta del grupo 1. La U de Mann-Whitney es el número
más pequeño de estos dos números.
Alternativas. La alternativa paramétrica es la t de Student para muestras independientes, que
es más poderosa que la U de Mann-Whitney cuando se llenan todas las asunciones, mientras
que, si los datos no se distribuyen normalmente, el tamaño de muestra es pequeño, los grupos
son de diferente tamaño, la U de Mann-Whitney es más poderosa, sobre todo cuando las colas
de la distribución son grandes y hay la presencia de residuales. Una alternativa no paramétrica
que puede ser utilizada, sobre todo si las colas de la distribución no son similares es la prueba
de la mediana (Downie N M, 1999)

1.6. La prueba Z de Kolmogorov


Está basada en la diferencia absoluta máxima entre la función de distribución acumulada
observada para ambas muestras. Cuando esta diferencia es significativamente grande, las dos
distribuciones son consideradas diferentes. La prueba de las reacciones extremas de Moses20
asume que la variable experimental afecta algunos sujetos en una dirección y otros sujetos
en la dirección opuesta. Se prueba las reacciones extremas comparadas a un grupo de control.
Esta prueba se enfoca en la distribución del grupo de control y es una medida de cuantos
valores extremos del grupo experimental influencian la distribución cuando se combinan con
el grupo de control. La prueba de rachas de Wald-Wolfowitz es una alternativa no
paramétrica para contrastar si dos muestras con datos independientes proceden de
poblaciones con la misma distribución. Combina y acomoda las observaciones de ambos
grupos. Si las dos muestras son de la misma población, los dos grupos deben distribuirse al
azar a lo largo de la clasificación jerárquica. Si hay pocas rachas habla de que se tratan de
grupos diferentes mientras que, si hay muchas rachas no hay diferencias significativas en la
distribución de los dos grupos (Siegel S, Castellan N J., 1995)
1.7. La prueba Z de Kolmogorov-Smirnov y la prueba de rachas de Wald-Wolfowitz
Son pruebas más generales que detectan diferencias en la localización y formas de las
distribuciones (Pearson, 2002)
1.8. La prueba de Kruskal-Wallis o de H
Es una extensión de la de U de Mann-Whitney; de cierta manera es el equivalente no
paramétrico del análisis de varianza de una vía y permite conocer si hay diferencias en las
distribuciones de la variable en estudio en las poblaciones. Su aplicación asume:
1) Que los datos provienen de un grupo aleatorio de observaciones;
2) Que la variable dependiente es, al menos, ordinal;
3) Que la variable independiente es nominal, con más de dos niveles;
4) Que las observaciones son independientes dentro de cada grupo y entre los grupos;
5) Que no hay medidas repetidas o categorías de respuestas múltiples; y, 5) que es similar la
forma en que la distribución de la variable dependiente dentro de cada uno de los grupos,
excepto por la posible diferencia de las medidas de tendencia central en al menos uno de
estos grupos. Se utiliza cuando la variable independiente tiene más de dos grupos y la variable
dependiente es cuantitativa continua. Alternativas. La alternativa paramétrica es el análisis
de varianza de una vía, en la que se asume la normalidad de la distribución dentro de cada
nivel de la variable dependiente y la igualdad de las varianzas entre los niveles de la variable
independiente. Las alternativas no paramétricas son la prueba de la mediana, la Ji cuadrada
de Mantel-Haenszel y la Ji cuadrada para varias muestras independientes. La prueba de la
mediana está indicada cuando la variable independiente es categórica y la variable
dependiente tiene, al menos, un nivel de medida de tipo ordinal, aunque ésta habitualmente
es cuantitativa continua, y se desea investigar diferencias entre dos o más grupos con relación
a su mediana, sea porque no cumplen las condiciones de normalidad para usar el promedio
como medida de tendencia central o porque la variable es cuantitativa discreta. Se define
como mediana al valor que en una serie ordenada de datos deja por debajo de ella a la mitad
de los valores y la otra mitad por arriba de ella. Responde a la cuestión de que si dos o más
grupos proceden de poblaciones que tienen distribuciones similares. Es especialmente útil
cuando los valores exactos de resultados extremos son truncados por abajo o por arriba de
cierto punto de corte. También está indicada cuando no hay simetría en la forma de la U de
Mann-Whitney. La prueba es directa, fácil de aplicar y es particularmente útil cuando no se
conocen los valores exactos de todos los resultados, en especial en los valores extremos. La
limitación es que esta prueba considera únicamente dos posibilidades: por arriba o por debajo
de la mediana, y no se toma en cuenta el tamaño de la diferencia entre los resultados
observados respecto a la mediana, por lo que es menos, es de menor potencia que la U de
Mann-Whitney y la H de Kruskal-Wallis. Alternativas. Hay dos alternativas paramétricas
que son: la t de Student, cuando la variable independiente es dicotómica y, cuando la variable
independiente tiene más de dos niveles, el análisis de varianza de una vía. Las alternativas
no paramétricas son la U de Mann-Whitney y la prueba H de Kruskal-Wallis, las que
generalmente se prefieren cuando se conoce el rango exacto de valores de la variable
dependiente, ya que se toma en cuenta el tamaño de las diferencias entre los resultados
observados y la gran mediana. Cuando, a priori, hay un ordenamiento natural (ascendente o
descendente) de las poblaciones, la prueba de Jonckheere-Terpstra es más poderosa (SPSS,
2001)

1.9. Prueba de rangos signados de Wilcoxon


Si los datos son binarios se usa la prueba de McNemar.27 La prueba del signo 1,2,12-16 es
una prueba simple, versátil y fácil de aplicar; puede ser usada para saber si una variable tiende
a ser mayor que otra. También es útil para probar la tendencia que siguen una serie de
variables ordinales positivas o para una valoración rápida de un estudio exploratorio. La
desventaja es que no toma en cuenta la magnitud de la diferencia entre dos variables pareadas:
computa las diferencias entre las dos variables para todos los casos y clasifica la diferencia
como positiva, negativa o empate. Si las dos variables tienen una distribución similar, el
número de diferencias positivas y negativas no diferirá significativamente.
Alternativas. La alternativa paramétrica es la t de Student pareada, aunque a la prueba del
signo se considera una eficiencia de 95% al compararla con la t de Student, por lo que esta
prueba es particularmente útil cuando el tamaño de las muestras es pequeño o cuando no se
cumplen los requisitos que exige una prueba paramétrica, como son que las variables sean
nominales o que las distribuciones estén sesgadas. Cuando las variables son, al menos,
ordinales, una alternativa no paramétrica es la prueba de rangos signados de Wilcoxon, que
permite una mejor valoración de las diferencias cuantitativas entre los pares de
observaciones. Rangos signados de Wilcoxon1,2,12-16 es una prueba flexible que se puede
utilizar en distintas situaciones, con muestras de diferente tamaño y con pocas restricciones.
Lo único que se requiere es que la variable sea continua y que sean observaciones pareadas,
es decir, que sean sujetos de una misma muestra con medidas pre y posprueba, o bien sujetos
que hayan sido pareados bajo criterios bien definidos. Contiene varias asunciones críticas:
1) Que los datos sean observaciones pareadas, de una muestra seleccionada al azar u obtenida
por pares, o bien mediante sujetos considerados como sus propios controles.
2) Que los datos que se van a analizar sean continuos, o al menos ordinales, dentro y entre
las observaciones pareadas.
3) Que haya simetría en los resultados de las diferencias con la mediana verdadera de la
población. Para efectuar esta prueba se calculan las diferencias entre los pares de datos y se
registran los valores absolutos entre ellas. Luego, los valores absolutos de las diferencias
entre las dos variables se ordenan del valor menor al mayor y para finalizar, a cada rango se
le da un signo positivo o negativo, dependiendo del signo de la diferencia original.
Los signos positivos y los negativos se suman separadamente y se obtienen los promedios.
Los pares que no tienen cambio alguno se retiran del análisis. Se usa el valor de Z para probar
la hipótesis nula de la no diferencia entre los pares. Si la hipótesis nula es cierta, la suma de
los rangos positivos debe ser similar a los rangos negativos. Como la prueba de los rangos
signados de Wilcoxon incorpora más información acerca de los datos, es más poderosa que
la prueba del signo. Alternativas. La alternativa paramétrica es la t de Student para muestras
pareadas, o relacionadas.
Las alternativas no paramétricas son la prueba del signo y la prueba binomial (Armitage P,
1997).

1.10. Prueba de Mc Nemar.


Es especialmente útil cuando se tiene un diseño pre y posprueba, en el que el sujeto sirve
como su propio control y la variable dependiente es dicotómica.27 Se usa cuando hay una
situación en la que las medidas de cada sujeto se repiten, por lo que la respuesta de cada uno
de ellos se obtiene dos veces: una vez antes y la otra después de que ocurre un evento
específico: examina la extensión del cambio de la variable dicotómica antes y después del
evento. Si la frecuencia de la respuesta en una dirección es mayor de lo esperado por el azar,
se rechaza la hipótesis nula (de que no hay cambio alguno). Tiene cuatro presunciones
críticas:
1) Que la variable dicotómica que se va a medir tenga valores asignados para cada nivel
(ej: 0 y 1), con el mismo valor en los dos periodos.
2) Que los datos representen frecuencias, no valores.
3) Que las medidas dicotómicas sean observaciones pareadas, de la misma selección aleatoria
de sujetos o de sus pares.
4) Que los niveles de la variable dicotómica sean mutuamente excluyentes, lo que significa
que un sujeto sólo puede asignarse a un nivel de la variable dicotómica que va a ser
examinada en todo el tiempo. Para efectuar la prueba lo primero es colocar los datos en una
tabla de 2 x 2, en la que numéricamente se representen los cambios de cada individuo antes
y después de la intervención. Si los datos son categóricos se usa la prueba de homogeneidad
marginal; ésta es una extensión de la prueba de McNemar de la respuesta binaria y considera
una respuesta multinomial; prueba los cambios en las respuestas que se obtiene y usa la
distribución Ji cuadrada. Es útil para reconocer cambios de la respuesta debido a la
intervención experimental en diseños antes y después.
Alternativas. No hay alternativa paramétrica. Cuando hay más de dos periodos de colección
de datos (ej: preprueba, posprueba y seguimiento) se recomienda la Q de Cochran y si los
datos son continuos y ordenados adecuadamente, la alternativa no paramétrica es la prueba
del signo o la de Wilcoxon (Visauta-Vinacua B, 1997)

1.11. Prueba de Friedman.


Es una extensión de la prueba de Wilcoxon para incluir datos registrados en más de dos
periodos de tiempo o grupos de tres o más sujetos pareados, con un sujeto de cada grupo que
ha sido asignado aleatoriamente a una de las tres o más condiciones.28,29 La prueba examina
los rangos de los datos generados en cada periodo de tiempo para determinar si las variables
comparten la misma distribución continua de su origen. Es especialmente útil cuando la
variable dependiente es continua pero su distribución se encuentra sesgada.

Alternativas. La contraparte paramétrica es el análisis de varianza intrasujetos, cuando ésta


es medida de manera repetida. Se compara con la prueba de F del análisis de varianza y se
considera que tiene un poder del 64% cuando son dos series (k = 2), de 80% cuando k = 5 y
llega a ser de 87% cuando k = 10 (R., 1996)

1.12. Prueba W de Kendall.


En cierta forma es una normalización de la estadística de Friedman.30 Se interpreta como el
coeficiente de concordancia, que es una medida de acuerdo entre los rangos. Cada caso es
una base o rango, y cada variable se considera un artículo o persona a juzgar. Para cada
variable se computa la suma de cada línea. Su valor final está comprendido entre 0 (ningún
acuerdo) y 1 (acuerdo completo). Tiene las mismas indicaciones que la prueba de Friedman,
aunque su uso en investigación ha sido, principalmente, para conocer la concordancia entre
rangos, más que para probar que hay una diferencia entre las medianas (Inst, 2003)
1.13. Q de Cochran.
Esta prueba es idéntica a la prueba de Friedman, pero se aplica cuando todas las respuestas
son binarias.31-33 Es una extensión de la prueba de McNemar ante la situación de k-
muestras. La Q de Cochran prueba la hipótesis de que varias variables dicotómicas que están
relacionadas entre sí, tienen el mismo promedio. En observaciones múltiples las variables
son medidas en el mismo individuo o en individuos pareados. Tiene la ventaja de examinar
cambios en las variables categóricas. Alternativas. No tiene equivalente paramétrico. Si los
datos son continuos se prefiere la prueba de Friedman, en especial cuando el tamaño de
muestra es pequeño (< 16) y los datos son ordenados (Reynaga-Obregón J, 2002).

Bibliografìa
Daniel WW. Biostatistics. A foundation for analysis in the health sciences. 7th ed. New York:
John Wiley and Sons Inc, 1999: 658- 736.

Gómez-Gómez M, Danglot-Banck C, Velásquez-Jones L. Bases para la revisión crítica de


artículos médicos. Rev M ex Pediat r 2001; 69: 152-9.

Reynaga-Obregón J. Estadística básica en ciencias de la salud. México: DEM SA, 2001.

Pett MA. Nonparametric statistics for health care research. Thousand Oaks, Cal: Sage
Publications Inc, 1997.

Bradley JV. Distributin-free stat isticalt ests. Englewood Cliffs, N J: Prentice-Hall, 1998.

Downie N M, Heath RW. Métodos estadísticos aplicados. 5ª ed. México: Harla, 1999: 251-
65.
Siegel S, Castellan N J. Estadística no paramétrica aplicada a las ciencias de la conducta.
4ªed. México: Editorial Trillas, 1995: 151-7.

Pearson ES. The choice of statistical test illustrated on the interpretation of data in a 2 x 2
table. Biometrika 2002; 34: 139-67.

Ferran-Aranaz M. SPSS para Windows. Análisis estadístico. Madrid: Osborne McGraw-Hill,


2001.

Armitage P, Berry G. Estadística para la investigación biomédica. 3ªed. Madrid: Harcourt


Brace, 1997: 424-43.

Visauta-Vinacua B. Análisis estadístico con SPSS para Windows. Estadística básica. Madrid:
McGraw-Hill, 1997: 238-74.
Álvarez-Cáceres R. Estadística multivariante y no paramétrica con SPSS. Aplicación a las
ciencias de la salud. Madrid: Díaz de Santos, 1996.

Kolmogorov AN. Sulla determinazione empirical di una legge di distribuzione. Giornale Inst
Ital Altuari 2003; 4: 83-91.

Reynaga-Obregón J, Gómez-Gómez M. Análisis estadístico en ciencias de la salud. México:


UNAM , 2002: 125-8.

También podría gustarte