Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Resumen de Inferencia Estadistica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

La probabilidad y los modelos de distribución

junto con las técnicas descriptivas, constituyen la base de una nueva forma de

interpretar la información suministrada por una parcela de la realidad que interesa

investigar.

Los métodos básicos de la estadística inferencial son la estimación y el contraste

de hipótesis, que juegan un papel fundamental en la investigación.

Sus objetivos son:

• Calcular los parámetros de la distribución de medias o proporciones muestrales

de tamaño n, extraídas de una población de media y varianza conocidas.

• Estimar la media o la proporción de una población a partir de la media o

proporción muestral.

• Utilizar distintos tamaños muestrales para controlar la confianza y el error

admitido.

• Contrastar los resultados obtenidos a partir de muestras.

• Visualizar gráficamente, mediante las respectivas curvas normales, las

estimaciones realizadas.

Existen dos formas de estimar parámetros: la estimación puntual y la

estimación por intervalo de confianza. En la primera se busca, con base en los datos

muestrales, un único valor estimado para el parámetro. Para la segunda, se determina un

intervalo dentro del cual se encuentra el valor del parámetro, con una probabilidad

determinada.
Conceptos básicos

POBLACIÓN: Conjunto de elementos sobre los que se observa un carácter común. Se

representa con la letra N.

MUESTRA: Conjunto de unidades de una población. Cuanto más significativa sea,

mejor será la muestra. Se representa con la letra n.

UNIDAD DE MUESTREO: Está formada por uno o más elementos de la población.

El total de unidades de muestreo constituyen la población. Estas unidades son disjuntas

entre sí y cada elemento de la población pertenece a una unidad de muestreo.

PARÁMETRO: Es un resumen numérico de alguna variable observada de la

población. Los parámetros normales que se estudian son:

- La media poblacional: X

- Total poblacional: X

- Proporción: P

ESTIMADOR: Un estimador θ*

de un parámetro θ, es un estadístico que se emplea

para conocer el parámetro θ desconocido.

ESTADÍSTICO: Es una función de los valores de la muestra. Es una variable aleatoria,

cuyos valores dependen de la muestra seleccionada. Su distribución de probabilidad, se

conoce como “Distribución muestral del estadístico”.

ESTIMACIÓN: Este término indica que a partir de lo observado en una muestra (un

resumen estadístico con las medidas que conocemos de Descriptiva) se extrapola o

generaliza dicho resultado muestral a la población total, de modo que lo estimado es el

valor generalizado a la población. Consiste en la búsqueda del valor de los parámetros

poblacionales objeto de estudio. Puede ser puntual o por intervalo de confianza

CONTRATE DE HIPÓTESIS: Consiste en determinar si es aceptable, partiendo de

datos muestrales, que la característica o el parámetro poblacional estudiado tome un

determinado valor o esté dentro de unos determinados valores.

NIVEL DE CONFIANZA: Indica la proporción de veces que acertaríamos al afirmar

que el parámetro θ está dentro del intervalo al seleccionar muchas muestras.

EL CONCEPTO DE ESTADÍSTICO Y DISTRIBUCIÓN MUESTRAL

El objetivo de la inferencia es efectuar una generalización de los resultados de la


muestra de la población. La tarea que nos ocupa ahora es conocer las distribuciones de

la probabilidad de ciertas funciones de la muestra, es decir, variables aleatorias

asociadas al muestreo o estadísticos muestrales. Éstos serán útiles para hacer

inferencia respecto a los parámetros desconocidos de una población. Por ello se habla de

distribuciones muestrales, ya que están basados en el comportamiento de las

muestras.

El primer objetivo es conocer el concepto de distribución muestral de un

estadístico; su comportamiento probabilístico dependerá del que tenga la variable X y

del tamaño de las muestras.

Sea x1.......xn, una muestra1

aleatoria simple (m.a.s) de la variable aleatoria X,

con función de distribución , se define el estadístico T como cualquier función de la

muestra que no contiene ninguna cantidad desconocida.

Los estadísticos más usuales en inferencia y su distribución asociada

considerando una población P sobre la que se estudia un carácter cuantitativo son:

Distribuciones muestrales

Consideremos todas las posibles muestras de tamaño n en una población,

entonces, como se decía anteriormente, para cada muestra podemos calcular un

estadístico (media, desviación típica, proporción,...) que variará de una a otra. Así

obtenemos una distribución de ese estadístico que se llamará distribución muestral.

Las medidas fundamentales de esta distribución son la media, la desviación

típica, también denominada error típico, y el total poblacional, y sus distribuciones

muestrales son las siguientes.

Media Muestral

VarianzaMuestral

Total Muestral
ESTIMACIÓN PUNTUAL Un estimador de un parámetro poblacional es una función de los datos
muestrales. En pocas palabras, es una fórmula que depende de los valores obtenidos de una
muestra, para realizar estimaciones. Lo que se pretende obtener es el valor exacto de un
parámetro. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de
individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de
los individuos de la muestra.

Inferencia, estimación y contraste de hipótesis

La media de la muestra puede ser un estimador de la media de la población, la cuasivarianza


muestral es un buen estimador de la varianza poblacional y el total muestral es un buen
estimador del total poblacional. Por tanto, una definición más matemática de un estimador y
las propiedades que debe de cumplir un estimador para ser bueno. Sea X1......Xn, una m.a.s. de
tamaño n, decimos que es un estimador θ* de un parámetro θ si el estadístico que se emplea
para conocer dicho parámetro desconocido es este.

Propiedades deseables de un estimador Las propiedades o criterios para seleccionar un buen


estimador son los siguientes:

A) Insesgadez: Diremos que un estimador θ* de un parámetro θ es insesgado si su esperanza


coincide con el verdadero valor del parámetro. E[θ* ] = θ. En el caso de que no coincidan,
diremos que el estimador es sesgado.

B) Eficiencia: Dados dos estimadores θ1 * y θ2 * para un mismo parámetro θ, se dice que θ1 *


es más eficiente que θ2 * si: V[θ1 * ] < V[θ2 * ].

C) Suficiencia: Se dice que un estimador de un parámetro es suficiente cuando para su cálculo


utiliza toda la información de la muestra.

D) Consistencia: Decimos que un estimador θ* de un parámetro θ es consistente si la


distribución del estimador tiende a concentrarse en un cierto punto cuando el tamaño de la
muestra tiende a infinito

Métodos para obtener estimadores

El demostrar que un cierto estimador cumple estas propiedades puede ser complicado en
determinadas ocasiones. Existen varios métodos que nos van a permitir obtener los
estimadores puntuales. Los más importantes son:

• MÉTODO DE LOS MOMENTOS: se basa en que los momentos poblacionales y se estiman


mediante los momentos muestrales. Suelen dar estimadores consistentes.

• MÉTODO DE MÍNIMOS CUADRADOS: consiste en obtener un estimador que hace mínima una
determinada función.

• MÉTODO DE MÁXIMA VEROSIMILITUD: consiste en tomar como parámetro poblacional el


valor de la muestra que sea más probable, es decir, que tenga mayor probabilidad. Se suelen
obtener estimadores consistentes y eficientes. Es el más utilizado.

ESTIMACIÓN POR INTERVALOS DE CONFIANZA

El intervalo de confianza está determinado por dos valores dentro de los cuales afirmamos
que está el verdadero parámetro con cierta probabilidad. Son unos límites o margen de
variabilidad que damos al valor estimado, para poder afirmar, bajo un criterio de probabilidad,
que el verdadero valor no los rebasará. Es una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde
θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una
determinada certeza o nivel de confianza.

CONTRASTE DE HIPÓTESIS

El problema central de la inferencia estadística es un problema de toma de decisiones, del


cual la estimación y el contraste de hipótesis son aspectos importantes, diferenciados entre sí,
pero complementarios.

Un contraste de hipótesis o Test de hipótesis estadístico es una prueba de significación o una


prueba estadística, que indican el proceso mediante el cual decidimos si una proposición
respecto de la población, debe ser aceptada o no. Esta proposición es lo que se denomina
hipótesis estadística.

Es una regla de decisión que nos dice cuando aceptar y rechazar las hipótesis, con esto vemos
si los datos de una muestra son compatibles o no con los de la población. Una hipótesis
estadística, por tanto, es una proposición acerca de la función de probabilidad o de la función
de densidad de probabilidad de una variable aleatoria o de varias variables aleatorias. Tal
proposición debe referirse bien a la forma de la Inferencia, estimación y contraste de hipótesis
56 distribución de probabilidad, bien al valor o valores de los parámetros que lo definan o bien
a ambos. Hipótesis estadística es, una afirmación acerca de la distribución de la población.
Puede haber hipótesis estadísticas en contextos paramétricos y no paramétricos.

Región de Rechazo o Región Crítica:

La formada por el conjunto de los valores del estadístico de contraste que nos llevan a
rechazar la hipótesis nula H0, se llama región crítica (los puntos que delimitan la región crítica
se llaman puntos críticos). • Región de Aceptación o Región de No Rechazo: Es la formada por
el conjunto de los valores del estadístico de contraste que nos lleva a aceptar la hipótesis nula
H0.

Cálculo del estadístico y toma de decisión

Antes de poder tomar una decisión se debe recopilar los datos con los que se van a trabajar, es
decir, se obtienen los datos de una ó varias muestras y los estimadores del parámetro
(proporción, media, etc.) correspondiente, calculamos el valor concreto del estadístico de
contraste y fijado el nivel de significación con la zona crítica, si el valor de tal estadístico cae en
la zona crítica, rechazamos las hipótesis nula y por tanto, aceptamos la hipótesis alternativa. En
este caso debemos interpretar que no hay evidencia suficiente para decidir que es falsa. En
caso contrario se aceptará la hipótesis nula.

Errores en los contrates de hipótesis

Cuando se realiza un contraste de hipótesis, siempre debemos tener en cuenta que cuando
aceptamos o rechazamos una hipótesis puede que estemos cometiendo un cierto error.
Cuando Rechazamos Ho, significa que Ho es falsa y cuando aceptamos Ho, significa que Ho es
verdadera. Por tanto, se pueden considerar, dos tipos de errores que se pueden cometer
cuando se realiza un contraste:

- Error tipo I (α ): Es el error que se comete en la decisión del contraste cuando se rechaza la
hipótesis nula (Ho), siendo correcta (cierta).
- Error tipo II (β): Es el error que se comete en la decisión del contraste cuando se acepta la
hipótesis nula (Ho), siendo falsa.

Potencia de un contrate

Se llama potencia de un contraste a la probabilidad de rechazar Ho, cuando es falsa. Su


probabilidad es 1-β. Más estrictamente debería llamarse potencia de región crítica. No es más
que la probabilidad de que ésta detecte una Ho falsa dado un valor para H1. Los valores de α y
β no tienen la misma importancia psicológica.

Es el investigador el que en cada caso deberá saber que error tiene más importancia para
tratar de disminuirlo. Para disminuir el valor de α es necesario aumentar el tamaño de la
muestra.

Curvas de potencia de un contrate Fijado un nivel de significación (α )

una hipótesis nula y una hipótesis alternativa, tendremos una potencia para cada valor que
tome la hipótesis alternativa (H1). La curva Apuntes de Estadística II 61 que se obtiene al
relacionar los posibles valores de H1 con los correspondientes (1-β), se llama curva de potencia
o función de potencia. Cuanto mayor es el nivel de significación (probabilidad Error Tipo I)
mayor es la potencia.

Efecto del tamaño de la muestra en la potencia

Se trata de poner de manifiesto cómo, manteniendo constante α , al aumentar el tamaño de la


muestra decrece el valor de β, y por tanto, se incrementa la potencia, la capacidad del
contraste para distinguir H0 y H1. Al igual que ocurría en los intervalos de confianza, el tamaño
de la muestra será importante para determinar el error que se comete o cual es el tamaño de
la muestra necesario para mantener un determinado error mínimo. 5.10.

- Nivel de significación y nivel critico Se puede definir el “nivel de significación (α)” como la
máxima probabilidad de rechazar la Ho cuando es cierta. El nivel de significación lo elige el
investigador antes de realizar el contrate, para que no influya en su decisión. Por lo tanto el
nivel de significación representa el riesgo máximo admisible al rechazar Ho. El nivel crítico se
calcula después de obtener el valor del estadístico de contraste y representa el riesgo mínimo
con el que se rechaza Ho. 5.11.

Violación de los supuestos en los contrastes de hipótesis A continuación, se detalla de forma


esquemática en que situaciones se deben utilizar otras distribuciones asociadas a la normal.
5.11.1.-

Utilización de la distribución T-Student, en el contraste de μ

a) Independencia: m.a.s. y población pequeña

b) Normalidad: Si la muestra es grande no presenta serios problemas. Si la muestra es


pequeña los contrastes unilaterales aumentan el error. Por lo tanto, si la muestra es grande
haremos un contraste unilateral, si utilizamos la distribución t-student y no se puede asumir
que la población es normal. 5.11.2.-

Utilización de la distribución T-Student, en el contraste de μ1 - μ2

a) Independencia: Muy importante.

b) Normalidad.

También podría gustarte