Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Estadistica Listo

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA EDUCACIÓN UNIVERSITARIA,


CIENCIA Y TECNOLOGÍA
UNIVERSIDAD “DR. JOSE GREGORIO HERNÁNDEZ”
CATEDRA: ESTADISTICA INFERENCIAL
GRUPO # 1. TURNO: DIURNO
FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES, INGENIERIA Y
EDUCACION

NOMBRE Y APELLIDO:
Arroyo Amaury ci. 30604605
Da silva Monica ci. 27284433
Lugo Jeynnileth ci. 26559886
Guanipa Andres ci. 31326995

MARACAIBO, ABRIL DE 2023


1. ANALISIS DE CORRELACION ENTRE DOS VARIABLES.

La correlación es una medida estadística que indica el grado de relación entre


dos variables. En concreto, la correlación lineal sirve para determinar cuánto de
correlacionadas linealmente están dos variables distintas.
Dos variables están relacionadas cuando al variar los valores de una variable
también cambian los valores de la otra variable. Por ejemplo, si al aumentar la
variable A también aumenta la variable B, existe una correlación entre las variables
A y B.

A) DIAGRAMAS DE DISPERSION

Los diagramas de dispersión reciben varios nombres diferentes, tales


como diagrama de correlación o nube de puntos.

Cabe destacar que el diagrama de dispersión se considera como una de las


herramientas básicas de control de calidad, junto con el diagrama de Pareto, el
diagrama de causa-efecto, el diagrama de flujo, etc.

Para hacer un diagrama de dispersión debes seguir los siguientes pasos:

1. Recolectar los datos estadísticos de la muestra que se quiere analizar.


Ten en cuenta que para poder hacer un diagrama de dispersión debe
haber como mínimo dos variables cuantitativas.

2. Representar los dos ejes del gráfico de dispersión.

3. Determinar las dos variables estadísticas que se representarán


gráficamente.

4. Calibrar la escala de cada eje de la gráfica. Para ello, se recomienda


encontrar primero el mínimo y el máximo de cada variable y, a partir
de estos valores, graduar cada eje.
5. Representar cada pareja de datos en el diagrama de dispersión con
un punto.

6. Analizar e interpretar el diagrama de dispersión obtenido.


A partir de un diagrama de dispersión se puede identificar qué tipo de correlación
tienen dos variables:

• Correlación directa (o correlación positiva): una variable aumenta


cuando la otra también aumenta.

• Correlación inversa (o correlación negativa): cuando una variable


aumenta la otra disminuye, y al revés, si una variable disminuye la otra
aumenta.

• Correlación nula (sin correlación): no existe ninguna relación entre


las dos variables.

Asimismo, independientemente de si la correlación entre las dos variables es


directa o inversa, la correlación también se puede clasificar en función de cuanto de
fuerte o débil es la relación entre ambas variables.

• Correlación fuerte: las dos variables están muy relacionadas. Los


puntos están muy juntos entre sí en el diagrama de dispersión. En
consecuencia, resulta más fácil identificar la relación entre las
variables.

• Correlación débil: existe una relación entre las dos variables, pero
resulta difícil de identificar. Los puntos están muy separados en el
diagrama de dispersión.
B) CALCULO DEL INDICE DE CORRELACION DE PEARSON

El coeficiente de correlación de Pearson, también llamado coeficiente de


correlación lineal o simplemente coeficiente de correlación, es una medida
estadística que indica la relación entre dos variables.

Para calcular el coeficiente de correlación de Pearson entre dos variables se


debe dividir la covarianza de dichas variables por la raíz cuadrada del producto de
sus varianzas.

De manera que el coeficiente de correlación de Pearson trata de cuantificar la


dependencia lineal entre dos variables aleatorias cuantitativas. A priori, valorar
numéricamente la correlación entre dos variables es complicado porque resulta
difícil determinar qué pareja de variables está más correlacionada entre sí, así pues,
el objetivo de coeficiente de correlación de Pearson es dar un valor a la relación
entre variables para luego poder comparar entre ellas.

El valor del índice de correlación de Pearson está entre -1 y +1, ambos incluidos.
Más abajo veremos cómo se interpreta el valor del coeficiente de correlación de
Pearson.
Fórmula del coeficiente de correlación de Pearson

El coeficiente de correlación de Pearson de dos variables estadísticas es igual al


cociente entre la covarianza de las variables y la raíz cuadrada del producto de la
varianza de cada variable.

Por lo tanto, la fórmula para calcular el coeficiente de correlación de Pearson es


la siguiente:

Cuando se calcula el coeficiente de correlación de Pearson sobre una población,


se suele expresar mediante la letra griega ρ. Pero cuando se está calculando el
coeficiente respecto a una muestra suele usarse como símbolo la letra r.

Cómo interpretar el coeficiente de correlación de Pearson, ya que solo


conociendo su valor no es suficiente, sino que tienes que saber analizar su
significado.

De modo que la interpretación del coeficiente de correlación de


Pearson depende de su valor:
• r=-1: las dos variables tienen una correlación perfecta negativa, por lo
que se puede trazar una recta con pendiente negativa en la que se
encuentren todos los puntos.

• -1<r<0: la correlación entre las dos variables es negativa, por lo tanto,


cuando una variable aumenta la otra disminuye. Cuanto más cerca
esté el valor de -1 significa que más relacionadas negativamente están
las variables.

• r=0: la correlación entre las dos variables es muy débil, de hecho, la


relación lineal entre ellas es nula. Esto no significa que las variables
sean independientes, ya que podrían tener una relación no lineal.

• 0<r<1: la correlación entre las dos variables es positiva, cuanto más


cerca esté el valor de +1 más fuerte es la relación entre las variables.
En este caso, una variable tiende a incrementar su valor cuando la
otra también aumenta.

• r=1: las dos variables tienen una correlación perfecta positiva, es


decir, tienen una relación lineal positiva.
2. ANÁLISIS DE REGRESIÓN

Es una técnica estadística que permite comprobar la hipótesis de que una


variable depende de otra u otras variables. Además, el análisis de regresión brinda
una estimación de la magnitud del impacto de un cambio en una variable sobre otra.
Por supuesto, esta última característica es de vital importancia para predecir los
valores futuros.

Más comúnmente, el análisis de regresión estima la esperanza condicional de la


variable dependiente dadas las variables independientes - es decir, el valor
promedio de la variable dependiente cuando se fijan las variables independientes.
Con menor frecuencia, la atención se centra en un cuantil, u otro parámetro de
localización de la distribución condicional de la variable dependiente dadas las
variables independientes.

El análisis de regresión se basa en una relación funcional entre variables y


supone, además, que la relación es lineal. Esta suposición de linealidad es
necesaria porque, en su mayor parte, las propiedades estadísticas teóricas de la
estimación no lineal no están aún bien elaboradas por los matemáticos y
econometrías.

A) Cálculo de la ecuación de regresión

Modelo de regresión lineal simple: y = β0 + β1 x + ε β0 y β1 son los


parámetros del modelo. ε es una variable aleatoria, llamada error, que explica
la variabilidad en y que no se puede explicar con la relación lineal entre x y
y. Los errores, ε, se consideran variables aleatorias independientes
distribuidas normalmente con media cero y desviación estándar σ. Esto
implica que el valor medio o valor esperado de y, denotado por E(Y/x), es
igual a β0 + β1 x. Ecuación de regresión lineal simple: E(y/x) = β0 + β1 x (
µY/x=E(Y/x) )
B) Determinación de tendencias

La palabra tendencia significa la forma en que la estadística va generalmente —


hacia arriba, a nivel o hacia abajo— a lo largo de un periodo de tiempo, de varias
semanas o incluso meses. Es la dirección general de la estadística para más de un
punto en la gráfica.

Cuando estás muy cerca del lugar donde se está trabajando en la estadística,
puedes cambiar más rápidamente lo que le está sucediendo a la estadística.

Las tendencias de las estadísticas pueden mostrar cualquier cosa desde una
Condición de Peligro a una Condición de Poder, dependiendo de la dirección de la
gráfica y qué tan pronunciada sea.

Con solo mirarla, debes hacer un promedio de los puntos altos y los puntos bajos
de la estadística y de esta manera verás la dirección general de la gráfica.

Ejemplos:

Una tendencia de Inexistencia tendría este aspecto:


Esto también sería una tendencia de Inexistencia:

Esta sería una tendencia de Peligro:

Esta sería una tendencia de Emergencia:

Como se puedes ver, no es tan pronunciada.

Esta también sería una tendencia de Emergencia, porque se derrumbará: nada


permanece en el mismo nivel durante mucho tiempo.

Esta sería una tendencia de Normal:


Cualquier ligero ascenso por encima de la línea horizontal es Normal.

Esta sería una tendencia de Afluencia:

Esta también sería una tendencia de Afluencia:

La gráfica tiene una pronunciada tendencia de Afluencia.

Esta gráfica muestra una Afluencia entrando en Poder:

La tendencia de Afluencia ha alcanzado un nuevo ámbito elevado. Poder es una


tendencia de Normal que se está manteniendo en un nivel muy, muy alto.
C) Regresión lineal múltiple

La regresión lineal múltiple es la gran técnica estadística para comprobar


hipótesis y relaciones explicativas. Ante de empezar, una serie de condiciones que
se deben cumplir para poder aplicar la regresión lineal múltiple:

• La variable dependiente (resultado) debe ser escalar (numérica) o bien ordinal de


más de 5 categorías, es decir, las categorías de la variable dependiente deben tener
un orden interno o jerarquía, p.ej. nivel de ingresos, peso, número de hijos,
justificación del aborto en una escala de 1-nunca a 10-siempre.
• Las variables independientes (explicaciones) deben ser escalares (numérica),
ordinales (también se recomienda con más de 5 categorías, p.ej. nivel de ingresos)
o dummy (variables de dos categorías donde una indica existencia u otra no-
existencia, p.ej. 1-ser soltero, 0-no ser soltero).
• Hay otras condiciones como: las variables independientes no puede estar altamente
correlacionadas entre sí, las relaciones entre las variables independientes y la
variable dependiente deben ser lineales, todas variables (o mejor dicho sus
residuales) deben seguir la distribución normal y deben tener varianzas iguales.
Estas condiciones son importantes pero hay maneras de tratar los datos si se
incumple alguna de ellas. Sobre ello volveremos en futuras entradas

Los dos primeros pasos hacen referencia a la bondad del modelo, es decir, si el
conjunto de variables independientes (explicaciones) se relacionan con la variable
dependiente (resultado)

1. Significación de F-test: si es menor de 0,05 es que el modelo es


estadísticamente significativo y por tanto las variables independientes
explican “algo” la variable dependiente, cuánto “algo” es la R-cuadrado
2. R cuadrado: es cuánto las variables independientes explican la
variable dependiente, indica el porcentaje de la varianza de la variable
dependiente explicado por el conjunto de variables independientes.
Cuanto mayor sea la R-cuadrado más explicativo y mejor será el
modelo explicativo.

Los dos siguientes pasos hacen referencia a la influencia de cada una de las
variables independientes:

3. Significación de t-test: si es menor de 0,05 es que esa variable


independiente se relaciona de forma significativa con la variable
dependiente, por tanto, influye sobre ella, es explicativa, ayuda a
predecirla
4. Coeficiente beta (β): indica la intensidad y la dirección de la relación
entre esa variable independiente (VI) y la variable dependiente (VD):

• Cuanto más se aleja de 0 más fuerte es la relación


• El signo indica la dirección (signo + indica que al aumentar los valores de la VI
aumentan los valores de la VD; signo – indica que al aumentar los valores de la VI,
los valores de la VD descienden)

3.- REGRESIÓN LINEAL Y LA TÉCNICA DEL PRONÓSTICO

A) Calculo de pronósticos en casos de la vida real

El pronóstico es el proceso de estimación en situaciones de incertidumbre. El


término predicción es similar, pero más general, y usualmente se refiere a la
estimación de series temporales o datos instantáneos. El pronóstico ha
evolucionado hacia la práctica del plan de demanda en el pronóstico diario de los
negocios. La práctica del plan de demanda también se refiere al pronóstico de la
cadena de suministros.

Ejemplo: Pronósticos de ventas: Un pronóstico de ventas es el cálculo que una


empresa lleva a cabo con el fin de establecer su nivel de ventas hacia el futuro.
B) Análisis de series de tiempo

El análisis de series temporales es una técnica estadística que se ocupa de los


datos de series temporales y el análisis de tendencias. Los datos de series
temporales siguen intervalos de tiempo periódicos que se midieron en intervalos de
tiempo regulares o se recopilaron en intervalos de tiempo particulares.

Ejemplo: Desde la perspectiva de las ciencias sociales, los datos de series


temporales podrían ser la tasa de natalidad, los datos de migración, el aumento de
la población y los factores políticos.

C) Pronósticos de series en tiempos

Son un método que se utiliza ampliamente en el análisis de


las series de tiempo para predecir una variable de respuesta, como ganancias
mensuales, comportamiento de acciones o cifras de desempleo, para un período
de tiempo determinado.

Ejemplo: En economía, los datos de series temporales pueden ser el Producto


Interno Bruto (PIB), el Índice de Precios al Consumidor, el Índice S&P 500 y las
tasas de desempleo. El conjunto de datos podría ser el producto interno bruto de un
país a partir de los datos económicos de la reserva federal.

También podría gustarte