Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Investigacion Unidad 4

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

INSTITUTO TECNOLÓGICO SUPERIOR DE TAMAZUNCHALE

ACTIVIDAD - INVESTIGACIÓN

UNIDAD 4: DISTRIBUCIONES DE PROBABILIDAD

Materia: Probabilidad y Estadística

Docente: Ing. Susana Gonzales Zamudio

Carrera: Ingeniería en Sistemas Computacionales

Semestre: 2

Turno: Matutino 1

Números de control:

21ISC014

21ISC020

21ISC016

Alumna:

Nora Itzel Bautista Celedonio

Kevin Isaí Castillo Hernández

Jhonatan Alexis Chávez Pérez

Fecha: 26/Abril/2022
ÍNDICE

4.1 FUNCIÓN DE PROBABILIDAD ..................................................................................... 3

4.2 DISTRIBUCIÓN BINOMIAL ........................................................................................... 3

4.3 DISTRIBUCIÓN HIPERGEOMÉTRICA ......................................................................... 5

4.4 DISTRIBUCIÓN DE POISSON ...................................................................................... 6

4.5 DISTRIBUCIÓN NORMAL ............................................................................................. 7

4.6 DISTRIBUCIÓN T-STUDENT ........................................................................................ 9

4.7 DISTRIBUCIÓN CHI CUADRADA ............................................................................... 10

4.8 DISTRIBUCIÓN F ........................................................................................................ 10

CONCLUSIONES GENERALES ....................................................................................... 12

BIBLIOGRAFÍA .................................................................................................................. 13
4.1 FUNCIÓN DE PROBABILIDAD

Se define la función de probabilidad de la variable aleatoria X como la que asocia una


probabilidad pi a cada valor posible de X (x1, x2,..., xn). Respecto a las probabilidades, se
cumple siempre que:

Ejemplo: La variable aleatoria X es el resultado de tirar un dado. Suponiendo que las seis
caras del dado son equiprobables, las probabilidades de cada resultado son:

p (X = 1) = p (X = 2) =…….. p (X = 6) = 1/6

Se puede comprobar que se cumple que

4.2 DISTRIBUCIÓN BINOMIAL

Es una de las distribuciones de probabilidad de variables discretas más útiles. Sus áreas
de aplicación incluyen inspección de calidad, ventas, mercadotecnia, medicina,
investigación de opiniones entre otras.

Características de una distribución binomial:

a) En los experimentos que tienen este tipo de distribución, siempre se esperan dos
tipos de resultados, ejem. Defectuoso, no defectuoso, pasa, no pasa, favorable, no
favorable, etc., denominados arbitrariamente “éxito” (que es lo que se espera que
ocurra) o “fracaso” (lo contrario del éxito).
b) Las probabilidades asociadas a cada uno de estos resultados son constantes, es
decir no cambian.

c) Cada uno de los ensayos o repeticiones del experimento son independientes entre
sí.

d) El número de ensayos o repeticiones del experimento (n) es constante.

En un experimento en que el resultado es la ocurrencia o la no ocurrencia de un evento.

Llámese “éxito” a la ocurrencia del evento y “fracaso” a su no ocurrencia.

Además, sea p, la probabilidad de éxito cada vez que el experimento se lleva a cabo y 1-p
la probabilidad de fracaso. Supóngase que el experimento se realiza n veces, y cada uno
de éstos es independiente a todos los demás, y sea X la variable aleatoria que representa
el número de éxitos en los n ensayos.

El interés está en determinar la probabilidad de obtener exactamente X = x éxitos durante


los n ensayos. Las dos suposiciones claves para la distribución binomial son:

1. La probabilidad de éxito p, permanece constante para cada ensayo.

2. Los n ensayos son independientes entre sí.

Definición de distribución binomial:

Sea X una variable aleatoria que representa el número de éxitos en n ensayos y p la


probabilidad de éxito con cualquiera de éstos. Se dice entonces que X tiene una
distribución binomial con función de probabilidad:
4.3 DISTRIBUCIÓN HIPERGEOMÉTRICA

En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta


relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una
población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La
distribución hipergeométrica mide la probabilidad de obtener x ( ) elementos de
la categoría A en una muestra den elementos de la población original.

Propiedades

La función de probabilidad de una variable aleatoria con distribución hipergeométrica


puede deducirse a través de razonamientos combinatorios y es igual a

Donde es el tamaño de población, es el tamaño de la muestra extraída, es el


número de elementos en la población original que pertenecen a la categoría deseada
y es el número de elementos en la muestra que pertenecen a dicha categoría. La

notación hace referencia al coeficiente binomial, es decir, el número de


combinaciones posibles al seleccionar elementos de un total.

El valor esperado de una variable aleatoria X que sigue la distribución hipergeométrica es

y su varianza,

En la fórmula anterior, definiendo

y
Se obtiene

La distribución hipergeométrica es aplicable a muestreos sin reemplazo y la binomial a


muestreos con reemplazo. En situaciones en las que el número esperado de repeticiones
en el muestreo es presumiblemente bajo, puede aproximarse la primera por la segunda.
Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N, es
pequeño.

4.4 DISTRIBUCIÓN DE POISSON

En teoría de la probabilidad y estadística, la distribución de Poisson es una distribución de


probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la
probabilidad de que ocurra un determinado número de eventos durante cierto período de
tiempo. Concretamente, se especializa en la probabilidad de ocurrencia de sucesos con
probabilidades muy pequeñas, o sucesos "raros".

Fue descubierta por Simeon-Denis Poisson, que la dio a conocer en 1838 en su trabajo
Recherches sur la probabilité des jugements en matières criminelles et matière civile
(Investigación sobre la probabilidad de los juicios en materias criminales y civiles).

La función de masa o probabilidad de la distribución de Poisson es

Dónde:

k es el número de ocurrencias del evento o fenómeno (la función nos da la


probabilidad de que el evento suceda precisamente k veces).

λ es un parámetro positivo que representa el número de veces que se espera que


ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado
tiene lugar en promedio 4 veces por minuto y estamos interesados en la
probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos
un modelo de distribución de Poisson con λ = 10×4 = 40.

e es la base de los logaritmos naturales (e = 2,71828...)


Tanto el valor esperado como la varianza de una variable aleatoria con distribución de
Poisson son iguales a λ. Los momentos de orden superior son polinomio de Touchard en
λ cuyos coeficientes tienen una interpretación combinatoria De hecho, cuando el valor
esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de particiones de tamaño n.

4.5 DISTRIBUCIÓN NORMAL

En estadística y probabilidad se llama distribución normal, distribución de Gauss o


distribución gaussiana, a una de las distribuciones de probabilidad de variable continua
que con más frecuencia aparece aproximada en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto


de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss
y es el gráfico de una función gaussiana.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos


naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran
parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables
incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse
asumiendo que cada observación se obtiene como la suma de unas pocas causas
independientes. (Desconocido, 2016)

De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin explicación


alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de
la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por


mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de


la normal son:

 Caracteres morfológicos de individuos como la estatura

 Caracteres fisiológicos como el efecto de un fármaco

 Caracteres sociológicos como el consumo de cierto producto por un mismo grupo


de individuos

 Caracteres psicológicos como el cociente intelectual


 Nivel de ruido en telecomunicaciones

 Errores cometidos al medir ciertas magnitudes

La distribución normal también aparece en muchas áreas de la propia estadística. Por


ejemplo, la distribución muestral de las medias muéstrales es aproximadamente normal,
cuando la distribución de la población de la cual se extrae la muestra no es normal.
Además, la distribución normal maximiza la entropía entre todas las distribuciones con
media y varianza conocidas, lo cual la convierte en la elección natural de la distribución
subyacente a una lista de datos resumidos en términos de media muestral y varianza. La
distribución normal es la más extendida en estadística y muchos test estadísticos están
basados en una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.

En probabilidad, la distribución normal aparece como el límite de varias distribuciones de


probabilidad, continuas y discretas.
Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental
para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha
probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la
función cuantil mediante la distribución normal.

Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales
como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

4.6 DISTRIBUCIÓN T-STUDENT

En probabilidad y estadística, la distribución t (de Student) es una distribución de


probabilidad que surge del problema de estimarla media de una población normalmente
distribuida cuando el tamaño de la muestra es pequeño.

Aparece de manera natural al realizar la prueba t de Student para la determinación de las


diferencias entre dos medias muéstrales y para la construcción del intervalo de confianza
para la diferencia entre las medias de dos poblaciones cuando se desconoce la
desviación típica de una población y ésta debe ser estimada a partir de los datos de una
muestra. (Ramón, 2012)

Propiedades:

La distribución t de Student es la distribución de probabilidad del cociente:

Dónde:

 Z tiene una distribución normal de media nula y varianza 1

 V tiene una distribución ji-cuadrado con grados de libertad

 Z y V son independientes
4.7 DISTRIBUCIÓN CHI CUADRADA

En estadística, la distribución χ² (de Pearson), llamada Chi cuadrado o Ji cuadrado, es


una distribución de probabilidad continua con un parámetro que representa los grados
de libertad de la variable aleatoria

Donde son variables aleatorias normales independientes de media cero y varianza uno.
El que la variable aleatoria tenga esta distribución se representa habitualmente

así:

Es conveniente tener en cuenta que la letra griega χ se transcribe al latín como chi y se
pronuncia en castellano como ji.

Propiedades:

Función de densidad

Su función de densidad es:

Donde es la función gamma.

4.8 DISTRIBUCIÓN F

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de


probabilidad continua. También se le conoce como distribución F de
Snedecor (por George Snedecor) o como distribución F de Fisher-Snedecor.

Una variable aleatoria de distribución F se construye como el siguiente cociente:

Donde

 U1 y U2 siguen una distribución chi-cuadrado con d1 y d2 grados de libertad


respectivamente, y
 U1 y U2 son estadísticamente independientes.

La distribución F aparece frecuentemente como la distribución nula de una prueba


estadística, especialmente en el análisis de varianza. Véase el test F.

La función de densidad de una F(d1, d2) viene dada por

Para todo número real x ≥ 0, donde d1 y d2 son enteros positivos, y B es la función beta.

La función de distribución es

Donde I es la función beta incompleta regularizada.


CONCLUSIONES GENERALES

Gracias a la elaboración de este proyecto, nuestro equipo concluye que, las diferentes
distribuciones nos aportan diferentes soluciones a distintos problemas.

Mediante fórmulas y procedimientos puede encontrarse la solución, también nos sirve


para la vida cotidiana, por ejemplo: estimar la media de una población en general y otros
son utilizados para test estadísticos.
BIBLIOGRAFÍA

Desconocido. (13 de Mayo de 2016). Blogger.com. Obtenido de


http://estadistidicadelaprobabilidadachury.blogspot.com/2016/05/unidad-4-
distribuciones-de-probabilidad.html

Ramón, I. J. (15 de Junio de 2012). Blogger.com. Obtenido de


http://probabilidadyestadisticaitsav.blogspot.com/2012/06/47-distribucion-t-
student.html

También podría gustarte