Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
10 vistas14 páginas

Tema 4

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 14

MODELOS PROBABILISTICOS.

Son modelos matemáticos apropiados para situaciones reales en condiciones específicas,


son importantes porque nos ayudan a predecir la conducta de futuras repeticiones de un
experimento aleatorio. Los modelos pueden ser discretos o continuos. Los modelos o
distribuciones discretas más comunes son: La Uniforme, Binomial, Poisson y la
hipergeométrica Dado que el enfoque del texto es presentar los modelos más usados en
investigación, y más específicamente en áreas sociales y humanísticas, acá se abordarán
los temas de la Binomial, la cual es base para definir los tamaños muéstrales y la Poisson,
de gran utilidad en teoría de colas o fenómenos de espera. Además, la hipergeométrica
en muchos casos (n grande) se aproxima con el modelo Binomial. En cuanto a las
continuas, se utilizan fundamentalmente las siguientes: Z de la Normal, T de Student, F de
Snedecor y la Ji cuadrado ( 2), las cuales serán objeto de estudio.
Los modelos o distribuciones discretas más comunes son: La Uniforme, Binomial, Poisson
y la hipergeométrica Dado que el enfoque del texto es presentar los modelos más usados
en investigación, y más específicamente en áreas sociales y humanísticas, acá se
abordarán los temas de la Binomial, la cual es base para definir los tamaños muéstrales y
la Poisson, de gran utilidad en teoría de colas o fenómenos de espera. Además, la
hipergeométrica en muchos casos (n grande) se aproxima con el modelo Binomial. En
cuanto a las continuas, se utilizan fundamentalmente las siguientes: Z de la Normal, T de
Student, F de Snedecor y la Ji cuadrado ( 2 ), las cuales serán objeto de estudio.
Funciones de Probabilidad

 Variable Discreta
Un modelo probabilístico de un experimento requiere asociar un valor de probabilidad a
cada punto del espacio muestral. En el caso de las variables aleatorias discretas, la
función que asocia una probabilidad a la variable se denomina función de probabilidad de
masa
(fpm), y se designa por px(x0) .
Esta función representa la probabilidad que la variable aleatoria X tome el valor x0 en la
realización del experimento. Usualmente, la función de probabilidad de masa se
representa por un gráfico de barras para cada valor de la variable aleatoria. Cualquier
función matemática es una posible función probabilidad de masa siempre que cumpla las
siguientes dos propiedades que se derivan directamente de los axiomas de probabilidad.
En primer lugar, su valor debe estar comprendida entre 0 y 1 ya que representa una
probabilidad, y en segundo término la sumatoria para todos los posibles valores de x debe
ser unitaria, ya que representa la probabilidad del evento universal. El concepto de
función probabilidad de masa puede extenderse al caso de varias variables. En especial,
para dos variables, se define la función de probabilidad de masa compuesta, como la
probabilidad que los valores experimentales de la variable aleatoria X e Y, al realizar un
experimento sean iguales a x0 e y0 respectivamente y se designa por

pXY (x0 , y0 ).
Análogamente al caso anterior, esta función tiene las siguientes propiedades:

Las funciones pX(x0 ) y pY(y0 ) se denominan funciones de probabilidad de masa


marginales. Dos conceptos adicionales de gran utilidad son la función de probabilidad
acumulada o función distribución acumulada (FDA) y la noción del valor esperado. Se
define función distribución acumulada (FDA) a la función que establece la probabilidad
que la variable aleatoria X tome valores menores o iguales a un valor dado en la
realización del experimento.

Esta función es siempre positiva, está comprendida entre 0 y 1 y es creciente, debido a


los axiomas de probabilidad y a las propiedades de la función probabilidad de masa. El
valor esperado de una función bi-unívoca de una variable aleatoria X es la sumatoria para
todos los posibles valores de X del producto de la función por la fpm evaluada en el
mismo punto que la función.

En particular, son importantes algunos casos especiales de la función g(x) como ser el
valor esperado de potencias enteras de x, los cuales se denominan momentos de x. Se
puede definir también, la potencia centrada con respecto al valor esperado o momento
central n-ésimo de x. El primer momento de x se conoce también como valor esperado o
promedio de x (E(x)) y el segundo momento central se conoce como varianza de x (sx 2) :
Variable Continua
La probabilidad asociada a una variable continua está representada por la función
densidad de probabilidades (fdp). Si X es una variable aleatoria continua en el rango -∞ a
+ ∞ se define:

Siendo fX(x) = la función densidad de probabilidades. La integral representa el área


marcada (Figura 2.1), la cual es igual a la probabilidad que el valor de la variable aleatoria
x esté comprendido en el intervalo a, b. Esta función tiene la propiedad de ser positiva y
de encerrar un área unitaria bajo ella al ser integrada para todo el rango de la variable
aleatoria. Es decir, se cumple que:

Área que representa la Prob (a ≤ x ≤ b)


Es importante recalcar que en este caso la probabilidad de un evento está asociada al
área bajo la curva de la función densidad de probabilidades y no al valor de la función, lo
cual implica que siendo X una variable continua, la probabilidad asociada a un valor
específico es nula y sólo se puede hablar de probabilidad asociada a un intervalo de la
variable. Se define función de distribución acumulada (FDA) de la variable X a la
probabilidad de que la variable aleatoria sea menor o igual a un valor dado:
Es importante recalcar que en este caso la probabilidad de un evento está asociada al
área bajo la curva de la función densidad de probabilidades y no al valor de la función, lo
cual implica que siendo X una variable continua, la probabilidad asociada a un valor
específico es nula y sólo se puede hablar de probabilidad asociada a un intervalo de la
variable. Se define función de distribución acumulada (FDA) de la variable X a la
probabilidad de que la variable aleatoria sea menor o igual a un valor dado:

La función distribución acumulada mide la probabilidad que en una realización cualquiera


de un experimento el valor de la variable sea menor o igual al valor x0 y tiene las
siguientes propiedades:

Si un experimento queda definido por varias variables aleatorias, entonces las


probabilidades se determinan mediante una función densidad de probabilidades
compuesta. Los valores esperados y los momentos se calculan mediante la integración
del producto de la función densidad de probabilidades por la función para todo el rango de
la variable aleatoria.

o bien en el caso de dos variables:


En la Tabla 2.1 se resumen las expresiones para las funciones densidad de probabilidades y
funciones de distribución acumulada para los modelos de uso habitual en los estudios
hidrológicos.
Suma de variables aleatorias independientes Cuando se estudiaron las variables
aleatorias bidimensionales se habló de una función de variable aleatoria bidimensional. En
particular se nombró la suma de n variables aleatorias, pero no se dijo nada sobre la
distribución de esa v.a. suma. Es a menudo importante saber cuál es la distribución de
una suma de variables aleatorias independientes. Consideramos algunos ejemplos en el
caso discreto
1- Suma de variables aleatorias independientes con distribución Poisson

En la expresión anterior si j  r entonces  0


 Por último, usamos la siguiente identidad combinatoria

Suma de variables aleatorias normales independientes Si X e Y son dos variables


aleatorias continuas independientes con densidades g(x) y h(y) respectivamente se
puede probar (no lo demostraremos aquí) que la v.a. Z  X Y tiene densidad dada
Usando esto se puede demostrar el siguiente importante resultado:

El teorema del límite central: las medias de muestras grandes y aleatorias son
aproximadamente normales
El teorema del límite central es un teorema fundamental de probabilidad y estadística.
El teorema describe la distribución de la media de una muestra aleatoria proveniente
de una población con varianza finita. Cuando el tamaño de la muestra es lo
suficientemente grande, la distribución de las medias sigue aproximadamente una
distribución normal. El teorema se aplica independientemente de la forma de la
distribución de la población. Muchos procedimientos estadísticos comunes requieren
que los datos sean aproximadamente normales. El teorema de límite central le permite
aplicar estos procedimientos útiles a poblaciones que son considerablemente no
normales. El tamaño que debe tener la muestra depende de la forma de la distribución
original. Si la distribución de la población es simétrica, un tamaño de muestra de 5
podría producir una aproximación adecuada. Si la distribución de la población es
considerablemente asimétrica, es necesario un tamaño de muestra más grande. Por
ejemplo, la distribución de la media puede ser aproximadamente normal si el tamaño
de la muestra es mayor que 50.
Las siguientes gráficas muestran ejemplos de cómo la distribución afecta el tamaño de
la muestra que se necesita.

Muestras de una población uniforme

Una población que sigue una distribución uniforme es simétrica, pero marcadamente no
normal, como lo demuestra el primer histograma. Sin embargo, la distribución de las
medias de 1000 muestras de tamaño 5 de esta población es aproximadamente normal
debido al teorema del límite central, como lo demuestra el segundo histograma. Este
histograma de las medias de las muestras incluye una curva normal superpuesta para
ilustrar esta normalidad.

Generación de Números Aleatorios Números


“elegidos al azar” son útiles en diversas aplicaciones, entre las cuáles podemos
mencionar: • Simulación o métodos de Monte Carlo: se simula un proceso natural en
forma computacional. Estas aplicaciones se realizan en muy variados campos con el fin
de emular distintos comportamientos: física (por ejemplo, para simular colisiones entre
partículas), ingeniería (diseño de obras hidráulicas, puentes, etc.), inversiones de capital,
redes, servicios a clientes, call centers, etc. La simulación a través de la computadora es
una herramienta poderosa para comprender la naturaleza de sistemas complejos. •
Muestreo: con el fin de seleccionar una submuestra de una población. • Análisis
Numérico: algunas técnicas para resolver problemas de análisis numérico-complejos han
sido desarrolladas usando números aleatorios. • Programación: la generación de valores
aleatorios puede ser útil para poner a prueba la efectividad de un algoritmo. También son
útiles en criptología. A pesar de que fue en la década del 40 que las primeras
computadoras modernas fueron desarrolladas, la simulación ya existía en forma
embrionaria aún antes de que la computadora apareciera en escena. Así, por ejemplo, en
la segunda mitad del siglo XIX, se realizaban experiencias arrojando agujas al azar sobre
una superficie reglada con el fin de estimar el número π. En 1908 W. S. Gosset, bajo el
seudónimo de Student, realizaba un muestreo experimental con el fin de descubrir la
distribución de un estimador de la correlación en una distribución normal bivariado. En ese
momento los números aleatorios se generaban mediante métodos observacionales
(mecanismos físicos) tales como tirar un dado, extraer una carta de un mazo o mediante
una ruleta. Dado el esfuerzo que significaba generar números aleatorios cada vez que
eran necesarios, parece razonable que se hayan construido tales números y luego
tabulado. Tippett (1927) publicó una tabla con 41600 números aleatorios “tomados en
forma aleatoria de informes censales”. Cada número era uno de los enteros 0, 1, 2, 3, 4,
5, 6, 7, 8, 9 y el usuario tomaba varios de ellos y agregaba un punto decimal para formar
un número aleatorio entre 0 y 1. Desde ese momento una serie generadores de números
aleatorios fueron propuestos. La primera máquina fue usada en 1939 por Kendall y
Babington-Smith con el fin de producir una tabla de 100000 de dígitos aleatorios y en
1955 la RAND Corporation utilizó extensamente una tabla de 1000000 dígitos aleatorios
que fue obtenida a partir de una ruleta electrónica especialmente diseñada. ERNIE fue
una famosa máquina de números aleatorios que fue usada por la lotería británica, es decir
la British Premium Savings Bonds Lottery. Poco después de la aparición de las
computadoras, se comenzó a buscar maneras eficientes de obtener números aleatorios,
pues aun cuando se podían usar las tablas existentes éste era un recurso limitado, ya sea
por el espacio de memoria necesario como por resultar, en algunos casos, cortas. Si bien
máquinas como ERNIE podrían haber trabajado junto con una computadora, una solución
en la que la computadora provee todo parecía más satisfactoria. La búsqueda se orientó,
entonces, a la producción de números
aleatorios usando operaciones aritméticas de una computadora. John von Neumann
sugirió en un principio, alrededor de 1946, usar el método del “cuadrado medio”. Su idea
era calcular el cuadrado del número aleatorio anterior y tomar los dígitos del medio del
número calculado. Así, por ejemplo, si queremos generar un número aleatorio de 10
dígitos y el número anterior es
5772156649 33317792380594909201
el nuevo número será 7923805949.
La primera pregunta que cabe hacer es porqué motivo un número generado por este
procedimiento que es determinístico, va a resultar aleatorio. La respuesta es que el
número no es aleatorio, pero parece serlo, en el sentido en que en una aplicación la
relación real entre un número y el siguiente no tiene ningún significado físico. Por lo tanto,
el carácter no aleatorio no es una característica indeseable y podría ser que el “cuadrado
medio” resultase ser un buen “batido” del número anterior. Es claro, de todas formas, que
un mecanismo de esta naturaleza no podría haber reemplazado a ERNIE.
Las secuencias de números generadas en forma determinística reciben el nombre de
secuencias pseudo-aleatorias o quasi-aleatorias, si bien nosotros nos referiremos a ellas
como secuencias aleatorias, sobreentendiendo que sólo “parecen” aleatorias. Números
aleatorios generados en forma determinística en una computadora funcionan muy bien en
muchísimas aplicaciones, a condición de que el método de generación sea bueno.
Volviendo a la propuesta de von Neumann, ésta no parece ser una buena fuente de
números aleatorios. Podría suceder que la secuencia caiga en un ciclo corto de
repeticiones, siendo el caso extremo el del cero el cual, si aparece en la secuencia,
seguirá repitiéndose siempre. A partir de los años 50 se realizaron diversas experiencias
con el método propuesto por von Neumann. Trabajando con números de 4 dígitos en
lugar de 10, G. E. Forsythe probó con 16 números iniciales. Con 12 de ellos terminó con
el ciclo 6100, 2100, 4100, 8100, 6100, etc. Y con otras dos terminó en cero. En efecto,
Ésto muestra que la elección de los números m, a y c es crucial y que siempre se caerá
en un loop, es decir en un ciclo de repeticiones, que se llama período. Es claro que cuanto
más grande sea m, mayor es la posibilidad de que el período sea largo. En realidad, las
distintas elecciones de los parámetros son sometidas a una batería de tests con los que
se chequean las propiedades de los números generados. Como ya observamos más
arriba, con estos algoritmos se generan números aleatorios que se comportan como si
proviniesen de una distribución U(0,1). La pregunta que es razonable hacerse es “porqué
ésto es suficiente”. El siguiente teorema nos da una respuesta.
Teorema: Sean U una variable aleatoria con distribución U(0,1) y G una función de
distribución acumulada continua y estrictamente creciente. Si ( ) 1 X G U − = , entonces la
función de distribución acumulada de X es G , es decir F G. X = Dem: Recordemos que si
U ~ U(0,1) , entonces su función de distribución es de la forma

Si la distribución G tiene saltos o es constante de a trozos, no existirá su inversa. Sin


embargo se puede demostrar que existe una H con las propiedades requeridas en el
teorema anterior, de manera que, aunque sin demostración, enunciaremos el siguiente
resultado.

También podría gustarte