Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

11 Proceso Bernoulli

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 12

Clase 11: El proceso de Bernoulli

Matías Carrasco
26 de agosto de 2019

Resumen El proceso de Bernoulli es un modelo probabilístico para la


repetición de ensayos independientes. De interés son la cantidad de éxi-
tos en n ensayos (la distribución binomial) y el tiempo de espera entre
dos éxitos consecutivos (la distribución geométrica).

Índice
El proceso de Bernoulli 1

La distribución binomial 2
La distribución geométrica 6
Aplicación al lanzamiento de una moneda 9

El proceso de Bernoulli

En esta sección estudiaremos un modelo matemático de ensayos re-


petidos, conocido como el proceso de Bernoulli, en el cual cada ensayo
puede resultar en la ocurrencia de un cierto evento de interés.1 A la 1
El modelo fue creado por el matemáti-
ocurrencia del evento la llamaremos “éxito” y a la no ocurrencia “fra- co suizo Jakob Bernoulli en 1713.

caso”.
Algunos ejemplos son:

Naturaleza del ensayo Significado de éxito Significado de fracaso Probabilidades p y q


Lanzar una moneda justa sale cara sale cruz 1/2 y 1/2
Lanzar un dado equilibrado sale un seis no sale un seis 1/6 y 5/6
Lanzar un par de dados sale doble seis no sale doble seis 1/36 y 35/36
Nacimiento de un bebé es mujer es varón 0.487 y 0.513

Supongamos que en cada ensayo la probabilidad de éxito es p, la


probabilidad de fracaso es q = 1 − p, y además que los ensayos son
independientes.2 El proceso consiste en repetir cada ensayo infinitas 2
En este caso decimos que son ensayos
veces e ir llevando un registro de éxitos y fracasos. Podemos llevar de Bernoulli.

un registro de los ensayos utilizando secuencias de 00 s y 10 s. Cada vez


que ocurre un éxito ponemos un 1, y cada vez que ocurre un fracaso
ponemos un 0.
Estamos interesados en tres tipos de variables aleatorias asociadas
al proceso de Bernoulli:

La primera nos indica si hubo un éxito o un fracaso en el i-ésimo


clase 11: el proceso de bernoulli 2

ensayo. Así, llamaremos



1 si éxito en el i-ésimo ensayo;
Xi = (1)
0 si fracaso en el i-ésimo ensayo.

Claramente cada Xi es una variable Bernoulli con probabilidad de


éxito igual a p.

La segunda nos indica cuántos éxitos hubo en n ensayos. Así, lla-


mamos
S n = X1 + · · · + X n . (2)
La cantidad de éxitos es igual a la suma de las n primeras Xi ya que
cada una de ellas vale 1 cuando ocurre un éxito y 0 si no. A esta
variable la llamaremos binomial de parámetros n y p.

La tercera nos indica el tiempo que transcurre entre dos éxitos con-
secutivos. Así, llamamos

T1 = tiempo hasta el primer éxito = mı́n {i ≥ 1 : Xi = 1} (3)



T2 = tiempo entre 1er y 2do éxito = mı́n i ≥ 1 : XT1 +i = 1
..
.

A las variables Tn las llamaremos tiempos de espera entre éxitos, y


diremos que tienen distribución geométrica de parámetro p.

S9 = 4

T4

T3

T2

T1

1 2 3 4 5 6 7 8 9
Xi 0 1 0 1 0 1 0 0 1

Vamos a estudiar cada una de ellas en más detalle.

La distribución binomial

El problema es encontrar una fórmula para la probabilidad de ob-


tener k éxitos en n ensayos de Bernoulli (por lo tanto independientes).
clase 11: el proceso de bernoulli 3

Esto se puede resolver analizando un árbol de probabilidades con to-


dos los resultados posibles en n ensayos. La Figura 1 muestra el árbol
para n = 4.

Figura 1: Árbol de probabilidades pa-


ra obtener la fórmula de la distribución
binomial.

Cada camino hacia abajo n pasos en el árbol representa un resultado


posible de los primeros n ensayos del proceso. El k-ésimo nodo de la
fila n representa el evento

{Sn = k} = {k éxitos en n ensayos} .

La expresión dentro de cada nodo es su probabilidad en términos de


p y q = 1 − p. Esta expresión es la suma de las probabilidades de
todos los caminos que llevan a ese nodo. Por ejemplo, en la fila 3 las
probabilidades de k = 0, 1, 2, 3 éxitos en n = 3 ensayos son los términos
de la expansión

1 = ( p + q)3 = p3 + 3p2 q + 3pq2 + q3 .

Para k = 0 o 3 hay solo un camino que lleva a k éxitos, y por eso las
probabilidades son q3 y p3 usando la regla del producto de probabili-
dades. Para k = 1 el factor 3 aparece porque hay 3 maneras de obtener
exactamente un éxito en tres ensayos, 001, 010 y 100, representados por
los tres caminos en el árbol que llegan al segundo nodo de la fila 3. Las
probabilidades de estos caminos son qqp, qpq, y pqq respectivamente,
y por eso la suma resultante es 3pq2 . 3
Cada 1 representa un movimiento ha-
cia abajo y a la derecha en el árbol. Del
Podemos imaginar al árbol dibujado para una cantidad arbitraria n
mismo modo, cada 0 representa un mo-
de ensayos. Para obtener k éxitos en n ensayos, el camino debe mover- vimiento directo hacia abajo.
se a la derecha k veces, correspondiendo a los k éxitos, y n − k veces
directo hacia abajo.3 La probabilidad de cada uno de estos caminos es
clase 11: el proceso de bernoulli 4

el producto de k veces p y n − k veces q, lo cual es pk (1 − p)n−k , sin im-


portar el orden de los movimientos. Luego la probabilidad de k éxitos
en n ensayos es igual a pk (1 − p)n−k multiplicado por la cantidad de
caminos que llevan a dicho nodo. Deben haber k unos en n lugares, y
basta elegir los lugares en dónde ponerlos. Así la cantidad de caminos
es (nk).

Distribución binomial

La función de probabilidad puntual (fpp) de Sn es


 
n k
P ( Sn = k ) = p (1 − p ) n − k (0 ≤ k ≤ n ) (4)
k

Este modelo se llama distribución binomial de parámetros n y p.


Para abreviar escribimos Sn ∼ Bin(n, p).

Notar que por el binomio de Newton, la suma de las probabilidades


de la fpp de Sn es igual a 1:
n n  
n
∑ P ( S n = k ) = ∑ k pk (1 − p)n−k = ( p + q)n = 1n = 1.
k =0 k =0

 Ejemplo 1 Calcular la probabilidad de obtener 4 o más caras en 6


lanzamientos de una moneda justa (p = 1/2).
Llamemos éxito a obtener cara. En 6 lanzamientos, la probabilidad
de obtener al menos 4 caras es igual a

P ( S6 ≥ 4 ) = P ( S6 = 4 ) + P ( S6 = 5 ) + P ( S6 = 6 )

Usando la fórmula 4 de la binomial, vemos que


   
6 1 1 6
P ( S6 = k ) = k 6 − k
= /26 (0 ≤ k ≤ 6).
k 2 2 k
Luego

(64) + (65) + (66) 15 + 6 + 1 11


P ( S6 ≥ 4 ) = = = .
26 32 32

 Ejemplo 2 Supongamos que 5 familias tienen 6 hijos cada una. ¿Cuál
es la probabilidad de que al menos 3 familias tengan 4 o más hijas
mujeres? Asumimos que cada hijo puede ser mujer o varón con igual
probabilidad.
La probabilidad de que cada familia particular tenga 4 o más hijas
mujeres es 11/32 por el ejemplo anterior. Llamemos ahora éxito a que
una familia tenga 4 o más hijas mujeres. Entonces, nuestra nueva va-
riable S5 indica la cantidad de familias con 4 o más hijas mujeres entre
las 5 familias consideradas.
clase 11: el proceso de bernoulli 5

La probabilidad que buscamos es

P ( S5 ≥ 3 ) = P ( S5 = 3 ) + P ( S5 = 4 ) + P ( S5 = 5 )

Usando la fórmula de la binomial con probabilidad de éxito p = 11/32


esta probabilidad es igual a
   3  2    4  1    5  0
5 11 21 5 11 21 5 11 21
+ +
3 32 32 4 32 32 5 32 32 Si la cantidad de ensayos n es moderada-
mente grande, calcular una probabilidad
Es decir P (S5 ≥ 3) = 0.226.  binomial puede ser bastante engorroso.
En esos casos es útil usar las tablas de
 Ejemplo 3 Se lanza una moneda justa 20 veces, y se sabe que hubo la binomial que se encuentran a disposi-

ción en la página del curso. Las mismas
12 caras. ¿Cuál es la probabilidad condicional de que el primer lanza- contienen la fda binomial para varios va-
miento haya sido cara? lores de n y p.

Llamemos S20 al número de caras en 20 lanzamientos de una mo-


neda justa. Sabemos que el evento {S20 = 12} ha ocurrido, pero no
sabemos en cuáles lanzamientos han ocurrido las caras.
Sea X1 la variable Bernoulli que indica si el primer lanzamiento es
cara. Estamos interesados en la probabilidad

P ( X1 = 1, S20 = 12)
P ( X1 = 1|S20 = 12) = .
P (S20 = 12)

Por un lado podemos calcular P (S20 = 12) usando la fórmula de la


binomial con n = 20 y k = 12, lo cual da (20 20
12) /2 .
¿Cómo podemos calcular P ( X1 = 1, S20 = 12)? El truco está en dar-
se cuenta que
S20 = X1 + S19
en donde S19 cuenta el número de caras en los 19 lanzamientos restan-
tes. Además, y esto es muy importante, S19 y X1 son independientes.
Entonces

P ( X1 = 1, S20 = 12) = P ( X1 = 1, X1 + S19 = 12)


= P ( X1 = 1, S19 = 11)
= P ( X1 = 1) P (S19 = 11)
19
1 (11) (19)
= · 19 = 11 .
2 2 220

La probabilidad condicional que buscamos es (19 20


11) / (12) = 12/20. 
¿Se te ocurre algún argumento sencillo
que de el mismo resultado?
Esperanza y varianza de la distribución binomial

Si Sn ∼ Bin(n, p), entonces Recordar que la esperanza y la varianza


de una variable Bernoulli de parámetro
p son p y p(1 − p) respectivamente.
E (Sn ) = np y Var (Sn ) = np(1 − p).
clase 11: el proceso de bernoulli 6

Demostración. Si denotamos por Xi la variable Bernoulli que indica si


hay éxito en el i-ésimo ensayo, entonces

S n = X1 + · · · + X n .

Esto permite usar el mismo truco que nos ayudo a calcular la esperan-
za en varios de los ejemplos de las clases pasadas: la linealidad de la
esperanza. Como E ( Xi ) = p y la esperanza de la suma es la suma de
las esperanzas, vemos que E (Sn ) = np.
Además las Xi0 s son mutuamente independientes. Entonces

Var (Sn ) = Var ( X1 + · · · + Xn ) = Var ( X1 ) + · · · + Var ( Xn )


= p(1 − p) + · · · + p(1 − p) = np(1 − p)

Notar que este cálculo es mucho más simple que usar la definición.
 Ejemplo 4 Consideremos un juego similar al 5 de Oro, en el cual hay

que embocar 5 números del 1 al 48. La probabilidad de ganar es

1 1
p= = ≈ 5.84 × 10−7 .
(48
5)
1, 712, 304

Si todos los habitantes de Uruguay deciden jugar, y asumiendo que


hay n = 3, 529, 014 habitantes en Uruguay4 , y que cada uno elige una 4
Esto es según Wikipedia al día en que
combinación al azar, entonces esperamos ver se escriben estas notas.

3, 529, 014
np = ≈ 2.06
1, 712, 304
ganadores en promedio por juego. 

La distribución geométrica

El problema ahora consiste en calcular una fórmula para la distri-


bución de los tiempos de espera Tn . Recordar que Tn indica el tiempo
que debemos esperar entre el n-ésimo y el (n + 1)-ésimo éxito. Como
los ensayos son independientes, todos los tiempos de espera tienen la
misma distribución. Es decir, basta hallar la fpp de T1 , el tiempo de
espera hasta el primer éxito.5 5
El nombre de distribución geométrica
Sea p la probabilidad de éxito. Para simplificar, llamemos T al nú- se debe a que la función de probabili-
dad puntual está representada por una
mero de ensayos que realizamos hasta el primer éxito. Claramente T serie geométrica. No tiene nada que ver
puede tomar los valores 1, 2, 3,.... con las probabilidades geométricas que
vimos al principio del curso. Un clásico
¿Cuál es la función de probabilidad puntual de T? T vale k cuan- ejemplo es lanzar una moneda hasta que
do los primeros k − 1 ensayos resultan en fracaso, lo cual ocurre con salga cara.
probabilidad qk−1 , y además el k-ésimo ensayo resulta en éxito, lo cual
ocurre con probabilidad p. Entonces p(k ) = pqk−1 .
clase 11: el proceso de bernoulli 7

Distribución geométrica

La función de probabilidad puntual (fpp) de T es

P ( T = k ) = p (1 − p ) k −1 (0 ≤ k < ∞ ) (5)

Este modelo se llama distribución geométrica de parámetro p. Pa-


ra abreviar escribimos T ∼ Geo( p).

Observar que la suma es


∞ ∞
1
∑ p(k) = ∑ p (1 − p ) k −1 = p ∑ (1 − p ) j = p
1 − (1 − p )
= 1.
k ≥1 k =1 j =0

En la Figura 2 se muestran los gráficos de la función de probabilidad


puntual de T para tres valores de p.

Figura 2: Distribución geométrica para


tres valores de p: en azul p = 0.8, en rojo
p = 0.5, y en negro p = 0.2.
Función de probabilidad puntual

0 1 2 3 4 5 6 7

T=k

Esperanza y varianza de la distribución geométrica

Si T ∼ Geo( p), entonces

1 1− p
E (T ) = y Var ( T ) = .
p p2

Demostración. La probabilidad de { T > k} es (1 − p)k , pues una forma


equivalente de describir este evento es que los primeros k lanzamientos
sean fracaso.
Usando la fórmula de la esperanza para variables enteras positivas
obtenemos

1 1
E (T ) = ∑ (1 − p ) k = 1 − (1 − p ) =
p
.
k =0
clase 11: el proceso de bernoulli 8

Por ejemplo, si la moneda es justa, se es-


Calculemos la varianza de T. De la definición tenemos pera lanzar en promedio 2 veces la mo-
neda para que salga cara.
    1
Var ( T ) = E T 2 − E ( T )2 = E T 2 − 2 .
p
Falta evaluar el primer término. Notar que éste se puede descomponer
en   1
E T 2 = E ( T ( T − 1)) + E ( T ) = E ( T ( T − 1)) + .
p
La esperanza de T ( T − 1) es por definición igual a
∞ ∞
∑ k(k − 1) p(1 − p)k−1 = p(1 − p) ∑ k(k − 1)(1 − p)k−2
k =1 k =2
d2
 
1
= p (1 − p ) .
dp2 p
Es decir, tenemos que
  2(1 − p ) 1
E T2 = + .
p2 p
Juntando todo, nos queda

2(1 − p ) 1 1 1 1 1− p
Var ( T ) = 2
+ − 2 = 2− = .
p p p p p p2
Hemos probado entonces que la varianza de una variable geométrica
es (1 − p)/p2 .

Antes de seguir con los ejemplos, respondamos a la siguiente pre-


gunta de carácter más general. Sea T ∼ Geo( p), ¿cuál es el valor de m
para el cual P ( T ≤ m) ≈ 1/2?
Como ya hemos visto,

P ( T ≤ m ) = 1 − P ( T > m ) = 1 − (1 − p ) m

El número (1 − p)m no tiene porque ser exactamente igual a 1/2, pero


podemos buscar el menor valor de m que cumple P ( T ≤ m) ≥ 1/2.
Por un lado

1 − (1 − p)m ≥ 1/2 ⇔ (1 − p)m ≤ 1/2 ⇔ m ln(1 − p) ≤ − ln(2)


ln(2)
⇔m≥ .
ln(1/(1 − p))
Por otro, como P ( T ≤ m − 1) < 1/2 tenemos que

ln(2)
1 − (1 − p)m−1 < 1/2 ⇔ m < + 1.
ln(1/(1 − p)
Es decir, que  
ln(2)
m= .
ln(1/(1 − p)
clase 11: el proceso de bernoulli 9

Notar que cuando p es chico m ≈ ln(2)/p, valor similar a la esperanza


que calculamos antes.
El número m se llama mediana de la distribución de T, o simple-
mente mediana de T. Es el valor que aproximadamente divide en dos
partes iguales la distribución: la probabilidad de que T sea menor o
igual que m es casi 1/2, y lo mismo para la probabilidad de que sea
mayor. Es una forma conveniente de definir un “valor representativo” Definición de mediana
para T, diferente al valor esperado. Sea X una variable aleatoria
 Ejemplo 5 Volvamos al juego similar al 5 de Oro, en el cual hay que cualquiera. La mediana de X es

el menor valor de m que cum-
embocar 5 números del 1 al 48. La probabilidad de ganar es ple P ( X ≤ m) ≥ 1/2.

1 1
p= = ≈ 5.84 × 10−7 .
(48
5)
1, 712, 304

Supongamos que jugamos hasta ganar. Sea T el número de veces que


jugamos. Entonces T tiene distribución geométrica de parámetro p.
De la discusión anterior, la mediana y la esperanza de T son

m ≈ 1, 186, 879, E ( T ) = 1, 712, 304.

Si jugáramos dos veces por semana, m equivale a jugar aproximada-


mente ¡11,412 años! Uno se pregunta porqué tanta gente juega a este
tipo de loterías. Lo atractivo del juego es que por un boleto relativa-
mente barato uno podría ganar un premio capaz de cambiarle la vida.
Esto debemos interpretarlo de la siguiente manera: si toda la po-
blación de Uruguay jugara una vez por semana, eventualmente hasta
ganar, la mitad de la población debería jugar 11,412 años.
Supongamos que una persona vive 75 años, y que juega una vez por
semana. ¿Cuál es la probabilidad de que gane al menos una vez? Si tra-
ducimos esta pregunta en término de T, queremos calcular P ( T ≤ 3900),
pues hay 3900 semanas en 75 años. Esto da

P ( T ≤ 3900) = 1 − (1 − p)3900 ≈ 0.0023.

En porcentajes es aproximadamente 0.23 %. Por lo menos es un núme-


ro más razonable, pero el 99.77 % de la población nunca ganaría. Para
disfrutar de la fortuna del premio, uno debería ganarlo a una edad
tipo 40 años, y las chances son en este caso menores a 0.02 %. 

Aplicación al lanzamiento de una moneda

Cuando p = 1/2 se trata de la moneda justa que hemos estado


usando en algunos de los ejemplos. La interpretación de las probabili-
dades predice en este caso que el número de éxitos será parecido al de
fracasos, al menos cuando n es grande. Pero ¿cuál es la probabilidad
de que ambos sean iguales? Primero que nada, esta probabilidad es
clase 11: el proceso de bernoulli 10

cero a no ser que n sea par. Pongamos entonces n = 2m y llamemos a


esta probabilidad qm .6 6
Responder intuitivamente: ¿qué ocurre
Comencemos con m = 1. Si lanzamos dos veces la moneda, misma con qm a medida que m crece? ¿Es cada
vez más grande?
cantidad de éxitos que fracasos quiere decir uno de cada: EF o FE.
Como cada una tiene probabilidad 1/4 tenemos q1 = 1/2. Para m = 2
sirven 6 secuencias de 16, por lo que q2 = 3/8. En general, deben haber
m éxitos en 2m ensayos, por lo que de la ecuación (4) resulta
 
2m 1
qm = P (S2m = m) = . (6)
m 22m

Este número parece un poco intratable. La siguiente tabla muestra los


primeros 5 valores. Para facilitar las comparaciones, en la última fila
se especifican las probabilidades en forma de fracciones con el mismo
denominador. Se puede observar que las probabilidades disminuyen a
medida que aumenta el número de lanzamientos, por lo menos en la
parte de la serie que aparece en la tabla.

2m 2 4 6 8 10
qm 1/2 3/8 5/16 35/128 63/256
Denominador 128/256 96/256 80/256 70/256 63/256
común

Siempre es útil detectar la existencia de patrones. Al pasar de dos


lanzamientos a cuatro, la segunda respuesta (3/8) es 3/4 por la prime-
ra (1/2). De cuatro lanzamientos a seis, la segunda respuesta (5/16)
es 5/6 por la primera (3/8); análogamente, de seis a ocho, el factor es
7/8. Los factores sucesivos son: 7
¿Qué hace π ahí? Al ver por primera
vez una expresión como la del produc-
to de Wallis, uno se pregunta ¿qué tie-
3/4, 5/6, 7/8.
ne que ver π en todo esto? El número
π aparece siempre que haya un círcu-
¡Qué maravilla! 3, 4, 5, 6, 7, 8: es algo más que una simple coincidencia. lo en la vuelta, y aunque parezca increí-
Con un poco de fe, podemos predecir, que al pasar de ocho a diez ble, detrás del producto de Wallis hay un
círculo escondido. No vamos a hacer una
lanzamientos, la probabilidad de obtener números iguales de éxitos y prueba de la igualdad (8), pero les suge-
fracasos queda reducida en un factor 9/10. Y así es, como puede verse rimos a aquellos interesados entrar a
en la tabla. https://www.youtube.com/watch?v=
El patrón se mantiene para números más elevados, la probabili- 8GPy_UMV-08

dad disminuye progresivamente. El siguiente valor se obtiene siempre en donde pueden ver un el excelente vi-
multiplicando por una fracción menor que uno: deo explicativo. El video está en inglés,
pero se pueden activar los subtítulos en
1 3 5 2m − 1 español. Para entenderlo solo se requie-
qm = P (S2m = m) = · · ··· . (7) re andar fresco con conceptos básicos de
2 4 6 2m números complejos.
Los matemáticos de fines del renacimiento se fascinaban con este tipo
de productos. En 1655 el matemático John Wallis publicó la siguiente
fórmula para π:7
clase 11: el proceso de bernoulli 11

2 2 4 4 6 6 8 8 π
· · · · · · · ··· = . (8)
1 3 3 5 5 7 7 9 2
Para ser más precisos, consideremos los números de Wallis

2 2
W1 = ·
1 3  
 
2 2 4 4
W2 = · · ·
1 3 3 5
..
.
   
2 2 2m 2m
Wm = · ··· ·
1 3 2m − 1 2m + 1

El producto de Wallis dice que lı́mm→∞ Wm = π/2. En cada número de


Wallis los enteros aparecen dos veces, excepto el último denominador.
Si tomamos la raíz cuadrada resulta entonces
p 2 4 2m 1 1 1
Wm = · · · · ·√ = ·√ .
1 3 2m − 1 2m + 1 qm 2m + 1
De aquí, usando (8), concluimos otra maravilla escondida en el lanza-
miento de una moneda:
la probabilidad qm de que en m éxitos y m fracasos ocurran en 2m lan-

zamientos de una moneda justa es aproximadamente igual a 1/ πm.

En particular qm → 0 cuando m tiende a infinito.


¿Contradice esto la interpretación de las probabilidades como fre-
cuencias relativas? Que en un millón de lanzamientos se produzcan
500.000 éxitos y 500.000 fracasos parece poco esperable. Todo cambia
cuando hablamos de un porcentaje alrededor del valor central. Por
ejemplo, si queremos que el número de éxitos esté entre el 49 % y el
51 % del total. En un experimento de 100 lanzamientos, se trata por
tanto de que salgan 49, 50 o 51 éxitos. Si se repite este un gran número
de veces, alrededor del 24 % de ellas se obtendrá que la proporción de
éxitos cae en ese pequeño intervalo.
Con 1.000, se trata de que salgan entre 490 y 510 éxitos, lo cual
sucede en un 50 % de los casos. Con 10.000 lanzamientos, el intervalo
se sitúa entre 4.900 y 5.100, y el éxito nos acompaña en más del 95 % de
los casos. Con un millón de lanzamientos, el intervalo es entre 490.000
y 510.000, lo cual ocurre casi siempre.

Lanzamientos 100 1.000 10.000 1 millón


Precisión 49-51 490-510 4.900-5.100 490 mil - 510 mil
Confianza 24 % 50 % 95 % ≈ 100 %

El mismo razonamiento es válido cuando se endurecen las condi-


ciones. Tal vez sea excesivo pedir que la proporción de éxitos se sitúe
clase 11: el proceso de bernoulli 12

entre 49.9 % y 50.1 % cuando se hacen 1.000 lanzamientos (los únicos


resultados posibles son 499, 500, y 501), pero no lo es para 10 millones.
La proporción de éxitos puede llegar a ser tan próxima a 1/2 como
se quiera. Esto es la precisión. Pero también está la confianza que tene-
mos en esa precisión, el porcentaje de veces que de hecho esa precisión
ocurre.
Lo que no cabe esperar es que el número de éxitos sea igual al de
fracasos, o que el número de éxitos se encuentre siempre dentro de
un rango definido por un número fijo, por ejemplo 20, alrededor del
centro, cuando se lanza una moneda al aire un millón de veces. De
hecho se cumple lo contrario: si se lanza al aire una moneda un gran
número de veces, la diferencia absoluta entre los números de éxitos
y fracasos será tan grande como se quiera. Lo que se estabiliza es la
proporción de éxitos.

También podría gustarte