Inferencia Bayesiana
Inferencia Bayesiana
Inferencia Bayesiana
Índice
Contexto inicial
Evidencia y creencias cambiantes
¿Qué es lo atractivo de la Estadística Bayesiana?
Axiomas de coherencia
Ejemplos de inferencia
Definiciones formales
Establecimiento de la inferencia
Véase también
Referencias
Bibliografía
Referencias externas
Contexto inicial
La incertidumbre y la imprecisión son connaturales en el proceso de razonamiento. La lógica establece unas
reglas de inferencia a partir de las cuales se construye el sistema de razonamiento deductivo, en el que una
proposición determinada es considerada como cierta o falsa, es decir un sistema de dos únicos estados
posibles, sin que se admitan grados entre estos dos extremos. Los métodos de razonamiento aproximado,
entre los que se encuentran los métodos bayesianos, aportan modelos teóricos que simulan la capacidad de
razonamiento en condiciones de incertidumbre, cuando no se conoce con absoluta certeza la verdad o
falsedad de un enunciado o hipótesis, e imprecisión, enunciados en los que se admite un rango de
variación.
Entre los métodos de razonamiento aproximado se encuentran los métodos bayesianos, basados en el
conocido teorema de Bayes. Todos ellos tienen en común la asignación de una probabilidad como medida
de credibilidad de las hipótesis. En este contexto, la inferencia se entiende como un proceso de
actualización de las medidas de credibilidad al conocerse nuevas evidencias. Mediante la aplicación del
Teorema de Bayes se busca obtener las probabilidades de las hipótesis condicionadas a las evidencias que
se conocen. La diferencia entre los distintos métodos bayesianos, modelos causales y redes bayesianas,
estriba en las hipótesis de independencia condicional entre hipótesis y evidencias. Dichas relaciones se
expresan comúnmente mediante un grafo acíclico dirigido.
Evidencia y creencias cambiantes
La inferencia bayesiana utiliza aspectos del método científico, que implica recolectar evidencia que se
considera consistente o inconsistente con una hipótesis dada. A medida que la evidencia se acumula, el
grado de creencia en una hipótesis se va modificando. Con evidencia suficiente, a menudo podrá hacerse
muy alto o muy bajo. Así, los que sostienen la inferencia bayesiana dicen que puede ser utilizada para
discriminar entre hipótesis en conflicto: las hipótesis con un grado de creencia muy alto deben ser aceptadas
como verdaderas y las que tienen un grado de creencia muy bajo deben ser rechazadas como falsas. Sin
embargo, los detractores dicen que este método de inferencia puede estar afectado por un sesgo debido a las
creencias iniciales que se deben sostener antes de comenzar a recolectar cualquier evidencia.
i) Construcción axiomática
ii) Una sola regla de decisión
iii) La única que ofrece solución para ciertos problemas
Axiomas de coherencia
i) Comparación
ii) Transitividad
iii) Dominancia-Sustitución
iv) Referencia
Ejemplos de inferencia
Durante miles de millones de años, el sol ha salido después de haberse puesto. El sol se
ha puesto esta noche. Hay una probabilidad muy alta de (o 'Yo creo firmemente' o 'es
verdad') que el sol va a volver a salir mañana. Existe una probabilidad muy baja de (o 'yo no
creo de ningún modo' o 'es falso') que el sol no salga mañana.
La inferencia bayesiana usa un estimador numérico del grado de creencia en una hipótesis aún antes de
observar la evidencia y calcula un estimador numérico del grado de creencia en la hipótesis después de
haber observado la evidencia. La inferencia bayesiana generalmente se basa en grados de creencia, o
probabilidades subjetivas, en el proceso de inducción y no necesariamente declara proveer un método
objetivo de inducción.
Definiciones formales
A pesar de todo, algunos estadísticos bayesianos creen que las probabilidades pueden tener un valor
objetivo y por lo tanto la inferencia bayesiana puede proveer un método objetivo de inducción. (Ver método
científico.) Dada una nueva evidencia, el teorema de Bayes ajusta las probabilidades de la misma de la
siguiente manera:
donde
representa una hipótesis, llamada hipótesis nula, que ha sido inferida antes de que la
nueva evidencia, , resultara disponible.
se llama la probabilidad a priori de .
se llama la probabilidad condicional de que se cumpla la evidencia si la
hipótesis es verdadera. Se llama también la función de verosimilitud cuando se expresa
como una función de dado .
se llama la probabilidad marginal de : la probabilidad de observar la nueva
evidencia bajo todas las hipótesis mutuamente excluyentes. Se la puede calcular como
la suma del producto de todas las hipótesis mutuamente excluyentes por las
correspondientes probabilidades condicionales: .
se llama la probabilidad a posteriori de dado .
Establecimiento de la inferencia
Los estadísticos bayesianos sostienen que aun cuando distintas personas puedan proponer probabilidades a
priori muy diferentes, la nueva evidencia que surge de nuevas observaciones va a lograr que las
probabilidades subjetivas se aproximen cada vez más. Otros, sin embargo, sostienen que cuando distintas
personas proponen probabilidades a priori muy diferentes, las probabilidades subjetivas a posteriori pueden
no converger nunca, por más evidencias nuevas que se recolecten. Estos críticos consideran que visiones
del mundo que son completamente diferentes al principio pueden seguir siendo completamente diferentes a
través del tiempo por más evidencias que se acumulen.
La probabilidad marginal , puede ser representada además como la suma de los productos de todas
las probabilidades de las hipótesis exclusivas mutuamente y que corresponden a probabilidades
condicionales: .
Esta iteración de la inferencia bayesiana puede ser expandida con la inclusión de más evidencias. La
inferencia bayesiana se emplea en el cálculo de probabilidades en la toma de decisión. Se emplean en las
probabilidades calculadas en la teoría de cálculo de riesgos, en la denominada función de pérdida que
refleja las consecuencias de cometer un error.
Véase también
Teorema de Bayes - Fundamento de la inferencia
Inferencia bayesiana en filogenias
Razonamiento abductivo
Epistemología bayesiana
Referencias
1. "Statistical Decision Theory and Bayesian 3. "Perception as Bayesian Inference", David
Analysis", James O. Berger; 1985 ;Springer C. Knill, Whitman
Richards;1996 ;Cambridge University
2. "Bayesian Approach to Image Press
Interpretation", Sunil K. Kopparapu, Uday
B. Desai; 2001
Springer
Bibliografía
Berger, J.O. (1999) Statistical Decision Theory and Bayesian Analysis. Second Edition.
Springer Verlag, New York. ISBN 0-387-96098-8 and also ISBN 3-540-96098-8.
Bolstad, William M. (2004) Introduction to Bayesian Statistics, John Wiley ISBN 0-471-
27020-2
Bretthorst, G. Larry, 1988, Bayesian Spectrum Analysis and Parameter Estimation (http://bay
es.wustl.edu/glb/book.pdf) in Lecture Notes in Statistics, 48, Springer-Verlag, New York,
New York
Dawid, A.P. and Mortera, J. (1996) Coherent analysis of forensic identification evidence.
Journal of the Royal Statistical Society, Series B, 58,425-443.
Foreman, L.A; Smith, A.F.M. and Evett, I.W. (1997). Bayesian analysis of deoxyribonucleic
acid profiling data in forensic identification applications (with discussion). Journal of the
Royal Statistical Society, Series A, 160, 429-469.
Gardner-Medwin, A. What probability should the jury address?. Significance. Volume 2,
Issue 1, March 2005
Gelman, A., Carlin, B., Stern, H., and Rubin, D.B. (2003). Bayesian Data Analysis. Second
Edition. Chapman & Hall/CRD, Boca Raton, Florida. ISBN 1-58488-388-X.
Gelman, A. and Meng, X.L. (2004). Applied Bayesian Modeling and Causal Inference from
Incomplete-Data Perspectives: an essential journey with Donald Rubin's statistical family.
John Wiley & Sons, Chichester, UK. ISBN 0-470-09043-X
Giffin, A. and Caticha, A. (2007) Updating Probabilities with Data and Moments (http://arxiv.o
rg/abs/0708.1593)
Jaynes, E.T. (1998) Probability Theory: The Logic of Science (http://www-biba.inrialpes.fr/Ja
ynes/prob.html).
Lee, Peter M. Bayesian Statistics: An Introduction. Second Edition. (1997). ISBN 0-340-
67785-6.
O'Hagan, A. and Forster, J. (2003) Kendall's Advanced Theory of Statistics, Volume 2B:
Bayesian Inference. Arnold, New York. ISBN 0-340-52922-9.
Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan
Kaufmann.
Robert, C.P. (2001) The Bayesian Choice. Springer Verlag, New York.
Robertson, B. and Vignaux, G.A. (1995) Interpreting Evidence: Evaluating Forensic Science
in the Courtroom. John Wiley and Sons. Chichester.
Winkler, Robert L, Introduction to Bayesian Inference and Decision, 2nd Edition (2003)
Probabilistic. ISBN 0-9647938-4-9
Referencias externas
Libro en línea textbook: Teoría de la información Theory, Inferencia, y algoritmos de
aprendizaje (http://www.inference.phy.cam.ac.uk/mackay/itila/book.html), por David MacKay,
tiene capítulos sobre métodos bayesianos, incluyendo ejemplos; argumentas a favor de los
métodos bayesianos (del estilo de Edwin Jaynes); métodos modernos sobre Método de
Montecarlo, y métodos variacionales; y ejemplos ilustrativos acerca de como se emplean
las redes bayesianas en los algoritmos de compresión de datos.
Obtenido de «https://es.wikipedia.org/w/index.php?title=Inferencia_bayesiana&oldid=138612389»
Esta página se editó por última vez el 27 sep 2021 a las 06:52.
El texto está disponible bajo la Licencia Creative Commons Atribución Compartir Igual 3.0;
pueden aplicarse
cláusulas adicionales. Al usar este sitio, usted acepta nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una organización sin ánimo de lucro.