Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Vés al contingut

Mostreig de Gibbs

De la Viquipèdia, l'enciclopèdia lliure

En estadístiques, el mostreig de Gibbs o un mostrejador de Gibbs és un algorisme de la cadena de Markov Monte Carlo (MCMC) per obtenir una seqüència d'observacions que s'aproximen a partir d'una distribució de probabilitat multivariant especificada, quan el mostreig directe és difícil. Aquesta seqüència es pot utilitzar per aproximar la distribució conjunta (per exemple, per generar un histograma de la distribució); per aproximar la distribució marginal d'una de les variables, o d'algun subconjunt de variables (per exemple, els paràmetres desconeguts o les variables latents); o per calcular una integral (com ara el valor esperat d'una de les variables). Normalment, algunes de les variables corresponen a observacions els valors de les quals es coneixen i, per tant, no cal que es mostren.

El mostreig de Gibbs s'utilitza habitualment com a mitjà d'inferència estadística, especialment inferència bayesiana. És un algorisme aleatori (és a dir, un algorisme que fa ús de nombres aleatoris) i és una alternativa als algorismes deterministes per a la inferència estadística com l' algoritme de maximització d'expectativa (EM).

Igual que amb altres algorismes MCMC, el mostreig de Gibbs genera una cadena de mostres de Markov, cadascuna de les quals està correlacionada amb mostres properes. Com a resultat, s'ha de tenir cura si es volen mostres independents. En general, les mostres de l'inici de la cadena (el període de combustió ) poden no representar amb precisió la distribució desitjada i normalment es descarten.

Una descripció gràfica de l'algorisme de mostreig de Gibbs [1]

Introducció

[modifica]

El mostreig de Gibbs rep el nom del físic Josiah Willard Gibbs, en referència a una analogia entre l'algorisme de mostreig i la física estadística. L'algoritme va ser descrit pels germans Stuart i Donald Geman el 1984, unes vuit dècades després de la mort de Gibbs,[2] i es va popularitzar a la comunitat estadística per calcular la distribució de probabilitat marginal, especialment la distribució posterior.[3]

En la seva versió bàsica, el mostreig de Gibbs és un cas especial de l'algorisme de Metropolis-Hastings. No obstant això, en les seves versions ampliades, es pot considerar un marc general per al mostreig d'un gran conjunt de variables mostrant cada variable (o, en alguns casos, cada grup de variables) al seu torn, i pot incorporar el Metròpolis– Algorisme de Hastings (o mètodes com ara el mostreig per porcions) per implementar un o més dels passos de mostreig.

Descripció esquemàtica de la igualtat d'informació associada amb el mostreig de Gibbs al pas i-è dins d'un cicle [4]

El mostreig de Gibbs és aplicable quan la distribució conjunta no es coneix explícitament o és difícil de mostrejar directament, però la distribució condicional de cada variable és coneguda i és fàcil (o almenys, més fàcil) de mostrejar. L'algorisme de mostreig de Gibbs genera una instància a partir de la distribució de cada variable al seu torn, condicionada als valors actuals de les altres variables. Es pot demostrar que la seqüència de mostres constitueix una cadena de Markov, i la distribució estacionària d'aquesta cadena de Markov és només la distribució conjunta buscada.[5]

El mostreig de Gibbs està especialment adaptat per al mostreig de la distribució posterior d'una xarxa bayesiana, ja que les xarxes bayesianes s'especifiquen normalment com una col·lecció de distribucions condicionals.

Implementació

[modifica]

El mostreig de Gibbs, en la seva encarnació bàsica, és un cas especial de l'algorisme de Metropolis–Hastings. El punt del mostreig de Gibbs és que donada una distribució multivariant, és més senzill mostrejar a partir d'una distribució condicional que marginar mitjançant la integració sobre una distribució conjunta. Suposem que volem obtenir mostres de d'una distribució conjunta . Denota la mostra i per . Cal procedir de la següent manera:

  1. Començar amb algun valor inicial .
  2. Buscar la següent mostra. S'aconsegueix aquesta següent mostra . Ja que és un vector, es mostra cada component del vector , a partir de la distribució d'aquest component condicionada a la resta de components mostrats fins . Però hi ha una tramba: es condiciona fins a , i després condiciona , a partir de fins a . Per aconseguir-ho, es mostren els components per ordre, començant pel primer component. Més formalment, per mostrar, s'actualitza segons la distribució especificada per . S'empra el valor que el component tenia a la mostra , no el que tenia a la mostra .
  3. Repetir el pas anterior k vegades.

Referències

[modifica]
  1. Lee, Se Yoon Communications in Statistics - Theory and Methods, 51, 6, 2021, pàg. 1549–1568. arXiv: 2008.01006. DOI: 10.1080/03610926.2021.1921214.
  2. Geman, S.; Geman, D. IEEE Transactions on Pattern Analysis and Machine Intelligence, 6, 6, 1984, pàg. 721–741. DOI: 10.1109/TPAMI.1984.4767596. PMID: 22499653.
  3. Gelfand, Alan E.; Smith, Adrian F. M. Journal of the American Statistical Association, 85, 410, 01-06-1990, pàg. 398–409. DOI: 10.1080/01621459.1990.10476213. ISSN: 0162-1459.
  4. Lee, Se Yoon Communications in Statistics - Theory and Methods, 51, 6, 2021, pàg. 1549–1568. arXiv: 2008.01006. DOI: 10.1080/03610926.2021.1921214.
  5. Gelman, Andrew and Carlin, John B and Stern, Hal S and Dunson, David B and Vehtari, Aki and Rubin, Donald B. Bayesian data analysis (en anglès). 2. FL: CRC press Boca Raton, 2014.