Cristian Capetillo Constela. PUC
Algoritmos Tipo Metropolis en Inferencia Bayesiana
SALA MULTIUSOS (2do piso), FELIPE VILLANUEVA
Abstract:
La estadística Bayesiana ha tomado una importancia relevante en los modelos estadísticos actuales. Su capacidad de incorporar nueva información de diversas fuentes y su naturalidad para realizar predicciones suelen ser un punto fuerte de este enfoque. El elemento en el cuál se basa la inferencia Bayesiana es la distribución a posteriori que es proporcional a la función de verosimilitud por la priori. Lamentablemente, el cálculo de esta distribución, o bien, cálculos que la involucren, suelen ser imposibles de resolver analíticamente y es necesario optar por métodos aproximados.
Debido a la complejidad de la posteriori, se han desarrollado técnicas computacionales para poder llevar a cabo la inferencia en el problema asociado. El conjunto de estas técnicas se denomina Computación Bayesiana. Dentro de la computación Bayesiana existe un conjunto de métodos denominados Markov Chain Monte Carlo (MCMC), que se basan en generar una cadena de Markov ergódica cuya distribución estacionaria y límite es justamente la posteriori. Desafortunadamente, el costo computacional puede ser bastante alto si se utiliza un método muy general como el Metropolis-Hastings vía caminata aleatoria. Suele ser común entonces que en base al problema, se utilice un algoritmo específico que haya sido estudiado en problemas relacionados.
Por la razón anterior es que en esta presentación se propone comparar tres algoritmos MCMC en distintos modelos Bayesianos: Random Walk Metropolis-Hastings (RWMH), Metropolis-Adjusted Langevin Algorithm (MALA) y Hamiltonian Monte Carlo (HMC). Éstos dos últimos tienen en común el uso del gradiente de la log-posteriori para la generación de la cadena de Markov.