Usuario:Sabunad/Taller/Estimación bayesiana recursiva
Este artículo trata sobre el filtro Bayes, un enfoque probabilístico general. Para el filtro de spam con un nombre similar, véase Filtrado bayesiano de spam.
En la teoría de la probabilidad, la estadística y el aprendizaje automático, la estimación bayesiana recursiva, también conocida como filtro de Bayes, es un enfoque probabilístico general para estimar una función de densidad de probabilidad (FDP) desconocida de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. El proceso se basa en gran medida en conceptos y modelos matemáticos que se teorizan dentro de un estudio de probabilidades a priori y a posteriori conocido como estadística bayesiana.[cita requerida]
En robótica
editarUn filtro de Bayes es un algoritmo utilizado en informática para calcular las probabilidades de múltiples creencias que permiten a un robot inferir su posición y orientación. Esencialmente, los filtros de Bayes permiten a los robots actualizar continuamente su posición más probable dentro de un sistema de coordenadas, basándose en los datos de los sensores adquiridos más recientemente. Se trata de un algoritmo recursivo. Consta de dos partes: predicción e innovación. Si las variables se distribuyen normalmente y las transiciones son lineales, el filtro de Bayes equivale al filtro de Kalman.[cita requerida]
En un ejemplo sencillo, un robot que se desplaza por una cuadrícula puede tener varios sensores diferentes que le proporcionan información sobre su entorno. Al principio, el robot puede tener la certeza de que se encuentra en la posición (0,0). Sin embargo, a medida que se aleja más y más de su posición original, el robot tiene cada vez menos certeza sobre su posición; utilizando un filtro de Bayes, se puede asignar una probabilidad a la creencia del robot sobre su posición actual, y esa probabilidad se puede actualizar continuamente a partir de la información adicional de los sensores.[cita requerida]
Modelo
editarLas mediciones son las variables manifestaciones de un modelo oculto de Markov (HMM), lo que significa que el estado verdadero se supone que es un proceso de Markov no observado. La siguiente imagen presenta una red bayesiana de un HMM.[cita requerida]
Debido al supuesto de Markov, la probabilidad del estado verdadero actual dado el inmediatamente anterior es condicionalmente independiente de los otros estados anteriores.[cita requerida]
Del mismo modo, la medición en el paso de tiempo k sólo depende del estado actual, por lo que es condicionalmente independiente de todos los demás estados dado el estado actual.[cita requerida]
Utilizando estos supuestos, la distribución de probabilidad sobre todos los estados del HMM puede escribirse simplemente como:
Sin embargo, cuando se utiliza el filtro de Kalman para estimar el estado x, la distribución de probabilidad de interés se asocia con los estados actuales condicionados a las mediciones hasta el paso de tiempo actual. (Esto se consigue marginando los estados anteriores y dividiendo por la probabilidad del conjunto de mediciones).[cita requerida]
De este modo, los pasos de predicción y actualización del filtro de Kalman se escriben de forma probabilística. La distribución de probabilidad asociada al estado predicho es la suma (integral) de los productos de la distribución de probabilidad asociada a la transición del (k - 1)-ésimo paso temporal al k-ésimo y la distribución de probabilidad asociada al estado anterior, sobre todos los posibles .[cita requerida]
La distribución de probabilidad de actualización es proporcional al producto de la probabilidad de medición y el estado predicho.[cita requerida]
El denominador [cita requerida]
es constante con respecto a , por lo que siempre podemos sustituirlo por un coeficiente , que normalmente puede ignorarse en la práctica. El numerador puede calcularse y luego simplemente normalizarse, ya que su integral debe ser la unidad.[cita requerida]
Aplicaciones
editar- Filtro de Kalman, un filtro bayesiano recursivo para distribuciones normales multivariantes[cita requerida]
- Filtro de partículas, una técnica basada en el Monte Carlo secuencial (SMC), que modela la PDF utilizando un conjunto de puntos discretos.[cita requerida]
- Estimadores basados en cuadrículas, que subdividen la PDF en una cuadrícula discreta determinista.[cita requerida]
Filtrado bayesiano secuencial
editarEl filtrado bayesiano secuencial es la extensión de la estimación bayesiana para el caso en que el valor observado cambia en el tiempo. Es un método para estimar el valor real de una variable observada que evoluciona en el tiempo.[cita requerida]
El método se denomina:
Filtrado
editarAl estimar el valor actual dadas las observaciones pasadas y actuales.[cita requerida]
Suavizado
editarAl estimar valores pasados dadas observaciones pasadas y actuales, y[cita requerida]
Predicción
editarAl estimar un valor futuro probable a partir de observaciones pasadas y presentes.[cita requerida]
La noción de filtrado bayesiano secuencial se utiliza ampliamente en control y robótica.[cita requerida]
Bibliografía
editar- Arulampalam, M. Sanjeev; Maskell, Simon; Gordon, Neil (2002). "A Tutorial on Particle Filters for On-line Non-linear/Non-Gaussian Bayesian Tracking". IEEE Transactions on Signal Processing. 50 (2): 174–188
- Burkhart, Michael C. (2019). "Chapter 1. An Overview of Bayesian Filtering". A Discriminative Approach to Bayesian Filtering with Applications to Human Neural Decoding. Providence, RI, USA: Brown University
- Chen, Zhe Sage (2003). "Bayesian Filtering: From Kalman Filters to Particle Filters, and Beyond". Statistics: A Journal of Theoretical and Applied Statistics. 182 (1): 1–69
- Diard, Julien; Bessière, Pierre; Mazer, Emmanuel (2003). "A survey of probabilistic models, using the Bayesian Programming methodology as a unifying framework" (PDF)
- Särkkä, Simo (2013). Bayesian Filtering and Smoothing. Cambridge University Press
- Volkov, Alexander (2015). "Accuracy bounds of non-Gaussian Bayesian tracking in a NLOS environment". Signal Processing. 108: 498–508