Información de Fisher

En estadística matemática, la información de Fisher (a veces llamada simplemente información[1]​) es una forma de medir la cantidad de información que una variable aleatoria observable X contiene sobre un parámetro desconocido θ de una distribución que modela X. Formalmente, es la varianza del score (o puntuación), o el valor esperado de la información observada.

El papel de la información de Fisher en la teoría asintótica de la estimación de máxima verosimilitud fue destacado por el estadístico Sir Ronald Fisher (siguiendo algunos resultados iniciales de Francis Ysidro Edgeworth). La matriz de información de Fisher se utiliza para calcular las matrices de covarianza asociadas a las estimaciones de máxima verosimilitud. También puede utilizarse en la formulación de pruebas estadísticas, como la prueba de Wald.

En la estadística bayesiana, la información de Fisher interviene en la derivación de distribuciones a priori no informativas según la regla de Jeffreys.[2]​ También aparece como la covarianza de grandes muestras de la distribución posterior, siempre que la distribución a priori sea suficientemente suave (un resultado conocido como el teorema de Bernstein-von Mises, que fue anticipado por Laplace para las familias exponenciales).[3]​ El mismo resultado se utiliza al aproximar la posterior con la aproximación de Laplace, donde la información de Fisher aparece como la covarianza de la gaussiana ajustada.[4]

Se ha demostrado que los sistemas estadísticos de carácter científico (físicos, biológicos, etc.) cuyas funciones de verosimilitud obedecen a la invariancia de desplazamiento obedecen al máximo de información de Fisher.[5]​ El nivel del máximo depende de la naturaleza de las restricciones del sistema.

Definición editar

La información de Fisher es una forma de medir la cantidad de información que una variable aleatoria observable   contiene respecto a un parámetro desconocido   sobre el que se basa la probabilidad de  . Sea   la función de densidad de probabilidad (o función de masa de probabilidad) para  , condicionada al valor de  . Describe la probabilidad de que observemos un resultado dado de  , dado un valor conocido de  . Si   tiene un pico pronunciado con respecto a los cambios en  , es fácil indicar el valor «correcto» de   a partir de los datos, o equivalentemente, que los datos   proporcionan mucha información sobre el parámetro  . Si   es plano y disperso, se necesitarían muchas muestras de   para estimar el valor real «verdadero» de   que se podría obtener utilizando toda la población muestreada. Esto sugiere estudiar algún tipo de varianza con respecto a  .

Formalmente, la derivada parcial con respecto a   del logaritmo natural de la función de verosimilitud se denomina score. Bajo ciertas condiciones de regularidad, si   es el parámetro verdadero (es decir   se distribuye realmente como  , puede demostrarse que el valor esperado (el primer momento) de la puntuación, evaluado en el valor verdadero del parámetro   es 0:[6]

 

La información de Fisher es definida por la varianza del score:[7]

 

Nótese que  . Una variable aleatoria con información de Fisher elevada implica que el valor absoluto del score suele ser alto. La información de Fisher no es función de una observación concreta, ya que se promedia la variable aleatoria  .

Si log f(x; θ) es dos veces diferenciable con respecto a  , y bajo ciertas condiciones de regularidad, entonces la información de Fisher también se puede escribir de la siguiente manera:[8]

 

ya que

 

y

 

En ese sentido, la información de Fisher puede verse como la curvatura de la curva de soporte (el gráfico de la log-verosimilitud). Cerca de la estimación de máxima verosimilitud, una información de Fisher baja indica que el máximo parece blunt, es decir, que el máximo es poco profundo y hay muchos valores cercanos con una log-verosimilitud similar. Por el contrario, una información de Fisher alta indica que el máximo es agudo.

Condiciones de regularidad editar

Las condiciones de regularidad son las siguientes:[9]

  1. La derivada parcial de   con respecto a   existe en casi todas partes. Puede fallar en existir en un conjunto nulo, siempre que este conjunto no dependa de  .
  2. La integral de   puede ser diferenciada bajo el signo integral con respecto a  .
  3. El soporte de   no depende de  .

Si   es un vector entonces las condiciones de regularidad deben cumplirse para cada componente de  . Es fácil encontrar un ejemplo de una densidad que no satisface las condiciones de regularidad: La densidad de una variable Uniforme(0,  ) no satisface las condiciones 1 y 3. En este caso, aunque la información de Fisher pueda calcularse a partir de la definición, no tendrá las propiedades que se le suponen típicamente.

En términos de probabilidad editar

Dado que la probabilidad de   dado   es siempre proporcional a la probabilidad  , sus logaritmos difieren necesariamente en una constante que es independiente de  , y las derivadas de estos logaritmos con respecto a   son necesariamente iguales. Por lo tanto, se puede sustituir log-verosimilitud l(θ; X) en lugar de log   en las definiciones de la información de Fisher.

Muestras de cualquier tamaño editar

El valor   puede representar una única muestra extraída de una única distribución o puede representar una colección de muestras extraídas de una colección de distribuciones. Si hay   muestras y las   distribuciones correspondientes son estadísticamente independientes, la información de Fisher será necesariamente la suma de los valores de información de Fisher de una sola muestra, uno por cada muestra de su distribución. En particular, si las   distribuciones son independientes e idénticamente distribuidas, entonces la información de Fisher será necesariamente   veces la información de Fisher de una sola muestra de la distribución común. Dicho de otro modo, la información de Fisher de observaciones i.i.d. de una muestra de tamaño   de una población es igual al producto de   y la información de Fisher de una única observación de la misma población.

Derivación informal del límite de Cramér-Rao editar

La cota de Cramér-Rao[10][11]​ establece que la inversa de la información de Fisher es un límite inferior de la varianza de cualquier estimador insesgado de  . H.L. Van Trees (1968) y B. Roy Frieden (2004) proporcionan el siguiente método para derivar la cota de Cramér-Rao, un resultado que describe el uso de la información de Fisher.

Informalmente, empezamos considerando un estimador insesgado  . Matemáticamente, «insesgado» significa que:

 

Esta expresión es cero independiente de  , por lo que su derivada parcial con respecto a   también debe ser cero. Por la regla del producto, esta derivada parcial también es igual a:

 

Para cada  , la función de verosimilitud es una función de densidad de probabilidad, y por tanto  . Utilizando la regla de la cadena sobre la derivada parcial de   y luego dividiendo y multiplicando por  , se puede comprobar que  

Utilizando ambos en lo anterior, obtenemos

 

Factorizando el integrando se obtiene

 

Elevando al cuadrado la expresión de la integral, la desigualdad de Cauchy-Schwarz da como resultado

 

El segundo factor entre corchetes se define como la información de Fisher, mientras que el primer factor entre corchetes es el error cuadrático medio esperado del estimador  . Reordenando, la desigualdad da como resultado

 

En otras palabras, la precisión con la que podemos estimar   está limitada fundamentalmente por la información de Fisher de la función de verosimilitud.

Alternativamente, la misma conclusión puede obtenerse directamente de la desigualdad de Cauchy-Schwarz para variables aleatorias,  , aplicado a las variables aleatorias   y  , y observando que para estimadores insesgados tenemos

 

Ejemplo: Experimento Bernoulli de un solo parámetro editar

Un ensayo de Bernoulli es una variable aleatoria con dos resultados posibles, 0 y 1, donde 1 tiene una probabilidad de  . El resultado se puede considerar como determinado por el lanzamiento de una moneda sesgada, siendo la probabilidad de cara (1) es   y la probabilidad de cruz (0) es 1 -  .

Sea   un ensayo de Bernoulli de una muestra de la distribución, se puede calcular que la información de Fisher contenida en   es:

 

Dado que la información de Fisher es aditiva, la información de Fisher contenida en   ensayos Bernoulli independientes es

 

Si   es uno de los   posibles resultados de   ensayos Bernoulli independientes y   es el  -ésimo resultado del  -ésimo ensayo, entonces la probabilidad de   viene dada por:

 La media del  -ésimo ensayo es  

El valor esperado de la media de un ensayo es  

donde la suma es sobre todos los   posibles resultados del ensayo. El valor esperado del cuadrado de las medias es:

 

por lo que la varianza en el valor de la media es:

 

Se ve que la información de Fisher es el recíproco de la varianza del número medio de aciertos en   ensayos Bernoulli. En general, esto es cierto. En este caso, el límite de Cramér-Rao es una igualdad.

Forma matricial editar

Cuando hay   parámetros, de modo que   es un   × 1 vector   entonces la información de Fisher adopta la forma de una matriz   ×  . Esta matriz se denomina matriz de información de Fisher (MIF o Fisher information matrix) y tiene el elemento típico

 

La MIF es una matriz   ×   semidefinida positiva. Si es definida positiva, define una métrica riemanniana en el espacio de parámetros  -dimensional. La geometría de la información utiliza esto para conectar la información de Fisher con la geometría diferencial, y en ese contexto, esta métrica se conoce como métrica de la información de Fisher.

Bajo ciertas condiciones de regularidad, la matriz de información de Fisher también puede escribirse como

 

El resultado se puede interpretar de las siguientes formas:

  • Puede derivarse como el hessiano de la entropía relativa.
  • Puede utilizarse como métrica riemanniana para definir la geometría de Fisher-Rao cuando es definida positivamente.[12]
  • Puede entenderse como una métrica inducida a partir de la métrica euclidiana, tras un cambio de variable apropiado.
  • En su forma de valor complejo, es la métrica de Fubini-Study.
  • Es la pieza clave de la demostración del teorema de Wilks, que permite estimar la región de confianza para la estimación de máxima verosimilitud (para aquellas condiciones en las que se aplica) sin necesidad del principio de verosimilitud.
  • En los casos en que los cálculos analíticos de la MIF anteriores son difíciles, es posible formar un promedio de estimaciones fáciles de Monte Carlo del hessiano de la función de log-verosimilitud negativa como estimación del MIF.[13][14][15]​ Las estimaciones pueden basarse en los valores de la función de verosimilitud logarítmica negativa o en el gradiente de la función de verosimilitud logarítmica negativa; no es necesario un cálculo analítico del hessiano de la función de log-verosimilitud negativa.

Parámetros ortogonales de información editar

Se considera que dos vectores de componentes de parámetros  1 y  2 son ortogonales desde el punto de vista de la información si la matriz de información de Fisher es diagonal de bloques, con estos componentes en bloques separados.[16]​ Los parámetros ortogonales son fáciles de tratar en el sentido de que sus estimaciones de máxima verosimilitud no están asintóticamente correlacionadas. Al considerar cómo analizar un modelo estadístico, se aconseja al modelizador que invierta algún tiempo en buscar una parametrización ortogonal del modelo, en particular cuando el parámetro de interés es unidimensional, pero el parámetro perturbador puede tener cualquier dimensión.[17]

Modelo estadístico singular editar

Si la matriz de información de Fisher es definida positiva para todo  , se dice que el modelo estadístico correspondiente es regular; en caso contrario, se dice que el modelo estadístico es singular.[18]​ Ejemplos de modelos estadísticos singulares son los siguientes: mezclas normales, mezclas binomiales, mezclas multinomiales, redes bayesianas, redes neuronales, funciones de base radial, modelos de Markov ocultos, gramáticas estocásticas libres de contexto, regresiones de rango reducido, máquinas de Boltzmann.

En el aprendizaje automático, si un modelo estadístico se diseña de forma que extraiga la estructura oculta de un fenómeno aleatorio, se convierte naturalmente en singular.[19]

Distribución normal multivariante editar

La MIF para una distribución normal multivariante de   variables,   tiene una forma especial. Sea el vector  -dimensional de parámetros  y el vector de variables aleatorias normales sea  . Suponiendo que los valores medios de estas variables aleatorias son  , y sea   la matriz de covarianza. Entonces, para  , la entrada (m, n) de la MIF es:[20]

 

donde   denota la transposición de un vector,   denota la traza de una matriz cuadrada, y:

 

Nótese que un caso especial, pero muy común, es aquel en el que  , una constante. Entonces

 

En este caso, la matriz de información de Fisher puede identificarse con la matriz de coeficientes de las ecuaciones normales de la teoría de estimación por mínimos cuadrados.

Otro caso especial ocurre cuando la media y la covarianza dependen de dos parámetros vectoriales diferentes, dígase, β y θ. Esto es especialmente popular en el análisis de datos espaciales, que a menudo utiliza un modelo lineal con residuos correlacionados. En este caso:[21]

 ,

donde

 

Propiedades editar

Regla de la cadena editar

Al igual que la entropía o la información mutua, la información de Fisher también posee una regla de descomposición en cadena. En particular, si   e   son variables aleatorias distribuidas conjuntamente, se deduce que:[22]

 

donde   y también   es la información de Fisher de   relativa a 𝜃, calculada con respecto a la densidad condicional de   dado un valor específico   =  .

Como caso especial, si las dos variables aleatorias son independientes, la información proporcionada por las dos variables aleatorias es la suma de la información de cada variable aleatoria por separado:

 

Por consiguiente, la información de una muestra aleatoria de   observaciones independientes e idénticamente distribuidas es   veces la información de una muestra de tamaño 1.

Divergencia f editar

Dada una función convexa   que   es finito para todo  ,  , y  , (que podría ser infinita), define una divergencia f ( ). Entonces, si   es estrictamente convexo en  , entonces localmente en  , la matriz de información de Fisher es una métrica, en el sentido de que[23]

 

donde   es la distribución parametrizada por  . Es decir, es la distribución con pdf  .

En esta forma, está claro que la matriz de información de Fisher es una métrica riemanniana, y varía correctamente bajo un cambio de variables.

Estadístico suficiente editar

La información proporcionada por una estadística suficiente es la misma que la de la muestra  . Esto puede verse utilizando el criterio de factorización de Neyman para un estadístico suficiente. Si   es suficiente para  , entonces

 

para algunas funciones g y h. La independencia de   de   implica

 

y la igualdad de información se deduce entonces de la definición de información de Fisher. En términos más generales, si   es una estadística, entonces

 

con igualdad si y sólo si   es una estadística suficiente.[24]

Reparametrización editar

La información de Fisher depende de la parametrización del problema. Si   y   son dos parametrizaciones escalares de un problema de estimación, y   es una función continuamente diferenciable de  , entonces

 

donde   y   son las medidas de información de Fisher de   y  , respectivamente.[25]

En el caso vectorial, supongamos que   y   son k-vectores que parametrizan un problema de estimación, y supongamos que   es una función continuamente diferenciable de  , entonces,[26]

 

donde el elemento   de la k × k matriz jacobiana   se define como

 

y donde   es la matriz transpuesta de  .

En la geometría de la información, esto se ve como un cambio de coordenadas en una variedad riemanniana, y las propiedades intrínsecas de la curvatura no cambian bajo diferentes parametrizaciones. En general, la matriz de información de Fisher proporciona una métrica riemanniana (más concretamente, la métrica de Fisher-Rao) para la variedad de estados termodinámicos, y puede utilizarse como medida de complejidad geométrica de la información para una clasificación de transiciones de fase, por ejemplo, la curvatura escalar del tensor métrico termodinámico diverge en (y sólo en) un punto de transición de fase.[27]

En el contexto termodinámico, la matriz de información de Fisher está directamente relacionada con la tasa de cambio de los parámetros de orden correspondientes.[28]​ En particular, tales relaciones identifican transiciones de fase de segundo orden a través de divergencias de elementos individuales de la matriz de información de Fisher.

Desigualdad isoperimétrica editar

La matriz de información de Fisher desempeña un papel en una desigualdad como la desigualdad isoperimétrica.[29]​ De todas las distribuciones de probabilidad con una entropía dada, aquella cuya matriz de información de Fisher tiene la traza más pequeña es la distribución gaussiana. Es como si, de todos los conjuntos acotados con un volumen dado, la esfera tuviera la superficie más pequeña.

La prueba consiste en tomar una variable aleatoria multivariante   con función de densidad   y añadir un parámetro de localización para formar una familia de densidades  . Entonces, por analogía con la fórmula de Minkowski-Steiner, la «superficie» de   se define como

 

donde   es una variable gaussiana con matriz de covarianza  . El nombre de «superficie» es adecuado porque la potencia de entropía   es el volumen del «conjunto de apoyo efectivo»,[30]​ por lo que   es la «derivada» del volumen del conjunto de soporte efectivo, muy parecida a la fórmula de Minkowski-Steiner. El resto de la prueba utiliza la desigualdad de potencia de entropía, que es como la desigualdad de Brunn-Minkowski. La traza de la matriz de información de Fisher es un factor de  .

Aplicaciones editar

Diseño óptimo de experimentos editar

La información de Fisher se utiliza ampliamente en el diseño óptimo de experimentos. Debido a la reciprocidad entre estimador-varianza e información de Fisher, la minimización de la varianza corresponde a la maximización de la información.

Cuando el modelo estadístico lineal (o linealizado) tiene varios parámetros, la media del estimador del parámetro es un vector y su varianza es una matriz. La inversa de la matriz de varianza se denomina «matriz de información». Dado que la varianza del estimador de un vector de parámetros es una matriz, el problema de «minimizar la varianza» es complicado. Mediante la teoría estadística, los estadísticos comprimen la matriz de información utilizando síntesis estadística de valor real; al ser funciones de valor real, estos «criterios de información» pueden maximizarse.

Tradicionalmente, los estadísticos han evaluado estimadores y diseños considerando alguna síntesis estadística de la matriz de covarianza (de un estimador insesgado), normalmente con valores reales positivos (como el determinante o la traza de la matriz). Trabajar con números reales positivos aporta varias ventajas: Si el estimador de un único parámetro tiene una varianza positiva, entonces la varianza y la información de Fisher son números reales positivos; por lo tanto, son miembros del cono convexo de números reales no negativos (cuyos miembros no nulos tienen recíprocos en este mismo cono).

Para varios parámetros, las matrices de covarianza y las matrices de información son elementos del cono convexo de matrices simétricas no negativas-definidas en un espacio vectorial parcialmente ordenado, bajo el orden de Loewner (Löwner). Este cono es cerrado bajo la adición e inversión de matrices, así como bajo la multiplicación de números reales positivos y matrices. Una exposición de la teoría de matrices y del orden de Loewner aparece en Pukelsheim.[31]

Los criterios de optimalidad tradicionales son los invariantes de la matriz de información, en el sentido de la teoría de invariantes; algebraicamente, los criterios de optimalidad tradicionales son funcionales de los valores propios de la matriz de información (de Fisher).

Prioridad de Jeffreys en estadística bayesiana editar

En estadística bayesiana, la información de Fisher se utiliza para calcular la prioridad de Jeffreys, que es una prioridad estándar no informativa para parámetros de distribución continua.[32]

Neurociencia computacional editar

La información de Fisher se ha utilizado para encontrar límites a la precisión de los códigos neuronales. En ese caso,   suele ser la respuesta conjunta de muchas neuronas que representan una variable de baja dimensión   (como un parámetro de estímulo). En particular, se ha estudiado el papel de las correlaciones en el ruido de las respuestas neuronales.[33]

Epidemiología editar

Se utilizó la información de Fisher para estudiar el grado de información de distintas fuentes de datos para estimar el número de reproducción del SARS-CoV-2.[34]

Derivación de leyes físicas editar

La información de Fisher desempeña un papel central en un controvertido principio propuesto por Frieden como base de las leyes físicas, afirmación que ha sido puesta en duda.[35]

Aprendizaje automático editar

La información de Fisher se utiliza en técnicas de aprendizaje automático como la consolidación del peso elástico,[36]​ que reduce el olvido catastrófico en las redes neuronales artificiales.

La información de Fisher puede utilizarse como alternativa al hessiano de la función de pérdida en el entrenamiento de redes de descenso de gradiente de segundo orden.[37]

Discriminación de colores editar

Utilizando una métrica de información de Fisher, da Fonseca et. al[38]​ investigaron el grado en que las elipses de MacAdam (elipses de discriminación del color) pueden derivarse de las funciones de respuesta de los fotorreceptores de la retina.

Relación con la entropía relativa editar

La información de Fisher está relacionada con la entropía relativa.[39]​ La entropía relativa, o divergencia de Kullback-Leibler, entre dos distribuciones   y   puede escribirse como

 

Considérese ahora una familia de distribuciones de probabilidad   parametrizado por  . Entonces, la divergencia de Kullback-Leibler, entre dos distribuciones de la familia se puede escribir como

 

Si   es fija, entonces la entropía relativa entre dos distribuciones de la misma familia se minimiza en  . Para   cercano a  , se puede expandir la expresión anterior en una serie de segundo orden:

 

Pero la derivada de segundo orden puede escribirse como

 

Así, la información de Fisher representa la curvatura de la entropía relativa de una distribución condicional con respecto a sus parámetros.

Historia editar

La información de Fisher fue discutida por varios de los primeros estadísticos, especialmente F. Y. Edgeworth.[40]​ Por ejemplo, Savage[41]​ dice: «En ella [la información de Fisher], él [Fisher] se anticipó hasta cierto punto (Edgeworth 1908-9 esp. 502, 507-8, 662, 677-8, 82-5 y referencia citas de él [Edgeworth], incluyendo a Pearson y Filon 1898 [. . .])». Existen varias fuentes históricas tempranas[42]​ y varias reseñas de esta obra temprana.[43][44][45]

Véase también editar

Otras medidas empleadas en la teoría de la información:

Referencias editar

  1. Lehmann y Casella, p. 115
  2. Robert, Christian (2007). «Noninformative prior distributions». The Bayesian Choice (en inglés) (2da edición). Springer. pp. 127-141. ISBN 978-0-387-71598-8. 
  3. Le Cam, Lucien (1986). Asymptotic Methods in Statistical Decision Theory (en inglés). Nueva York: Springer. pp. 618-621. ISBN 0-387-96307-3. 
  4. Kass, Robert E.; Tierney, Luke; Kadane, Joseph B. (1990). «The Validity of Posterior Expansions Based on Laplace's Method». En Geisser, S.; Hodges, J.S., Zellner, A., eds. Bayesian and Likelihood Methods in Statistics and Econometrics (en inglés). Elsevier. pp. 473-488. ISBN 0-444-88376-2. 
  5. Frieden y Gatenby (2013)
  6. Suba Rao (12 de abril de 2013). «Lectures on statistical inference» (en inglés). Archivado desde el original el 26 de septiembre de 2020. 
  7. Fisher (1922)
  8. Lehmann & Casella, eq. (2.5.16), Lemma 5.3, p.116.
  9. Schervish, Mark J. (1995). Theory of Statistics (en inglés). Nueva York: Springer. p. 111. ISBN 978-1-4612-4250-5. OCLC 852790658. 
  10. Cramer (1946)
  11. Rao (1945)
  12. Nielsen, Frank (2013). «Cramér-Rao Lower Bound and Information Geometry». Connected at Infinity II. Texts and Readings in Mathematics (en inglés) 67. pp. 18-37. ISBN 978-93-80250-51-9. doi:10.1007/978-93-86279-56-9_2. arxiv: 1301.3578 s2cid: 16759683. 
  13. Spall, J. C. (2005). «Monte Carlo Computation of the Fisher Information Matrix in Nonstandard Settings». Journal of Computational and Graphical Statistics (en inglés) 14 (4): 889-909. doi:10.1198/106186005X78800. Semantic Scholar Corpus ID: 16090098. 
  14. Spall, James C. (2008-06). «Improved methods for Monte Carlo estimation of the fisher information matrix». 2008 American Control Conference (en inglés) (Seattle, WA, 11 al 13 de junio: IEEE): 2395-2400. doi:10.1109/acc.2008.4586850. Consultado el 16 de mayo de 2024. 
  15. Das, Sonjoy; Spall, James C.; Ghanem, Roger (1 de febrero de 2010). «Efficient Monte Carlo computation of Fisher information matrix using prior information». Computational Statistics & Data Analysis 54 (2): 272-289. ISSN 0167-9473. doi:10.1016/j.csda.2009.09.018. Consultado el 16 de mayo de 2024. 
  16. Barndorff-Nielsen, O. E.; Cox, D. R. (1994). Inference and Asymptotics (en inglés). Chapman & Hall. ISBN 9780412494406. 
  17. Cox, D. R.; Reid, N. (1987). «Parameter orthogonality and approximate conditional inference (with discussion)». J. Royal Statistical Soc. B (en inglés) 49: 1-39. doi:10.1111/j.2517-6161.1987.tb01422.x. 
  18. Watanabe, Sumio (2008-03). «Algebraic geometrical method in singular statistical estimation». Quantum Bio-Informatics (en inglés) (Accardi, L.; Freudenberg, W.; Ohya, M. edición) (World Scientific): 325-336. ISBN 978-981-279-316-4. doi:10.1142/9789812793171_0024. Consultado el 16 de mayo de 2024. 
  19. Watanabe, S. (2013). «A Widely Applicable Bayesian Information Criterion». Journal of Machine Learning Research (en inglés) 14: 867-897. 
  20. Malagò, Luigi; Pistone, Giovanni (2015). «Information Geometry of the Gaussian Distribution in View of Stochastic Optimization». Proceedings of the 2015 ACM Conference on Foundations of Genetic Algorithms XIII (en inglés). pp. 150-162. ISBN 9781450334341. doi:10.1145/2725494.2725510. s2cid: 693896. 
  21. Mardia, K. V.; Marshall, R. J. (1984). «Maximum likelihood estimation of models for residual covariance in spatial regression». Biometrika (en inglés) 71 (1): 135-146. doi:10.1093/biomet/71.1.135. 
  22. Zamir, R. (1998-05). «A proof of the Fisher information inequality via a data processing argument». IEEE Transactions on Information Theory 44 (3): 1246-1250. doi:10.1109/18.669301. Consultado el 17 de mayo de 2024. 
  23. Polyanskiy, Yury (2017). «Lecture notes on information theory, chapter 29, ECE563 (UIUC)». Lecture notes on information theory (en inglés). Archivado desde el original el 24 de mayo de 2022. 
  24. Schervish, Mark J. (1995). Theory Statistics (en inglés). Springer-Verlag. p. 113. 
  25. Lehmann & Casella, eq. (2.5.11).
  26. Lehmann & Casella, eq. (2.6.16).
  27. Janke, W.; Johnston, D.A.; Kenna, R. (2004-05). «Information geometry and phase transitions». Physica A: Statistical Mechanics and its Applications 336 (1-2): 181. ISSN 0378-4371. doi:10.1016/j.physa.2004.01.023. Consultado el 18 de mayo de 2024. 
  28. Prokopenko, Mikhail; Lizier, Joseph T.; Obst, Oliver; Wang, X. Rosalind (13 de octubre de 2011). «Relating Fisher information to order parameters». Physical Review E 84 (4): 041116. doi:10.1103/PhysRevE.84.041116. Consultado el 18 de mayo de 2024. 
  29. Costa, M.; Cover, T. (1984-11). «On the similarity of the entropy power inequality and the Brunn- Minkowski inequality (Corresp.)». IEEE Transactions on Information Theory (en inglés) 30 (6): 837-839. ISSN 0018-9448. doi:10.1109/TIT.1984.1056983. Consultado el 18 de mayo de 2024. 
  30. Cover, Thomas M. (2006). Elements of information theory (en inglés). Joy A. Thomas (2da. edición). Hoboken, N.J.: Wiley-Interscience. p. 256. ISBN 0-471-24195-4. OCLC 59879802. 
  31. Pukelsheim, Friedrich (1993). Optimal Design of Experiments (en inglés). Nueva York: Wiley. ISBN 978-0-471-61971-0. 
  32. Bernardo, Jose M.; Smith, Adrian F. M. (1994). Bayesian Theory (en inglés). Nueva York: John Wiley & Sons. ISBN 978-0-471-92416-6. 
  33. Abbott, L. F.; Dayan, Peter (1 de enero de 1999). «The Effect of Correlated Variability on the Accuracy of a Population Code». Neural Computation (en inglés) 11 (1): 91-101. ISSN 0899-7667. doi:10.1162/089976699300016827. Consultado el 18 de mayo de 2024. 
  34. Parag, Kris V.; Donnelly, Christl A.; Zarebski, Alexander E. (2022-09). «Quantifying the information in noisy epidemic curves». Nature Computational Science (en inglés) 2 (9): 584-594. ISSN 2662-8457. doi:10.1038/s43588-022-00313-1. Consultado el 18 de mayo de 2024. 
  35. Streater, R. F. (2007). Lost Causes in and beyond Physics (en inglés). Springer. p. 69. ISBN 978-3-540-36581-5. 
  36. Kirkpatrick, James; Pascanu, Razvan; Rabinowitz, Neil; Veness, Joel; Desjardins, Guillaume; Rusu, Andrei A.; Milan, Kieran; Quan, John et al. (28 de marzo de 2017). «Overcoming catastrophic forgetting in neural networks». Proceedings of the National Academy of Sciences (en inglés) 114 (13): 3521-3526. ISSN 0027-8424. PMC 5380101. PMID 28292907. doi:10.1073/pnas.1611835114. Consultado el 18 de mayo de 2024. 
  37. Martens, James (2020). «New Insights and Perspectives on the Natural Gradient Method». Journal of Machine Learning Research (en inglés) (21). 
  38. da Fonseca, María; Samengo, Inés (2016-12). «Derivation of Human Chromatic Discrimination Ability from an Information-Theoretical Notion of Distance in Color Space». Neural Computation (en inglés) 28 (12): 2628-2655. ISSN 0899-7667. doi:10.1162/neco_a_00903. Consultado el 18 de mayo de 2024. 
  39. Gourieroux, Christian; Monfort, Alain (26 de octubre de 1995). Statistics and Econometric Models (en inglés). Cambridge University Press. p. 87. ISBN 978-0-521-47744-4. Consultado el 18 de mayo de 2024. 
  40. Sacage (1976)
  41. Savage (1976), p. 156
  42. Edgeworth (Setiembre de 1908, diciembre de 1908)
  43. Pratt (1976)
  44. Stigler (1978, 1986, 1999)
  45. Hald (1998, 1999)

Bibliografía editar