Constante de normalización

Constante que permite adaptar una función para ser utilizada como función de densidad de probabilidad

La constante de normalización es un término que aparece en teoría de la probabilidad y en distintas otras áreas de las matemáticas. Se utiliza para reducir cualquier función de probabilidad a una función de densidad de probabilidad, de forma que su probabilidad total tenga valor uno.

Definición y ejemplos editar

En teoría de la probabilidad, una constante de normalización se define como un valor mediante el que una función no negativa en todo su dominio debe multiplicarse para que el área debajo de su gráfica sea 1, por ejemplo, para convertirla en una función de densidad de probabilidad o en una función de probabilidad.[1][2]​ Por ejemplo, si se define

 

entonces se tiene que

 

Si se define una función   como

 

y por lo tanto

 

Entonces, se dice que la función   es una función de densidad de probabilidad.[3]​ En este caso, se trata de una distribución normal estándar (aquí, estándar significa que su esperanza matemática es 0 y su varianza es 1).

En consecuencia, la constante   es la constante de normalización de la función  .

De forma similar,

 

y consecuentemente

 

es una función de densidad en el conjunto de todos los enteros no negativos.[4]​ Esta es la función de probabilidad de densidad de la distribución de Poisson con el valor esperado λ.

Se debe tener en cuenta que si la función de densidad de probabilidad es una función de varios parámetros, también lo será su constante de normalización. La constante de normalización parametrizada para la distribución Boltzmann desempeña un papel central en la física estadística. En ese contexto, la constante de normalización se llama función de partición.

Teorema de Bayes editar

El teorema de Bayes afirma que la medida de la probabilidad posterior es proporcional al producto de la medida de probabilidad anterior y a la función de verosimilitud. Proporcional a implica que debe multiplicarse o dividirse por una constante de normalización para asignar la medida 1 a todo el espacio, es decir, para obtener una medida de probabilidad. En un caso simple y discreto se tiene que

 

donde P (H0) es la probabilidad previa de que la hipótesis sea cierta; P(D|H0) es la probabilidad condicionada de los datos dado que la hipótesis es cierta, pero dado que los datos son conocidos, es la verosimilitud de la hipótesis (o sus parámetros) dados los datos; P(H0|D) es la probabilidad posterior de que la hipótesis sea cierta dados los datos. P(D) debe ser la probabilidad de producir los datos, pero por sí sola es difícil de calcular, por lo que una forma alternativa de describir esta relación es como una condición de proporcionalidad:

 

Dado que P (H|D) es una probabilidad, la suma sobre todas las posibles hipótesis (mutuamente excluyentes) debe ser 1, lo que lleva a la conclusión de que

 

En este caso, el recíproco del valor

 

es la constante de normalización.[5]​ El principio puede generalizarse desde un número finito de hipótesis hasta una distribución continua reemplazando la suma por una integral.

Usos no probabilísticos editar

Los polinomios de Legendre se caracterizan por ser ortogonales con respecto a la medida uniforme en el intervalo [−1, 1]; y por el hecho de que están normalizados, de modo que su valor en 1 es 1. La constante por la cual se multiplica un polinomio de modo que su valor en 1 es 1 es una constante de normalización.

Las funciones ortonormales están normalizadas de tal manera que

 

con respecto a algún producto interno <fg>.

La constante 1/2 se utiliza para establecer las funciones hiperbólicas cosh y sinh a partir de las longitudes de los lados adyacentes y opuestos de un triángulo hiperbólico.

Referencias editar

  1. Continuous Distributions at University of Alabama.
  2. Feller, 1968, p. 22.
  3. Feller, 1968, p. 174.
  4. Feller, 1968, p. 156.
  5. Feller, 1968, p. 124.

Bibliografía editar