Desigualdad de Jensen

En matemáticas, la desigualdad de Jensen para funciones convexas relaciona el valor que asigna a una integral con la integral de esa misma función permutando, por así decirlo, la función y la integral. Fue probada por el matemático danés Johan Jensen en 1906.[1]​ Dada su generalidad, la desigualdad aparece en múltiples contextos.

Una prueba gráfica de la desigualdad de Jensen.

FormulaciónEditar

En su formulación más simple, la desigualdad es la siguiente: una transformación convexa de la media es menor o igual en valor que la media de una transformación convexa. Sin embargo, su formulación formal más general se expresa en el contexto de la teoría de la medida:

Sea (Ω, Aμ) un espacio de medida tal que μ(Ω) = 1. Si g es una función real μ-integrable y φ una función convexa en el eje real, entonces:

 

Casos particularesEditar

Formulación finitaEditar

Dada una función convexa φ, números x1x2, ..., xn en su dominio y pesos positivos ai se cumple que:

 

En particular, si los pesos ai son todos iguales a 1, entonces

 

Por ejemplo, como la función -log(x) es convexa, la desigualdad anterior puede concretarse en

 

En análisis realEditar

Si   son números reales y   es una función real integrable, entonces, reescalando, se puede aplicar la desigualdad de Jensen para obtener

 

Por otro lado, si f(x) es una función no negativa tal que

 

g es una función real cualquiera y φ es una función convexa sobre el rango de g, entonces

 

En caso de que g sea la función identidad, se obtiene

 


Aplicaciones en casos especialesEditar

Formulación probabilísticaEditar

La desigualdad de Jensen, usando la notación habitual en teoría de la probabilidad, puede reescribirse así:

(1) 

,

donde   es una función convexa.

Física estadísticaEditar

La desigualdad de Jensen desempeña un papel importante en física estadística cuando la función convexa es la exponencial porque entonces

(1) 

fórmula en la que los paréntesis angulares representan la esperanza respecto a la distribución de probabilidad de la variable aleatoria X.

Teoría de la informaciónEditar

Si p(x) es la función de densidad correspondiente a una variable aleatoria X y q(x) es otra función de densidad, entonces, aplicando la desigualdad (1) a la variable aleatoria Y(X) = q(X)/p(X) y la función φ(y) = −log(y) se obtiene

 

 

 

que es la llamada desigualdad de Gibbs y está relacionada con el hecho de que la longitud de los mensajes es mínima cuando se codifican en términos de la distribución verdadera y con el concepto de la divergencia de Kullback-Leibler.

Véase tambiénEditar

ReferenciasEditar

  1. Jensen, J. L. W. V. (1906). «Sur les fonctions convexes et les inégalités entre les valeurs moyennes». Acta Mathematica 30 (1): 175-193. doi:10.1007/BF02418571. 

BibliografíaEditar