Abrir menú principal

En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min. Las entropías cuantifican la diversidad, incertidumbre o aleatoriedad de un sistema. La entropía de Rényi lleva el nombre de Alfréd Rényi.[1]​ En el contexto de estimación de la dimensión fractal, la entropía de Rényi forma la base del concepto de dimensiones generalizadas.

La entropía de Rényi es importante en ecología y estadística como índice de diversidad. La entropía de Rényi también es importante en información cuántica, donde se puede usar como medida del entrelazamiento. En el modelo de Heisenberg de cadena de espín XY, se puede calcular explícitamente la entropía de Rényi como función de α gracias al hecho de que es una función automórfica con respecto a un subgrupo particular del grupo modular.[2][3]​ En ciencia computacional teórica, la entropía min se usa en el contexto de extractores de aleatoriedad.

Índice

DefiniciónEditar

La entropía de Rényi de orden  , donde   y  , se define como

  .

Aquí,   es una variable aleatoria discreta con resultados posibles   y probabilidades correspondientes   para  , y el logaritmo es de base 2. Si las probabilidades son   para todo  , entonces todas las entropías de Rényi de la distribución son iguales:  . En general, para todas las variables aleatorias discretas  ,   es una función no creciente de  .

Sus aplicaciones suelen utilizar la siguiente relación entre la entropía de Rényi y la norma p del vector de probabilidades:

  .

donde la distribución de probabilidad discreta   se interpreta como un vector en   con   y  .

La entropía de Rényi para cualquier   es Schur-cóncava.

Casos especiales de la entropía de RényiEditar

 
Entropía de Rényi de una variable aleatoria con dos posibles salidas frente a p1, donde P = (p1, 1 − p1). Se representan H0, H1, H2 y H, en unidades de shannons.

Cuando α tiende a cero, la entropía de Rényi le da un peso cada vez más parejo a todos los eventos posibles, independientemente de sus probabilidades. En el límite α → 0, la entropía de Rényi es simplemente el logaritmo del tamaño del soporte de X. El límite α → 1 es la entropía de Shannon. Cuando α tiende a infinito, la entropía de Rényi está determinada por los eventos de mayor probabilidad.

Entropía max o de HartleyEditar

Dadas probabilidades no nulas,[4]  es el logaritmo de la cardinalidad de X, a veces llamado la entropía de Hartley de X,

 

Entropía de ShannonEditar

El valor límite de   cuando α → 1 es la entropía de Shannon:[5]

 

Entropía de colisiónEditar

La entropía de colisión, a veces llamada simplemente entropía de Rényi, se refiere al caso α = 2,

 

donde X e Y son independientes e idénticamente distribuidas.

Entropía minEditar

En el límite  , la entropía de Rényi   converge a la entropía min  :

 

De forma equivalente, la entropía min   es el mayor número real b tal que todos los eventos ocurren con probabilidad a lo sumo  .

El nombre entropía min proviene del hecho de que es la menor medida de la entropía de la familia de entropías de Rényi. En este sentido, es la manera más fuerte de medir la información contenida en una variable aleatoria discreta. En particular, la entropía min nunca es mayor que la entropía de Shannon.

La entropía min tiene importantes aplicaciones en extractores de aleatoriedad en ciencia computacional teórica: los extractores son capaces de extraer aleatoriedad de fuentes aleatorias que tienen gran entropía min. Tener simplemente una entropía de Shannon grande no es suficiente para ello.

Entropía linealEditar

Un caso particular de la entropía de Rényi corresponde a la entropía lineal ( ):

 

Desigualdades entre diferentes valores de αEditar

Se puede probar por derivación que   es no creciente con  ,[6]​ de la forma

 

que es proporcional a la divergencia de Kullback-Leibler (que es siempre no negativa), donde  .

En casos particulares las desigualdades se pueden probar también con la desigualdad de Jensen:[7][8]

 

Para valores de  , también se cumplen desigualdades en el otro sentido. En particular, se tiene[9][cita requerida]

 

Por otro lado, la entropía de Shannon   puede ser arbitrariamente grande para una variable aleatoria   con una entropía min dada.[cita requerida]

Divergencia de RényiEditar

Al igual que las entropías de Rényi absolutas, Rényi también definió un espectro de medidas de la divergencia generalizando la divergencia de Kullback-Leibler.[10]

La divergencia de Rényi de orden α o divergencia alfa de una distribución P respecto de una distribución Q se define como

 

donde 0 < α < ∞ y α ≠ 1. Se puede definir la divergencia de Rényi para los valores particulares α = 0, 1, ∞ tomando el límite, y en particular el límite α → 1 da la divergencia de Kullback-Leibler.

Algunos casos particulares:

 : menos la probabilidad en Q de que pi > 0;
 : menos dos veces el logaritmo del coeficiente de Bhattacharyya; (Nielsen y Boltz (2009))
 : la divergencia de Kullback-Leibler;
 : el logaritmo del ratio esperado de las probabilidades;
 : el logaritmo del ratio máximo de las probabilidades.

La divergencia de Rényi es de hecho una divergencia, lo que quiere decir simplemente que   es mayor o igual que cero, siendo cero si y solo si P = Q. Para un par de distribuciones cualesquiera pero fijas P y Q, la divergencia de Rényi es no decreciente como función de su orden α, y es continua en elconjunto de α para los que es finita.

Por qué α = 1 es especialEditar

El valor α = 1, que da la entropía de Shannon y la divergencia de Kullback-Leibler, es especial ya que es solo con α = 1 con que se cumple la regla de la cadena de la probabilidad condicionada de forma exacta:

 

para las entropías absolutas, y

 

para las entropías relativas.

Esto último en particular significa que si buscamos una distribución p(x, a) que minimice la divergencia de alguna medida previa subyacente m(x, a), y obtenemos nueva información que solo afecta a la distribución a, entonces la distribución de p(x|a) permanece m(x|a), sin cambios.

Las otras divergencias de Rényi satisfacen los criterios de ser positivas y continuas; ser invariantes bajo transformaciones coordinadas inyectivas; y de combinarse aditivamente cuando A y X son independientes, de forma que p(A, X) = p(A)p(X), luego

 

y

 

Las propiedades más fuertes de las cantidades α = 1, que permiten definir la información condicional y la información mutua en teoría de comunicación, pueden ser muy importantes en otras aplicaciones, o completamente irrelevantes, dependiendo de las necesidades de tales aplicaciones.

Familias exponencialesEditar

Las entropías de Rényi y las divergencias para una familia exponencial admiten expresiones simples[11]

 

y

 

donde

 

es la divergencia de Jensen.

Significado físicoEditar

La entropía de Rényi en física cuántica no se considera un observable, debido a su dependencia no lineal con la matriz de densidad. La entropía de Shannon comparte esta dependencia no lineal. Ansari y Nazarov mostraron una correspondencia que revela el significado físico del flujo de entropía de Renyi en el tiempo. Su propuesta es similar al teorema de fluctuación-disipación en espíritu y permite la medida de la entropía cuántica usando la estadística de contado completo de las transferencias de energía.[12][13][14]

Véase tambiénEditar

NotasEditar

  1. Rényi (1961)
  2. Franchini (2008)
  3. Its (2010)
  4. RFC 4086, page 6
  5. Bromiley, Thacker y Bouhova-Thacker (2004)
  6. Beck (1993)
  7.   se cumple ya que  .
  8.   se cumple ya que  .
  9.   se cumple ya que  
  10. Van Erven, Tim; Harremoës, Peter (2014). «Rényi Divergence and Kullback–Leibler Divergence». IEEE Transactions on Information Theory 60 (7): 3797-3820. doi:10.1109/TIT.2014.2320500. 
  11. Nielsen y Nock (2011)
  12. Nazarov (2011)
  13. Ansari_Nazarov (2015a)
  14. Ansari_Nazarov (2015b)

ReferenciasEditar