Usuario:Scigfry/Taller

Informazioaren teorian baldintzazko entropia, baita ere nahastea deituta, kuantifikatzen du zenbatekoa den aldagai aleatorioa, aldagai aleatorioaren balioaren menpean dagoena, behar izan den informazio kopurua.

Definizioa

editar

  baldin bada   ausazko aldagairen entropia,   ausazko aldagairen menpean izanik eta hau   valioa edukiz, eta   Probabilitate-funtzio edukiz,  , bere baldintzazko entropia honela kalkulatuko da  . Hona emen formula:

     ren informazio-edukia izanik   balioa hartuz.

 ren baldintza entropikoa  k   balioa hartuz konditzionatuta egotea analogikoki definitituta dago baldintzazko esperantzaren bitartez:

 

  da   batazbestekoa  ren   positibo guztiak hartuz.

  eta   zorizko aldagaiak emanez, bere imajinak   eta   izanik,  ren baldintzazko entropia   emanez  ren gehiketa izango da,  ren balio positibo guztietan,   pisua bezala hartuz.

 

Oharra: Ulertzen da expresioa   eta   finkorako   erabili behar direla 0 bezala.

Ezaugarriak

editar

Baldintzazko entropia zero bada

editar

  izango da baldin eta  koa  rekiko guztiz baldintzatuta baldin badago.

Baldintzazko entropia ausazko aldaigaia independentea bada

editar

  izango da  koa eta   aldagai independenteak baldin badira.

Kate erregela

editar
 


Bayes-en legea

editar

Bayesen legeak baldintzazko entropiari buruz dio

 

Frogapena:   eta   ekuazioak ditugu, eta   simetrikoak dira.
Hortaz,   daukagunez,   lortzen degu, eta hau ordenatuz   Bayesen legea lortzen da.

 koa  rekiko independentea baldin bada, eta   edukiz

 

Beste ezaugarriak

editar

Edozein   eta  rako:

 

Non   den   eta  ren elkarrekiko informazioa

  eta   elkarrekiko independenteak direnean:

  and  

Naiz eta baldintza-espezifiko entropia     baino handiago ala txikiago izan daitekeen  ko   ausako algaia,   ezin du inoiz   baino probabilitate gehio eduki