Diferencia entre revisiones de «Teoría de la información»

Contenido eliminado Contenido añadido
m Revertidos los cambios de 132.254.192.11 (disc.) a la última edición de 190.227.32.152
Línea 3:
Fue iniciada por [[Claude E. Shannon]] a través de un artículo publicado en el ''Bell System Technical Journal'' en [[1948]], titulado ''Una teoría matemática de la comunicación'' ([http://www.essrl.wustl.edu/~jao/itrg/shannon.pdf texto completo en inglés]).
 
== Introducción ==
luisfer es un pendejo
Cuando en un texto escrito en español y parcialmente oculto encontramos que cierta palabra empieza por una letra digamos ''C'' tenemos cierta información sobre ante qué posible palabra estamos. Si la primera letra es en vez de la ''C'' una ''X'' tenemos una mejor pista para adivinar de qué palabra se trata. La teoría información investiga la probabilidad de sucesos inciertos (como la palabra que debe adivinarse en el caso anterior) y trata de cuantificar numéricamente cuanta información aporta cada pista o hecho conocido que ayuda a reducir la incertidumbre. Por eso la información encerrada en un cierto "pedazo de conocimiento" es una función de las probabilidades de cada suceso posible en un evento incierto:
{{ecuación|
<math>I = I(p_1,\dots,p_n|\mbox{conocimiento})</math>