Diferencia entre revisiones de «Teoría de la información»

Contenido eliminado Contenido añadido
Sin resumen de edición
Revertidos los cambios de 190.42.247.143 a la última edición de usando Huggle
Línea 1:
'''TeorioTeoría de Ginala Se reserva los derechos del autorinformación''' es una rama de la teoría [[matemática]] de la [[probabilidad]] y la [[estadística]] que estudia la [[información]] y todo lo relacionado con ella: [[Canal de comunicaciones|canales]], [[compresión de datos]], [[criptografía]] y temas relacionados.
 
Fue iniciada por [[Claude E. Shannon]] a través de un artículo publicado en el ''Bell System Technical Journal'' en [[1948]], titulado ''Una teoría matemática de la comunicación'' ([http://www.essrl.wustl.edu/~jao/itrg/shannon.pdf texto completo en inglés]).
 
== Introducción_HernanIntroducción ==
Cuando en un texto escrito en español y parcialmente oculto encontramos que cierta palabra empieza por una letra digamos ''C'' tenemos cierta información sobre ante qué posible palabra estamos. Si la primera letra es en vez de la ''C'' una ''X'' tenemos una mejor pista para adivinar de qué palabra se trata. La teoría información investiga la probabilidad de sucesos inciertos (como la palabra que debe adivinarse en el caso anterior) y trata de cuantificar numéricamente cuanta información aporta cada pista o hecho conocido que ayuda a reducir la incertidumbre. Por eso la información encerrada en un cierto "pedazo de conocimiento" es una función de las probabilidades de cada suceso posible en un evento incierto:
{{ecuación|