Abrir menú principal

hartley (unidad)

Unidad de información; log₂(10) bits
(Redirigido desde «Dit (información)»)

El hartley (símbolo Hart), también llamado ban o dit (abreviatura de decimal digit ),[1]​ es una unidad logarítmica que mide información o entropía, basada en logaritmos de base 10 y potencias de 10, en lugar de potencias de 2 y logaritmos de base 2 que definen el bit o shannon. Un ban o hartley es el contenido de información de un evento si la probabilidad de que el evento ocurra es 1/10.[2]​ Por lo tanto, es igual a la información contenida en un dígito decimal (o dit), suponiendo la equiprobabilidad a priori de cada valor posible.

Unidades de
Información

Al igual que un bit corresponde a un dígito binario, un ban corresponde a un dígito decimal. Un deciban es una décima parte de un ban; el nombre está formado por ban con el prefijo del SI deci- .

Un hartley corresponde a log2 (10) bit = ln (10) nat, o aproximadamente 3.322 Sh,[3]​ o 2.303 nat. Un deciban es aproximadamente 0.332 Sh.

Aunque no es una unidad del SI, el Hartley es parte del Sistema Internacional de Cantidades, definido por la Norma Internacional IEC 80000-13 de la Comisión Electrotécnica Internacional. Lleva el nombre de Ralph Hartley.

HistoriaEditar

El término Hartley lleva el nombre de Ralph Hartley, quien sugirió en 1928 utilizar para medir la información una base logarítmica igual al número de estados distinguibles en su representación, lo que sería la base 10 de un dígito decimal.[4][5]

El ban y el deciban fueron inventados por Alan Turing en colaboración con I. J. Good en 1940, para medir la cantidad de información que los descifradores de códigos de Bletchley Park podían deducir mediante el procedimiento denominado Banburismus, con el fin de determinar la configuración desconocida de cada día de la máquina de cifrado naval alemana Enigma. El nombre se inspiró en las enormes hojas de cartulina, impresas en la ciudad de Banbury, a unas 30 millas de distancia, que se utilizaron en el proceso.[6]

Jack Good argumentó que la suma secuencial de decibans para construir una medida del peso de la evidencia a favor de una hipótesis, es esencialmente un proceso de inferencia bayesiana.[6]Donald A. Gillies, sin embargo, argumentó que el ban es, en efecto, lo mismo que la medida de Karl Popper de la rigurosidad de una prueba.[7]

Uso como unidad de probabilidadEditar

El deciban es una unidad particularmente útil para las probabilidades de registro, especialmente como una medida de información sobre factores de Bayes, razones de probabilidades (cocientes de probabilidades, por lo que una probabilidad de registro es la diferencia de probabilidades de registro al calcularse logarítmicamente) o ponderaciones de evidencia. 10 decibans corresponde a probabilidades de 10:1; 20 decibans a probabilidades de 100:1, etc. Según I. J. Good, un cambio en el peso de la evidencia de 1 deciban (es decir, un cambio en las probabilidades de igualar a aproximadamente 5:4) coincide con la medida en la que los humanos pueden razonablemente cuantificar su grado de creencia en una hipótesis.[8]

Las probabilidades correspondientes a los decibans enteros a menudo se pueden aproximar bien mediante razones enteras simples, que se listan a continuación. La tabla contiene un valor con dos decimales, una aproximación simple (dentro de aproximadamente el 5%), y una aproximación más precisa (dentro del 1%) si la aproximación simple no es precisa:

decibans Valor exacto Valor aproximado Proporción aproximada Proporción precisa Probabilidad
0 100/10 1 1:1 50%
1 101/10 1,26 5:4 56%
2 102/10 1,58 3:2 8:5 61%
3 103/10 2,00 2:1 67%
4 104/10 2,51 5:2 71,5%
5 105/10 3.16 3:1 19:6, 16:5 76%
6 106/10 3.98 4:1 80%
7 107/10 5.01 5:1 83%
8 108/10 6.31 6:1 19:3, 25:4 86%
9 109/10 7,94 8:1 89%
10 1010/10 10 10:1 91%

Véase tambiénEditar

ReferenciasEditar

  1. Lukoff, Herman (1979). From Dits to Bits: A personal history of the electronic computer. Portland, Oregon, USA: Robotics Press. ISBN 0-89661-002-0. LCCN 79-90567.
  2. "IEC 80000-13:2008". International Organization for Standardization (ISO)
  3. Este valor, aproximadamente 103 pero un poco menos, puede entenderse simplemente porque  : los tres dígitos decimales son un poco menos de información que los 10 dígitos binarios, por lo que 1 dígito decimal es ligeramente menos que 103 dígitos binarios
  4. Hartley, Ralph Vinton Lyon (July 1928). "Transmission of Information". Bell System Technical Journal. VII (3): 535–563 2008-03-27
  5. Reza, Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover Publications. ISBN 0-486-68210-2.
  6. a b Good, Irving John (1979). "Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II". Biometrika. 66 (2): 393–396. doi:10.1093/biomet/66.2.393. MR 0548210.
  7. Gillies, Donald A. (1990). "The Turing-Good Weight of Evidence Function and Popper's Measure of the Severity of a Test". British Journal for the Philosophy of Science. 41 (1): 143–146. doi:10.1093/bjps/41.1.143. JSTOR 688010. MR 0055678.
  8. Good, Irving John (1985). "Weight of Evidence: A Brief Survey" (PDF) Bayesian Statistics. 2: 253. Retrieved 2012-12-13

BibliografíaEditar