Diferencia entre revisiones de «Distancia de unicidad»

Contenido eliminado Contenido añadido
Addbot (discusión · contribs.)
m Moviendo 3 enlaces interlingúisticos, ahora proporcionado(s) por Wikidata en la página d:q1640661.
CEM-bot (discusión · contribs.)
m Referencias.
Línea 1:
Para un [[cifrado (criptografía)|cifrador]] la '''distancia de unicidad''', también llamada '''punto de unicidad''', es el valor mínimo de caracteres del texto cifrado que se necesitan para reducir a una el número de claves posibles y, por tanto, romper el cifrado. Es decir, después de intentar todas las posibles claves ([[Ataque de fuerza bruta|fuerza bruta]] del espacio de claves) sólo hay una que puede hacer que el descifrado tenga sentido. La [[distancia de unicidad]] es posible a causa de la redundacia de los idiomas humanos (puesta de manifiesto cuando se estudia su [[ratio de entropía]]).
 
El concepto de distancia de unicidad fue introducido por [[Claude Elwood Shannon|C. E. Shannon]].<ref name="Shannon_1">C. E. Shannon, "Communication Theory of Secrecy Systems"</ref>
 
La distancia de unicidad permite medir el secreto de un [[cifrado (criptografía)|cifrador]] a partir de la cantidad de incertidumbre ([[entropía (información)|entropía]]) de la clave condicionada por el conocimiento del texto cifrado (<math>H_C(K)</math>). Si <math>H_C(K)=0</math> entonces no hay incertidumbre y el cifrador es teóricamente rompible teniendo los suficientes recursos. La '''distancia de unicidad''' es la longitud mínima del texto cifrado que se necesita para determinar de forma única la clave.<ref>Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982</ref>
Línea 51:
Hay que remarcar que aunque la distancia de unicidad da un valor para el cual <math>H_C(K,N)=0</math>, esto no garantiza que la clave pueda ser encontrada para cada situación concebible.<ref>J.C.A. Lubbe "Basic Methods of Cryptography". Cambridge University Press 1998</ref> Esto sólo sucede '''en media'''. Esto es debido a los conceptos que se usan en la [[teoría de la información]], como [[entropía (información)|entropías]], [[ratio de entropía|ratios]], etc.. '''La distancia de unicidad representa valores medios de símbolos o letras requeridos'''.
 
Está demostrado<ref name="Shannon_1">C. E. Shannon, "Communication Theory of Secrecy Systems"</ref> que se cumplen las siguientes propiedades:
:i)<math>H_C(K,S) \le H_C(K,N)</math> si <math>S \ge N</math> (La equivocación de la clave es una función no creciente de N)
:ii))<math>H_C(M,S) \le H_C(M,N)</math> si <math>S \ge N</math> (La equivocación de los A primeros caracteres de el mensaje es una función no creciente del número N de caracteres interceptados).
Línea 65:
 
== Cálculo ==
El método tradicional para el cálculo, normalmente aproximado, de la distancia de unicidad fue el propuesto por [[Claude Elwood Shannon|Shannon]].<ref name="Shannon_1">C. E. Shannon, "Communication Theory of Secrecy Systems"</ref> Posteriormente Hellman extiende las conclusiones de Shannon y propone nuevas técnicas para estimar la distancia de unicidad.
 
La mayor parte de los cifradores son demasiado complejos para determinar las probabilidades requeridas para obtener la distancia de unicidad. Sin embargo [[Claude Elwood Shannon|Shannon]] mostró<ref name="Shannon_1">C. E. Shannon, "Communication Theory of Secrecy Systems"</ref> que es posible aproximarse a el valor para cierto tipo de cifradores usando un modelo de cifrador al que llama '''cifrador aleatorio'''. En este cifrador modelo demuestra que el valor aproximado de la distancia de unicidad es <math>\dfrac {H(K)} {D}</math>. Aprovechándose de este resultado [[Claude Elwood Shannon|Shannon]] estima el valor de la distancia de unicidad para otros cifradores.
 
[[Martin Edward Hellman]]<ref>Hellman, M. E., "An extension of the Shannon Theroy Approach to Cryptography". IEEE Trans. on Info. Theory. Vol IT-23 pp. 289-994 May 1977</ref> derivó los mismos resultados que [[Claude Elwood Shannon|Shannon]] para la distancia de unicidad del '''cifrador aleatorio''' pero siguiendo un enfoque un poco diferente. Hellman usó un argumento de conteo, para dada una secuencia de símbolos de texto cifrado, encontrar el número de claves que podían haber generado esa secuencia particular. Hellman además muestra que el cifrador aleatorio tiene, entre la clase de los cifradores con el mismo tamaño de clave y tamaño de texto plano, la mínima distancia de unicidad y por tanto es el caso peor.<ref>A. Kh Al Jabri, "The unicity distance: An upper bound on the proability of an eavesdropper successfully estimating the secret key", King Saud University, Arabia Saudí 1996</ref> Beauchemin and Brassard<ref>P. Beauchemin and G. Brassard, "A Generalization of Hellman's Extension to Shannon´s Approach to Cryptography". Journal of Cryptology 1988.</ref>generalizaron los resultados para incluir cifradores con claves y mensajes en claro que siguen distribuciones de probabilidad uniformes (aleatorias).<ref>A. Kh Al Jabri, "The unicity distance: An upper bound on the proability of an eavesdropper successfully estimating the secret key", King Saud University, Arabia Saudí 1996</ref>