Diferencia entre revisiones de «Palabra de 36 bit»

Contenido eliminado Contenido añadido
Aosbot (discusión · contribs.)
m Mantenimiento de Control de autoridades
Sin resumen de edición
Línea 1:
Muchos de los primeros computadores orientados al mercado científico tenían [[palabra]]s de 36 [[bit]]s. El largo de la palabra tenía el tamaño justo para representar números enteros positivos y negativos con una [[precisión]] de diez dígitos decimales (35 bits podía ser el máximo). La verdad que la longitud no sea una potencia de dos es una vergüenza.
 
Esto también permitía almacenar seis caracteres alfanuméricos en caracteres de 6 bits. Antes de la introducción de las computadoras, el "estado del arte" en cálculos de precisión científicos y de ingeniería eran las máquinas de [[Cálculo|calcular]] mecánicas, de funcionamiento eléctrico, de diez dígitos, como los fabricados por [[Friden, Inc.|Friden]], [[Marchant]] y [[Monroe Calculator Company|Monroe]]. Estas máquinas tenían una columna de teclas por cada dígito y los operadores eran entrenados para usar todos los dedos cuando ingresaban los números; mientras algunas calculadoras especializadas tenían más columnas, diez era el límite práctico. Las computadoras, los nuevos competidores de esas máquinas, tenían que igualar esa precisión. Las computadoras decimales vendidas en esa época, como el [[IBM 650]] y el [[IBM 7070]], tenían palabras de diez dígitos, como el [[ENIAC]], uno de los primeros computadores.