Diferencia entre revisiones de «Representación de números con signo»

Contenido eliminado Contenido añadido
Diegusjaimes (discusión · contribs.)
m Revertidos los cambios de 201.102.100.145 a la última edición de Diegusjaimes
Línea 7:
Un primer enfoque al problema de representar el signo de un número podría consistir en asignar un [[bit]] para representar el signo, poner ese bit (a menudo el bit más significativo) a 0 para un número positivo, y a 1 para un número negativo. Los bits restantes en el número indican la magnitud (o el [[valor absoluto]]). Por lo tanto en un [[byte]] con solamente 7 bits (aparte del bit de signo) la magnitud puede tomar valores desde 01111111(+127)a 0 (0), y de aquí a 11111111 (-127). Una consecuencia de esta representación es que hay dos maneras de representar 0, 00000000 (0) y 10000000 ([[-0]]). De este modo +43 decimal codificado en un [byte] de ocho bits es 00101011.
 
Este enfoque es directamente comparable a la forma habitual de demostrar el signo (colocando "+" o "-" al lado de la magnitud del número). Algunas de las primeras computadoras binarias ( la IBM 7090) utilizaron esta representación, quizás por su relación obvia con la práctica habitual.tmbien
 
== Complemento a uno ==