Código Binario
Conceptos Básicos
El código binario es un sistema de representación de datos o instrucciones utilizando solo dos símbolos: 0 y 1. Este sistema se llama binario porque utiliza dos dígitos.
Sistemas de Numeración
Sistema Decimal
El sistema decimal es el sistema numérico más comúnmente utilizado y está basado en 10 dígitos: 0, 1, 2, 3, 4, 5, 6, 7, 8, y 9. Cada posición en un número decimal representa una potencia de 10.
Sistema Binario
Bit (Binary Digit):
- La unidad más pequeña de datos en el sistema binario. Puede tener uno de dos valores posibles: 0 o 1.
- Ejemplo: Un solo bit puede ser 0 o 1.
Byte:
- Una agrupación de 8 bits. Es la unidad básica de almacenamiento en las computadoras.
- Ejemplo: 10101100 es un byte, compuesto por 8 bits.
Conversión de Decimal a Binario
- 1. Dividir por 2: Divide el número decimal por 2.
- 2. Anotar el residuo: Anota el residuo (0 o 1). Este residuo será el bit menos significativo (derecha).
- 3. Repetir: Toma el cociente y repite el proceso hasta que el cociente sea 0.
- 4. Leer de abajo hacia arriba: Los residuos leídos de abajo hacia arriba forman el número binario.
Ejemplo: Convertir 13 a binario
- 1. 13 ÷ 2 = 6, residuo 1
- 2. 6 ÷ 2 = 3, residuo 0
- 3. 3 ÷ 2 = 1, residuo 1
- 4. 1 ÷ 2 = 0, residuo 1
Leyendo los residuos de abajo hacia arriba: 1101
Conversión de Binario a Decimal
- 1. Escribir las posiciones: Escribe el número binario y las posiciones (potencias de 2) desde la derecha empezando en 0.
- 2. Multiplicar: Multiplica cada dígito binario por 2 elevado a la posición correspondiente.
- 3. Sumar: Suma todos los resultados.
Ejemplo: Convertir 1101 a decimal
- 1.- Posiciones: 2^3, 2^2, 2^1, 2^0
- 2.- 1×2^3 + 1×2^2 + 0×2^1 + 1×2^0
- 3.- 1×8 + 1×4 + 0×2 + 1×1
- 4.- 8 + 4 + 0 + 1 = 13
Representación de Datos en Binario
Representación de caracteres: ASCII y Unicode
ASCII (American Standard Code for Information Interchange):
ASCII es un estándar de codificación que utiliza 7 u 8 bits para representar caracteres.
Los primeros 128 caracteres (usando 7 bits) incluyen letras, dígitos, y algunos símbolos y comandos de control.
Ejemplo:
- La letra 'A' en ASCII se representa como 01000001.
- La letra 'a' en ASCII se representa como 01100001.
Unicode:
Unicode es un estándar de codificación más amplio que puede representar caracteres de casi todos los sistemas de escritura del mundo.
Utiliza múltiples bytes (generalmente 16 bits o más) para cada carácter.
Ejemplo:
- La letra 'A' en Unicode también se representa como 01000001 (en UTF-8, que es compatible con ASCII para los primeros 128 caracteres).
- El carácter '你' (chino) se representa en Unicode (UTF-8) como 11100100 10111000 10101010.
Relación entre Código Binario y Hardware
- Almacenamiento de datos en memoria
- Comunicación de datos en redes
- Procesamiento de instrucciones en CPU