Para comprender la tecnología

Código Binario

Conceptos Básicos

El código binario es un sistema de representación de datos o instrucciones utilizando solo dos símbolos: 0 y 1. Este sistema se llama binario porque utiliza dos dígitos.

Sistemas de Numeración

Sistema Decimal

El sistema decimal es el sistema numérico más comúnmente utilizado y está basado en 10 dígitos: 0, 1, 2, 3, 4, 5, 6, 7, 8, y 9. Cada posición en un número decimal representa una potencia de 10.

Sistema Binario

Bit (Binary Digit):

  • La unidad más pequeña de datos en el sistema binario. Puede tener uno de dos valores posibles: 0 o 1.
  • Ejemplo: Un solo bit puede ser 0 o 1.

Byte:

  • Una agrupación de 8 bits. Es la unidad básica de almacenamiento en las computadoras.
  • Ejemplo: 10101100 es un byte, compuesto por 8 bits.

Conversión de Decimal a Binario

  • 1. Dividir por 2: Divide el número decimal por 2.
  • 2. Anotar el residuo: Anota el residuo (0 o 1). Este residuo será el bit menos significativo (derecha).
  • 3. Repetir: Toma el cociente y repite el proceso hasta que el cociente sea 0.
  • 4. Leer de abajo hacia arriba: Los residuos leídos de abajo hacia arriba forman el número binario.

Ejemplo: Convertir 13 a binario

  • 1. 13 ÷ 2 = 6, residuo 1
  • 2. 6 ÷ 2 = 3, residuo 0
  • 3. 3 ÷ 2 = 1, residuo 1
  • 4. 1 ÷ 2 = 0, residuo 1

Leyendo los residuos de abajo hacia arriba: 1101

Conversión de Binario a Decimal

  • 1. Escribir las posiciones: Escribe el número binario y las posiciones (potencias de 2) desde la derecha empezando en 0.
  • 2. Multiplicar: Multiplica cada dígito binario por 2 elevado a la posición correspondiente.
  • 3. Sumar: Suma todos los resultados.

Ejemplo: Convertir 1101 a decimal

  • 1.- Posiciones: 2^3, 2^2, 2^1, 2^0
  • 2.- 1×2^3 + 1×2^2 + 0×2^1 + 1×2^0
  • 3.- 1×8 + 1×4 + 0×2 + 1×1
  • 4.- 8 + 4 + 0 + 1 = 13

Representación de Datos en Binario

Representación de caracteres: ASCII y Unicode

ASCII (American Standard Code for Information Interchange):

ASCII es un estándar de codificación que utiliza 7 u 8 bits para representar caracteres.

Los primeros 128 caracteres (usando 7 bits) incluyen letras, dígitos, y algunos símbolos y comandos de control.

Ejemplo:

  • La letra 'A' en ASCII se representa como 01000001.
  • La letra 'a' en ASCII se representa como 01100001.

Unicode:

Unicode es un estándar de codificación más amplio que puede representar caracteres de casi todos los sistemas de escritura del mundo.

Utiliza múltiples bytes (generalmente 16 bits o más) para cada carácter.

Ejemplo:

  • La letra 'A' en Unicode también se representa como 01000001 (en UTF-8, que es compatible con ASCII para los primeros 128 caracteres).
  • El carácter '你' (chino) se representa en Unicode (UTF-8) como 11100100 10111000 10101010.

Relación entre Código Binario y Hardware

  • Almacenamiento de datos en memoria
  • Comunicación de datos en redes
  • Procesamiento de instrucciones en CPU