Diferencia entre la codificación y decodificación

Por estefanía mac ; última actualización 25/06/2019

El ser humano siempre ha tenido la necesidad de transformar la información en códigos, signos o lenguajes usando la codificación y la decodificación. La clave Morse, el código binario y los formatos de una imagen son ejemplos claros de ello. ¡Veamos de qué se trata!

Los términos “codificar” y “decodificar” son comunes en dos grupos de disciplinas. La primera, estudia la forma en la que el ser humano se comporta y se comunica con los demás; y la segunda, se centra en cómo transferir y transformar la información en distintos medios y formatos para su reproducción, envío o clasificación.

Codificación y decodificación. Definición y significado

Para poder entender qué es la codificación y la decodificación en la rama de la informática y la tecnología, debemos comprender primero su uso en las comunicaciones. A fin de cuentas, estas las acepciones están íntimamente relacionadas.

Codificación y decodificación lingüística

La codificación y la decodificación son conceptos estudiados por ciencias sociales -como la psicología, la lingüística, la neurolingüística, la arqueología y la sociología- porque representan una de las formas en las que el hombre se comunica con los de su especie:

  • En codificación lingüística, un emisor convierte la información en códigos que serán descifrados por un receptor. Esos signos, símbolos y caracteres pueden ser universales -como las letras del alfabeto- o parte de un código privado, como los mensajes secretos de la Segunda Guerra Mundial.
  • La decodificación lingüística es todo lo contrario. A través de este proceso, el receptor descifra el mensaje que le ha enviado el emisor para poder entender su contenido.

El uso más global de la codificación lingüística es el lenguaje oral y escrito. A través de ciertos caracteres, letras y palabras, el ser humano creó una forma de comunicarse de forma escrita o sonora.

Incluso los colores del semáforo se han convertido en un código universal que hoy todos los conductores del mundo entienden, sin importar su nacionalidad o idioma nativo.

Podría interesarte: Cómo codificar y decodificar mensajes

¿Cómo se relaciona esto con la codificación y la decodificación informática?

Si se compara el código Morse, un idioma y el lenguaje en señas, resulta obvio que el objetivo de cualquier acepción de codificación y decodificación es la transmisión de la información. Algo muy parecido sucede a nivel informático.

¿Qué es la codificación informática?

La codificación informática se encarga de crear una secuencia de caracteres en un lenguaje especial para poder manejar, clasificar, estudiar, almacenar o transmitir la información.

Los tipos de lenguajes y códigos comúnmente utilizados en la codificación computacional, son códigos binarios, un lenguaje que usa dos caracteres específicos: 0 y 1. Por supuesto, hay muchos otros que combinan secuencias cíclicas o continuas, símbolos, letras, entre otros:

  • MIME. Multipurpose Internet Mail Extensions. Convierte los datos de un correo electrónico -texto, archivos adjuntos, PDFs e imágenes- en una secuencia de caracteres.
  • ASCII. American Standard Code for Information Interchange. Lenguaje de codificación que usan los ordenadores para la transferencia, almacenamiento o uso de los datos.
  • BinHex. Codificación binaria de archivos de Macintosh. Usa cadenas de 8 bits con caracteres ASCII para enviar por la red un documento, imagen o adjunto de correo electrónico.
  • EBCDIC. Extended Binary Coded Decimal Interchange Code. Creado por IBM. Utiliza números y letras para la ejecución de programas o de un sistema operativo.
  • Unicode. Unicode Worldwide Character Standard. Procesa, reproduce e intercambia la información en distintos lenguajes. Es una de las formas de codificación más universales y clásicas que existen, y se utiliza en distintos softwares informáticos, Java, XML, etc.

En palabras simples, la codificación transforma la información. Cuando se convierte una imagen PNG a un formato JPEG o en el momento en el que una serie de “ceros” y “unos” se unen para convertirse en un videojuego de ordenador; se está codificando.

Sigue leyendo: ¿Cómo funciona el código binario?

¿Qué es la decodificación informática?

La decodificación informática, más que un antónimo de la codificación, es un proceso complementario. Cuando un sistema está programado para decodificar, lo que hace es convertir un texto plano -como ASCII- en un archivo que puede verse, escucharse, analizarse o reproducirse.

Veámoslo en un ejemplo. Supón que quieres enviarle un correo electrónico a alguien de tu trabajo. Al hacerlo, escribes un mensaje y adjuntas tres archivos. Un documento editable en formato DOC, un informe para la impresión en formato PDF y una imagen en formato JPEG.

Al hacer clic en “enviar”, el sistema codifica toda la información en un lenguaje mucho más simple, es decir, un código binario. Esta información viaja por la red como si fuera una cadena de caracteres. Al llegar al destinatario, el sistema la decodifica para que este pueda verla en su estado original, es decir, que se pueda leer el texto y descargar los archivos adjuntos.

Lo mismo sucede en la decodificación tecnológica, un campo asociado con las telecomunicaciones. La señal que recibe un decodificador de televisión por cable transmite un archivo multimedia a la pantalla que viaja a través de una señal codificada.

Tema relacionado: Los tipos de lenguaje de las computadoras

Ejemplos de la codificación y la decodificación en la vida diaria

Programas de uso diario para comprimir y descomprimir archivos -como WinZIP y WinRAR- son un ejemplo perfecto de codificación y decodificación, porque pueden convertir los datos en un texto plano para después devolverlos a su forma original.

Los sistemas de almacenamiento en la nube hacen algo parecido porque reducen las imágenes, vídeos, audios y documentos a su forma más sencilla para poder almacenarlos.