Teoría General de Sistemas

La Información Transmitida y su Teoría

Los sistemas de comunicación modernos que conocemos en la actualidad no solo se desarrollaron gracias al avance científico y tecnológico, sino que también se fundamentan en los principios de la teoría de la información, la cual también es conocida como la teoría matemática de la comunicación, introducida primeramente por Hartley (1928) y continuada por Shannon y Weaver (1949).

Se ejemplifica el sistema de comunicación para transmitir información utilizado actualmente.

La comunicación engloba todas las formas que se utilizan para expresarnos (celular, radio, etc.), ya sea hablando, escribiendo y/o gesticulando, hasta la influencia que tiene eso que se expresó sobre el comportamiento de las otras personas; clasificando así el proceso de comunicación en tres niveles de análisis: el primero es el nivel técnico donde se analizan aquellos problemas que pueden distorsionar la información que es transmitida, el segundo es el nivel semántico que estudia todo lo relacionado a lo que significa el mensaje y a su interpretación, y el último nivel es el pragmático, donde se analiza la influencia que tiene el mensaje sobre el comportamiento. La teoría de la información se centra principalmente en tratar de dar solución a los problemas de nivel técnico, como por ejemplo: ¿Qué cantidad de información está presente en el mensaje que envió la fuente?

Sistema de Comunicación

El sistema de comunicación creado por Shannon y Weaver es el siguiente:

  • Fuente de información: Se elige un mensaje de un conjunto de mensajes posibles.
  • Transmisor: Transforma el mensaje en una forma adecuada para el canal.
  • Señal: Mensaje codificado por el transmisor.
  • Canal: Medio de propagación de las señales.
  • Fuente de ruido: “conjunto de distorsiones o adiciones no deseadas por la fuente de información que afectan a la señal. Pueden consistir en distorsiones del sonido (radio, teléfono), distorsiones de la imagen (T.V.), errores de transmisión (telégrafo), etc.” (Microsoft Word – teoriainformacion.doc, 2011, p. 2).
  • Receptor: Se encarga de decodificar nuevamente la señal del mensaje original, el cual pudo haber sufrido algunos cambios y lo hace llegar al destinatario, el cual puede recibir el mensaje original o aproximaciones de este.
Esquema sobre el sistema de comunicaciones utilizado en la teoría de la información.

Una forma de representar lo anterior en la vida cotidiana podría ser la lectura de este artículo, donde nuestros cerebros serian la fuente de información y lo que queremos expresar el mensaje. El teclado del computador sería el transmisor que convierte el mensaje en lenguaje escrito, el cual corresponde a la señal. Dependiendo de en qué se esté leyendo el artículo, el canal podría ser un celular, una hoja o un computador, los errores de ortografía y/o puntuación vendrían siendo la fuente de ruido y por último el receptor y el destinatario serían la persona que está leyendo este artículo.

Información

La libertad para escoger un mensaje es llamada información, una vez escogido el mensaje, se envía sucesivamente al receptor las alternativas (elementos de un determinado lenguaje como: palabras, letras, número, etc.) que construyen el mensaje en forma de señales (mensaje codificado), el receptor necesita saber cierta cantidad de información (bites) para lograr identificar correctamente las alternativas que construyen el mensaje, en este proceso, así como la fuente tiene libertad para seleccionar una alternativa, el receptor tiene la duda a cerca de cuál fue la alternativa seleccionada, esa duda es llamada incertidumbre. Retomando el problema; hay que hacer uso de un nuevo término: la probabilidad, la cual permite calcular la cantidad de información que tiene un un mensaje a partir de la probabilidad que tiene esa información para ser enviada.

Principios de la Cuantificación de Información

  • Primero: Mientas más probable sea la elección para un mensaje, menos información contendrá dicho mensaje.
  • Segundo: Seleccionados los mensajes A y B, la cantidad de información contenida en A y B será igual a la cantidad de información presente en A más la cantidad de información presente en B.

Unidad de Información

Para cuantificar la información presente en un mensaje fue necesario crear una unidad de información la cual se fundamenta en que un mensaje se puede representar mediante un código de tipo binario, el cual consta únicamente de dos señales que simbolizan Si o No y se codifican con 1 y 0 respectivamente, debido a ello se definió que el código binario o más coloquialmente conocido como bit es la unidad básica de información. Logaritmo en base dos de n, es la operación matemática que indica la cantidad de bits en una elección b, donde n son las alternativas de elección, todas con la misma probabilidad de ser elegidas. Teniendo como ejemplo que n es igual a ocho, entonces la cantidad de bits de información de que tendrá esa elección (mensaje) son 3.

Unidad fundamental de la información

Ejemplificando el párrafo anterior: hay ocho alternativas que se pueden seleccionar (n) y cada una tiene la misma probabilidad de elección (1/8), para determinar la alternativa que fue seleccionada de esas ocho, se debe pasar por tres etapas (eventos de probabilidad), y cada etapa arroja un bit de información; la primera etapa (un bit) consiste en elegir entre las primeras cuatro posibilidades o entre las cuatro últimas posibilidades, la segunda etapa (segundo bit) corresponde a la elección entre las primeras dos posibilidades o entre las últimas dos posibilidades que quedaron, y la última etapa (tercer bit) determina el primer o segundo lugar de las dos posibilidades que quedaron, es decir que se encuentra la elección (mensaje), cómo se puede evidenciar, la cantidad de bits (información) que se requieren para especificar la elección es tres, teniendo el mismo resultado que con método matemático (Microsoft Word – teoriainformacion.doc, 2011, pp. 5-6).

Nuevo Problema

Entendiendo la lógica del proceso para conocer la cantidad de bits de un determinado mensaje, ahora es posible plantear el siguiente problema: Si se tienen cuatro alternativas: 1, 2, 3 y 4, la fuente elige una de ellas y se la manda al receptor, quien debe identificar la alternativa que le envió la fuente y para ello debe conocer una determinada cantidad de información, entonces la pregunta sería: ¿Cuánta información deberá conocer el receptor?

Tabla 1

Ejemplo del problema planteado

AlternativasMensaje codificado
1 bit2 bit
411
310
101
200
Nota. Elaboración propia. Adaptado de Microsoft Word – teoriainformacion.doc. (2011, p. 6).

En este ejemplo se quiere hallar la cantidad de bits con el fin de determinar la alternativa seleccionada, la cual se identificara gracias a una serie de instrucciones (pregunta que deben tener por respuesta únicamente a Si o No). Hay que tener en cuenta que las alternativas tienen la misma probabilidad de selección, (1/4) por lo tanto la incertidumbre se repartiría por igual sobre las cuatro alternativas.

 Teniendo como instrucciones proporcionadas por la señal a:

  • ¿La alternativa seleccionada está ubicada en la primera mitad de las alternativas?,
  • ¿La alternativa seleccionada está ubicada en la primera mitad del par de alternativas que quedan?

El número de instrucciones utilizadas para encontrar la alternativa seleccionada determina la cantidad de bits, en este ejemplo se utilizaron dos instrucciones, por lo tanto, la cantidad de información requerida es de dos bits.

Redundancia

Anteriormente, la fuente seleccionó un símbolo para el mensaje (letras o números), distribuyendo la probabilidad sobre todas las alternativas. Pero, ¿qué sucede cuando la fuente no selecciona una alternativa, sino una secuencia de ellas, y estas alternativas tienen diferente probabilidad de ser seleccionadas? A estas elecciones se les llama: procesos estocásticos.

Si la fuente envío un mensaje que empieza con la letra H, es más probable que la segunda letra que seleccione sea una vocal y no una consonante, por lo tanto, la primera letra define la probabilidad de la elección que viene y así sucesivamente hasta formar el mensaje, como las vocales tienen más probabilidad de ser seleccionadas, entonces la incertidumbre ya no se dividirá sobre todo el alfabeto, sino que ahora solo estaría en las vocales. Y qué sucede cuándo se quiere enviar el mensaje: Casa (el cual está compuesto por dos vocales repetidas), aquí es donde se introduce un nuevo término conocido como redundancia, el cual afirma que las alternativas tienen la posibilidad de ser repetidas varias veces en un mensaje, pero estas repeticiones dependen de las elecciones anteriores, es decir que son predecibles (Si se tiene Cas, es predecible que la última vocal sea la a).

Se define la siguiente relación: entre más redundancia tenga el mensaje, menos incertidumbre se tendrá y la alternativa contendrá menos información (Microsoft Word – teoriainformacion.doc, 2011, pp. 7-8).

Capacidad del canal para Transmitir Información

Para hallar la capacidad que tiene un canal sin ruido para transmitir información se define lo siguiente:

  • H: Unidades por segundo de las señales que envía la fuente, conocida más técnicamente como la tasa de transmisión.
  • C: Capacidad del canal para recibir unidades por segundo.
  • N: El mensaje se toma de un lenguaje de 16 letras (alternativas o n).

Utilizando la fórmula matemática: Logaritmo en base dos de 16, se hallan 4 bits de información, dado a que el mensaje tiene 5 letras (N), el canal tiene la capacidad de enviar 4N bits de información por segundo, y la cantidad máxima de información que puede enviar es de 64 bits por segundo.

Para determinar si un canal es eficiente para enviar o transmitir información hay que tener en cuenta las siguientes desigualdades e igualdades:

  • Si H>C, el canal no es eficiente para transmitir H, ya que la tasa de transmisión es mayor a la capacidad del canal.
  • Si H≤C, el canal es eficiente para transmitir H.

Conclusión

Para concluir con este tema tan interesante se debe resaltar lo siguiente:

  • El receptor recibe una señal codificada en unos y ceros, se hace uso de la probabilidad para determinar la cantidad de información (bits) y con ello lograr traducir esa secuencia de unos y ceros, con el fin de comunicarnos el mensaje en nuestro lenguaje, ese proceso se realiza en cuestión de segundos y es el que permite que una persona de España pueda escuchar, ver y/o comunicarse virtualmente con su familia en Colombia.

Si quiere expandir su comprensión sobre el tema le recomiendo el siguiente vídeo:

Línea de Tiempo sobre la TGS

Le recomiendo seguir el siguiente enlace externo si desea encontrar un breve resumen sobre la: Historia de la Teoría General de Sistemas.

Créditos:

Autor: Ana Sofia Pachón Cañón

Editor: Carlos Iván Pinzón Romero

Código: UCPSG5-2

Universidad: Universidad Central

Fuentes:

Universidad Nacional del Sur. (2011). Microsoft Word - teoriainformacion.doc. Universidad Nacional del Sur. https://cs.uns.edu.ar/~ldm/mypage/data/ss/info/teoria_de_la_informacion2.pdf
M. Palacios. (s.f.). Orígenes y evolución de la Teoría General de Sistemas (1). Academia. https://www.academia.edu/17063688/1_1_1_Or%C3%ADgenes_y_evoluci%C3%B3n_de_la_Teor%C3%ADa_General_de_Sistemas_1_
TodoComuniKT. (2017). shannon [Imagen]. blogspot. https://3.bp.blogspot.com/-NkmZ-7TyC0M/WMA4ukzFz1I/AAAAAAAAMEM/Fl85A9wBaYoPYyRZf-aJ9mOXWAddaEdMwCLcB/s1600/shanoon.gif
Univision. (2016). OIP [Imagen]. Univision. https://st1.uvnimg.com/dims4/default/84bf04d/2147483647/thumbnail/1024x576%3E/quality/75/?url=https%3A%2F%2Fuvn-brightspot.s3.amazonaws.com%2Fassets%2Fvixes%2Fbtg%2Fcodigo_binario_2.jpg
Y. Garcia. (s.f.). R [Imagen]. blogspot. https://4.bp.blogspot.com/-H2mimnafbQQ/VTHT4VyQrII/AAAAAAAAAA0/UlLMiw-uwlA/s1600/1.jpg
Chamobangi. (2020). bit-byte [Imagen]. Chamobangi. https://www.chamobangi.com.my/wp-content/uploads/2020/04/bit-byte.png
PEDECIBA. (13 de diciembre de 2010). ¿Qué es la teoría de la información? [Video]. YouTube. https://youtu.be/vVokVFHz8uA