Informática ¿una o múltiple?

Mario Bunge


Resumen de la conferencia que brindará el Dr. Mario Bunge el 23 de septiembre de 2011 a las 18 hs en el Aula Magna de la UNICEN



No es un secreto que la tecnología de la información está atravesando una crisis de identidad. Una controversia central en este campo trata sobre si ésta es una disciplina o un conglomerado de campos distintos unidos por “el” concepto de información. La opinión al respecto parece estar dividida en dos campos aproximadamente iguales. Más aun, el núcleo de esas disciplinas, el concepto de sistema informático, es objeto de una disputa en curso (v. p. j. Beynon-Davies 2010). Participemos de este debate desde el punto de vista sistémico expuesto en el capítulo 3.

Hay varias disciplinas que dicen ocuparse de información, entre ellas ciencia de la computación, ingeniería de la comunicación, genética, lingüística y biblioteconomía. Estos campos estarían unidos por el concepto de información. Más aun, está muy difundida la creencia de que la teoría de Claude Shannon de la comunicación es tan general, que es applicable por doquier, desde la física hasta la biología y la ciencia social. Veamos qué hay de cierto en estas creencias.

1 Sistemas de información y de comunicación

La famosa fórmula de Shannon, que involucra la probabilidad de una señal, ha sido ensayada en muchas ciencias básicas, de la física a la genética, la psicología y la sociología, además de la tecnología de la información. Sin embargo, la palabra ‘información’ es polimorfa. En efecto, puede significar conocimiento, señal codificada, orden de los nucleótidos en una molécula de ADN, etc. Es dudoso que estos conceptos tengan algo en común.

Lo que parece evidente es que la teoría de Shannon de la comunicación, aunque útil en las tecnologías de la telecomunicación, es demasiado general para ayudar a entender algo en física, biología, psicología, o ciencia social. En efecto, esa teoría es indiferente al tipo de materiales con que está construidas las partes de un sistema de comunicación: la fuente, el canal y el receptor de señales. No es que los sistemas informáticos sean inmateriales, sino que se los puede construir con una multiplicidad de materiales, así como una melodía puede ejecutarse con diferentes instrumentos musicales.

Por ser indiferente al tipo de material, la teoría en cuestión nada dice acerca de los mecanismos específicos (electromagnético, químico, biológico, social, etc.) involucrados. Por lo tanto, tampoco puede explicar, ya que explicar un proceso involucra poner al descubierto mecanismos (Bunge 2007).

Por ejemplo, decimos que el clavo se herrumbró porque sus átomos de hierro se combinaron con átomos de oxígeno; que la planta creció porque sus células se dividieron; que la empresa prosperó porque creó su propio nicho en el mercado; que Fulana trabajó bien porque estaba motivada; y que ese país fue invadido porque es rico en petróleo.

Las descripciones en términos de cómputo o de transmisión de información no explican porque no nos dicen qué sucede: sólo redescriben en términos pseudotécnicos lo que puede decirse en lenguaje sencillo. Por ejemplo, nada se gana traduciendo “Ella hizo el ademán de arrojar” a “Ella computó el ademán de arrojar.” Además, no hay cómputos propiamente dichos sin algoritmos.

Para peor, esas traducciones pueden hacer fracasar las investigaciones, como cuando se hurga en el sistema nervioso en busca de algoritmos (reglas de cálculo) en lugar de leyes naturales. También se fracasa cuando se concentra la atención en la transmisión de señales nerviosas, olvidando que el efecto de las mismas depende críticamente del estado del receptor neural.

La confusión reinante en neurociencia cognitiva acerca de la información es tal, que un volumen colectivo acerca de esta disciplina (Rugg 1997) contiene un artículo (el capítulo 2) que sostiene usar el concepto de Shannon y el siguiente, que admite que los neurofisiólogos usan un concepto diferente (al que no define). Tampoco hay consenso acerca del código que “usan” las neuronas y los sistemas de tales para “comunicarse” entre sí, o sea, para interactuar.

Definamos ahora el concepto de sistema de comunicación. Estipularemos que la cuaterna

representa un sistema de comunicación si

(i) la composición C es el conjunto de los componentes materiales de  , en particular un codificador y un decodificador que incorporan un código;

(ii) el entorno E es el conjunto de las cosas que no están en C

y que actúan sobre, o sobre las que actúan, cosas pertenecientes a C;

(iii) la estructura S es la colección de los vínculos entre miembros

de C, en particular señales codificadas

(iv) el mecanismo M es la colección de procesos en que intervienen miembros de C o de E, que miembros de C generen, transmitan o detecten señales codificadas.

Dado que las señales pueden ser naturales como una punzada dolorosa, o artificiales como una alarma de incendio, debemos distinguir los sistemas de comunicación artificiales de los naturales.

Por ejemplo, los sistemas genoma-proteoma son naturales, mientras que las comunidades lingüísticas son artificiales. La clave está en el tipo de código, que es natural en el primer caso, y al menos parcialmente convencional en el otro.

2 Vuelta a la información

En adelante nos ocuparemos de sistemas de comunicación de un tipo especial: los sistemas de información. Estos involucran animales, o sus apoderados artificiales, que intercambian ideas o símbolos de éstas. Ejemplos: dos homínidos que intercambian gruñidos; un grupo de bebés que se comunican entre sí balbuceando y haciendo ademanes; una reunión científica; un parlamento; y un sistema de robots vinculados por señales codificadas que simbolizan ideas que emplean sus usuarios humanos.
Examinemos ahora la idea clave de código. Un código puede definirse como una correspondencia biunívoca (uno a uno) entre dos conjuntos compuestos de elementos de naturaleza diferente, tales como palabras escritas y sonidos, ideas y símbolos, o instrucciones y acciones, o bien sus contrapartes en sistemas artificiales. (Las lenguas históricas, mal llamadas naturales, violan la condición de biunivocidad: sufren de ambigüedad, la que a veces es una maldición y otras una bendición.)

En cuanto a la información en sentido estricto, puede definirse toscamente como una propiedad de signos estáticos o de señales que se propagan y que, cuando son captadas por un animal, desencadenan en éste un proceso mental, tal como tener una idea, sentir una emoción, o decidir hacer algo. (en el caso de artefactos el efecto será un proceso físico o químico, no neural.) Obviamente, no toda señal transmite información. Por ejemplo, ni un sonido de amplitud y frecuencia constantes, ni una onda perfectamente sinusoidal pueden “decirnos” algo.

Los conceptos de código e información se combinan en el de código informático. El diagrama siguiente sugiere lo esencial de este concepto.


Fig. 1. Los códigos informáticos, tales como los involucrados en hablar y escuchar, así como en escribir y leer, transforman sucesos mentales en piezas de información que pueden hacerse públicas y transmitirse a través del espacio o del tiempo.


Volvamos por un momento a la distinción entre códigos naturales y artificiales. Tres de los códigos naturales que primero aprendimos son las correspondencias alimento-bienestar, herida-dolor y relámpago-trueno. El más complejo de los códigos naturales es quizá la correspondencia gen-proteína. Sin embargo, no bien descubierta se advirtió que la “traducción” de material genético a proteínas obedece a una multiplicidad de códigos, como si hubiera diccionarios separados para palabras lindas y palabras feas. Además, la teoría de Shannon no sirve en genética, ya que es insensible a la estructura. Por ejemplo, las secuencias ACGT y TGCA cargan “informaciones” genéticas (estructuras) diferentes, pero se les asigna la misma cantidad de información.

Hay una gran variedad de códigos artificiales. Es posible que el más antiguo de ellos sea el código sonidos-ideas involucrado en el habla. Mucho después vino el código que correlacionaba jeroglíficos, ideogramas o palabras escritas con palabras habladas. Y mucho después vino el diccionario que facilitaba la traducción de lenguas extranjeras. Pero hemos violado las fronteras de la tecnología de la información, ya que esta disciplina trata solamente de artefactos materiales de cierto tipo, mientras que las lenguas son bienes sociales de grupos humanos: no hay lengua sin hablantes.

Finalmente, proponemos llamar informática, o tecnología de la información, al estudio y diseño de sistemas de información. En otras palabras, lo que tienen en común todas las técnicas de la información son los conceptos de código y señal de información. Los conceptos de significado e interpretación pertenecen a la semántica, no a la informática.

Este es el motivo por el cual la lingüística no forma parte de la informática. Pero esto no impide que el técnico informático tome prestado conceptos de lingüística, semántica y otras disciplinas. Por ejemplo, el diseñador de programas de traducción automática usa la definición de traducción fiel como la que conserva significados. Lo que ejemplifica la máxima de que la técnica moderna se funda sobre la ciencia básica.

Conclusión

Nuestra definición de la informática como el estudio y diseño de sistemas de información se aplica a la biblioteconomía, y a la ingeniería de comunicaciones, en particular las ingenierías de hardware y software.

Una objeción obvia a esta definición es que deja al cálculo o la computación fuera de la informática. Por esto se prefiere a veces la expresión “Informática y Cálculo” (Information and Computation Technology, o ICT). Sin embargo, es preciso tener en cuenta que hay dos clases de de cálculo: con conceptos y con signos. El primero es mental y puede o no ser algorítmico o conforme a reglas, mientras que la tecnología del cálculo se centra en el diseño de algoritmos para efectuar cálculos “mecánicos” (desprovistos de inteligencia) con símbolos y sus contrapartidas físicas.

Finalmente ¿cuál es el puesto de la informática (con o sin cálculo) en el sistema de los saberes? Sugiero que la informática es una disciplina híbrida. Más precisamente, que está compuesta de fragmentos matemáticos, tales como las teorías generales del cálculo y de los códigos; de algunas tecnologías, en particular las que se encargan de diseñar sistemas de información (computadoras y programas); y artesanías, tales como biblioteconomía y el mantenimiento y reparación de sistemas de información. Todos estos campos comparten los conceptos de código, señal codificada y sistema de información. Ninguna de ellas usa el concepto de significado, lo que es una razón para dejar a la lingüística fuera de la informática.

Bibliografía

Beynon-Davies, Paul. 2010. The enactment of information: A unified view of information, systems and technology. European Journal of Information Systems 19: 389-408.

Bunge, Mario. .2007. A la caza de la realidad. Barcelona, Buenos Aires: Gedisa.

Rugg, Michael D., ed., 1997. Cognitive Neuroscience. Hove East Sussex: Psychology Press.

Rugg, Michael D., ed., 1997. Cognitive Neuroscience. Hove East Sussex: Psychology Press.
Ċ
Graciela Santos,
9 sept. 2011 10:02
Comments