Gustavo Alamón Da Rosa, Conjunto de robots en un día azul (1977)
Original en francés en: l’Humanité, 11 de julio de 2023 / Traducción: Dazi Bao
Desde el lanzamiento de ChatGPT al mercado, los debates alrededor de la inteligencia artificial no han dejado de multiplicarse. En la mayoría de los casos, se trata de preguntarse por las ventajas y los inconvenientes de las IA generativas en pleno desarrollo, que permiten producir todo tipo de textos o imágenes bajo demanda, gracias a cálculos probabilísticos realizados por algoritmos sobre cantidades masivas de datos previamente recolectados, almacenados e indexados. Existen muchos otros dispositivos derivados de la nueva IA conexionista (basada en las “redes neuronales” formales, infinitamente más eficaces que la IA lógico-deductiva clásica), pero pocos de ellos han suscitado tantas discusiones, a pesar de que estos nuevos métodos digitales suelen ser mucho más notables, tanto desde el punto de vista de su funcionamiento como desde el punto de vista de sus aplicaciones.
Todos estos sistemas digitales constituyen dispositivos de cálculo que, gracias a la indexación (humana) de cantidades masivas de datos y mediante ciertas operaciones matemáticas muy específicas (ondículas, renormalización, métodos de optimización, tomados en gran medida de la física matemática, técnicas de filtrado y convolución en cascada, algoritmos de retropropagación que permiten constituir invariantes a partir de imágenes, de sonidos, de la lengua…), producen rendimientos notables en ámbitos muy diferentes. Hoy en día se consigue “generar” contenidos (textuales o gráficos) que se asemejan a los contenidos denominados “humanos”, lo cual no es de extrañar, ya que son contenidos “humanos” los que constituyen los datos para el ensamblaje estadístico.
Pero, por muy eficientes que sean, estas nuevas máquinas digitales no aprenden ni inventan: contrariamente a lo que podría sugerir el término “inteligencia artificial”, no tienen nada de inteligente. La inteligencia, en efecto, no se limita a la capacidad de calcular: “una cosa es el cálculo o la elaboración de datos y otra es la invención”, escribía el filósofo y científico Georges Canguilhem. De este modo, subrayaba la imposibilidad de generar algo nuevo teniendo como base únicamente probabilidades. Lo impredecible no es necesariamente “creativo”: un lanzamiento de dados es impredecible, pero no inventa nada.
La producción de novedad supone la memoria y las expectativas de un ser vivo al que le falta algo: “no hay invención sin conciencia de un vacío lógico, sin tensión hacia un posible, sin riesgo de equivocarse”, escribía Canguilhem. “Inventar es crear información, perturbar los hábitos de pensar y el estado estacionario de un saber”: es apropiándose de un medio técnico y simbólico (la lengua, la pintura, la música, las matemáticas) y reorientándolo hacia nuevos horizontes como un individuo o un grupo pueden inventar, y es en este sentido, siempre psíquico y colectivo, que se puede hablar de inteligencia. No hay inteligencia ni invención sin objetivo o sin intencionalidad: no hay inteligencia sin movimiento para superar(se), para exceder(se), para transformar(se). Pensar es “imaginar nuevas configuraciones de sentido”, como cuando los seres humanos interpolaron las estrellas con líneas inventando las constelaciones que dieron un sentido –mítico, práctico, simbólico– a lo insensato de esos puntos luminosos.
Por el contrario, las máquinas algorítmicas como ChatGPT están diseñadas para generar secuencias de palabras o ensamblajes de imágenes probables en relación con el pasado, es decir, para repetir de manera idéntica patterns [patrones] o invariantes detectados en enormes cantidades de datos: ha sido necesario introducir la aleatoriedad en ChatGPT para que el sistema pudiera generar contenidos diferentes cada vez –de modo tal de hacerlo parecer más creativo, para engañar mejor a los usuarios. Sin la incorporación de esta función adicional, las respuestas, ya muy uniformizadas, habrían sido idénticas entre sí, incluso para una pregunta larga y compleja, ya que están basadas en el cálculo de medias y, por la misma razón, solo pueden reforzar los sesgos dominantes.
¿Por qué hablar entonces de “inteligencia artificial” para designar tales sistemas? Ya en 1980, Canguilhem señalaba “el abuso de expresiones no pertinentes tales como ‘cerebro consciente’, ‘máquina consciente’, ‘cerebro artificial’ o ‘inteligencia artificial’”, que habían tenido una función heurística en el ámbito tecnocientífico, pero que desde entonces se habían convertido en “máquinas de propaganda ideológica”. Incluso de acuerdo a John McCarthy, uno de los pioneros de la IA, el concepto de inteligencia artificial es problemático, ya que fue escogido con el único objetivo de evitar un debate con la cibernética. Hoy en día, está siendo deconstruido por muchos especialistas. Hablemos, entonces, de autómatas computacionales o de autómatas digitales.
Tomemos otro ejemplo, la noción de “aprendizaje profundo” (“deep learning”). Esta evoca en primer lugar el aprendizaje en los animales (y en los seres humanos). Sin embargo, los seres vivos aprenden solo si lo que aprenden tiene sentido para ellos, ya sea para la alimentación, la sexualidad, el afecto, el compartir dentro de un grupo… Se puede obligar a un animal o a un niño a aprender sin sentido, mediante la violencia o la recompensa, pero es difícil. Aprender sin ningún sentido un poema de memoria es una tortura, tal como obligar a un animal a actuar sin que eso tenga un sentido para él, en un circo, por ejemplo. Hoy en día sabemos que incluso las “deformaciones” de la corteza visual primaria están moduladas por el sentido: incluso en el primer nivel de la percepción visual, el hecho de dar un sentido o un nombre a lo que se percibe modifica las huellas neuronales del “ver” y hace posible el recuerdo.
En este sentido, el almacenamiento digital en soportes electrónicos no constituye, evidentemente, un aprendizaje, incluso cuando es “revisable”. En efecto, mediante los métodos computacionales antes mencionados, es posible modificar el almacenamiento digital de forma dinámica con el fin de identificar las invariantes de determinados contenidos (imágenes, sonidos, idiomas), lo que supone un logro técnico notable. ¡Pero sigue siendo almacenamiento, no aprendizaje! También se dice que este almacenamiento digital es “profundo”, debido a la audaz idea, desarrollada en las décadas de 1980 y 1990, que consiste en colocar las redes bidimensionales de neuronas formales en varias capas: se ha pasado del “plano” de dos dimensiones a la “profundidad” de tres dimensiones. Se trata de un cambio técnicamente importante, pero la noción de “aprendizaje profundo” evoca la profundidad de un pensamiento, del Réquiem de Mozart…En este contexto, la expresión es abusiva y engañosa. Dejemos de hablar de “aprendizaje profundo” y llamemos a las cosas por su nombre: ¡se trata de almacenamiento digital revisable!
Esta transformación del lenguaje dista mucho de ser superficial: las palabras que usamos modelan nuestra manera de pensar. Sin embargo, si bien las máquinas digitales no han dejado de evolucionar durante los últimos cincuenta años, cabe señalar que la máquina ideológica no ha cambiado demasiado: los actores de Silicon Valley siguen hablando de “mentes digitales”, mientras que ciertos intelectuales se permiten afirmar que “lo que no se puede calcular no se puede pensar”, como si no pudiéramos imaginar nada más allá de las predicciones algorítmicas de las Big Tech. Hablar de una mente maquínica equivale, de hecho, a querer mecanizar el pensamiento, es decir, a querer reducir las conductas improbables y significantes a comportamientos programables, por lo tanto, controlables y reemplazables.
En efecto, estas metáforas antropomórficas, aparentemente inocentes y simpáticas, tienen efectos performativos. Una vez convencido de que su comportamiento puede ser programado, un individuo se dejará controlar más fácilmente. Una vez convencido de que sus saberes pueden ser estandarizados, se dejará reemplazar más fácilmente. Para abordar las implicancias antropológicas y políticas de la actual transformación tecnológica, debemos deconstruir la noción de inteligencia artificial y las analogías entre máquinas y organismos o entre cerebros y computadoras que conlleva. Las llamadas inteligencias artificiales generativas son autómatas digitales o computacionales, que pueden ofrecer todo tipo de posibilidades nuevas en las sociedades contemporáneas, siempre y cuando preservemos e intensifiquemos nuestras capacidades de desautomatizar –de interpretar, de decidir, de imaginar y de inventar. Es decir, siempre y cuando mantengamos la posibilidad de abrir un sentido y un futuro compartidos, que solo pueden ser fruto de la inteligencia colectiva y del debate argumentado.
Anne Alombert es profesora titular de Filosofía Francesa Contemporánea en la Universidad París 8 e integrante del colectivo de investigación Organoesis. Publicó, entre otros libros, Schizophrénie numérique, Allia, 2023 (en castellano: Esquizofrenia digital, traducción y prólogo de Fernanda Mugica, Mar del Plata, Letra Sudaca, 2025) y De la bêtise artificielle. Pour une politique des technologies numériques [La estupidez artificial. Por una política de las tecnologías digitales], Allia, 2025.
Giuseppe Longo es matemático y epistemólogo. Trabajó en colaboración con el filósofo Bernard Stiegler en espacios como el Colectif Internation y la asociación Épokhè, en la cual asumió la presidencia tras el deceso de Stiegler. Durante las últimas dos décadas se enfocó en investigar las relaciones entre las matemáticas y las ciencias naturales, en particular la biología evolutiva y de los organismos. Entre sus últimas publicaciones se encuentran Matematica e senso. Per non divenir macchine [Matemática y sentido. Para no devenir máquinas], Mimesis, 2022, y Le cauchemar de Prométhée. Les sciences et leurs limites [La pesadilla de Prometeo: las ciencias y sus límites], PUF, 2023.