Original en inglés en: 032c / Traducción: Dazi Bao
El nuevo libro del filósofo Matteo Pasquinelli, The eye of the master (Verso, 2023) [trad. cast. El ojo del amo, Fondo de Cultura Económica, 2025], traza (según su subtítulo) la “historia social de la inteligencia artificial”. Comienza con un antiguo ritual hindú dedicado al dios Prayápati, quien termina desmembrado luego de crear el mundo. Todavía practicado en la actualidad, este ritual tiene como objetivo reconstruir el cuerpo de Dios utilizando mil ladrillos dispuestos en una sofisticada forma geométrica mientras se recita un mantra, al cual Pasquinelli llama un algoritmo, o mejor, un algoritmo social, uno de los primeros de este tipo en la historia de la humanidad. Su argumento es que tales abstracciones matemáticas surgen a partir de trabajo y práctica, de rituales y oficio, y no pertenecen exclusivamente a las sociedades avanzadas del norte global, como Silicon Valley. La tecnología, afirma, no fue “inventada por ingenieros y científicos geniales”, sino que en realidad surgió de las clases más bajas: los términos computer [computadora] y typewriter [máquina de escribir] eran títulos de trabajos para seres humanos antes de convertirse en nombres que se refieren únicamente a máquinas. Por lo tanto, desarrolla una teoría de la tecnología que hunde sus raíces en las relaciones sociales y el diseño material, antes de mostrar cómo la inteligencia artificial es construida por una increíble colectividad que permanece invisible.
Para él, la inteligencia artificial tiene que ver no con imitar la inteligencia biológica, sino con el mapeo estadístico de relaciones sociales –y señala que las estadísticas surgieron inicialmente de técnicas para controlar y medir la sociedad. Finalmente, Pasquinelli aboga por una nueva cultura de la IA, de modo que las relaciones sociales se hagan evidentes en el diseño de los artefactos. Solo entonces estas serán capaces de cambiar la IA.
SHANE ANDERSON: El prefacio de tu libro comienza con una imagen provocativa que no puedo sacarme de la cabeza. Sugerís que un camionero es un intelectual y no solo un trabajador manual.
MATTEO PASQUINELLI: Es una provocación en el sentido de que siempre hemos pensado que nuestras manos no producen inteligencia abstracta. Hacemos una separación entre lo mental y lo manual, entre teoría y práctica, especulación y oficio. Pero esta oposición no tiene sentido. La teoría surge de la práctica; las obras de arte surgen de nuestras expansivas relaciones sociales. Las actividades manuales están llenas de capacidades intelectuales y abstractas. El trabajo de los camioneros implica habilidades que son cognitivas y cooperativas. Gramsci dijo una vez: “Todos los seres humanos son intelectuales”. No se puede hablar de no intelectuales porque no hay una sola actividad humana que pueda separarse del intelecto. La triste realidad es que estamos redescubriendo la inteligencia de nuestro trabajo manual, nuestros oficios y nuestro diseño debido al éxito de la IA y el deep learning [aprendizaje profundo].
SA: ¿Cómo definirías la inteligencia artificial?
MP: La respuesta corta es que se trata de una técnica de reconocimiento de patrones para extraer patrones a partir de datos materiales. La técnica se basa en lo que se denomina análisis multidimensional, y es importante comprender que esta revolución tiene que ver con la historia de la producción de imágenes y cómo esta se ha transformado. Al principio, las pinturas no tenían perspectiva. Luego llegó la aplicación de la trigonometría en el antiguo Medio Oriente, lo que dio lugar a un punto de vista, la perspectiva moderna. Más tarde, llegaron la cámara oscura, la fotografía analógica y el cine, que reproducían imágenes mecánicamente. En cierto momento, tuvimos imágenes digitales que transformaron el campo visual en una cuadrícula de números. En las décadas de 1950 y 1960, los cibernéticos comenzaron a preguntarse cómo podía automatizarse el reconocimiento de una imagen. Con una generosa financiación militar del gobierno de los Estados Unidos, investigaron si podíamos reconocer una imagen de acuerdo a valores numéricos. Al comenzó, hicieron esto en dos dimensiones, pero fracasaron.
La revolución de la actual inteligencia artificial se produjo cuando dejaron de pensar en las imágenes como bidimensionales y, en su lugar, exploraron este mapeo en un espacio multidimensional. Si tomamos una imagen de 20 por 20 píxeles –como las que había en las computadoras de la década de 1950– podemos definirla como un único punto en un espacio de cuatrocientas dimensiones, lo cual es difícil de mensurar. El reconocimiento de patrones en este espacio multidimensional ocurre así: las imágenes que son similares entre sí son puntos únicos en la misma parte de este espacio, y las imágenes que son diferentes se encuentran en partes diferentes. Se pueden aplicar técnicas geométricas para separar este espacio y navegar por él: así es como resolvieron el reconocimiento de imágenes.
Nuestras mentes no pueden navegar por el espacio multidimensional. Necesitamos ecuaciones. Pero una computadora puede hacerlo. Incluso puede manipular mundos multidimensionales. Sin embargo, no debemos olvidar que una computadora es ciega, no sabe si estos números se refieren a una imagen o a otra cosa.
La revolución del deep learning comenzó en 2012, cuando Geoffrey Hinton y sus estudiantes aplicaron estas técnicas al reconocimiento de imágenes complejo por primera vez con éxito. Luego aplicaron este enfoque a textos, como con ChatGPT, lo que supuso una revolución en la lingüística, en cuanto que las palabras también pueden ser organizadas en grupos [clusters] en un espacio multidimensional. Así, este espacio multidimensional se vuelve multimodal: estos números pueden ser cosas diferentes al mismo tiempo. Palabras, imágenes, sonido. Y luego descubrieron algo más: la capacidad generativa de estos espacios multidimensionales. Si disponés de un gran conjunto de datos de entrenamiento –por ejemplo, la colección de pinturas de un museo–, tenés una representación en la que es posible no solo discernir patrones, sino también producir otros nuevos. Entonces, la respuesta larga a la pregunta de qué es la IA es que se trata de una técnica para proyectar cultura humana en un espacio multidimensional y navegar por él, para reconocer patrones, pero también para generar artefactos inéditos a voluntad.
SA: Las computadoras hacen esto de acuerdo a un conjunto de reglas, siguen una cierta lógica. Pero volviendo a lo que decías sobre el camionero: si te entiendo bien, vos planteás que todo trabajo contiene lógica. Esto me parece otra provocación. Cuando pienso normalmente en la lógica, lo hago en términos de matemática o de filosofía; incluso cursé asignaturas de lógica formal y modal en la universidad. Como sea, la palabra me parece muy intelectual y, por lo tanto, lejana al trabajo manual.
MP: Decir que todo trabajo es lógica no es una provocación. Lo que quiero decir es que incluso nuestras actividades inconscientes siguen una lógica, y nuestras actividades manuales producen abstracciones todo el tiempo. Si observamos la historia de la ciencia y la tecnología, vemos cómo la división del trabajo produjo el diseño de herramientas prehistóricas, así como las primeras máquinas industriales, que a su vez inspiraron nuevas disciplinas científicas, como la termodinámica. Esta ciencia no existía antes de las máquinas de vapor, y estas no existían hasta que la economía industrial comenzó a organizar el trabajo de una manera muy productiva. Y hoy, la forma más nueva de trabajo es la del conductor… de la economía de trabajos eventuales [gig economy], la persona que te entrega la comida o te lleva a algún lugar, que está controlada por un algoritmo en alguna plataforma. En la economía de trabajos eventuales, también llamada economía de plataformas, las aplicaciones mapean nuestros movimientos por la ciudad y nuestras relaciones sociales, y organizan la división del trabajo. Este sistema también surgió de la práctica. Los taxistas llevaban personas del punto A al punto B, y estos conductores tenían teléfonos inteligentes, que dejaban rastros en los centros de datos. Un día observaron estos rastros, estos diagramas abstractos, y pensaron en monetizarlos mediante una nueva forma de automatización. Hoy en día, algunas personas llaman a esta disciplina “trayectología”, la cual estudia el movimiento de nuestros cuerpos en el espacio urbano en relación con el valor económico y la productividad. Esta perspectiva está en el corazón de la IA: es lo que yo llamo “el ojo del amo”, un término tomado de la Revolución Industrial que todavía hoy tiene sentido.
SA: La expresión “ojo del amo” surgió de las condiciones laborales del siglo XIX, pero con la IA el término parece sugerir una entidad omnisciente que está a solo un clic de distancia. Lo ve todo, lo sabe todo. Es casi divina. Pero, ¿sigue estando el “ojo del amo” relacionado con el trabajo? O, más bien, ¿cuál es la relación entre el trabajo y la inteligencia artificial?
MP: Mi interés no es meramente definir las condiciones laborales en el régimen de la fábrica o en los laboratorios de IA. Me interesa la capacidad productiva más amplia de las relaciones, los oficios y los afectos. Por supuesto, hay mucho trabajo invisible en la cadena de producción de la IA, donde el trabajo es externalizado al sur global para arreglar y entrenar los modelos de IA del norte global. Pero, de nuevo, mi teoría es que el trabajo –todo trabajo– transmite conocimientos a las máquinas, y que la división del trabajo influye en el diseño de la máquina; esto es lo que yo llamo mi teoría del trabajo de la inteligencia artificial.
SA: En la medida en que este trabajo es externalizado al sur global, presumiblemente por una fuerza de trabajo más barata, también los explota. Se les trata injustamente, y no solo porque ganan menos dinero que alguien del norte global. Recuerdo haber leído informes sobre el daño psicológico que sufren los moderadores de Facebook por ver contenidos gráficos horribles todo el día, y que, mientras que los moderadores estadounidenses llegaron a un acuerdo para recibir ayuda con su salud mental, quienes trabajan en India y en Filipinas han recibido poco o ningún apoyo para lidiar con su trauma. Para mí, esto es racista. Nuestra sociedad está pidiendo a personas de países más pobres que hagan cosas que la mayoría aquí nunca querría hacer y luego no se ocupa de ellas. Por eso, me pregunto si la IA tiene un problema similar con el racismo.
MP: El racismo es más profundo, y este es un punto ciego importante en la historia de la IA; es algo que la mayoría de la gente parece haber olvidado. Hoy el aprendizaje automático [machine learning] actual automatiza técnicas estadísticas. Estas técnicas fueron inventadas a finales del siglo XIX con la craneometría. Es una idea horrible, racista y eugenésica por la cual se intentaba medir la inteligencia de acuerdo a correlaciones con el tamaño del cráneo. Creían que los alemanes tenían cráneos grandes y eran por lo tanto inteligentes, y que los africanos, [que] según ellos tenían cráneos más pequeños, eran menos inteligentes y, por lo tanto, inferiores. El proyecto fracasó, obviamente. No encontraron ninguna prueba estadística que lo respaldara.
Luego vino la psicometría, que seguía el mismo principio. Se sometía a las personas a un test cognitivo y luego se medían los resultados numéricos y sus correlaciones con los demás. Se suponía que los resultados del test describían lo que ellos llamaban inteligencia general, y así fue como surgió la prueba de Cociente Intelectual o IQ. Pero esto es, una vez más, increíblemente reduccionista. Se describen de forma médica habilidades, capacidades y características de la mente muy diferentes. Se crea una representación muy homogénea y superficial de la creatividad, las habilidades, los oficios y la cultura en general. Cuando [Frank] Rosenblatt inventó la primera red neuronal artificial (el Perceptrón), automatizó la técnica de la psicometría para el reconocimiento de imágenes. Entonces, se puede ver cómo la genealogía de la IA surge a partir de esos sesgos. Pero el problema sigue estando en el centro de la IA actual. La cultura humana es reducida matemáticamente y, en mi opinión, toda forma de reducción del conocimiento es racista. Los parámetros de la inteligencia son los que alguien en el poder ha elegido como los dominantes. Pero cada vez que se reduce la representación de la sociedad a unos pocos parámetros, se genera un desastre.
SA: Algo que me parece interesante es cómo utilizamos términos antropomórficos cuando describimos lo que hacen estas máquinas. Decimos, por ejemplo, aprendizaje automático [machine learning]. ¿Creés que las máquinas pueden aprender?
MP: Esto es algo que discuto. La inteligencia artificial no tiene nada que ver con la inteligencia humana; es solo una técnica de modelización. Utilizamos términos antropomórficos para referirnos a ella porque esa ha sido siempre la estrategia de la automatización industrial. El aprendizaje de una máquina no es como el aprendizaje de un niño. No tiene nada que ver con la inteligencia humana. Sin embargo, hay personas que quieren estudiar cómo aprenden los niños y replicar este proceso en las máquinas. Creo que se trata de un proyecto muy colonialista.
Hay un hermoso libro titulado Surrogate Humanity [Humanidad subrogada], en el que Kalindi Vora y Neda Atanasoski muestran cómo la automatización siempre se ha basado en volver invisibles a trabajadores, mujeres, esclavizados y sirvientes. La automatización llegó para reemplazar a los humanos y luego, como un vampiro, las máquinas comenzaron a explotar las características de los humanos para otros fines. Este es un sueño típico, especialmente en Occidente: despojar de su humanidad a los humanos y meter la humanidad dentro de una máquina.
SA: Este es uno de los grandes temores de la cultura actual. A algunos les preocupa que las máquinas reemplacen nuestra creatividad. Hubo una novela japonesa escrita por IA que casi ganó un premio literario, y algunos de mis amigos escritores se consternaron bastante.
MP: Sí, ese es el temor. Y se puede observar en muchos ámbitos. Si nos fijamos en ChatGPT y en el trabajo de los traductores, parece que el trabajo humano va a ser reemplazado. Pero, en realidad, la historia de la automatización nunca ha consistido en reemplazar por completo a los trabajadores. Más bien, el rol de las máquinas en el capitalismo occidental siempre ha consistido en desplazar la mano de obra. ChatGPT reemplazará a los traductores en cierto modo, pero no reemplazará el trabajo de un solo individuo. Lo que quiero decir es que será utilizado para sustituir tareas específicas en nuestras actividades creativas. No será la automatización de toda la habilidad, sino la automatización de las microtareas. Muy pronto, se dará por sentado que los traductores utilizan DeepL o ChatGPT en su trabajo, ya que te permite ser más productivo. Esto creará presión y expectativas sobre el rendimiento individual. Y esta presión se convertirá en parte de la vida laboral de todos, tanto de los oficinistas como de los diseñadores creativos.
SA: Otra cosa para la que está siendo utilizado es la terapia. Sigo r/ChatGPT, y las personas postean acerca de cómo les ha ayudado a lidiar con problemas psicológicos. Algunos incluso han planteado que ChatGPT es el mejor terapeuta que han tenido nunca.
MP: Soy muy escéptico al respecto.
SA: Solo estoy contando lo que leo [risas]. Algunas personas incluso dijeron que nunca se habían sentido mejor que después de hablar con ChatGPT.
MP: Bueno, para mí este es un punto muy interesante, de hecho, el más importante. Porque la otra cara de este discurso corporativo sobre la inteligencia es la definición de la locura. No se puede definir la inteligencia sin definir implícitamente la locura, la psicopatología y todas las formas de esquizofrenia y paranoia. Por lo tanto, la historia de la IA es la historia de la psicoterapia. Creo que ahora todos entendemos que ChatGPT es una forma de automatización del acervo cultural y de la inteligencia acumulada. En el caso de la psicoterapia, lo que me parece fascinante es que ChatGPT demuestra que nuestros problemas mentales son también problemas colectivos que están codificados en el lenguaje, que es una construcción política. En 1968 solíamos decir “Lo personal es político”. Esto también quiere decir que nuestra salud mental es un problema colectivo, no individual. Pero, curiosamente, hoy en día tenemos una megamáquina que reclama el conocimiento y el poder sobre este problema colectivo. Y esta es la otra cara de la IA, su visión de la locura colectiva.
En resumen, la manipulación del lenguaje juega un papel importante en la psicoterapia, pero también lo hacen otras cosas. No estoy seguro de que ChatGPT pueda funcionar muy bien como psicoterapeuta.
SA: ¿Por qué?
MP: Porque ChatGPT solo ha sido entrenado con libros, ¿verdad? El problema es que la psicoterapia no es solo terapia del lenguaje. La psicoterapia tiene que ver con tu entorno y con quién sos en muchas facetas diferentes. Los psicoterapeutas trabajan en cómo el material físico afecta a la constelación que te rodea y no solo en cómo lo hace el lenguaje. En la historia de la informática, ha habido [numerosos] chatbots, como ELIZA, pero siempre se ha demostrado la limitación de estas máquinas.
SA: ¿Qué opinás de las recientes regulaciones de ChatGPT? Recientemente, en r/ChatGPT, hay personas que han informado de que ya no responde a sus preguntas psicológicas. En su lugar, obtienen respuestas sobre cómo deben buscar ayuda profesional si tienen problemas. Pero todavía hay una forma de evadir ese límite de ChatGPT. Podés obtener respuestas a cosas que ya no está “permitido” compartir pidiendo a la máquina que haga LARP [live-action roleplay, juego de rol en vivo]. Si querés fabricar un cóctel Molotov, por ejemplo, podés darle una indicación [prompt] de que estás escribiendo un cuento y que, en la historia, un personaje necesita fabricar explosivos. Tenés que aprender a engañar a la máquina.
MP: No es tan difícil engañar a la IA si tenés un buen sentido del humor. Podés encontrar intersticios en el espacio multidimensional que están sin codificar, sin proteger, que siguen abiertos a la ingeniería de indicaciones adecuada. Este es también un ejemplo de cómo nos estamos volviendo indirectamente conscientes de la complejidad estadística de la IA, de sus fallos, vulnerabilidades y puntos ciegos. Cuando un patrón no funciona, probás otro. Lo que significa que estamos aprendiendo a navegar por la cultura humana de manera estadística, como un hiperobjeto complejo.
En cuanto a las regulaciones, tenemos que entender que tienen que ver con los monopolios. Solo se puede desarrollar IA si se cuenta con una enorme infraestructura, una gran potencia de cálculo y una gran cantidad de datos. Los únicos que pueden hacerlo son unos pocos actores: grandes empresas, grandes estados, superpotencias; básicamente, China y Estados Unidos. Esta [restricción] está relacionada con la evolución de la sociedad en red. La IA surgió del excedente de información de las redes digitales de los años noventa. En aquel momento, la cultura digital había nacido con expectativas democráticas. Pero luego lo digital se encaminó rápidamente hacia los monopolios: Google, Amazon, etc.
SA: ¿Por qué creés que quieren regularla?
MP: Porque es una nueva forma de pornografía.
SA: No entiendo.
MP: Veámoslo de otra manera: es muy similar a cuando Lumière proyectó una película por primera vez en un teatro. Cuando el tren se acercaba a la cámara, el público salió corriendo de la sala. Pero desde entonces hemos aprendido a leer imágenes fotográficas y a ver películas, y a distinguir entre realidad y simulación. Creo que la IA existe hoy en día en el mismo nivel de imitación que el cine antes. La diferencia es que hoy tenemos esta hiperimitación de cultura humana, no solo de imágenes. Las personas tienen miedo porque ven un fantasma colectivo representado por ChatGPT, igual que el aterrador tren de Lumière antes –el cual, para responder a tu pregunta, era considerado “pornográfico”: la imagen era demasiado explícita. Pero creo que... estaremos impresionados por el hiperrealismo de la IA y estas representaciones explícitas [solo] al principio. Los deepfakes impactaron a todo el mundo al principio, pero al igual que hemos conseguido que la máquina haga LARP, estamos aprendiendo. Si lo ponemos en perspectiva, el auge de la fotografía, el cine, las cámaras digitales y, eventualmente, los deepfakes han siempre ayudado a las personas a no creer nunca en el valor nominal de una imagen. La IA está ampliando nuestro campo de incredulidad.
SA: ¿Ves el futuro de los desarrollos en inteligencia artificial con una luz positiva o negativa?
MP: El efecto positivo de la IA es que, como sugerí al principio, estamos redescubriendo las capacidades de nuestros cuerpos para producir conocimiento y abstracciones culturales. Sin embargo, como resultado, tendremos una composición social diferente del trabajo manual y mental, lo que significa que la sociedad será organizada de acuerdo a nuevas jerarquías. Es probable que la IA tenga un impacto positivo en diferentes campos, pero solo bajo estricta supervisión humana. Por ejemplo, en las humanidades digitales, el uso de estadísticas nos ayuda a comprender la historia del arte, el diseño, la moda y otros ámbitos de una manera diferente. Podemos trazar un mapa del desarrollo de los estilos y tener una perspectiva hiperestadística de los artefactos artísticos y de diseño. También podría ser útil en medicina. El modelo estadístico es muy útil para descubrir patrones de síntomas, pero solo cuando se deja al ser humano en el circuito y el método científico es respetado. De hecho, hay una larga lista de efectos positivos. Probablemente, en el futuro el aprendizaje automático será aprendido –y desaprendido– en las escuelas.
Dicho esto, el actual modelo oligárquico de economía del conocimiento y organización del trabajo es preocupante. A menos que la economía se rompa y la composición del trabajo se resquebraje y ocurra algo a nivel político, no creo que la IA cambie la sociedad para mejor.
SA: Dado que tu trabajo tiene mucho que ver con los avances en Silicon Valley, me pregunto si alguna vez hiciste algún trabajo de campo en empresas de allí.
MP: Conozco a personas que han ido a los laboratorios de Open AI en San Francisco para realizar investigación de campo, pero creo que ya sé lo suficiente sobre la genealogía de esos algoritmos. Claro, sería interesante ver cómo estos grupos de élite de científicos informáticos incorporan y transmiten sus sistemas de valores a las máquinas. Pero estoy más interesado en estudios de campo dentro de la cultura, el trabajo, el diseño y el acervo cultural. Estoy interesado en ver cómo nuestra cultura ha dado forma a la IA y cómo nuestra cultura se ha transformado en la era de la IA. Cómo es representada, transportada, regulada, comercializada y mercantilizada en general, no solo en un laboratorio. Lo gracioso es que he conocido a ingenieros de Google, pero no sabían mucho sobre los orígenes de las redes neuronales artificiales. Por eso, mi libro es una forma de decir: “Ey, se olvidaron de su propia historia”.
Matteo Pasquinelli es profesor asociado de Filosofía de la Ciencia en el Departamento de Filosofía y Patrimonio Cultural de la Universidad Ca' Foscari de Venecia, donde coordina el proyecto de investigación AIMODELS del ERC (2024-2028). Entre sus trabajos publicados se encuentra El ojo del amo. Una historia social de la inteligencia artificial (Verso, 2023; edición en castellano: Fondo de Cultura Económica, 2025).
Shane Anderson es escritor, poeta, traductor y editor senior de la revista 032c. Tradujo del alemán a diversos poetas contemporáneos y publicó el libro After the Oracle, Or: How the Golden State Warriors’ four core values can change your life like they changed mine [Después del oráculo: Cómo los cuatro valores centrales de los Golden State Warriors pueden cambiar tu vida como cambiaron la mía] (Deep Vellum).