Obreros y algoritmos

La inteligencia artificial como automatización basada en el trabajo • Por Matteo Pasquinelli

Publicado en • Última modificación

Obreros y algoritmos, ilustración de Corey Torpie

Original en italiano en: Jacobin Italia / Traducción: Dazi Bao

¿Cómo comprender algo tan complejo como la inteligencia artificial? Veámoslo en términos muy generales (pero con método). Volvamos a preguntarnos cómo las comunidades primitivas construían sus herramientas y qué tipo de inteligencia plasmaban en su “design” [diseño]. Observando las famosas piedras talladas de sílex (de la llamada industria lítica), el paleontólogo francés André Leroi-Gourhan y otros formularon la hipótesis de que no fueron producidas mediante una actividad individual, sino mediante una cadena operativa a menudo espontánea y ramificada, es decir, una organización ampliada, una división social del trabajo ante litteram, se podría decir. La cadena de montaje social mediante la cual una piedra de sílex encontrada en el lecho de un río terminaba transformada en la punta de una flecha es sencilla de intuir, pero se podría agregar que también la función de la flecha, su design, reflejaba una forma social, en cuanto herramienta para amplificar las capacidades del cuerpo individual y colectivo. Escribir una historia de la ciencia y de la tecnología desde el punto de vista de la sociedad significa esto: no limitarse a estudiar su “impacto” en la sociedad, como suele hacerse, sino poner en evidencia la forma social que constituye su origen.

Fue el motor a vapor el que inventó la termodinámica

Demos un salto hasta la era industrial. Debería hacernos reflexionar el hecho de que economistas políticos de las más diversas orientaciones políticas, como Adam Smith, Charles Babbage y Karl Marx, concordaban en que rara vez las nuevas máquinas eran “inventadas” aplicando la ciencia en abstracto a la producción fabril (por ejemplo, la termodinámica a los motores a vapor): notaban cómo, por el contrario, las nuevas máquinas siempre surgían desde abajo, por así decirlo, imitando una división del trabajo precedente o, mejor dicho, la forma colectiva de la producción dentro de un taller: una organización de cuerpos, herramientas y conocimientos que encontraban una nueva síntesis en la estructura intrínseca de una maquinaria. Pensemos en un taller en el que el trabajo de rutina de los obreros es reemplazado poco a poco por una máquina impulsada por energía como el torno, que representa la unión de herramientas individuales antes utilizadas por distintos obreros de manera separada. Para Babbage, al igual que para Marx, la fábrica industrial surgió en el siglo XIX a través de rutinas de trabajo continuas que se cristalizaban gradualmente en monstruos mecánicos. Y fueron finalmente las máquinas las que sugirieron nuevos paradigmas científicos. Fue el motor a vapor el que “inventó” la termodinámica, no al revés.

Por su escala y potencia, las máquinas industriales eran percibidas a menudo como enemigas de la clase obrera y de la humanidad. Pero si eran enemigas, lo eran por ser demasiado humanas, no por ser inhumanas o ajenas a lo humano. Ya en su Miseria de la filosofía (1847), Marx atacaba al anarquista Pierre-Joseph Proudhon, quien creía que las máquinas eran la antítesis del trabajo: Marx subrayó que las máquinas eran, por el contrario, la síntesis del trabajo, que eran una imitación del trabajo humano y no un poder ajeno, y que lo que había que estudiar era la forma esencialmente social de su diseño. En el lenguaje de la economía política, se la podría llamar una teoría de la automatización basada en el trabajo (en inglés se podría decir labour theory of automation [teoría de la automatización-trabajo], siguiendo los pasos de la labour theory of value [teoría del valor-trabajo]), que en cualquier caso parece mucho más seria y sólida que los mitos sobre la Singularidad, la superinteligencia alienígena y la autoconciencia de las máquinas.

Automatización basada en el trabajo

Todas estas reflexiones encajan perfectamente con la IA actual. La centralidad de las relaciones sociales (más que la racionalidad en sí) en la constitución lógica de la IA también queda demostrada por su arquitectura actual, que muestra una total y parasitaria dependencia de la acumulación de datos personales y colectivos en los numerosos conjuntos de datos de entrenamiento. Sin los datos producidos continuamente por el cuerpo individual y colectivo, la IA no existiría. Por cierto, estudiando la forma actual de la IA (machine learning [aprendizaje maquínico] y, específicamente, deep learning [aprendizaje profundo], es decir, las grandes redes neuronales artificiales), numerosos trabajos de ciencia y tecnología (Sts) demuestran que tales sistemas sobreviven únicamente gracias al trabajo y al conocimiento de una multitud global de trabajadores y usuarios que son mantenidos invisibles a nuestros ojos (véase la encuesta Ghost work [Trabajo fantasma] de Mary Gray y Siddarth Suri de 2019). En relación con la composición política de la IA, la sociología del trabajo y los estudios culturales confirman lo que la historia de la ciencia ha sabido siempre sobre la genealogía técnica de la IA, es decir, la centralidad de la forma-trabajo respecto de la centralidad de la ciencia. En resumen, la IA actual es un tipo de tecnología de automatización basada en la imitación directa de las relaciones sociales, del patrimonio cultural y del trabajo (tanto manual como mental), y en este sentido repite y encarna de un modo nuevo aquella teoría de la automatización basada en el trabajo que era central en el siglo XIX. Pero, si toda composición técnica refleja la composición social de su época, en consecuencia, la primera debe transformarse toda vez que esta última se transforma. ¿Qué ha cambiado de la era industrial a la era posindustrial?

Psicometría y craneometría: las raíces políticas de la IA

La cifra política de la IA se descubre probablemente en el corazón de su algoritmo. Técnicamente hablando (y sobre esto muchísimos manuales y libros sobre IA no son lo suficientemente precisos y científicos), la forma de la IA actual (deep learning) no surgió de la traducción de la lógica del pensamiento a la lógica matemática (como de alguna manera proponían John McCarthy y compañía en el Dartmouth College donde se introdujo el controvertido término “inteligencia artificial” en la década de 1950), pero tampoco surgió de la imitación de las redes neuronales del cerebro (como a menudo se narra remitiéndose al conexionismo de Warren McCulloch y Walter Pitts de la década de 1940). Desde el comienzo, un paradigma fuertemente normativo de la inteligencia social influyó en el design del deep learning.

El deep learning tuvo su origen en la década de 1950 con la invención por parte de Frank Rosenblatt de la primera red neuronal estadística, el Perceptrón. Al contrario de lo que suele decirse, el Perceptrón imitaba solo superficialmente el esquema de las redes neuronales del cerebro: matemáticamente hablando, encarnaba la automatización de herramientas estadísticas de análisis multidimensional que Rosenblatt, psicólogo de formación, heredó de la psicometría. En aquella época, la psicometría era la disciplina (no una ciencia) que introdujo el infame test para medir el “cociente intelectual” (o test IQ) y originalmente pretendía cuantificar las capacidades intelectuales de la población realizando análisis estadísticos de test similares. La psicometría surgió como una rama de la estadística, que, como sabemos, nunca ha sido una disciplina neutra en sí misma, sino más bien un proyecto de normalización de la sociedad, un proyecto de cálculo de la “norma” y de control de las desviaciones (como recuerda Stephen Jay Gould en su libro de 1981 La falsa medida del hombre). Habría que añadir que, a su vez, la psicometría derivaba de la craneometría, una seudociencia de las más delirantes que intentaba torpemente demostrar una correlación entre la inteligencia y el tamaño del cráneo para imponer políticas racistas y eugenésicas en la Europa del siglo XIX. La craneometría se basaba en la suposición muy política y poco científica de que las jerarquías de clase, género y raza existían en la sociedad por naturaleza y que debían ser medidas para ser identificadas y controladas (entre los problemas de la estadística existe todavía hoy, entre otros, la falacia de la cosificación: el cálculo de un valor medio en el comportamiento colectivo de los individuos produce a menudo la ilusión de que existe una ley subyacente, una causa invisible: la craneometría de antaño y la psicometría de hoy tienen no solo un problema político, sino también un problema lógico).

El proyecto de cuantificar la inteligencia de la población, aunque altamente ideológico y poco científico, tenía no obstante su efecto político: servía para reforzar jerarquías de clase, género y raza –en otras palabras, servía para organizar el mercado de trabajo, también en nuevas clases “dinámicas”, por así decirlo. Esta era, por ejemplo, una de las aplicaciones directas del test IQ según el psicólogo estadounidense Lewis Terman, quien sostuvo en 1919 que “el cociente intelectual de 75 o inferior pertenece generalmente a la clase obrera no calificada, que de 75 a 85 es predominantemente el rango para la mano de obra semiespecializada, y que 80 u 85 es suficiente para tener éxito en algunos tipos de trabajo especializado”. Así como la primera forma de automatización surgía de la métrica del trabajo en el contexto industrial, puede decirse que la IA ha surgido de la psicometría del trabajo, es decir, de la medición y clasificación de las capacidades cognitivas de la población en el contexto posindustrial. La estructura y medida de la inteligencia que la IA representa tiene, por consiguiente, una raíz social y política antes que científica.

La IA actual continúa este proceso de codificación de las jerarquías sociales y de discriminación en la fuerza de trabajo imponiendo indirectamente una métrica de la inteligencia. Confrontar la inteligencia humana y la artificial implica un juicio sobre qué comportamiento humano o grupo social sería más “inteligente” que otro, qué trabajadores podrían ser sustituidos y cuáles no. En definitiva, la IA no es solo una herramienta para automatizar el trabajo, sino también para imponer estándares de inteligencia mecánica que propagan, de forma más o menos invisible, jerarquías sociales de conocimiento y habilidad mental. Al igual que las anteriores formas de automatización industrial, la IA no viene tanto a sustituir a los trabajadores como a organizarlos en un nuevo orden social. El prejuicio de clase, género y raza (el llamado bias o sesgo) que los sistemas de IA amplifican de manera notoria no debe ser considerado un defecto técnico, sino una característica discriminatoria intrínseca a su forma de automatización. El impacto del prejuicio de la IA no se limita a la opresión social: también lleva a una imposición implícita de jerarquías laborales y cognoscitivas que refuerzan la polarización entre trabajadores calificados y no calificados en el mercado de trabajo.

Si la IA obliga a trabajar más

Pero, ¿es verdad que la IA viene a reemplazar por completo las viejas figuras del trabajo? Si dejamos de centrarnos por un segundo en un término de todos modos engañoso como “inteligencia” y nos fijamos simplemente en la composición material de las plataformas de IA, toma forma ante nuestros ojos algo muy distinto de la “plena automatización” y de la “desocupación tecnológica”.

La IA se nos presenta como una potente forma de automatización, pero esta increíble capacidad, sin embargo, parece estar orientada no hacia la sustitución completa de los trabajadores, sino más bien hacia la automatización de microtareas modulares. Si nos alejamos de la “sala de máquinas” y de las estructuras profundas de los algoritmos de IA y nos fijamos en cambio en sus infraestructuras globales y en cómo las plataformas de IA son organizadas y organizan la vida de millones de usuarios y trabajadores, notamos algo diferente. Tomemos ChatGPT, por ejemplo: en este caso, encontramos a millones de personas conectadas desde sus casas u oficinas a un único centro de datos situado en Utah (Estados Unidos), donde está instalado este gran modelo de IA que ofrece respuestas a tal multitud de personas conectadas de todo el mundo. Más que la cuestión de la inteligencia, tenemos acá un monopolio global del trabajo en red y una forma reticular de automatización del trabajo. El trabajador no es sustituido por un sistema de IA, sino que se convierte en un meta-trabajador, un auténtico cyborg (si gusta esta imagen aplicada a veces al trabajo), que proporciona la síntesis humana a una miríada de microtareas automatizadas. Cada microtarea puede parecer que potencia las capacidades del trabajador, pero en realidad agota su energía y provoca nuevas formas de estrés que se suman a aquellas típicas del trabajo digital o de plataformas. El uso de ChatGPT es un arma de doble filo: en el futuro, cualquier empleador dará por sentado su conocimiento y su utilización para completar las tareas más rápidamente, requiriendo por lo tanto trabajar más deprisa, no menos.

La paradoja de la IA, en definitiva, es que no sustituye a los trabajadores, sino que los multiplica: más que el fin de la ocupación, genera subocupación (como recuerda Aaron Benanav en su libro de 2020 La automatización y el futuro del trabajo), una precarización del mercado de trabajo en la que los trabajadores se ven obligados a trabajar cada vez más de forma eventual y fragmentada. En una tendencia global de precarización y estancamiento, parece que la IA obligará a todos a trabajar no menos, sino más. Por supuesto, este destino no es inevitable. Toda máquina es una máquina social, construida no solo por un trabajo colectivo, sino imitando la forma colectiva de la división del trabajo en su diseño interno. Lo que implica esta teoría de la automatización basada en el trabajo es que la composición tecnológica puede ser cambiada cambiando la composición social y política de una época determinada, es decir, que la tecnopolítica empieza por la política, no por la tecnología.

Matteo Pasquinelli es profesor asociado de Filosofía de la Ciencia en la Universidad Ca' Foscari de Venecia, donde coordina el proyecto de investigación AIMODELS del ERC. Entre sus trabajos publicados se encuentra El ojo del amo. Una historia social de la inteligencia artificial (Fondo de Cultura Económica, 2025).