Anthony Scarzafava, Before and after science #10, #11 y #12 (2012)
Original en inglés en: Science, noviembre de 2025 / Traducción: Dazi Bao
Hace veinticinco años, Ted Chiang escribió un profético relato breve de ciencia ficción1 que comenzaba así: “Han pasado veinticinco años desde que un informe de investigación original fue enviado por última vez a nuestros editores para su publicación, lo que hace que este sea un momento apropiado para revisar la pregunta en aquel entonces tan ampliamente debatida: ¿cuál es el rol de los científicos humanos en una época en la que las fronteras de la indagación científica se han desplazado más allá de los límites de la capacidad de comprensión de los humanos?”. A continuación, describía un futuro científico en el que humanos mejorados digitalmente o “metahumanos” conducían el avance tecnocientífico. Con el auge de la inteligencia artificial generativa (IA), el aprendizaje de refuerzo profundo [deep reinforcement learning] y otros diseños emergentes de IA utilizados para automatizar todo el espectro de funciones científicas, los próximos veinticinco años de ciencia prometen transformar de maneras complejas el rol de la participación, la experiencia y el compromiso humanos con la ciencia, mientras en simultáneo aumenta el control mecanicista sobre el mundo.
Reemplazamos con “IA” donde el narrador ficcional de Chiang pone “metahumano” para considerar que “nadie niega los numerosos beneficios de la ciencia de la IA, pero uno de sus costos para los investigadores humanos fue darse cuenta de que probablemente nunca volverían a hacer una contribución original a la ciencia. Algunos abandonaron el campo por completo, pero quienes se quedaron desplazaron su atención de la investigación original hacia la hermenéutica: la interpretación del trabajo científico de la IA”.
Con la aparición de la IA en la ciencia, estamos asistiendo al preludio de una curiosa inversión: nuestra capacidad humana de controlar instrumentalmente la naturaleza está comenzando a superar la comprensión humana de la naturaleza y, en algunos casos, parece posible sin necesidad de comprenderla en absoluto. Con la rápida adopción de la IA a lo largo y ancho de las disciplinas científicas, ¿qué significa esto para el futuro de la indagación científica? ¿Y qué viene después de la ciencia?
Las investigaciones sobre la naturaleza desde la antigüedad hasta la actualidad han implicado proporciones cambiantes de “comprensión” y de “control”. La comprensión de la naturaleza antes de la Ilustración priorizaba las cualidades teóricas internas (comprensibilidad, coherencia, belleza) sobre el control predictivo. La Ilustración cambió esto, vinculando el deseo de entender el mundo con evaluaciones que implicaban mediciones intensivas, datos exhaustivos y argumentos fundados empíricamente. Al igual que en las artes técnicas, la comprensión pasó a significar explicación unida a dominio funcional demostrado mediante la predicción y el control de los acontecimientos de la naturaleza. El surgimiento de la ciencia computacional a mediados del siglo XX aceleró este ensamble entre comprensión y control. La computación mecánica hizo posible resolver tareas complejas hace entonces fuera del alcance humano, como resolver ecuaciones para modelar y simular el comportamiento de los sistemas atómicos sometidos a fisión. Para principios del siglo XXI, la computación y el aprendizaje automático basado en datos se habían convertido en motores centrales del descubrimiento a lo largo y ancho de las ciencias.
En la última década, avances veloces en aprendizaje profundo, aprendizaje por refuerzo y modelos basados en transformadores han inaugurado una nueva era de “ciencia impregnada de IA” [IA-infused science]2. En esta nueva era, estamos asistiendo al surgimiento de la IA impulsando los descubrimientos científicos, acelerando los índices de avance del conocimiento científico en todas las disciplinas y aumentando el control instrumental sobre el mundo. No obstante, la IA en la ciencia sigue estando regida en gran medida por el entendimiento humano, sometida a los estándares de justificación que acompañan el uso de métodos de descubrimiento basado en tecnología más tradicionales. Pese a su naturaleza de “caja negra”, la ciencia impregnada de IA funciona bien para aumentar la comprensión precisamente porque sigue dependiendo de justificaciones tradicionales para evaluar hipótesis, y los resultados siguen requiriendo confirmación por medio de modos de evaluación científica bien aceptados. En los casos en que la IA supera a nuestras mejores teorías, los resultados atraen la atención científica humana hacia direcciones de investigación subexploradas pero prometedoras. Las predicciones de la IA confirman o sorprenden, lo que permite una abducción que centra la atención colectiva en la incompletitud de las teorías actuales. Por ejemplo, a pesar de su opacidad, los modelos han dirigido la atención humana como una varita mágica hacia hipótesis prometedoras que amplían nuestra mejor comprensión teórica de los terremotos, el reconocimiento de objetos en primates, la topología de baja dimensión y la combinatoria extremal, lo que en cada caso ha producido un más profundo y amplio entendimiento humano. Sin embargo, en el fondo, tanto los objetivos como los estándares epistémicos de la ciencia impregnada de IA siguen siendo los mismos que los de la ciencia tradicional. Y seguimos buscando la comprensión bajo la evaluación de los mismos estándares: la adecuación empírica de las explicaciones, no las proclamaciones predictivas de modelos inescrutables.
La era actual de la ciencia impregnada de IA anuncia otra transformación. El año pasado, dos premios Nobel reconocieron el trabajo en IA, mientras que las inversiones gubernamentales, filantrópicas y comerciales se dispararon hasta alcanzar cientos de miles de millones de dólares. De forma especulativa, pero inequívoca, el ecosistema científico está avanzando hacia la automatización de más prácticas científicas. La disminución de la confianza en la ciencia y las instituciones científicas puede estar acelerando este cambio. A medida que el modelo de lenguaje de gran tamaño (LLM) aumenta su desempeño y es adoptado en más ámbitos, los proyectos conducidos por IA con mínima intervención humana están dejando de ser demostraciones novedosas para convertirse en producción científica genuina. Los modelos más exitosos cada vez se destacan más no por ampliar o profundizar el conocimiento, sino por mejorar el control, como en el caso de la predicción de la estructura y el diseño de proteínas humanas o el control magnético de las reacciones de fusión, ganando aceptación incluso cuando sus resultados se vuelven menos inteligibles. Esto apunta a un cambio en los estándares respecto de la “interesabilidad” [“interestingness”, la cualidad de inspirar interés] científica, que relega la intuición y la parsimonia a un segundo plano, haciéndose eco de sistemas industriales complejos como el de las fábricas de semiconductores: finamente calibrados, de alto rendimiento y opacos, a diferencia de las teorías físicas, parsimoniosas pero manejables.
Modelos más grandes, construidos cada vez más con la ayuda de otros sistemas de aprendizaje profundo, incorporan componentes como funciones de activación novedosas, heurísticas combinatorias o experimentos teóricos cuánticos no previstos por científicos humanos, que exigen nuevas estrategias interpretativas. Su complejidad ha estimulado el surgimiento de subcampos en ciencias de la computación, matemáticas, estadística, neurociencia, física y filosofía para interpretar y comprender modelos complejos de IA, pero también para explotar capacidades de los modelos, incluso cuando fracasan los esfuerzos por crear modelos “de caja blanca” explicables. Después de todo, los enfoques actuales para la cuantificación de la incertidumbre dependen de la enumeración de espacios de búsqueda de modelos (su σ-álgebra), que son incomputables para los sistemas de vanguardia.
Es probable que surjan nuevos campos, similares a la hermenéutica de Chiang, para dar sentido a estos sistemas opacos, alejándose de los enfoques establecidos para fenómenos naturales complejos, como la biología molecular o el cerebro. De hecho, una avalancha de trabajos sobre interpretabilidad mecanicista en la neurociencia, la psicología e incluso la sociología de los LLM dan fe de este cambio.
La ciencia que surge –la ciencia “después de la ciencia”– planteará así nuevos retos para la participación humana y el avance sostenido. Algunos de estos retos se hacen eco de crisis anteriores en la práctica científica, para las que la historia de las instituciones científicas sugiere caminos a seguir.
Históricamente, la curiosidad humana motivó la búsqueda de aumentar nuestra comprensión científica de la naturaleza, lo que nos llevó a desarrollar nuevos métodos (incluida la ciencia misma), que a menudo también dieron lugar a un mayor control. Los algoritmos, entendidos como herramientas, nunca estuvieron dotados de esa capacidad. En la nueva era emergente, puede que regiones enteras de la iniciativa científica no alcancen el mismo grado de comprensión humana a pesar de la mejora del control. Tal resultado tiene el potencial de reducir la curiosidad que nos impulsa a buscar nuevas preguntas, métodos y soluciones, atenuando el compromiso de los científicos. Además, aunque los algoritmos para la ciencia han crecido en su capacidad de toma de decisiones, solo unos pocos han buscado explícitamente dotarlos de flexibilidad y codificado explícitamente la curiosidad para un rendimiento sostenido.
Si tiene éxito, la ciencia “después de la ciencia” deberá apoyarse cada vez más en la curiosidad humana por los métodos y procedimientos técnicos y metacientíficos, como el problema de construir inteligencia mecánica que entienda la naturaleza, reemplazando en parte la comprensión científica directa de la naturaleza. Este giro ya está presente en el rápido, creciente y explicable movimiento de IA dentro en las ciencias de la computación. Se necesitará más trabajo para cultivar y codificar equivalentes computacionales de la curiosidad dentro de la IA. Trabajos recientes demuestran que la investigación científica aumentada con IA durante los últimos veinticinco años en términos locales reduce la investigación que apoya más de lo que la amplía. La IA es ávida de datos y, en la actualidad, permite a los científicos flexibilizar su rendimiento en datos a gran escala, en lugar de nuevos problemas. La IA condicionada por la curiosidad será fundamental en el avance científico impulsado por la IA “después de la ciencia”, guiando a los algoritmos para que utilicen la curiosidad, y no solo la instrumentalidad, a corto plazo. Máquinas curiosas recopilarán, simularán y analizarán datos sobre anomalías y sorpresas investigativas por encima de la confirmación de certezas crecientes. Máquinas lúdicas podrían redescubrir la “eficacia irracional de las matemáticas” para la ciencia, u otras conexiones inesperadas entre campos que aportan conocimientos e influencia. La curiosidad aquí no tiene que ver solo con una satisfacción psíquica, sino que más bien es un aliciente adicional para buscar y prestar atención a anomalías que son la clave del avance sostenible. Sin esto, es mucho más probable que las máquinas “después de la ciencia” simplemente endurezcan enfoques fijos, como un proceso de búsqueda que se detiene demasiado rápido en una explicación buena antes que en la mejor.
A medida que la IA llega a dominar todos los aspectos de la práctica científica, aproximaciones y metodologías alternativas pueden verse desplazadas. Aunque parte de este reemplazo representa un progreso epistémico genuino al sustituir modelos obsoletos, una destrucción creativa de este tipo también puede provocar un colapso de la diversidad. Esto plantea un desafío único: a diferencia del progreso científico tradicional, en el que los nuevos métodos mejoran las herramientas disciplinarias pero las disciplinas siguen siendo distintas, la eficiencia de la IA podría crear una monocultura de prácticas de investigación dentro y a través de diferentes campos. Aunque los científicos han desarrollado con éxito formas de indagación basadas en la IA que se mueven más allá de los límites de la comprensión humana, el enorme éxito de la IA puede crear condiciones bajo las cuales unos pocos diseños dominantes (por ejemplo, los transformadores) terminen por “exterminar” la diversidad de perspectivas, aproximaciones y disciplinas necesarias para el avance futuro, incluso a través de la “hibridación” con diseños de IA dominantes. Más allá de la pérdida de metodologías alternativas, esta homogeneización podría hacer que los enfoques alternativos resultaran inimaginables, limitando nuestra capacidad de abordar problemas que requieren perspectivas o métodos que los actuales sistemas de IA aún no han sido entrenados para valorar.
Filósofos, sociólogos e historiadores de la ciencia ha reconocido hace mucho tiempo que la ciencia humana funciona tan bien precisamente porque promueve y aprovecha la diversidad de habilidades y experiencias humanas. Las perspectivas y los razonamientos humanos son innumerables. El desacuerdo estimula nuevas investigaciones, y diversas combinaciones de disciplinas se asocian con los mayores avances científicos y los hechos más sólidos y reproducibles. La diversidad debe ser un objetivo explícito para lograr un avance sostenido en un mundo de modelos cada vez más autoconstruidos. Para que la ciencia impregnada de IA evite herramientas y perspectivas convergentes, será necesario generar y reunir perspectivas diversas que la sensibilicen ante las anomalías y fomenten vías de progreso competitivas cuando los beneficios de una perspectiva sobre otra no estén claros. Esto permitirá procesos lógicos de razonamiento abductivo, en los que los hallazgos sorprendentes o anómalos para un modelo impulsen la búsqueda de otros modelos para los cuales no lo sean.
Los científicos siempre se han dedicado a la especulación creativa, la cual a menudo se ha convertido en la base de importantes avances científicos. Algunas veces, sin embargo, producen accidentalmente confabulaciones influyentes pero distorsionadas, o incluso engaños intencionados, que pueden descarrilar la ciencia durante décadas. Consideremos la hipótesis del beta-amiloide en la investigación del Alzheimer, masivamente financiada con subvenciones, sobre la que recientes investigaciones han descubierto decenas de artículos influyentes con signos reveladores de manipulación de imágenes. Algunos de ellos fueron publicados quince años antes de dicha detección, mucho después de haber ejercido influencia en el campo. Los modelos de IA suelen incurrir en “alucinaciones”, confabulaciones convincentes con consecuencias imprevistas para la ciencia, ya que estos modelos son utilizados cada vez más intensivamente sin un control de calidad comparable. El problema es que los científicos y sus algoritmos tienen muchos más incentivos y mucha más capacidad de confabular posibilidades novedosas que de erradicar posibles desviaciones. Puede llevar dos años escribir un manuscrito, pero ahora lleva solo dos horas (o, con IA, dos minutos) revisarlo. Más allá de la naturaleza ya abrumadora de la verificación científica a medida que la ciencia ha crecido, si las confabulaciones de la IA y las ultrafalsificaciones [deepfakes] llegan a superar ampliamente la capacidad de detectarlas, la ciencia podría entrar en una era de hallazgos de baja calidad prácticamente ilimitados que ralentizarían drásticamente (o incluso congelarían) su capacidad para acumular conocimientos sólidos y control sobre la naturaleza.
Para evitar este final, la ciencia debe invertir ahora más intensamente en la automatización de los procesos de control de calidad que aprovechan y se centran en la IA. Hasta ahora, unos pocos investigadores “justicieros” han invertido tiempo, esfuerzo y riesgo personal en esta actividad, por medio de sus propias investigaciones detectivescas y el desarrollo de herramientas de IA hechas a medida. Las universidades, los organismos de financiación de la ciencia y las asociaciones científicas no lo han hecho. Para un avance científico sostenido “después de la ciencia”, debemos equilibrar los incentivos para crear y evaluar la calidad de las ideas dentro del ecosistema de la IA. Esto incluye encontrar formas de actualizar y alinear de manera interactiva y continua el desarrollo de nuevas tecnologías con objetivos sociales y científicos.
Si no logramos cumplir con estos desafíos, corremos el riesgo de perder tanto la curiosidad cultivada que impulsa el descubrimiento como la diversidad de perspectivas esenciales para una indagación significativa. A medida que los campos se inundan de hallazgos débiles y limitados, los avances genuinos se difuminan, dejando poco sobre lo cual reconstruir. Las instituciones científicas, impulsadas por la competencia, tienen enormes incentivos para sostener el progreso a través de la curiosidad, la diversidad y la confiabilidad, mientras que los editores están mejor posicionados para protegerse contra la mediocridad pulida con IA.
Más allá de estos obstáculos evidentes, sin duda surgirán nuevos problemas éticos y epistémicos. No obstante, si logramos abordarlos, la ciencia “después de la ciencia” podría confiar cada vez más en la IA para abordar problemas de larga data y caracterizar sistemas complejos, desde el cuerpo humano hasta los ecosistemas planetarios, integrando conocimientos de distintos campos y revirtiendo una deriva de un siglo de la síntesis al análisis. Esto requerirá y promoverá cambios en las experiencias científicas humanas y desplazamientos en las tareas, ambas cuestiones que pueden aumentar las oportunidades de teorizar sobre las regularidades observadas en los propios sistemas de IA, de forma bastante similar al ejercicio hermenéutico de interpretar el trabajo científico de los metahumanos imaginados por Chiang. La ciencia “después de la ciencia” debería seguir desplazando las fronteras de la comprensión humana, mientras que también se vuelve sobre sí misma como una ciencia de sombras, una que busque una autocomprensión más profunda acerca de qué valora la humanidad y de cómo superar límites humanos y capacidad de lograrlo.
James Evans es profesor Max Palevsky en el Departamento de Sociología, director del Laboratorio de Conocimiento y codirector de la iniciativa Novel Intelligence del Instituto de Ciencia de Datos de la Universidad de Chicago, y profesor externo en el Instituto Santa Fe, en Santa Fe, Nuevo México (EE.UU.).
Eamon Duede es profesor del Departamento de Filosofía de la Universidad Purdue, en West Lafayette, Indiana, con dedicación compartida en la División de Ciencia de Datos y Aprendizaje del Laboratorio Nacional Argonne, en Lemont, Illinois (EE. UU.)
Aclaración: J.E. tiene una relación comercial con Google como investigador invitado (25 % del tiempo). Google no ha tenido ninguna participación en la concepción, el desarrollo ni la decisión de publicar este manuscrito.
Notas
- (Nota de traducción) Publicado originalmente en la sección “Futures” de Science como “Catching crumbs from the table” (que podría traducirse como “Recogiendo las migas de la mesa”), fue incluido con el título “La evolución de la ciencia humana” en el primer libro de Chiang, La historia de tu vida (2002) que recopila sus ocho primeros relatos. La versión en castellano del cuento puede leerse aquí ↩︎︎
- (N. de trad.) Habría podido traducir, de manera más literal, “ciencia infundida con IA”, para aludir a uno de los significados más corrientes del verbo “infundir”, que es “echar un líquido en un recipiente”. Sin embargo, existe otro uso del término, con resonancias netamente religiosas. “Fe infundida” (o “fe infusa”, haciendo uso de una variante irregular del verbo) es, para el catolicismo, aquella que Dios deposita directamente en el alma, a diferencia de la “fe adquirida”, que se consigue a partir del hábito de realizar los actos de fe. Esta distinción es eje de una discusión teológico-filosófica centrada en la relación entre fe y entendimiento (o bien, fe y razón), impulsada por Tomás de Aquino y alimentada durante al menos tres siglos, hasta las posiciones sostenidas por Martín Lutero. La discusión incluye, explícitamente y desde el comienzo, la cuestión de la “ciencia infusa”, entendida como el instrumento –infundido por Dios– que le permite al ser humano desarrollar y perfeccionar su entendimiento.Sospecho que se vuelve evidente cómo, con toda esta carga conceptual y semántica, traducir “ciencia infundida (o infusa)” se vuelve problemático: puesto que de lo que se está hablando es, en términos generales, de “ciencia producida con IA”, decir “ciencia infundida” en castellano obliga, a diferencia del inglés, a utilizar una preposición: “ciencia infundida con IA” sería la opción más lógica, pero ¿no sería igualmente indicado decir “ciencia infundida por [la] IA”? A la antropomorfización al parecer insalvable del término “inteligencia artificial” se le estaría sumando de este modo una capa de sentido si cabe más equívoca y con ribetes teológicos, que por otro lado no podría asegurar que forma parte del horizonte conceptual del original. Por ello, y para mantener el carácter metafórico que “infused” posee, opté por utilizar “ciencia impregnada de IA”. ↩︎︎