ChatGPT sigue acaparando protagonismo, más de un año después de su debut público. El chatbot de inteligencia artificial (IA) fue lanzado como una herramienta de uso gratuito en noviembre de 2022 por la empresa de tecnología OpenAI en San Francisco, California. Dos meses después, ChatGPT ya había aparecido como autor en un puñado de artículos de investigación. Las editoriales académicas se apresuraron a anunciar políticas sobre el uso de ChatGPT y otros grandes modelos de lenguaje (LLM) en el proceso de escritura. En octubre pasado, 87 de las 100 principales revistas científicas habían proporcionado orientación a los autores sobre el uso de la IA generativa, que puede crear texto, imágenes y otros contenidos, informaron los investigadores el 31 de enero en The BMJ. Pero esa no es la única forma en que ChatGPT y otros LLM han comenzado a cambiar la escritura científica. En el entorno competitivo de la academia, cualquier herramienta que permita a los investigadores “producir más publicaciones va a ser una propuesta muy atractiva”, dice el investigador de innovación digital Savvas Papagiannidis de la Universidad de Newcastle en Newcastle upon Tyne, Reino Unido.
La IA generativa sigue mejorando, por lo que los editores, las agencias de financiación de subvenciones y los científicos deben considerar qué constituye el uso ético de los LLM y qué dice la dependencia excesiva de estas herramientas sobre un panorama de investigación que fomenta la hiperproductividad. En el pasado, los investigadores solían necesitar experiencia para utilizar los LLM avanzados. Ahora, GPT ha democratizado eso hasta cierto punto.
Esta democratización ha catalizado el uso de los LLM en la escritura de investigación. En una encuesta de Nature de 2023 realizada a más de 1600 científicos, casi el 30% dijo que había utilizado herramientas de IA generativa para ayudar a escribir manuscritos, y alrededor del 15% dijo que las había utilizado para ayudar a redactar solicitudes de subvenciones. Y los LLM tienen muchos otros usos. Pueden ayudar a los científicos a escribir código, generar ideas de investigación y realizar revisiones bibliográficas. Los LLM de otros desarrolladores también están mejorando: Gemini de Google, por ejemplo, y Claude 2 de Anthropic, una empresa de inteligencia artificial en San Francisco. Los investigadores con las habilidades adecuadas pueden incluso desarrollar sus propios LLM personalizados que se ajusten a su estilo de escritura y campo científico.
Alrededor del 55% de los encuestados por Nature consideraron que uno de los principales beneficios de la IA generativa es su capacidad para editar y traducir escritos para investigadores cuya lengua materna no es el inglés. Del mismo modo, en una encuesta realizada por el Consejo Europeo de Investigación (ERC, por sus siglas en inglés), que financia la investigación en la Unión Europea, el 75 % de los más de 1000 beneficiarios de subvenciones del ERC consideraron que la IA generativa reduciría las barreras lingüísticas en la investigación para 2030, según un informe publicado en diciembre.
De los encuestados por el CEI, el 85 % pensaba que la IA generativa podría asumir tareas repetitivas o intensivas en mano de obra, como las revisiones bibliográficas. Y el 38% consideró que la IA generativa promovería la productividad en la ciencia, por ejemplo, ayudando a los investigadores a escribir artículos a un ritmo más rápido.
Aunque el resultado de ChatGPT puede ser convincentemente similar al humano, Weber-Wulff advierte que los LLM aún pueden cometer errores lingüísticos que los lectores pueden notar. Esa es una de las razones por las que aboga porque los investigadores reconozcan el uso de LLM en sus artículos. Los chatbots también son conocidos por generar información fabricada, llamada alucinaciones. ChatGPT y otras herramientas de IA podrían alterar la publicación científica. Y hay un inconveniente en el aumento de la productividad que pueden aportar los LLM. Acelerar el proceso de redacción de artículos podría aumentar el rendimiento de las revistas, lo que podría hacer que los editores y revisores sean aún más finos de lo que ya son. Junto con los investigadores que utilizan abiertamente los LLM y lo reconocen, algunos utilizan silenciosamente las herramientas para producir investigaciones de bajo valor. Ya es difícil examinar el mar de artículos publicados para encontrar investigaciones significativas. Si ChatGPT y otros LLM aumentan la producción, esto resultará aún más difícil. El modelo actual de “publicar o perecer” recompensa a los investigadores por publicar constantemente artículos. Pero muchas personas argumentan que esto debe cambiar hacia un sistema que priorice la calidad sobre la cantidad. Por ejemplo, dice Weber-Wulff, la Fundación Alemana de Investigación permite a los solicitantes de subvenciones incluir solo diez publicaciones en una propuesta.
Según el estudio publicado en The BMJ, 24 de las 100 editoriales más grandes del mundo, responsables colectivamente de más de 28 000 revistas, habían proporcionado hasta octubre pasado orientación sobre la IA generativa. Las revistas con políticas de IA generativa tienden a permitir cierto uso de ChatGPT y otros LLM, siempre que se reconozcan adecuadamente. Springer Nature, por ejemplo, establece que el uso de LLM debe documentarse en los métodos u otra sección del manuscrito, una directriz introducida en enero de 2023. Sin embargo, las herramientas de IA generativa no satisfacen los criterios de autoría, porque eso “conlleva la responsabilidad del trabajo, y las herramientas de IA no pueden asumir esa responsabilidad”.
Hacer cumplir estas reglas es más fácil de decir que de hacer, porque el texto generado por IA no revelado puede ser difícil de detectar para los editores y los revisores. Algunos detectives lo han detectado a través de frases sutiles y malas traducciones. A diferencia de los casos de plagio, en los que hay una fuente clara, no se puede probar que algo haya sido escrito por IA.
Aunque a partir de noviembre, la Asociación Estadounidense para el Avance de la Ciencia, que publica Science, permite cierto uso divulgado de la IA generativa en la preparación de manuscritos, todavía prohíbe el uso de LLM durante la revisión por pares. Springer Nature prohíbe a los revisores pares cargar manuscritos en herramientas de IA generativa.
Algunas agencias de financiación de subvenciones, como los Institutos Nacionales de Salud de EE.UU. y el Consejo Australiano de Investigación, prohíben a los revisores utilizar la IA generativa para ayudar a examinar las solicitudes de subvenciones debido a preocupaciones sobre la confidencialidad (las propuestas de subvenciones se tratan como documentos confidenciales y otras personas pueden acceder a los datos introducidos en los LLM públicos). Pero el Consejo Científico del CEI, que gobierna el CEI, emitió una declaración en diciembre en la que reconocía que los investigadores utilizan tecnologías de IA, junto con otras formas de ayuda externa, para preparar propuestas de subvención.
Como toda fórmula de progreso, la IA se acabará usando para lo que cada cual decida, incluyendo el crimen, el fraude, la sobreproducción científica innecesaria, fabricar resultados inexistentes y ocultar la infidelidad conyugal. Toda ley tiene su trampa legal.
McKenzie Prillaman. Is ChatGPT making scientists hyper-productive? The highs and lows of using AI. Nature.doi: https://doi.org/10.1038/d41586-024-00592-w
Ganjavi, C. et al. BMJ 384, e077192 (2024).
ERC. Foresight: Use and Impact of Artificial Intelligence in the Scientific Process (European Research Council, 2023).