PARÍS (FRANCIA). Errores e imprecisiones recientes en revistas científicas, como una imagen de una rata con un pene gigante o una imagen de una pierna humana con demasiados huesos, indican que el uso de la inteligencia artificial (IA) está cada vez más extendido en estas publicaciones, en detrimento de ella. .
Si los expertos entrevistados por la AFP reconocen el interés de herramientas como ChatGPT para la redacción de contenidos, especialmente en términos de traducción para investigadores cuya lengua materna no es el inglés, algunas revistas han realizado recientemente ediciones que señalan prácticas deshonestas.
Leer más: La IA no puede reemplazar a los jueces en la toma de decisiones
A principios de año, una ilustración de un ratón con genitales de gran tamaño se compartió ampliamente en las redes sociales. lo que llevó a la retractación de un estudio publicado en la revista por un periodista de Frontiers University, una importante empresa en este campo.
El mes pasado, otro estudio se retractó después de presentar imágenes de una pierna humana con más huesos. de lo normal.
Leer más: Demanda austriaca contra ChatGPT por «no corregir» sus errores
Pero más allá de estos errores visuales, las mayores fluctuaciones en este campo provienen de ChatGPT, un programa conversacional desarrollado por la empresa estadounidense OpenAI.
En marzo, un artículo publicado por el grupo editorial científico británico Elsevier se volvió viral debido a su apertura «Por supuesto, esto puede ser una introducción a. tu tema», la fórmula típica de una respuesta de ChatGPT.
Estos errores, que están fuera del control de los expertos responsables de revisar la investigación, son raros y probablemente no pasarían los filtros de la mayoría revistas prestigiosas, dijeron a la AFP varios expertos.
El uso de la IA es a menudo difícil de detectar, pero parece estar aumentando en la literatura científica.
Andrew Gray, bibliotecario de El University College de Londres ha rastreado millones de artículos científicos en busca de palabras como «elaborado», «complejo» o «encomiable», palabras de las que la IA a menudo abusa.
. Según él, en 2023 se crearon al menos 60.000 artículos con ayuda de la IA, lo que equivale al 1% de la producción anual, y en 2024 estas cifras tendrán un «aumento significativo». Por otro lado, la Asociación Americana de Vigilancia de Retracciones observó un récord de 13.000 retracciones en el campo científico en 2023, nunca antes visto.
Para Ivan Oransky, según los cofundadores de esta organización, La IA ahora puede «industrializar» la producción de investigaciones «engañosas» a través de «fábricas de productos».
Estos centros de producción en masa producen muchos productos de mala calidad, plagiados o falsos, dice un microbiólogo holandés especializado en detectando imágenes falsas, Elisabeth Bik.
Alentadas por los investigadores a producir más, estas «fábricas» serán la fuente de dos estudios publicados, pero el número está «disparándose» debido a la IA, estima.
Para Oransky, la IA plantea un «problema abrumador»: la demanda insaciable de artículos por parte de editoriales y universidades ejerce una intensa presión sobre los investigadores, evaluados según sus productos, creando así un «círculo vicioso».
Al mismo tiempo, las protecciones contra estas “fábricas” de investigación son insuficientes
El problema de estas estafas masivas se destacó después de que Hindawi se hiciera cargo de la publicación. casa de la empresa estadounidense Wiley en 2021, que eliminó aproximadamente 11.300 artículos publicados anteriormente por la empresa.
Para intentar abordar este creciente problema, Wiley ha creado un “detector de fábrica de productos de servicio” de abuso de IA. . Paradójicamente, este programa se basa precisamente en la IA.
Pero la semana pasada, un investigador estadounidense descubrió lo que parece ser una versión reescrita de ChatGPT de uno de sus propios artículos, publicado en Wiley .
Samuel Payne, profesor de bioinformática de la Universidad Brigham Young de Estados Unidos, dijo a la AFP que solicitó la verificación del estudio en marzo.
Después de recibirlo se dio cuenta de que se trataba de un «plagio» de su propio trabajo reescrito por AI, se negó a aprobar su publicación.
Payne dijo que estaba «sorprendido» al notar que, debido a la eliminación del artículo, el trabajo plagiado simplemente se publica en otra revista.