La escritura de artículos científicos con o por Chatbots de Inteligencia Artificial ya es una realidad

“Hay que prepararse porque podrían amentar los artículos fraudulentos” WAME

 

La semana pasada la World Association of Medical Editors (WAME) publicó sus “Recomendaciones sobre ChatGPT y chatbots en relación con las publicaciones académicas” en respuesta a la noticia publicada en la revista Nature que señalaba que el nuevo chatbot de inteligencia artificial (IA) ChatGPT-3 lanzado en noviembre de 2022 aparecía ya en al menos cuatro trabajos como autor de artículos y preprints publicados.

ChatGPT-3 (generative pre-trained transformer) es una herramienta de uso gratuito de la empresa tecnológica OpenAI de San Francisco (California). Este bot utiliza sistemas de procesamiento del lenguaje natural (PNL) basados en inteligencia artificial (IA) y entre sus muchas utilidades, está la posibilidad de escribir o apoyar la escritura de un artículo científico mediante el uso de un corpus de datos de artículos científicos existentes.

El modelo ChatGPT-3 puede generar textos que siguen el estilo y el lenguaje de los artículos científicos existentes, y es que, aunque los programas informáticos (como MS WORD) llevan muchos años incorporando funciones automatizadas de edición de texto (como la revisión de la ortografía y la gramática), solo hasta ahora aparece la posibilidad de crear contenidos tan fácilmente, lo que supone que pronto podría utilizarse ampliamente en muchas formas de escritura, incluidas las publicaciones científicas y académicas.

No obstante, desde WAME se señala que aunque ChatGPT puede resultar una herramienta útil para las personas investigadoras, representa una amenaza para las revistas científicas porque los artículos generados por ChatGPT pueden introducir contenidos falsos o plagiados en la literatura publicada, y la revisión por pares puede no detectar el contenido generado por ChatGPT. Los más conocedores de la herramienta desconfían; como lo pone de manifiesto que uno de los congresos más importantes de IA prohibió el uso de ChatGPT y otras herramientas de lenguaje de IA para las ponencias.

Aunque los sistemas de PNL siguen aprendiendo a medida que reciben y procesan datos más allá de sus datos de formación iniciales, no «conocen» el significado o el valor de verdad del texto que reciben, procesan y generan. Su función es simplemente generar salidas de texto comprensibles (es decir, gramaticalmente correctas) y apropiadas (es decir, altamente probables) en respuesta a entradas de texto. Visto de otro modo, los chatbots pueden ayudar a producir artículos fraudulentos, lo cual va en contra de la propia filosofía de la ciencia.

Todo esto implica que los editores y editoras deberemos establecer políticas sobre el uso de dicha tecnología y requerir a las empresas editoriales el uso de herramientas que sean capaces de detectar el contenido que genera, y actualizar las normas de autoría. Las recomendaciones de WAME que se presentan a continuación ayudarán a este propósito.

  1. Los chatbots no pueden ser autores porque no pueden cumplir varios de los requisitos de autoría del ICMJE, en particular «Ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo, se investiguen y resuelvan adecuadamente.» Un chatbot no puede entender una declaración de conflicto de intereses, ni tener capacidad legal para firmar una declaración.
  2. Los autores y autoras deben ser transparentes cuando utilicen chatbots y proporcionar información sobre cómo los han utilizado. Se debe declarar este hecho y las especificaciones técnicas completas del chatbot utilizado (nombre, versión, modelo, fuente) y el método de aplicación en el artículo que están presentando (consulta, sintaxis). Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción.
  3. Los autores y autoras son responsables del trabajo realizado por un chatbot incluida la exactitud de lo que se presenta y la ausencia de plagio y de la atribución adecuada de todas las fuentes utilizadas por el chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en su salida, es deber de los autores y autoras encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos.
  4. Los equipos editoriales necesitan herramientas que ayuden a detectar contenidos generados o alterados por la IA, disponibles independientemente de su capacidad de pago. Los editores y editoras necesitamos acceder a herramientas que ayuden a evaluar los contenidos con eficacia y precisión y deberían ser gratuitas o su pago asumido por terceros, por el bien de la ciencia y de la ciudadanía mundial.

Para terminar este post, le he requerido a chatGPT que me escriba un texto donde se indique cuáles son las limitaciones éticas del uso de un modelo de lenguaje como ChatGPT como autor de un artículo científico. He obtenido la siguiente respuesta:

“En primer lugar, el modelo no tiene conciencia ni capacidad de comprender el contenido del artículo, por lo tanto, no puede tomar decisiones éticas ni tener responsabilidad por el contenido del mismo.

En segundo lugar, el uso de un modelo de lenguaje para escribir un artículo científico podría ser considerado como plagio, ya que el trabajo no es original y no se está dando crédito a los verdaderos autores de las ideas y conocimientos utilizados en el artículo.

Además, el uso de un modelo de lenguaje para escribir un artículo científico podría dar lugar a una mayor desconfianza en el contenido de la investigación y en la validez de los hallazgos presentados.

En tercer lugar, el uso de un modelo como ChatGPT para escribir un artículo científico, podría hacer que la comunidad científica se pregunte sobre la calidad ética de la investigación si se llega a sospechar que el trabajo no es original.

En resumen, aunque ChatGPT es un modelo de lenguaje muy avanzado, su uso como autor de un artículo científico presenta varias limitaciones éticas, como la falta de conciencia y responsabilidad, la posibilidad de plagio y la desconfianza en la validez de la investigación”

Parece un texto válido y conciso a lo que se ha mencionado antes. La IA generativa está aquí y aunque no es seguro que vaya a transformar la creación de conocimiento humano como algunos auguran, desde Gaceta Sanitaria estaremos atentos a sus avances y usos. Hay revistas como Cureus o Acountability in research que han abierto recientemente llamadas a artículos, lo cual permitirá seguir reflexionando sobre esto y ver su alcance.

 

 

Clara Bermúdez Tamayo

Directora Asociada Revista Gaceta Sanitaria.

Directora Técnica Observatorio de Salud y Medio Ambiente de Andalucía. Escuela Andaluza de Salud Pública