Orientaciones sobre el uso de la IA en las publicaciones científicas

Los editores de siete revistas académicas publicaron recomendaciones sobre el uso responsable de herramientas de inteligencia artificial generativa por parte de autores, revisores y editores. Las recomendaciones prohíben que las herramientas de IA generativa sean consideradas como autores, pero permiten su uso para generar texto e ilustraciones.

Las cinco recomendaciones:

  • Las herramientas de IA generativa no deben figurar como autores en los artículos.
  • Los autores deben ser transparentes sobre el uso de la IA generativa, y los editores deben tener acceso a herramientas y estrategias para garantizar la transparencia de los autores.
  • Los editores y revisores no deben depender únicamente de la IA generativa para revisar los artículos enviados.
  • Los editores tienen la responsabilidad final de seleccionar revisores y deben ejercer una supervisión activa de esa tarea.
  • La responsabilidad final de la edición de un artículo recae en los autores y editores humanos.

Si bien estas recomendaciones son coherentes con las tomadas por COPE en su documento de discusión Artificial intelligence (AI) in decision making y muchos editores de revistas, difieren en algunos aspectos. Por un lado, abordan las responsabilidades de los revisores hacia los autores. Además, la nueva declaración toma una posición diferente a la de la revista Science, que sostiene que no solo una herramienta de IA generativa no puede ser considerada autora, sino que «el texto generado por ChatGPT (u otras herramientas de IA) no puede ser utilizado en el trabajo, ni pueden los gráficos, imágenes o ilustraciones ser producto de tales herramientas».

«Una prohibición así es demasiado amplia y puede ser imposible de hacer cumplir, en nuestra opinión», afirma la nueva declaración.

Las recomendaciones son preliminares. «No pretendemos haber resuelto las numerosas cuestiones sociales que creemos que la IA generativa plantea para la publicación académica, pero en aras de fomentar una conversación más amplia sobre estas cuestiones, hemos desarrollado un conjunto preliminar de recomendaciones sobre la IA generativa en la publicación académica», señala la declaración. «Esperamos que las recomendaciones y argumentos aquí establecidos ayuden a la comunidad académica a avanzar hacia una comprensión más profunda de las fortalezas, limitaciones y desafíos de la IA para el trabajo académico responsable».

Fuente: Kaebnick, Gregory E., David Christopher Magnus, Audiey Kao, Mohammad Hosseini, David Resnik, Veljko Dubljević, Christy Rentmeester, Bert Gordijn, y Mark J. Cherry. «Editors’ Statement on the Responsible Use of Generative AI Technologies in Scholarly Journal Publishing». Hastings Center Report n/a, n.o n/a. Accedido 2 de noviembre de 2023. https://doi.org/10.1002/hast.1507.