Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre chatbots e inteligencia artificial generativa en relación con las publicaciones académicas

Los chatbots almacenan la información proporcionada, como el contenido y las instrucciones, y pueden utilizarla en respuestas futuras. Esto implica que el contenido académico generado o editado mediante IA puede permanecer y aparecer en futuras respuestas, lo que aumenta el riesgo de plagio involuntario tanto para el usuario como para los futuros usuarios de la tecnología. Es importante que cualquier persona que necesite mantener la confidencialidad de un documento, incluyendo autores, editores y revisores, sea consciente de este problema antes de considerar el uso de chatbots para editar o generar trabajos.

Sin embargo, los chatbots pueden utilizarse para tareas sencillas de tratamiento de textos (similares a los programas de tratamiento de textos y corrección gramatical), generación de ideas y textos o investigación sustantiva. Las recomendaciones se han adaptado para dar cabida a estas distintas aplicaciones.

1) Solo los humanos pueden ser autores;

2) Los autores deben reconocer las fuentes de sus materiales;

3) Los autores deben asumir la responsabilidad pública de su trabajo;

4) Los editores y revisores deben informar a los autores y entre sí sobre el uso de chatbots en la evaluación de manuscritos, revisiones y correspondencia;

5) Los editores requieren herramientas digitales adecuadas para abordar los efectos de los chatbots en la publicación.

Recomendación 1 de WAME: Los chatbots no pueden ser autores.

Las revistas han empezado a publicar artículos en los que se han utilizado chatbots como Bard, Bing y ChatGPT, y algunas revistas incluyen a los chatbots como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los chatbots no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar «la aprobación final de la versión que se publicará» y «ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.» Ninguna herramienta de IA puede «entender» una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los chatbots no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los chatbots no pueden incluirse como autores.

Recomendación 2 de WAME: Los autores deben ser transparentes cuando se utilizan chatbots y proporcionar información sobre cómo se utilizaron.

Debe indicarse el alcance y el tipo de uso de chatbots en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados.

  • Recomendaciones de WAME 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/AI para redactar un nuevo texto deben indicar dicho uso en el agradecimiento; se deben especificar todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.
  • Recomendación 2.2 de WAME: Cuando se utilice una herramienta de IA, como un chatbot, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. Con el fin de permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, debe facilitarse la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, así como la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluida la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el chatbot). Los autores de artículos escritos con la ayuda de un chatbot son responsables del material generado por el chatbot, incluida su exactitud. Hay que tener en cuenta que el plagio es «la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias», y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el chatbot utilizado y la pregunta específica (enunciado de la consulta) utilizada con el chatbot. Deben especificar qué han hecho para mitigar el riesgo de plagio, ofrecer una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan chatbots en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME: Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los chatbots llevan este desafío a un nuevo nivel. Los editores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen posibles daños a las personas.

Tomado de Universo Abierto

Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications, WAME (World Association of Medical Editors) Revised May 31, 2023.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

code

  • Por secciones

  • Por fecha

    junio 2023
    L M X J V S D
     1234
    567891011
    12131415161718
    19202122232425
    2627282930