Aunque las editoriales han desarrollado políticas que requieren declaraciones sobre el uso de IA con el objetivo de mantener la integridad de la literatura científica, estas normas no están siendo efectivamente cumplidas: solo un porcentaje muy bajo de autores realmente declara haber usado IA en sus manuscritos. Esta brecha entre las expectativas formales de transparencia y la práctica real refleja, según el autor, varios factores humanos y estructurales que dificultan la declaración abierta de asistencia artificial en la escritura científica.
Una de las principales razones de esta falta de transparencia es el miedo de los investigadores a que la divulgación de uso de IA sea percibida negativamente por editores y revisores, lo que podría influir adversamente en la evaluación de la calidad, originalidad o rigor del trabajo. Aunque muchos investigadores usan IA para tareas como mejorar la redacción, sintetizar información o buscar literatura relevante, existe una percepción persistente de que tal uso podría ser interpretado como una forma de atajo o amenaza a la integridad académica, lo que crea un ambiente en el que los autores prefieren omitir estas declaraciones.
Otra barrera importante es la confusión y falta de claridad en las directrices editoriales: las políticas de las revistas y editoriales varían ampliamente sobre qué tipo de uso de IA debe ser declarado, cuándo hacerlo y cómo documentarlo. Algunos requisitos son vagos o excesivamente complejos, lo que genera incertidumbre en los autores respecto a si deben declarar, cómo hacerlo o si incluso es obligatorio. Esta ambigüedad, combinada con la carga adicional de trabajo que supone documentar exhaustivamente cada instancia de uso de IA y la ausencia de incentivos claros para hacerlo, contribuye a que muchos autores opten por no reportarlo.
Además, el artículo señala que algunos autores ni siquiera son conscientes del uso de IA en herramientas integradas en aplicaciones comunes (como asistentes de redacción en suites ofimáticas), lo que dificulta aún más la trazabilidad y divulgación de la asistencia artificial. También destaca una confusión extendida entre el uso de IA y el plagio, lo que lleva a algunos autores a tratar de ocultar signos de asistencia de IA en lugar de ser transparentes, con la intención de evitar evaluaciones negativas o fallos en las pruebas de detección.
Finalmente, si las editoriales no clarifican, educan y, sobre todo, repiensan cómo deben abordar el uso de IA, es probable que la falta de divulgación continúe. Las editoriales no deberían centrarse en herramientas de detección de IA —las cuales son poco fiables y pueden reforzar la idea de que el uso de IA es inaceptable— sino en proporcionar directrices claras, educar a la comunidad académica sobre prácticas responsables y crear políticas que reconozcan las distintas formas legítimas de asistencia de IA sin sacrificar la integridad de la investigación.
Staiman, Avi. Why Authors Aren’t Disclosing AI Use and What Publishers Should (Not) Do About It. The Scholarly Kitchen, January 27, 2026. Disponible en: https://scholarlykitchen.sspnet.org/2026/01/27/why-authors-arent-disclosing-ai-use-and-what-publishers-should-not-do-about-it/
El artículo analiza en profundidad hasta qué punto los metadatos de los datos de investigación pueden considerarse permanentes una vez que se les asigna un identificador persistente (DOI) a través de DataCite. En el contexto de la ciencia abierta, los metadatos son fundamentales porque permiten que los conjuntos de datos sean localizables, accesibles, interpretables y reutilizables. Sin embargo, a diferencia de los catálogos bibliotecarios tradicionales, los metadatos de los datos de investigación se crean y mantienen en entornos muy diversos, con prácticas desiguales y, en muchos casos, con un mantenimiento limitado a lo largo del tiempo. El estudio parte de la hipótesis de que, aunque los DOIs están pensados para ser persistentes, los metadatos que los acompañan pueden cambiar de forma significativa después de su publicación inicial.
Para examinar esta cuestión, el trabajo se centra en el análisis de millones de registros de metadatos asociados a conjuntos de datos publicados en 2021, observando su evolución durante los dos años siguientes. El enfoque metodológico se basa en el uso de información de procedencia de metadatos, lo que permite identificar qué elementos cambian, con qué frecuencia y en qué momento. Este enfoque empírico aporta una visión poco habitual en los estudios sobre metadatos, ya que no se limita a evaluar la calidad en un momento concreto, sino que estudia los cambios a lo largo del tiempo.
Los resultados muestran que la mayoría de los metadatos permanecen estables, lo que indica que, en términos generales, pueden considerarse suficientemente fiables para tareas como análisis bibliométricos o estudios de infraestructura científica. No obstante, una proporción relevante de registros sí experimenta modificaciones. Estas modificaciones suelen ser incrementales y puntuales, y afectan sobre todo a elementos como los nombres de los creadores, las descripciones del conjunto de datos o la incorporación de identificadores relacionados. En cambio, otros campos clave —como el título o el año de publicación— rara vez se modifican, lo que refuerza la idea de una estructura básica bastante fija.
El análisis temporal revela que los cambios se concentran en las primeras fases tras la publicación del DOI, lo que sugiere que muchos ajustes responden a correcciones o mejoras iniciales más que a un mantenimiento continuo a largo plazo. Además, el estudio detecta diferencias notables entre repositorios, lo que indica que no existe una práctica homogénea en la gestión de metadatos: algunos repositorios tienden a revisar y actualizar más sus registros, mientras que otros apenas los modifican una vez publicados.
En la discusión, el artículo plantea una reflexión crítica sobre el concepto de “permanencia” aplicado a los metadatos. Aunque estos son relativamente estables, no muestran una evolución sostenida que acompañe el ciclo de vida completo de los datos de investigación. Esto limita su potencial para reflejar nuevos usos, citas, relaciones o contextos científicos emergentes. El trabajo sugiere que, para mejorar la reutilización y el valor a largo plazo de los datos, sería necesario repensar las políticas y prácticas de mantenimiento de metadatos, promoviendo una actualización más activa y coherente.
El ministro del CITMA, Armando Rodríguez Batista, presentó la nueva legislación que calificó como «una ley con capacidad transformadora» y para todos.
De acuerdo con Rodríguez Batista, la norma busca que los resultados de la investigación trasciendan el ámbito académico y se materialicen en la economía, reconociendo a la empresa como un actor clave dentro de la “economía del conocimiento”. “Es una ley esencialmente incentiva, abre caminos, quita trabas, es inclusiva”, afirmó.
Con su aprobación, Cuba pretende dotarse de un instrumento legal que fomente una cultura de innovación, priorice la aplicación práctica del conocimiento y oriente los esfuerzos científicos y tecnológicos hacia la solución de problemas concretos y el desarrollo sostenible de la nación.
El documento se aprueba acompañado por tres nuevas normas, el decreto ley de la Academia de Ciencias de Cuba, las normas generales sobre innovaciones y racionalizaciones y el reglamento de la propia ley.
Si las obras generadas por IA se consideran elegibles para la protección de derechos de autor, la siguiente pregunta crítica es: ¿quién puede reclamar la autoría?
Usuarios de herramientas de IA generativa: La opinión predominante es que, de concederse, los derechos de autor probablemente pertenecerían a la persona física que utiliza activamente la herramienta de IA en su proceso creativo. Si un usuario proporciona instrucciones, entradas y sugerencias muy detalladas y específicas, moldeando eficazmente el resultado generado por IA para que refleje su visión creativa, podría ser reconocido como el autor. El factor clave es el grado de participación humana en la dirección y el perfeccionamiento del resultado.
Autores de obras protegidas por derechos de autor: Si una herramienta de IA se basa en material protegido por derechos de autor preexistente (ya sea subido por el usuario o extraído de fuentes públicas), el titular original de los derechos de dicho material podría tener derecho a reclamar el resultado. Sin embargo, las plataformas de IA generativa más utilizadas, como ChatGPT y Microsoft Copilot, prohíben explícitamente a los usuarios introducir contenido de terceros protegido por derechos de autor sin permiso, lo que dificulta dichas reclamaciones.
Desarrolladores y propietarios de herramientas de IA: El consenso legal sugiere que los desarrolladores de herramientas de IA no son los autores de los resultados generados por su software. Si bien pueden poseer derechos de propiedad intelectual sobre el propio software, no ejercen suficiente control creativo sobre los resultados individuales como para ser considerados autores. De igual manera, la mera propiedad de una herramienta de IA no confiere derechos sobre sus resultados, independientemente de cualquier posible disposición contraria en los acuerdos de usuario (cf. infra). Para hacer valer los derechos de autor ante los tribunales, el demandante debe demostrar que la obra está protegida por la ley de derechos de autor, lo que resultaría problemático para un proveedor de herramientas de IA que intentara reclamar la propiedad de todo el contenido generado por el usuario.
En la aplicación de la ley, surge una cuestión más compleja: ¿cómo puede un demandante demostrar la autoría de una obra generada por IA? Cuando se disputa la titularidad de los derechos de autor (una vez establecido que la obra es original), el demandante debe poder demostrar que efectivamente posee los derechos de autor de la obra, ya sea por ser la persona física que la creó o por haber adquirido los derechos del autor original.
En el derecho belga, por ejemplo, esta carga de la prueba se reduce considerablemente por el artículo XI.170(2) del Código de Derecho Económico (CDE), que establece que se presume que la autoría pertenece a la persona cuyo nombre o seudónimo aparece en la obra, salvo prueba en contrario.
Si bien esta presunción de autoría rara vez se ha litigado, las disputas podrían aumentar a medida que proliferan las obras generadas por IA. Es probable que los tribunales se enfrenten al reto de distinguir entre obras creadas por humanos y obras creadas por IA. Después de todo, la presunción del Artículo XI.170(2) de la CEL solo se aplica «salvo prueba en contrario». Si bien la aplicación de este artículo abre la puerta al abuso, parece difícil para los tribunales aumentar la carga de la prueba del demandante exigiéndole que demuestre que realmente creó la obra y que esta no fue creada por IA ni con su ayuda, lo que implicaría una prueba imposible y negativa que sería contraria al Artículo XI.170(2) de la CEL.
Dicho esto, el supuesto autor de una obra creada por IA puede estar violando los términos de uso de la herramienta de IA; por ejemplo, los términos de uso de ChatGPT prohíben explícitamente al usuario «representar que el resultado es generado por humanos cuando no lo es».
Los demandados por infracción también pueden tener dificultades para demostrar que una obra fue generada por IA y no creada por el demandante. Dado que las herramientas de IA pueden producir resultados diversos incluso a partir de indicaciones idénticas, será difícil, sin acceso directo a las indicaciones utilizadas, demostrar que un resultado en particular fue resultado de la IA y no de la creatividad humana.
Para complicar aún más las cosas, las plataformas de IA se eximen de responsabilidad por la singularidad de los resultados. Por ejemplo, las condiciones de ChatGPT de OpenAI reconocen explícitamente que varios usuarios podrían recibir resultados idénticos o similares, mientras que las condiciones de Copilot de Microsoft contienen disposiciones similares. Esto plantea interrogantes para los usuarios que buscan reclamar derechos sobre obras generadas por IA, especialmente en contextos comerciales.
El usuario también debe tener en cuenta que cualquier creación que suba a la herramienta puede ser utilizada por esta para generar otro contenido. Por ejemplo, las condiciones de uso de Microsoft Copilot establecen que Microsoft no se atribuye la propiedad del contenido enviado por el usuario, pero que al usar los servicios, el usuario autoriza a Microsoft, sus empresas afiliadas y socios externos a usar la información aportada en el desarrollo de sus negocios.
Los usuarios deben tener en cuenta que, al cargar contenido original creado por ellos mismos en una herramienta de IA, dicho contenido puede reutilizarse en resultados proporcionados a otros usuarios.
A la luz de estos desafíos, los creadores que utilizan IA deberían adoptar las mejores prácticas para fundamentar sus afirmaciones de autoría:
Mientras el panorama legal continúa evolucionando, estas medidas pueden ayudar a mitigar los riesgos y proporcionar pruebas más sólidas para las reclamaciones de derechos de autor. A medida que los tribunales comienzan a abordar estas cuestiones, los profesionales del derecho deben mantenerse alerta al evaluar cómo las obras generadas por IA se ajustan a los marcos de derechos de autor existentes.
Fierens A, Scheerlinck K. AI and authorship: Navigating copyright in the age of generative AI. Blog DLA Piper. 2025. Disponible en: https://www-dlapiper-com.translate.goog/en-us/insights/publications/2025/02/ai-and-authorship-navigating-copyright-in-the-age-of-generative-ai?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc&_x_tr_hist=true
| L | M | X | J | V | S | D |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | ||
| 6 | 7 | 8 | 9 | 10 | 11 | 12 |
| 13 | 14 | 15 | 16 | 17 | 18 | 19 |
| 20 | 21 | 22 | 23 | 24 | 25 | 26 |
| 27 | 28 | 29 | 30 | |||
© 1999 - 2026 Infomed - Centro Nacional de Información de Ciencias Médicas