Springer Nature: ChatGPT no puede acreditarse como autor

CIUDAD DE MÉXICO, enero 27 (EL UNIVERSAL).- Springer Nature, la editorial académica más grande del mundo, aclaró recientemente sus políticas sobre el uso de herramientas de escritura de IA en artículos científicos.

La compañía anunció esta semana que software como ChatGPT no puede ser acreditado como autor en artículos publicados en sus miles de revistas. Sin embargo, Springer dice que no tiene ningún problema con los científicos que usan IA para ayudar a escribir o generar ideas para la investigación, siempre que los autores divulguen adecuadamente esta contribución.

"Nos sentimos obligados a aclarar nuestra posición: para nuestros autores, para nuestros editores y para nosotros mismos", señaló al medio especializado The Verge, Magdalena Skipper, editora en jefe de la publicación insignia de Springer Nature, Nature.

"Esta nueva generación de herramientas LLM, incluido ChatGPT, realmente se ha expandido en la comunidad, que está emocionada y jugando con ellas, pero [también] usándolas de maneras que van más allá de cómo se pueden usar genuinamente en la actualidad".

ChatGPT y modelos de lenguaje extenso (LLM) anteriores ya han sido nombrados como autores en una pequeña cantidad de artículos publicados, preprints y artículos científicos. Sin embargo, la naturaleza y el grado de contribución de estas herramientas varían según el caso.

En un artículo de opinión publicado en la revista Oncoscience, ChatGPT se usa para argumentar a favor de tomar un medicamento determinado en el contexto de la apuesta de Pascal, con el texto generado por IA claramente etiquetado.

Pero en un documento preliminar que examina la capacidad del bot para aprobar el Examen de Licencias Médicas de los Estados Unidos (USMLE), el único reconocimiento de la contribución del bot es una oración que dice que el programa "contribuyó a la redacción de varias secciones de este manuscrito".

En el último documento de preimpresión, no hay más detalles sobre cómo o dónde se utilizó ChatGPT para generar texto.

Sin embargo, el CEO de la compañía que financió la investigación, la startup de atención médica Ansible Health, argumentó que el bot hizo contribuciones significativas.

"La razón por la que incluimos a [ChatGPT] como autor fue porque creemos que en realidad contribuyó intelectualmente al contenido del artículo y no solo como un tema para su evaluación", dijo el CEO de Ansible Health, Jack Po, a Futurism.

La reacción en la comunidad científica a los artículos que acreditan a ChatGPT como autor ha sido predominantemente negativa, y los usuarios de las redes sociales calificaron la decisión en el caso USMLE de "absurda", "tonta" y "profundamente estúpida".

Argumentos en contra

Los argumentos en contra de otorgar la autoría de la IA son que el software simplemente no puede cumplir con los deberes requeridos, como explican Skipper y Springer Nature.

"Cuando pensamos en la autoría de artículos científicos, de artículos de investigación, no solo pensamos en escribirlos", dice Skipper. "Hay responsabilidades que se extienden más allá de la publicación y, ciertamente, en este momento estas herramientas de IA no son capaces de asumir esas responsabilidades".

El software no puede ser significativamente responsable de una publicación, no puede reclamar derechos de propiedad intelectual por su trabajo y no puede comunicarse con otros científicos y la prensa para explicar y responder preguntas sobre su trabajo.

Sin embargo, si existe un amplio consenso sobre acreditar a AI como autor, hay menos claridad sobre el uso de herramientas de AI para escribir un artículo, incluso con el reconocimiento adecuado.

Esto se debe en parte a problemas bien documentados con el resultado de estas herramientas. El software de escritura de IA puede amplificar los sesgos sociales como el sexismo y el racismo y tiene una tendencia a producir "tonterías plausibles": información incorrecta presentada como un hecho.

Debido a problemas como estos, algunas organizaciones han prohibido ChatGPT, incluidas escuelas, universidades y sitios que dependen de compartir información confiable, como programar el repositorio de preguntas y respuestas Stack Overflow.