La revista científica australiana Cosmos ha sido duramente criticada este jueves por la publicación de una serie de artículos generados por inteligencia artificial (IA). Especialistas han señalado que estos textos son inexactos o simplificados en exceso, lo que ha despertado preocupaciones sobre la precisión y calidad de la información divulgada.
Cosmos, publicada por una agencia científica respaldada por el gobierno australiano, utilizó el programa ChatGPT-4 de OpenAI para producir seis artículos en el último mes. Aunque la revista reconoció públicamente el uso de IA, la Asociación Australiana de Periodistas Científicos expresó serias preocupaciones sobre los resultados obtenidos.
Jackson Ryan, presidente de la asociación, declaró a AFP que en uno de los artículos titulado "¿Qué sucede con nuestros cuerpos después de la muerte?", las descripciones del proceso científico eran incorrectas o estaban demasiado simplificadas. Ryan mencionó que, por ejemplo, se afirmaba que el rigor mortis ocurre entre tres y cuatro horas después de la muerte, una declaración que contradice investigaciones científicas más matizadas.
Otro ejemplo señalado por Ryan fue la descripción del proceso de autólisis, donde las células se destruyen por sus propias enzimas. El artículo generador por IA afirmaba que las células "se autodestruyen", lo que Ryan consideró una descripción inadecuada del complejo proceso biológico.
En respuesta a las críticas, un portavoz de la agencia nacional de ciencia que publica Cosmos aseguró que el contenido generado por IA fue revisado por un comunicador científico entrenado y posteriormente editado por el equipo editorial de la revista. Sin embargo, la revista se comprometió a seguir evaluando el uso de la inteligencia artificial en futuras publicaciones.
Gail MacCallum, exeditora de Cosmos, declaró a la ABC de Australia que, aunque es una "gran defensora de la exploración de la IA", la creación de artículos utilizando esta tecnología está "fuera de su zona de confort". Por otro lado, Ian Connellan, también exeditor de la revista, comentó a la ABC que no fue informado sobre el proyecto y que, de haberlo sabido, habría advertido que era "una mala idea".
La controversia destaca las crecientes preocupaciones sobre el uso de herramientas de inteligencia artificial en la producción de contenido informativo. Si bien la IA ofrece nuevas posibilidades para la creación de contenido, expertos insisten en la necesidad de una revisión humana rigurosa para garantizar la precisión y la integridad de la información publicada. Según AFP, la revista se encuentra actualmente revisando su política sobre el uso de IA en la creación de artículos.