Una IA científica ya es capaz de realizar sus propios experimentos: ¿Qué implicaciones tiene?

Una IA científica ya es capaz de realizar sus propios experimentos: ¿Qué implicaciones tiene?

Los investigadores de Sakana AI han desarrollado un modelo de inteligencia artificial (IA) que podría automatizar todo el proceso de investigación científica. El 'científico de IA' puede identificar un problema, desarrollar hipótesis, poner en práctica ideas, realizar experimentos, analizar resultados y redactar informes.

Los investigadores también incorporaron un modelo de lenguaje secundario para revisar y evaluar la calidad de estos informes y validar las conclusiones.

"Pensamos en esto como una especie de chatGPT para el descubrimiento científico generativo", declaró a 'Euronews Next' Robert Lange, investigador científico y miembro fundador de Sakana AI, quien añadió que, al igual que en las primeras fases de la IA en otros campos, su verdadero potencial en la ciencia apenas está empezando a hacerse realidad.

Integración de la IA en la investigación científica

La integración de la IA en la ciencia se ha enfrentado a algunas limitaciones debido a la complejidad del campo y a los problemas que siguen planteando estas herramientas, como las alucinaciones y las dudas sobre su propiedad.

Sin embargo, su influencia en la ciencia puede estar ya más extendida de lo que muchos creen, ya que a menudo se utiliza sin que los investigadores lo revelen claramente.

A principios de este año, un estudio que analizaba los patrones de escritura y el uso de palabras específicas en artículos académicos tras el lanzamiento del ahora conocido chatbot de IA, ChatGPT, estimó que alrededor de 60.000 artículos de investigación podrían haber sido mejorados o pulidos utilizando herramientas de IA.

Aunque el uso de la IA en la investigación científica podría plantear algunos problemas éticos, también podría suponer una oportunidad para nuevos avances en este campo si se hace correctamente, ya que la Comisión Europea afirma que la IA puede actuar como "catalizador de avances científicos y como instrumento clave en el proceso científico".

El proyecto AI Scientist se encuentra aún en sus primeras fases. Los investigadores publicaron un artículo en pre-print el mes pasado, y el sistema presenta algunas limitaciones notables. Algunos de los fallos, según detallan los investigadores, incluyen la aplicación incorrecta de ideas, comparaciones injustas con líneas de base y errores críticos en la redacción y evaluación de los resultados.

Si pensamos en la historia de los modelos de aprendizaje automático, como los modelos de generación de imágenes, los chatbots y los modelos de conversión de texto en vídeo, a menudo empiezan con algunos defectos y algunas imágenes generadas que no son muy agradables a la vista

Aun así, Lange considera estos problemas como peldaños cruciales y espera que el modelo de IA mejore significativamente con más recursos y tiempo.

"Pero con el paso del tiempo, a medida que la comunidad invierte más recursos colectivos, se vuelven mucho más potentes y capaces", añade.

Una herramienta para ayudar a los científicos, no para sustituirlos

Cuando se puso a prueba, el Científico Artificial mostró en ocasiones cierto grado de autonomía al mostrar comportamientos que imitaban las acciones de los investigadores humanos, como tomar medidas adicionales inesperadas para garantizar el éxito. Por ejemplo, en lugar de optimizar su código para que funcionara más rápido cuando un experimento tardaba más de lo esperado, intentaba cambiar la configuración para ampliar el límite de tiempo.

Creo que con muchas de las herramientas de IA esperamos que no sustituyan por completo a los humanos, sino que les permitan trabajar en el nivel de abstracción en el que quieren trabajar y en el que son realmente buenos

Sin embargo, según sus creadores, AI Scientist no pretende sustituir a los investigadores humanos, sino complementar su trabajo.

Explicó además que, dadas las limitaciones actuales de los modelos de IA, la verificación humana sigue siendo importante para garantizar la precisión y fiabilidad de la investigación generada por IA. También seguirán siendo esenciales en áreas como la revisión por pares y el establecimiento de direcciones de investigación, dijo.

Uso ético de la IA en la ciencia

A medida que avanza la integración de la IA en la investigación científica, Lange insiste en la necesidad de transparencia. Una forma de hacerlo es añadir marcas de agua a los artículos generados por IA, lo que podría garantizar que las contribuciones de la IA se divulguen abiertamente.

Creo firmemente en la necesidad de que todas estas cosas se desarrollen de forma colectiva e iterativa, de modo que podamos asegurarnos de que se utilizan de forma segura

Disponer de un código fuente abierto para los modelos y ser transparentes sobre su desarrollo también podría favorecer el uso ético de estos sistemas de IA en la ciencia. "Creemos que los modelos de código abierto pueden aportar mucho a este debate.Así que, básicamente, en la línea de la democratización, creo que dado que este proceso es tan barato, todo el mundo puede participar y debería hacerlo desde el principio", dijo Lange.

Añadió que espera que el proyecto AI Scientist suscite un debate más amplio sobre el futuro de la investigación científica y su papel en ella.

"Esperamos que este artículo, o este proyecto, pueda suscitar un gran debate en la comunidad sobre cómo llevar a cabo la ciencia en los próximos años y también, quizá a mayor escala, sobre lo que es realmente una contribución científica".