Una IA científica ya es capaz de realizar sus propios experimentos

Han desarrollado una IA capaz de realizar susu propios experimentos y estudios científicos. ¿Qué significará esto para la ciencia?

Los investigadores de Sakana AI han desarrollado un modelo de inteligencia artificial (IA) que podría automatizar todo el proceso de investigación científica. El 'científico de IA' puede identificar un problema, desarrollar hipótesis, poner en práctica ideas, realizar experimentos, analizar resultados y redactar informes.

 

Los investigadores también incorporaron un modelo de lenguaje secundario para revisar y evaluar la calidad de estos informes y validar las conclusiones.

 

"Pensamos en esto como una especie de chatGPT para el descubrimiento científico generativo", declaró a 'Euronews Next' Robert Lange, investigador científico y miembro fundador de Sakana AI, quien añadió que, al igual que en las primeras fases de la IA en otros campos, su verdadero potencial en la ciencia apenas está empezando a hacerse realidad.

 

La integración de la IA en la ciencia se ha enfrentado a algunas limitaciones debido a la complejidad del campo y a los problemas que siguen planteando estas herramientas, como las alucinaciones y las dudas sobre su propiedad.

 

Sin embargo, su influencia en la ciencia puede estar ya más extendida de lo que muchos creen, ya que a menudo se utiliza sin que los investigadores lo revelen claramente.

 

A principios de este año, un estudio que analizaba los patrones de escritura y el uso de palabras específicas en artículos académicos tras el lanzamiento del ahora conocido chatbot de IA, ChatGPT, estimó que alrededor de 60.000 artículos de investigación podrían haber sido mejorados o pulidos utilizando herramientas de IA.

 

Aunque el uso de la IA en la investigación científica podría plantear algunos problemas éticos, también podría suponer una oportunidad para nuevos avances en este campo si se hace correctamente, ya que la Comisión Europea afirma que la IA puede actuar como "catalizador de avances científicos y como instrumento clave en el proceso científico".

 

El proyecto AI Scientist se encuentra aún en sus primeras fases. Los investigadores publicaron un artículo en pre-print el mes pasado, y el sistema presenta algunas limitaciones notables. Algunos de los fallos, según detallan los investigadores, incluyen la aplicación incorrecta de ideas, comparaciones injustas con líneas de base y errores críticos en la redacción y evaluación de los resultados.

 

Si pensamos en la historia de los modelos de aprendizaje automático, como los modelos de generación de imágenes, los chatbots y los modelos de conversión de texto en vídeo, a menudo empiezan con algunos defectos y algunas imágenes generadas que no son muy agradables a la vista

 


Aun así, Lange considera estos problemas como peldaños cruciales y espera que el modelo de IA mejore significativamente con más recursos y tiempo.

 

"Pero con el paso del tiempo, a medida que la comunidad invierte más recursos colectivos, se vuelven mucho más potentes y capaces", añade.

 

Cuando se puso a prueba, el Científico Artificial mostró en ocasiones cierto grado de autonomía al mostrar comportamientos que imitaban las acciones de los investigadores humanos, como tomar medidas adicionales inesperadas para garantizar el éxito. Por ejemplo, en lugar de optimizar su código para que funcionara más rápido cuando un experimento tardaba más de lo esperado, intentaba cambiar la configuración para ampliar el límite de tiempo.

 

Sin embargo, según sus creadores, AI Scientist no pretende sustituir a los investigadores humanos, sino complementar su trabajo.

 

Explicó además que, dadas las limitaciones actuales de los modelos de IA, la verificación humana sigue siendo importante para garantizar la precisión y fiabilidad de la investigación generada por IA. También seguirán siendo esenciales en áreas como la revisión por pares y el establecimiento de direcciones de investigación, dijo.

 

 

 

Euronews
 

Más noticias