Tecnología

La inteligencia artificial es capaz de combinar conceptos iguales, que la mente humana

Durante los últimos 35 años se ha consolidado la argumentación de que las redes neuronales artificiales no serían capaces de competir con la mente humana, pero un equipo de investigadores ha demostrado ahora que el método de inteligencia artificial que han desarrollado sí muestra una capacidad de generalización similar, y a veces mejor, a la humana.

Dos investigadores, Brenden Lake (Universidad de Nueva York) y Marco Baroni (Universidad Pompeu Fabra) han liderado un trabajo en el que han puesto de relieve que la red neuronal que han desarrollado tiene habilidades similares a las humanas en la generalización sistemática, lo que significa que tiene capacidad para aprender nuevos conceptos y de combinarlos con otros ya existentes.

Los humanos sí son capaces de aprender un concepto nuevo y de utilizarlo después para comprender otros usos relacionados; por ejemplo, un niño aprende a saltar, pero inmediatamente aprende a dar saltos alrededor de una habitación, saltar con los brazos en alto, o saltar hacia adelante y hacia atrás.

Pero ¿pueden las máquinas emular ese comportamiento? Estos investigadores han desarrollado una técnica -que han bautizado como Meta-learning for Compositionality (MLC)- capaz de mejorar algunas herramientas basadas en la Inteligencia Artificial (como el ChatGPT) para hacer esas generalizaciones y han comprobado no sólo que está a la par del rendimiento humano, sino que en algunos casos es mejor.

Su técnica se basa en el entrenamiento de las redes neuronales artificiales (sofisticados sistemas computacionales interconectados entre sí para favorecer el aprendizaje y el procesamiento automático) y otras tecnologías relacionadas con el reconocimiento del habla y el procesamiento del lenguaje natural.

Los investigadores han observado que hasta ahora los creadores de sistemas de inteligencia artificial, incluidos los grandes modelos lingüísticos, han esperado que esa «generalización composicional» surgiera de métodos de entrenamiento estándar, pero mantienen que la técnica que han desarrollado muestra cómo la práctica explícita de estas habilidades permite a esos sistemas desbloquear nuevas facultades.

«Hemos demostrado, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación cara a cara», ha afirmado Brenden Lake, profesor adjunto del Centro de Ciencia de Datos y del Departamento de Psicología de la Universidad de Nueva York.

Los investigadores crearon un novedoso sistema de aprendizaje en el que una red neuronal se actualiza de forma constante para mejorar sus habilidades. El mismo ejemplo: le enseñan la palabra «saltar» y luego crea combinaciones de palabras (saltar dos veces; saltar a la izquierda; a la derecha, etc). Luego en otro episodio aprende otras palabras y el sistema acaba mejorando las habilidades de la propia red.

Y además compararon el rendimiento de su «máquina» con el de varias personas y comprobaron que en algunos casos el comportamiento de su sistema era mejor que el de los humanos, y que los dos (el MLC y las personas) superaron al ChatGPT, y que éste, a pesar de sus «sorprendentes capacidades» mostró dificultades en esa tarea de aprendizaje.

Marco Baroni, profesor del Departamento de Traducción y Ciencias del Lenguaje de la Universidad Pompeu Fabra, ha observado que los grandes modelos lingüísticos como el ChatGPT «siguen teniendo dificultades con la generalización composicional, aunque han mejorado en los últimos años», y se ha mostrado convencido de que este nuevo sistema puede contribuir a mejorar las habilidades compositivas de los grandes modelos lingüísticos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *