"AlphaGeometry2 se especializa en resolver problemas de geometría euclidiana, uno de los cuatro temas principales de la IMO, junto con la teoría de números, el álgebra y la combinatoria."
Google DeepMind presenta AlphaGeometry2, una IA que supera a medallistas de oro en la Olimpiada Internacional de Matemáticas.
Por: José Daniel Figuera
El sistema de inteligencia artificial (IA) AlphaGeometry2, desarrollado por Google DeepMind, ha alcanzado un nivel de rendimiento que supera al de los medallistas de oro promedio en la Olimpiada Internacional de Matemáticas (IMO), una competencia prestigiosa que desafía a estudiantes de secundaria con problemas matemáticos complejos. Este avance marca un hito significativo en el campo de la IA aplicada a las matemáticas.
Hace un año, AlphaGeometry, la versión anterior de este sistema, sorprendió al mundo al desempeñarse al nivel de los medallistas de plata en la IMO. Ahora, el equipo de DeepMind ha anunciado que AlphaGeometry2 ha superado ese logro, alcanzando un nivel comparable al de los mejores estudiantes del mundo. Los resultados de esta investigación fueron publicados en un artículo preliminar en arXiv.
Kevin Buzzard, matemático del Imperial College de Londres, comentó sobre este avance: "Me imagino que no pasará mucho tiempo antes de que las computadoras obtengan puntajes perfectos en la IMO". Buzzard destacó la rapidez con la que la IA está avanzando en este campo, aunque señaló que aún quedan desafíos por superar antes de que estas tecnologías puedan resolver problemas de investigación matemática de alto nivel.
AlphaGeometry2 se especializa en resolver problemas de geometría euclidiana, uno de los cuatro temas principales de la IMO, junto con la teoría de números, el álgebra y la combinatoria. La geometría es particularmente desafiante para una IA, ya que requiere demostraciones rigurosas sobre objetos geométricos en un plano. En julio, AlphaGeometry2 hizo su debut público junto con AlphaProof, otro sistema desarrollado por DeepMind para abordar problemas no geométricos de la IMO.
El sistema combina un modelo de lenguaje especializado y un sistema "neuro-simbólico", que no se entrena con datos como una red neuronal tradicional, sino que utiliza razonamiento abstracto programado por humanos.
El equipo entrenó al modelo de lenguaje para que "hable" un lenguaje matemático formal, lo que permite verificar automáticamente la rigurosidad lógica de sus respuestas y evitar "alucinaciones", es decir, afirmaciones incoherentes o falsas que suelen generar los chatbots de IA.
Para AlphaGeometry2, el equipo introdujo varias mejoras, incluyendo la integración de Gemini, el modelo de lenguaje de última generación de Google. Además, se añadió la capacidad de razonar moviendo objetos geométricos en un plano, como desplazar un punto a lo largo de una línea para cambiar la altura de un triángulo, y resolver ecuaciones lineales. Estas mejoras permitieron que el sistema resolviera el 84% de los problemas de geometría de la IMO en los últimos 25 años, en comparación con el 54% logrado por la versión anterior.
Aunque el progreso es notable, los autores del artículo de DeepMind reconocen que aún hay áreas por mejorar, como la resolución de problemas que involucran desigualdades y ecuaciones no lineales. Estos avances serán necesarios para que la IA pueda "resolver completamente la geometría", según señalan.
Mientras tanto, la comunidad de investigadores en IA espera con interés la próxima edición de la IMO, que se llevará a cabo en Sunshine Coast, Australia, en julio. Los problemas planteados en esta competencia servirán como una prueba crucial para los sistemas basados en aprendizaje automático, ya que, al ser nuevos, no existe el riesgo de que hayan sido incluidos en conjuntos de datos de entrenamiento previos. Aunque las IA no pueden competir oficialmente ni ganar medallas, su participación en la resolución de estos problemas sigue siendo un indicador clave de su progreso.