Le Problème Avec La Façon Dont Les Mathématiciens Travaillent

La recherche mathématique est l'un des efforts intellectuels les plus exigeants de l'activité humaine — et, à bien des égards, l'un des moins automatisés. Bien que les systèmes d'IA aient transformé la codification, l'écriture et l'analyse de données, les structures formales des mathématiques supérieures sont restées largement hors de leur portée. Les preuves doivent être vérifiées par une logique rigoureuse ; les modèles dans les structures abstraites ne cèdent pas à la reconnaissance de modèles statistiques qui rend les grands modèles de langage utiles pour le texte. Une startup appelée Axiom Math pense avoir trouvé un moyen de changer cela, et cette semaine, elle a lancé un outil gratuit pour les mathématiciens qui place une capacité importante de découverte de modèles sur un seul ordinateur portable.

L'outil, appelé Axplorer, est une version démocratisée de PatternBoost — un algorithme développé par Francois Charton, un chercheur scientifique maintenant chez Axiom qui a précédemment travaillé chez Meta. En 2024, Charton a utilisé PatternBoost fonctionnant sur des milliers de nœuds de superordinateur pendant trois semaines pour résoudre un problème séculaire en théorie des graphes appelé le problème des quatre-cycles de Turan. Axplorer peut reproduire ce résultat en deux heures et demie sur un Mac Pro.

Ce Que Fait Axplorer

L'algorithme sous-jacent d'Axplorer fonctionne à travers un cycle itératif de recherche classique et d'apprentissage par réseau de neurones. Il commence par générer un grand nombre de solutions candidates aléatoires à un problème mathématique et en conservant les plus performantes. Un réseau de neurones transformer est alors entraîné sur ces exemples réussis pour apprendre quelles propriétés caractérisent une bonne solution. À la manche suivante, le réseau entraîné génère des candidats améliorés qui servent de semences pour une autre phase de recherche classique. Les deux phases alternent, chaque manche produisant des solutions progressivement meilleures.

L'idée clé est que le réseau de neurones n'a pas besoin de comprendre les mathématiques dans aucun sens profond. Il doit seulement reconnaître les modèles structurels dans les solutions trouvées jusqu'à présent et utiliser ces modèles pour guider la génération de meilleurs candidats. Au fil de nombreuses itérations, cela produit des solutions que la seule recherche classique serait peu probable de trouver — particulièrement dans les problèmes avec d'énormes espaces de recherche où l'exploration aléatoire est calculatoirement intraitable.