Comment ChatGPT a répondu à l’ancien problème mathématique « du doublement du carré » que Socrate utilisait pour mettre à l’épreuve ses élèves ?
Depuis plus de deux mille ans, l’humanité se questionne sur une question profonde : la connaissance est-elle innée ou s’acquiert-elle par l’expérience ? Aujourd’hui, avec l’avènement de l’intelligence artificielle, le débat est revenu d’actualité, au point qu’un groupe de chercheurs de l’Université de Cambridge et de l’Université Hébraïque de Jérusalem a décidé de poser à ChatGPT un ancien problème mathématique, le même que Socrate utilisait pour mettre à l’épreuve ses élèves : le célèbre « problème du doublement du carré ».
Nella narrazione di Platone, lo studente, credendo di aver trovato la soluzione, raddoppiava la lunghezza dei lati del quadrato, senza rendersi conto che così ne quadruplicava l’area. La vera risposta, spiegava Socrate, consiste invece nel costruire un nuovo quadrato con lato pari alla diagonale del primo.
L’expérience numérique. Les chercheurs ont choisi de soumettre à ChatGPT la même question afin de vérifier si un modèle linguistique, entraîné presque exclusivement sur des textes, pouvait « découvrir » la solution sans l’avoir jamais lue. En théorie, la probabilité que le problème figure dans les données d’entraînement était très faible, ainsi une réponse correcte éventuelle aurait suggéré une forme d’apprentissage autonome.
Au début, le chatbot a abordé la tâche avec une cohérence logique surprenante, montrant qu’il comprenait la demande et fournissant un raisonnement proche de celui d’un vrai étudiant. Mais lorsqu’on lui a demandé de doubler l’aire d’un rectangle, il a commis une erreur : il a affirmé que la diagonale ne pouvait pas être utilisée à cette fin, niant en fait l’existence d’une solution géométrique.
Intuition artificielle. Pour les chercheurs, ce pas en arrière fut révélateur : l’erreur ne provenait pas d’une citation ou d’un texte existant, mais d’un traitement autonome; en d’autres termes, ChatGPT semblait se comporter comme un élève qui tente, échoue et reformule ses hypothèses en se fondant sur l’expérience précédente.
C’est une attitude « learner-like » (semblable à celle d’un étudiant, en effet), qui rappelle le concept pédagogique de la zone de développement proximal élaboré par le psychologue soviétique Lev Vygotski au XXe siècle, c’est‑à‑dire « l’espace entre ce que l’on sait et ce que l’on peut apprendre avec l’aide adaptée ». Cela suggère que l’intelligence artificielle, même sans conscience, peut imiter un processus cognitif proche de celui des humains, en construisant des liens et des analogies même en l’absence d’exemples directs dans son entraînement.
Leçons pour l’avenir. L’étude mérite également d’être soulignée pour une autre raison, à savoir qu’elle apporte de nouvelles pistes pour comprendre ce que signifie vraiment « penser » pour une machine.
Les auteurs appellent toutefois à la prudence : il n’est pas correct de dire que ChatGPT raisonne comme un être humain, car son comportement demeure le fruit de corrélations statistiques, et non d’une compréhension consciente. Néanmoins, les expériences montrent à quel point il est utile d’apprendre à interagir avec l’IA de manière plus pédagogique, en privilégiant des invites qui stimulent l’exploration (« analysons ensemble ce problème ») plutôt que de simplement demander une réponse.
À l’avenir, les chercheurs envisagent de nouveaux modèles qui assistent les chatbots et les logiciels de géométrie dynamique, capables de collaborer avec les élèves et les enseignants pour découvrir les principes mathématiques de manière intuitive. Une façon, peut-être, de faire dialoguer Socrate et l’intelligence artificielle, séparés par 2 400 ans mais unis par le même désir de comprendre comment naissent les idées.