Peut-on parler intelligemment et calmement de l'Intelligence Artificielle ?






Jean-François COLONNA
[Contact me]

www.lactamme.polytechnique.fr

CMAP (Centre de Mathématiques APpliquées) UMR CNRS 7641, École polytechnique, Institut Polytechnique de Paris, CNRS, France

[Site Map, Help and Search [Plan du Site, Aide et Recherche]]
[The Y2K Bug [Le bug de l'an 2000]]
[Real Numbers don't exist in Computers and Floating Point Computations aren't safe. [Les Nombres Réels n'existent pas dans les Ordinateurs et les Calculs Flottants ne sont pas sûrs.]]
[N'oubliez pas de visiter Une Machine Virtuelle à Explorer l'Espace-Temps et au-delà où vous trouverez plus de 10.000 images et animations à la frontière de l'Art et de la Science]
(Site WWW CMAP28 : cette page a été créée le 12/01/2026 et mise à jour le 31/01/2026 11:37:51 -CET-)





Lorsqu'à la fin de l'année 2022, la société OpenAI a mis en ligne ChatGPT 3.5, un agent conversationnel multilingue [01] à même de répondre aux questions les plus diverses et de passer (peut-être) le fameux test de Turing avec succès, je m'y suis immédiatement intéressé et j'ai voulu en voir les possibilités, mais aussi les limites et les dangers. J'ai relaté tout cela dans de nombreuses pages sur le Web [02] où sont consignés, soigneusement et systématiquement, pour plusieurs milliers d'expériences, les dates, prompts, réponses,... ainsi que le ferait un physicien expérimentateur dans un cahier de laboratoire. Et bien m'en a pris car en effet, ainsi qu'on va le voir, le jugement que l'on pourra porter sur les réponses obtenues peut varier considérablement au cours du temps.

L'un des phénomènes que j'ai immédiatement relevé est celui des hallucinations qui apparaissaient en général lorsqu'une Intelligence Artificielle Générative (IAG) ne savait pas quoi répondre et plutôt qu'avouer simplement je ne sais pas, inventait quelque chose qui malheureusement, bien souvent, avait l'apparence de la crédibilité. Cela fut aussi publié sur le site de Pour La Science dans la rubrique Opinions le 08/07/2023. Lors de ces expériences j'ai obtenu quelques énoncés mathématiques que l'on peut qualifier bien souvent d'humoristiques et en particulier celui du "moyen théorème de Fermat" le 15/05/2023 [03], évidemment complètement stupide [04][05]. Mais qui parmi nous, les êtres humains, peut prétendre à l'infaillibilité, à l'omniscience,... ?

Alain Finkielkraut, Etienne Klein et Olivier Rey s'étaient ensuite emparés de cet exemple sur France Culture mais aussi lors d'une audition à l'Assemblée Nationale. Eux trois et moi-même avons été ensuite attaqués et même insultés dans un opuscule paru en octobre 2025 et dont l'auteur [06] semble avoir oublié que depuis cet article de PLS, plus de deux ans s'étaient écoulés et c'est là un point essentiel : les progrès en matière d'IAG sont fulgurants !

Mais malheureusement nombreuses étaient les hallucinations auxquelles on pouvait croire. Ainsi, à la fin de l'année 2024, parmi des centaines d'autres, j'ai soumis le prompt suivant : 'Qui a écrit "L'étroite moustiquaire" ?' [07]. Initialement je l'avais imaginé pour voir si la phonétique, lorsque la langue est suspectée, était prise en compte et si alors ChatGPT allait répondre tout simplement : Alexandre Dumas a écrit "Les trois mousquetaires". Mais il n'en fut rien et, en itérant le prompt, j'ai obtenu de nombreuses réponses toutes différentes : certaines comme Marguerite Duras, Léopold Sédar Senghor ou encore Jean-Paul Sartre était évidemment à rejeter, mais d'autres, comme Boris Vian, pourquoi pas ? On notera dans ces réponses la présence d'informations très précises, mais toutes fantaisistes dans ce contexte, bien que faisant réfèrence, sans exception, à des auteurs existants, en donnant de plus quelques indications biographiques utiles et précises (c'est ainsi le cas, par exemple, de Jean-Paul Sartre et de l'existencialisme...) [08].

On notera qu'avec le temps les hallucinations semblent moins nombreuses, ou plus subtiles et donc plus difficiles à détecter : mais que faire alors ? Où chercher la vérité ?



Plus récemment, à l'occasion de la Fête de la Science 2025 à l'Ecole Polytechnique, j'avais organisé une exposition d'une vingtaine d'œuvres produites par des IAG's [09]. Elle n'avait pour objectif que de montrer leurs performances en réponse à de simples prompts tel "une image à la façon de Rembrandt". Mais elle était accompagnée d'un texte ne se contentant pas de vanter leurs performances dans ce domaine, mais qui aussi rappelait quelques dangers qui ne pouvaient être ignorés (en particulier celui des hallucinations) et qui voulait enfin interpeller sur la notion de créativité (comme l'Homme, les machines en font-elles preuve [10] ?). Et malheureusement, dans la nuit précédant son inauguration, elle fut vandalisée (taguée et déchirée) par un militant anti-IAG. De toute évidence, ce dernier, qui en son temps aurait certainement détruit les métiers à tisser de Jacquard, semble avoir ignoré que toute médaille a son revers : ainsi, par exemple, l'automobile est un symbole de liberté, mais elle exacerbe la violence, tue et pollue ! Il en est de même des IAG's : elles sont un outil dont le potentiel ne peut plus être ignoré, mais qui sont en même temps une aberration écologique, tout en pillant notre patrimoine et en menaçant l'emploi !



Ces quelques "aventures" relatives aux hallucinations et à la créativité montrent qu'il est parfois (souvent ?) difficile de débattre sereinement et de façon constructive sur les IAG's.



Longtemps j'ai été réticent à l'idée d'utiliser des IAG's lors de mes actvités scientifiques. Mais tout a changé avec l'arrivé de ChatGPT 5. Au préalable, je ne cacherai pas qu'évidemment je l'utilise (malheureusement !) pour traduire du français en anglais : c'est tellement facile (trop ?) et surtout instantané.

Je voudrais brièvement relater une expérience récente : depuis le mois de septembre 2025, je m'intéresse à la recherche d'éventuels contre-exemples à la conjecture de Proth-Gilbreath [11]. Depuis 1993, elle n'avait été vérifiée que pour les nombres premiers inférieurs à 1013 et début 2026, j'ai réussi à repousser cette limite à 1015. Mais manipuler autant de nombres n'est pas une mince affaire et seule une forte parallélisation le permet. Pour ce faire, j'ai réalisé sous Linux un programme (en C) vérifiant cette conjecture, puis l'ai distribué sur une centaine de processeurs grace à un programme (en CSH) exécuté sur un ordinateur de supervision. Or, tout se passait pour le mieux, mais malheureusement, au bout de quelques heures tout se bloquait de manière aléatoire (et donc non reproductible) avec un message "système" tout à fait inattendu et que rien ne justifiait. Après avoir lu et relu mille fois mes programmes, je ne comprenais toujours pas l'origine de l'anomalie et je ne voyais donc que faire. Il me vint l'idée d'interroger ChatGPT 5 (la version gratuite...) en lui décrivant le problème en quelques mots. Instantanément, la réponse arriva : de façon extrèmement didactique et claire, me furent données toutes les sources possibles de ce message et quelques correctifs me furent suggérés [12]. J'ai effectué l'un d'entre-eux, le plus simple d'ailleurs, et le problème fut résolu !

Tout cela me conduit à faire quelques remarques et poser plusieurs questions :






Copyright © Jean-François COLONNA, 2026-2026.
Copyright © CMAP (Centre de Mathématiques APpliquées) UMR CNRS 7641 / École polytechnique, Institut Polytechnique de Paris, 2026-2026.