Revenir au site

Y-a-t-il quelque chose de nous dans ChatGPT ?

Drôle de question concernant une IA dont les concepteurs ont bien pris soin de nous prévenir qu’elle est incapable de raisonner ou de comprendre quoi que ce soit, sans compter les nombreux avertissements de commentateurs rappelant que nous projetons spontanément sur les IA conversationnelles nos stéréotypes sociaux et psychologiques nous donnant l’illusion que nous avons à faire à des machines capables de penser et de nous comprendre. Ceci étant dit, il n’est pas interdit de s’interroger sur « la petite partie » que ce type d’IA partagerait avec nous.

Les pionniers du deep learning précisent qu’elle réside dans une imitation très simplifiée du réseau neuronal du cerveaux et de son principe de traitement collectif démontrant une certaine capacité d’apprentissage, c’est tout, point de pensée, de véritable intelligence et surtout de compréhension, ces IA ne sont que d’astucieux assemblages de composants électroniques et de lignes de code qui n’ont aucune conscience de leur existence et moins encore de la nôtre.

Pour autant et n’est-ce pas curieux, ChatGPT nous écoute, nous parle et nous répond avec l’apparence de la pertinence, personne ne le nie… Dans ce cas, que faire de l’œuvre des philosophes et d’un certain Alan Turing (1) qui ont tant fait pour justifier cette maxime que le langage est « le propre de l’homme » ? ChatGPT parle mais n’est pas intelligent nous dit-on, faut-il donc tirer un trait sur deux mille ans de réflexion par les meilleurs esprits qu’ait comptés l’humanité ?

Pour ceux qui insistent sur les carences de ChatGPT (2), je dirais que les imperfections et les approximations parfois qualifiées d’hallucinations dans certaines réponses de GPT ne font, à mes yeux, que rapprocher un peu plus cette IA de nos propres imperfections et donc de ce que « nous sommes ». ChatGPT reproduit des biais, certes, mais en quoi sont-ils différents de ceux que nous inscrivons dans les cultures, les croyances, les écrits et que nous produisons et reproduisons sans en avoir conscience dans nos conversations et nos comportements ? Nous voilà désormais confrontés à un système capable de partir de temps en temps dans des explications hors sol, mais n’est-ce pas aussi le propre de l’humain que de croire à ses inventions ?

Mais il n’y a pas que les capacités conversationnelles de ChatGPT qui sont troublantes, cette IA manifeste plusieurs aspects relevant de l’intuition ; l’absence de logique formelle et procédurale (exit les algorithmes des pionniers de l’intelligence artificielle des années 1950 à 1980) et la capacité à établir des associations en dehors de toute démonstration.

Autre aspect troublant, si l’on raconte à ChatGPT une petite histoire de science-fiction, dans laquelle, par exemple, les lois de la physiques sont inversées, il est capable de répondre pertinemment à des questions sur les conséquences que cela aura dans le déroulement de l’histoire, par exemple risque-t-on de prendre une pomme sur la tête en s’asseyant sous un pommier ? ChatGPT répond que non puisque la gravité sera inversée mais il pondère sa réponse en indiquant que c’est sous réserve que d’autre conséquences de l’inversion des lois de la physique n’interviennent pas dans la trajectoire des pommes… Comment une telle inférence est-elle possible par la seule régurgitation statistique de données textuelles dans lesquelles ChatGPT n’a pu trouver aucune mention de cette situation farfelue ?

ChatGPT « ne comprend rien » mais interprète correctement nos questions, parle avec une syntaxe, un vocabulaire et une grammaire parfaite, hallucine (comme les humains), répond souvent pertinemment parfois en se trompant (comme les humains), fait preuve d’intuition, produit des inférences même si celles-ci sont souvent approximatives (comme les humains)…

Mais bon puisqu’on me dit que cela n’a rien à voir avec notre intelligence, je m’incline… cependant, quelque chose me taraude, si l’on nous ôtait la parole, l’intuition, l’imagination, nos erreurs… comment prouverions-nous que, nous humains, sommes intelligents ?

(1) Turing a élaboré en 1950 le jeu de l’imitation, plus tard appelé test de Turing, comme critère démontrant qu’une machine pense : si la machine est capable de se faire passer pour un humain lors d’une conversation où les interlocuteurs ne se voient pas, c’est qu’elle pense. Ce test reprend l’idée philosophique que le langage est la seule manifestation certaine de la pensée. A. Turing - Computing Machinery and Intelligence - Mind 1950.

(2) Deux articles résument bien les limites de ce type d’IA, celui sur les perroquets stochastiques ; On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? par Emily M. Bender, Angelina McMillan, Timnit Gebru et Margaret Mitchell en 2021 qui insiste sur les conséquences de leur principe statistique et les biais que reproduisent ces IA et celui de Noam Chomsky, The false promise of ChatGPT par Noam Chomsky et Ian Roberts, New York Times en 2023, qui souligne le fossé avec les capacités humaines de raisonnement d’apprentissage et notamment la capacité à tirer parti d’un petit nombre d’informations.