Revenir au site

Après le deep learning ?

Un rêve qui s'éloigne (1/3)

· IA,Deep learning

Grâce aux succès pratiques du deep learning et du machine learning les chercheurs et ingénieurs ont quelques années de travail devant eux, mais après ?

Si la communauté de l’intelligence artificielle a toujours comme horizon d’égaler les performances humaines, les échecs accumulés depuis soixante-dix ans l’on amené à prendre conscience d’en être très éloignée. Ses créations les plus avancées relèvent de l’intelligence dite faible dont les capacités sont spécialisées et limités même si elles sont parfois spectaculaires[1].

Il n’existe pas de champ de recherche dédié à l’élaboration d’une théorie de l’intelligence, malgré les progrès des sciences cognitives l’intelligence reste un mystère et faute d’un socle théorique l’IA ne peut s’inspirer que de mécanismes très spécialisés du cerveau tel que l’aire visuelle des chats[2].

En attendant l’hiver ?

Les limites de la discipline et l’absence de perspective de rupture à terme annoncent-elles une prochaine phase de stagnation ? La précédente, si l’on excepte quelques bourgeonnements sans descendance, a duré du début des années 1970 jusqu’en 2012 où le deep learning avec ses réseaux neuromimétiques ont triomphés après quarante années d'impasses... Le deep learning est-il une oasis d’insouciance dans un désert théorique prêt à l’engloutir de nouveau ? La discipline va-t-elle connaître un réveil douloureux dans quelques années et devoir attendre le prochain renouveau pendant des décennies ?

Quatre sorts maléfiques

Les succès et échecs de l’IA sont les résultats empiriques des travaux de centaines d’équipes de recherche se soumettant à une sélection darwinienne de leurs résultats. Il n’y a pas d’analyse des lacunes récurrentes de l’IA[3] depuis le Logic Theorist en 1956 jusqu’aux plus récentes réalisations du deep learning. Bien qu’aussi vielles que la discipline, ces limites ne sont pas vues comme les signaux d’une impasse mais comme des problèmes que l’IA résoudra les uns après les autres. Un angle plus productif serait peut-être de voir ces lacunes comme des sorts bloquant les progrès de la discipline jusqu’à ce que leurs causes théoriques soient élucidées.

Le premier de ces sorts est l’hyperspécialisation, les IA sont incapables de généraliser leurs compétences si spectaculaires soient-elles. Le second est l’absence d’autonomie, les IA dépendent totalement de leurs concepteurs même lorsqu’elles sont capables d’apprentissage. Le troisième est leur incapacité à créer et manipuler du sens, une lacune étonnante, véritable point aveugle de la discipline depuis l’origine, le quatrième est l’incapacité à créer une représentation cohérente et prédictive du monde.

Nous ferons l’hypothèse que ces quatre lacunes sont étroitement liées les unes aux autres, que les capacités correspondantes sont les fondements, avec quelques autres, de toute forme d’intelligence.

Impasse conceptuelle

Il n’y a pas de théorie de l’intelligence dont L’IA puisse s’inspirer, il n’y a même pas de définition précise de l’intelligence et pour cause, une définition c’est un résumé… Pourtant la somme des connaissances accumulées par les sciences cognitives est considérable, une synthèse pourrait dégager des principes utiles à l’IA, par exemple que l’intelligence animale aussi bien qu’humaine est la propriété émergente de l’interaction de multiples fonctions soumises aux stimuli de l’environnement. Cela expliquerait qu’en se focalisant sur des compétences spécialisées, l’IA connaisse des succès rapidement suivis d’une stagnation par l’impossibilité de les généraliser . L’absence d’un cadre théorique global expose la discipline à tourner indéfiniment en rond dans ses impasses conceptuelles.

L’objection à une approche naturaliste de l’IA est que l’on ne fait pas de progrès en imitant la nature. Certes les êtres vivants n’ont pas de roues, les avions ne battent pas des ailes, etc… mais c’est oublier un peu vite que si les solutions de l’ingénierie diffèrent de celles de la nature, les principes physiques sont communs, avions et oiseaux volent selon les mêmes lois de l’aérodynamique, de même roues, jambes et pattes exploitent de façon différentes le même principe de basculement du centre de gravité. Contrairement à l’ingénierie aéronautique et mécanique qui repose sur la parfaite maîtrise des lois de la nature, l’IA ne dispose d’aucune théorie.

Empirisme myope

Faute d’un cadre théorique, les chercheurs progressent sans direction précise, ils abordent chaque nouvelle technique espérant qu’elle les mènera un peu plus loin, cela fonctionne parfois mais des décennies ont été perdues à investiguer des impasses. Les chercheurs sont comme des fourmis explorant la petite bande de terre permise par la technologie sans possibilité de se concentrer sur les points de ruptures proposés par une théorie. Ils espèrent parvenir un jour au sommet de la colline qui leur dévoilera la voie royale mais le risque est grand que cela n’arrive qu’après avoir exploré la totalité des impasses conceptuelles qui les cernent. Il ne peut y avoir plus lente et plus coûteuse méthode et une fois au sommet de la colline, il n’est pas certain qu’ils s’en rendent compte faute de repères conceptuels. L’empirisme c’est la lenteur mais c’est aussi la myopie. Cette myopie touche parfois à la cécité, il fallut près de trente ans pour passer des premiers algorithmes d’apprentissage profond à la reconnaissance de leur pertinence par la communauté. Le deep learning n’a pas été reconnu pour la pertinence de sa vision vis-à-vis de l’intelligence mais parce que ses performances dépassèrent les résultats d’autres méthodes. Ce genre d’heureuse conjonction cumulant rupture de conception, persévérance d’un tout petit nombre de chercheurs en marge du courant de pensée principal et progrès technique foudroyant est malheureusement trop rare pour soutenir une progression rapide.

A suivre 2/3 ‘’Retour aux esprits animaux’’

[1] Yann Le Cun dresse l’état de l’art de la discipline en 2019 dans Quand la machine apprend aux éditions Odile Jacob

[2] Hubel et Wiesel, prix Nobel 1981.

[3] Exception qui n’a pas fait école, le philosophe américain Hubert Dreyfus a méthodiquement analysé les présupposés théoriques de l’IA dans What computers can’t do, the limit of artificial intelligence 1972, 1979