Tellement de Manières de se Tromper sur le Futur de l’IA, mais elle nous dépassera

Tellement de Manières de se Tromper sur le Futur de l’IA, mais elle nous dépassera

En 2015, je décidais d’explorer les nouvelles capabilités de l’intelligence artificielle dans le management. L’IA venait de redevenir populaire, il était temps de comprendre si — et comment — les outils avaient évolué. L’IA pourrait-elle être utilisée au-delà de récents succès dans des domaines très spécifiques tels que la reconnaissance d’images ? Commencerait-elle à avoir assez de souplesse pour découvrir de complexes relations dans des données floues, par exemple en entreprise entre les individus, les équipes, la performance, les émotions, etc. ?

Après quelques années d’exploration, j’ai décidé de reporter ce projet sine die et de me préparer à un nouvel hiver de l’intelligence artificielle, une de ces phases de lent progrès, où l’on se met à douter sur le décollage ultime de la technologie.

Bien entendu, les algorithmes actuels d’IA impressionnent. Leurs capacités à répondre à des questions prédéfinies sont extraordinaires : par exemple, ces algorithmes savent maintenant très bien identifier les chats, les individus, les voitures, dans des situations toujours plus naturelles.

Mais pour chaque annonce de nouvelle application de l’IA, on compte encore plus de cas où nombre d’obstacles empêchent sa mise en œuvre pragmatique : données non accessibles, non formatées ou trop bruyantes ; manque de capabilité analytique et de personnel formé ; technologie pas adaptée ; problèmes juridiques ; préoccupations éthiques, etc. La liste des bonnes raisons pour ne pas utiliser l’IA — même dans un domaine étroit — pourrait devenir un sujet de recherche en soi.

Paradoxalement, malgré tous ces obstacles actuels, l’IA atteindra probablement le Graal, une forme d’intelligence indistinguable de celle des humains.

Une IA pourrait-elle faire preuve d’intelligence au sens humain ?

Les obstacles pratiques actuels sont faibles à côté de l’immense difficulté à reproduire des processus cognitifs typiquement humains. Par exemple, ni l’intuition -- des cognitions émergentes du foisonnement historique d’un individu -- ni les émotions -- qui permettant l’autonomie par les « cognitions motivées » -- ne sont actuellement reproduites dans les systèmes actuels d’IA.

Si l’IA peut répondre à des questions précises dans des domaines précis avec des données bien identifiées, qu’en est-il de la capacité à trouver par soi-même des relations utiles dans des ensembles complexes de données hétérogènes ? C’est bien par cette capacité à faire émerger une pensée de manière floue et motivée que l’humain se distingue encore clairement des machines actuelles.

Pour le futur, les experts se déchirent : certains vous parlent de l’IA comme d’un fait accompli qui va envahir le monde très bientôt et surpassera l’humain rapidement. D’autres jurent que jamais une machine ne fera preuve d’une intelligence comparable à celle des humains. Qui croire alors ? Notre monde surestime-t-il ou sous-estime-t-il la vitesse à laquelle l’IA va progresser vers l’intelligence au général ?

Une IA très étroite dans le court terme, très large après des progrès à venir…

Paradoxalement, la bonne réponse est… « les deux ». Ce paradoxe dérive d’un phénomène classique pour toute innovation. Quand un domaine évolue, le changement n’a pas lieu de manière linéaire, progressive. La réponse d’une communauté humaine, technique, sociale à une évolution suit ce qu’on appelle une courbe en S : au début, le progrès est très lent, puis il y a une explosion de l’usage, et ensuite cela s’apaise à nouveau. Dans chaque contexte, de telles évolutions s’accumulent par vagues au fil du temps, elles se combinent d’une manière parfois difficile à interpréter. Visualisons cela dans la figure attachée, où trois courbes en S représentant trois vagues d’innovations qui s’enchaînent.

 À tout moment, plusieurs prévisions sont possibles selon ce qu’on considère. Si on observe la première vague d’innovation (n° 1) qui ne progresse plus, on va anticiper que la technologie ne mènera pas à grand-chose. Ceci constitue une projection trop pessimiste, et on fait paradoxalement de même si on observe l’innovation naissante (vague n° 3), donc qui n’avance pas encore significativement.

 Par contre, si on projette vers le haut la vitesse de l’innovation en cours (vague n° 2), alors on va surestimer le progrès dans une projection trop optimiste.

Tous ces raisonnements sont faux : en effet, le progrès dû à l’innovation n° 2 va se calmer, mais par contre le progrès attendu de l’innovation n° 3 aura bien lieu, et sera probablement suivi par les progrès d’autres innovations à venir n° 4, n° 5, n° 6, etc. C’est une succession d’innovations, y compris toutes celles encore à venir et non planifiables qui constituent la trajectoire réelle. Paradoxalement, elle se situe quelque part « au milieu », dans une trajectoire toujours difficile à imaginer, car ne collant à aucune des tendances du moment !

L’IA est au milieu du gué

Imaginer un futur de l’IA est donc difficile, en tension entre des perceptions contradictoires… Afin de prendre du recul, souvenons-nous que l’IA appartient au domaine de l’informatique, dont la conception s’est déroulée sur plusieurs siècles.

L’idée de calculateur automatique remonte au siècle des Lumières, mais il était alors imaginé que cela se baserait sur des machines mécaniques — forcément très limitées. Au milieu du 20e siècle, l’électromécanique puis la première génération d’électronique fait changer l’informatique d’échelle, la nouvelle capacité des calculateurs rend possibles des applications pratiques en entreprise (émergence d’IBM par exemple). À la fin du 20e siècle, la miniaturisation des semi-conducteurs donne lieu à une nouvelle vague de progrès et d’adoption massive (émergence de l’informatique de masse, avec le PC par exemple). Enfin, depuis le début du 21e siècle, la diffusion généralisée de machines et de réseaux a encore changé la donne, avec la vague internet, la mobilité, les objets connectés. 

À chaque étape, l’informatique a suscité autant d’occasions de faire preuve de pessimisme (« mais la machine est très limitée ! ») que d’optimiste (« ces machines vont envahir le monde »). Alors, où en est-on pour l’IA ? : très précisément au milieu du gué, dans la position pleine d’incertitude de n’avoir observé que deux vagues de progrès.

Une première vague initiée — dans les années 50 et en plein essor dans les années 80-90 — a supposé que les machines devraient faire preuve d’intelligence de manière dite « symbolique ». L’IA était modélisée comme le travail d’un ingénieur qui manipule des concepts par des logiques discrètes. Par exemple, dans des systèmes experts contrôlant des centrales nucléaires, l’IA prenait la forme de système de règles de la forme : « si (alarme = déclenchée & vanne = ouverte) alors (fermer vanne) ». Ceci était fort excitant, donna lieu à beaucoup d’études et quelques implémentations réussies.

Malheureusement, cela mena à une impasse, car cela nécessitait que l’humain l’encode entièrement et explicitement, une forme circulaire d’intelligence qui ne fit pas illusion très longtemps. Le tournant des années 2000 fut un premier hiver pour les spécialistes de l’IA, une phase où on l’on rêvait plus de grands progrès à venir.

Au début des années 2010, la donne est bouleversée : des résultats impressionnants sont obtenus par des chercheurs travaillant depuis des décennies sur des modèles statistiques appliquées principalement à la vision en robotique. Paradoxalement, ceci n’avait pas été considéré de l’IA, car à l’époque celle-ci n’était envisagée que sous la forme de manipulations symboliques. Leur méthode prend le nom de « deep learning » (DL), car elle est basée sur un grand nombre de neurones virtuels. Avec le DL, les machines peuvent exécuter des tâches relativement sophistiquées, par exemple identifier un chat dans les millions de pixels d’une image.

Mais surtout, ces techniques permettent un apprentissage relativement automatiquement — qu’on appelle alors « Machine Learning » (ML) — à condition qu’on puisse fournir à la machine des ensembles de données massives et que l’humain désigne ce qu’il faut chercher. Par exemple, avec un grand ensemble de photos qui ont été taguées pour savoir si elles contiennent un chat ou pas, on peut entraîner automatiquement un algorithme à « repérer des chats » dans des photos en général.

Nous sommes en plein dans le boom de cette deuxième génération d’IA, et les nombreux résultats sont impressionnants. Si on se focalise seulement sur ces succès récents du ML, on pourrait en conclure qu’on va aller au ciel, que l’IA va envahir la planète… maintenant ! Ceci est une illusion, c’est la « projection trop optimiste » dans la figure, qui surestime le futur. 

En effet, la force du ML vient de sa grande simplicité, d’où une critique que cette IA revienne à n’être que de la statistique sophistiquée. Cette expression est péjorative, car elle rappelle que la statistique n’est qu’une méthode par laquelle une hypothèse faite par un humain peut être validée sur des données. Le ML est effectivement principalement de la statistique, car l’humain est toujours censé jouer le rôle central dans l’imagination des relations entre les entités du monde, et la machine vérifie automatiquement, ou à la rigueur fait le tri automatiquement. Remarquez bien que la machine n’a encore rien « imaginé » dans cette approche…

Le ML actuel se cantonne donc à des tâches prédéfinies, on ne peut lui déléguer des processus complexes comme nettoyer et choisir les données, détecter différentes relations entre variables, identifier les variables qui pourraient être intéressantes. Et surtout, cette IA ne peut suggérer des mécanismes explicatifs : par exemple déterminer que « la photo contient un chat parce que c’est un animal avec oreille pointue et moustache ». Non seulement cette technologie ne suggère rien, mais en plus, quand sa statistique s’appuie sur un ou des éléments clairs, elle n’en est pas capable de nous le dire, car les algorithmes actuels ne sont pas encore conçus pour cette explicitation.

Pour toutes ces questions, le faible avancement des technologies actuelles suggère qu’on n’y arrivera jamais, qu’une intelligence comparable à celle de l’humain sera trop compliquée, qu’on espère trop de la machine. Cette perception est tout autant une illusion, c’est la « projection pessimiste » qui sous-estime le futur.

La trajectoire réelle, comme toute prédiction en situation d’incertitude, est difficile à cerner, quelque part entre ces deux tendances. L’IA devra accomplir une succession de progrès pour arriver un jour à une vraie forme d’intelligence. Ces progrès auront très probablement lieu, mais entre temps, nous passerons probablement par d’autres « hivers de l’IA », ces périodes où les choses n’avancent plus trop, où plus personne ne croit que les lendemains chantent.

Trajectoire vers une intelligence artificielle généralisée

Pour l’instant, les technologies de ML sont monocouches, l’humain spécifie les entrées et utilise les résultats. Parfois, un ingénieur peut décider manuellement de prendre un résultat d’un premier algorithme et d’en faire l’entrée d’un deuxième algorithme. Mais dans le futur, il faudra mettre ce bouclage à l’intérieur d’un processus de ML, que ces relations s’enchaînent en cascade comme le fait le cerveau. Mais pour cela, voici les progrès principaux à attendre.

Le premier progrès serait la prise en compte du symbolique dans le cadre des techniques d’apprentissage automatiques actuelles. Le ML est efficace pour l’instant à traiter beaucoup de données plutôt continues (des sons, des images) afin d’en deviner une structure (distinguer les images avec chat de celles sans chat). Malheureusement, pour l’instant, le ML n’est pas adapté à l’analyse des données symboliques, c’est-à-dire de données discontinues, et encore moins quand elles sont en petit volume.

Le deuxième progrès important à attendre est la capacité à découvrir les liens de causalité. Un algorithme actuel est incapable d’organiser un système logique sur les données, de le tester et de le valider, il est incapable de construire seul des inférences causales. On désigne par inférence le fait de deviner quel facteur (par exemple, genre, formation, etc.) influe sur quel autre facteur (par exemple, salaire, promotion, etc.). L’IA actuelle aide à confirmer de telles relations, sans autonomie pour imaginer et prouver la causalité.

Une fois capable de détecter automatiquement les catégories symboliques et leurs liens de causalité, il sera alors possible de les manipuler avec les anciennes techniques développées pour les systèmes experts. Celles-ci permettent la récursivité, la capacité de faire des inférences sur des inférences, c’est-à-dire raisonner sur un raisonnement. Le troisième progrès fondamental sera donc la jonction des systèmes experts avec les techniques de ML, joignant la symbolique et la récursivité de ces anciennes techniques aux échelles calculatoires massives permises par les nouvelles techniques du ML.

Un long hiver à venir, en attendant que la machine trouve sa motivation

En attendant de tels progrès, seuls les humains savent construire du savoir, c’est-à-dire choisir quoi analyser, faire des hypothèses, les vérifier, etc. Au mieux, ils peuvent utiliser l’IA actuelle comme un assistant statistique sophistiqué.

Pour que l’IA puisse contribuer avec une relative autonomie au processus d’élaboration du savoir, les progrès techniques requis sont énormes. Tout d’abord, ceci nécessitera des volumes de calculs phénoménaux au regard des capacités actuelles. Pour comparaison, les cerveaux biologiques sont de plusieurs ordres de grandeur plus efficaces que le silicone, à la fois en volumétrie de calcul et en consommation énergétique. Mais la loi de Moore n’a pour l’instant jamais failli, et il est donc à parier que les capacités de calculs vont continuer à monter de manière toujours plus étonnante.

De manière plus cruciale, ces calculs récursifs doivent être conduits en permanence, et chaque calcul ne peut être conduit « à l’infini » sur chaque élément. Il va donc falloir inventer une informatique fondée sur les arbitrages d’apprentissage : non seulement la machine décidera toute seule d’initier une recherche d’inférences, mais elle doit aussi savoir s’arrêter et se contenter d’un bon modèle qui fonctionne. Et elle saura aussi de reprendre quand elle détecte qu’elle doit apprendre de nouveau.

Probablement que ce processus ressemblera à ce que nous appelons, dans le système cognitif humain, de la « motivation ». En effet, l’humain apprend en permanence de son environnement, la motivation étant un mécanisme crucial dans le choix entre Agir et Apprendre. Par contraste, la machine est pour l’instant tellement simple que son maître décide pour elle quand — et quoi — calculer. Comme pour l’humanité, l’intelligence n’apparaîtra chez les machines que consubstantiellement à une forme de libre arbitre. Pour l’instant, la modélisation de ces formes d’émergence, de cognitions motivées, n’est pas vraiment commencée.

Globalement, rien n’interdit d’imaginer la mise au point d’IA beaucoup plus souple et conviviale que les algorithmes étroits d’aujourd’hui. Néanmoins, il est à parier qu’il faudra attendre longtemps, qu’il s’écoulera au moins un long hiver, ou même plusieurs hivers successifs, avant d’atteindre ce point mythique où la machine est d’une intelligence comparable à l’humain. Et étonnamment, cette intelligence artificielle, comme l’intelligence humaine, n’émergera qu’une fois adossée à des ressorts motivationnels solides.  

ESSEC Knowledge sur X

Suivez nous sur les réseaux