Management et intelligence naturelle

Management et intelligence naturelle

Le management requiert de l’intelligence, une capacité à comprendre, relier et agir. Au moins l’étude de la finance, de la stratégie, du marketing ou de la logistique donne-t-elle le sentiment de maîtriser la réalité mais c’est moins le cas pour la gestion des ressources humaines ou le management. Ces domaines touchent au mystère des comportements humains et s’il est difficile d’entretenir des relations positives dans les contextes familiaux et amicaux, ce n’est pas plus simple dans le monde professionnel quand il s’agit de produire du résultat.

En matière de management les experts du lendemain sont nombreux ; l’art est plus difficile, c’est pour cette raison que depuis l’aube de l’humanité, on ne cesse de s’interroger et d’écrire sur les comportements humains dans le domaine de la guerre, de la religion, de l’amour et, depuis moins longtemps, du travail ensemble. On est donc toujours à la recherche de plus d’intelligence et, comme l’intelligence naturelle ne semble pas suffire, on se tourne avec espoir vers l’artificielle.

Dans un article récent, Davenport¹ observe les projets en cours en matière d’intelligence artificielle sur un échantillon d’entreprises. Il dégage trois catégories de projets. La première, majoritaire, consiste à accélérer et automatiser la collecte et la mise en relation de données figurant dans des systèmes d’informations différents. La diversité des systèmes d’informations autour des questions de personnel rend évidemment cette perspective très intéressante tout comme le besoin d’exploiter enfin les résultats des entretiens annuels d’évaluation des performances.

Une deuxième référence à l’intelligence artificielle se situe dans le deep learning ou le machine learning quand on recherche dans de très grandes quantités de données, des liens, des régularités, des structures de proximité qui vous permettent par exemple de recevoir des offres de produits ciblées en fonction de vos consultations ou achats précédents sur internet. De telles possibilités sont évidemment utiles pour la sélection et le recrutement mais aussi dans l’évaluation du management à partir d’un traçage des actions, décisions ou comportements managériaux.

La troisième catégorie de projets d’IA concerne la « conversation » permettant à un client ou un salarié d’interagir avec une machine qui interprète les demandes et formule des réponses appropriées. Sans en être encore aux années 2050 où l’on imagine des machines qui sentent² on se trouve là dans des dispositifs majoritairement utilisés d’ailleurs, comme le dit Davenport, avec les salariés pour la réponse à toutes les questions qui les concernent.

Mieux aborder les problèmes permanents

L’article ne se laisse pas aller à la prospective la plus débridée, il cherche plutôt à repérer ce qui est déjà à l’œuvre dans des projets d’IA. Mais les perspectives ainsi ouvertes ne peuvent laisser indifférent le management toujours aussi limité par les frontières de l’intelligence naturelle. En effet, le traitement des questions humaines dans les organisations est structurellement confronté à trois problèmes majeurs, permanents auxquels on cherche toujours en vain la solution définitive.

Le premier problème est celui de la mesure. Puisqu’il existe des décisions managériales, on a besoin d’instruments pour décrire et comparer les options afin de choisir la meilleure solution. La finance ou le marketing disposent de ces unités de mesure. On pourrait d’ailleurs s’interroger, en matière de finance par exemple, sur la qualité de ces mesures : représentent-elles correctement la réalité ? Mais le grand avantage des financiers n’est pas la qualité intrinsèque de ces mesures mais le fait que toutes les parties prenantes s’accordent sur la manière de mesurer et décrire la réalité. Il n’en va pas de même pour les choses humaines : non seulement la réalité est difficile à décrire mais, plus encore, personne ne s’accorde sur les unités de mesure. Il y a un tel écart entre la manière dont un patron opérationnel et un DRH peuvent apprécier un candidat ! On peut légitimement attendre de l’IA qu’elle permette d’autres mesures, sur les décisions, les actions, les résultats par exemple.

Le deuxième problème permanent est celui de la théorie. Pour aborder le mystère des choses humaines, il est indispensable de multiplier les perspectives, de déplacer les regards, de remettre en cause les limites de nos perceptions auxquelles on est trop souvent tenté de réduire la réalité. Par sa capacité à agréger de très nombreuses données, à tirer des données du passé, par le deep learning nombre de structures, régularités et récurrences, l’IA ouvre des perspectives nouvelles, non pas le dévoilement du mystère mais d’autres manières de décrire le réel : c’est le cas par exemple de l’analyse des comportements managériaux … ou des traces laissées sur les réseaux sociaux par des candidats.

Il est un troisième problème, un peu moins « managérialement correct » auquel sont confrontés les spécialistes des RH, c’est celui du risque humain. Dans toutes les disciplines de la gestion, des systèmes d’information à la finance en passant par la logistique, la question du gestionnaire est tout autant celle de l’argent que de la maîtrise du risque. Il en va de même pour les problèmes humains. D’ailleurs depuis un siècle, le souci de réduire le risque humain n’est-il pas une constante de l’évolution des organisations. La chaîne de montage taylorienne revient à ne pas être dépendante des compétences des opérateurs ; les processus et les systèmes d’information, c’est cadrer l’initiative humaine ; l’intelligence artificielle et les robots c’est le moyen « d’augmenter » l’homme mais aussi de ne pas se risquer à la limite de ses capacités. 

Les points de vigilance

On comprend alors l’engouement pour l’intelligence artificielle car face à ces problèmes structurels posés par la gestion de l’humain dans nos organisations, il est clair que l’intelligence naturelle ne peut suffire. Cependant, on ne peut oublier que l’intelligence artificielle a d’autres propriétés, en particulier celle de nourrir ou renforcer les illusions auxquelles les hommes sont très sensibles, celles de la maîtrise, de la vertu et de la pierre philosophale.

L’homme rêve de tout maîtriser - on le sait depuis les textes les plus anciens - et il en donne des preuves régulières. La culture dominante de la gestion est celle de la maîtrise et les dispositifs organisationnels ou les processus, dans lesquels les organisations ont investi tellement d’argent ces dernières années, procèdent aussi – pas seulement – de ce goût de la maîtrise. L’IA avec ses capacités d’apprentissage, de maîtrise et d’exploitation de monceaux de données inaccessibles à l’être humain répond à cette séduction de la maîtrise.

Il est une chose en particulier que l’homme rêve de maîtriser, c’est ce qui lui apparaît le plus incertain, non pas le mystère de ses contemporains mais le futur. L’IA répond à ce besoin car elle permet de multiplier les capacités d’analyse du passé pour en extraire les scénarios de l’avenir, comme si les comportements passés préjugeaient de l’avenir, comme si la fréquence passée renforçait la probabilité de ce qui va survenir. C’est bien une réalité sauf quand, nous dit Taleb³, apparaissent les « cygnes noirs ».

Les craintes ou les espoirs vis-à-vis de l’IA traduisent une image réductrice du futur, comme s’il était le passé avec, en plus, l’outil nouveau avec ses possibilités, comme si l’outil transformait un présent figé. Quand s’est développée la microinformatique, tout le monde pariait sur la disparition du papier et c’est le contraire dont ont bénéficié les vendeurs d’imprimantes et d’encre. Quand les Français déclarent leurs revenus sur internet l’administration fiscale espère gagner en temps mais ce mode de déclaration virtuel et interactif transforme les attitudes des contribuables et ils se mettent à changer leur déclaration, à poser des questions auxquelles l’administration passe énormément de temps à répondre. On a toujours beaucoup de mal à imaginer ce qu’une innovation va transformer non pas dans les usages visés au départ mais dans tous ceux autour. C’est pour cela que les chiffres de réduction d’emplois causée par l’IA doivent être pris avec beaucoup de prudence.

La deuxième illusion est celle de la vertu. Certains disent que le développement de l’intelligence artificielle permettra aux responsables des ressources humaines dégagés de tâches fastidieuses de se consacrer aux tâches nobles de la fonction autour de la relation, de l’écoute et de la prise en compte des collaborateurs. Cela rappelle le temps où on espérait que la réduction du temps de travail libère le temps pour les relations, la famille et les engagements associatifs : il semble bien que ce soit la télévision et « l’écranophilie » qui en aient plutôt bénéficié. Ce rousseauisme perdure selon lequel l’individu fondamentalement bon est empêché de l’être par la méchante société ou organisation ; une fois débarrassé de l’ennuyeux, il se tournerait obligatoirement vers ce qui a plus de valeur humaine. A chacun de vérifier : pour que les managers et les responsables des RH se tournent vers une approche plus relationnelle et humaine de leur job, il faudra avant tout qu’ils … le veuillent.

La troisième illusion concerne la performance. Je parle d’illusion parce que, curieusement, la performance constitue le non-dit de la gestion des personnes. Selon les situations, on peut implicitement, privilégier telle ou telle cause de cette performance. Si on considère que la qualité des organisations, des structures et des processus suffit à générer de la performance, l’IA sera évidemment d’un grand secours pour l’augmenter ; celle-ci permet de remplacer, augmenter ou corriger les personnes et l’utilisation de leur liberté. Le problème c’est que la performance du business peut avoir d’autres causes comme par exemple l’engagement des personnes dans ce qu’elles font, la qualité d’une relation, d’une attention. Il est des tâches où cet investissement personnel fait la performance et l’intelligence (au moins jusque vers les années 2050 d’après les spécialistes) sera insuffisante.

La question des enjeux et conséquences possibles du développement de l’IA n’est pas simple et, comme le montre Davenport, il y a parfois un écart entre la réalité et les hyperboles de tous les nouveaux experts. Pour aider au discernement, on peut évoquer trois points de vigilance. Le premier consiste à interroger sans cesse notre attitude vis-à-vis de l’innovation : est-ce de la peur, de la soumission naïve à la nouveauté ; est-elle abordée comme un moyen d’aider mon business ou comme un impératif ? Dans ces situations il ne faut jamais oublier que dans la ruée vers l’or, les gagnants ont été les vendeurs de pelles.

Le deuxième point de vigilance, c’est de rester attentif aux besoins nouveaux de compétences nécessaires pour des étudiants, mais aussi pour les salariés actuels ; ces compétences nouvelles ne sont pas nécessaires seulement pour les spécialistes qui « font » de l’IA mais pour les professionnels de chaque métier qui voient leur rôle et leur pratique évoluer.

Le troisième point de vigilance c’est que dans les périodes de l’histoire où tout semble se transformer, il est toujours utile de revenir à ce que l’anthropologie nous révèle de relativement immuable dans la nature humaine : c’est l’ouverture à l’histoire, à la philosophie et même au bon sens qui le permet. Jusqu’à maintenant les hommes ont toujours déjoué les projets visant à les dominer, qu’est-ce que cela nous dit de l’avenir, nature humaine ou cygne noir ?

 Article initialement publié dans RH Info le 14/3/18.


¹Davenport, Harvard Business Review
²Alexandre, L. La guerre des intelligences
³Théorie du cygne noir

ESSEC Knowledge sur X

Suivez nous sur les réseaux