Avec ESSEC Knowledge Editor-in-chief
L'essor de l'intelligence artificielle a naturellement vu les gens l'appliquer (ou tenter de l'appliquer) d'innombrables façons, avec plus ou moins de succès. Si l'intelligence artificielle peut être un outil puissant - entre de bonnes mains, dans la bonne situation -, elle n'est pas aussi facile à mettre en œuvre qu'un système d’information avec un simple pression sur quelques touches. Cela est peut-être particulièrement vrai pour les environnements qui traitent du comportement humain, comme le marketing. Comme le dit le proverbe, "à grand pouvoir, grande responsabilité" : et les responsables marketing doivent être conscients de ses pièges potentiels pour éviter les problèmes. Tout aussi important est le besoin de savoir comment déployer correctement leurs outils d'IA pour éviter de gaspiller à la fois son potentiel et les efforts et ressources de leur entreprise. En comprenant les pièges de l'IA, les responsables marketing peuvent tirer le meilleur parti de ses opportunités.
Jusqu'à présent, les plus grandes avancées de l'IA dans le monde des affaires ont été liées au deep learning, c'est-à-dire aux réseaux neuronaux complexes et multicouches (c'est-à-dire profonds), à la résolution de problèmes difficiles grâce à l'analyse prédictive. Plus un réseau de neurones comporte de couches, plus il est complexe, et plus les réseaux "stratifiés" peuvent identifier et apprendre des relations plus complexes entre les variables. Cela signifie que l'intelligence artificielle peut apprendre à découvrir des relations que les techniques statistiques existantes ne peuvent pas détecter et qu'elle peut apprendre à le faire de manière autonome. C'est le principal argument de vente des algorithmes d'IA contemporains.
Si la capacité des algorithmes d'IA à créer des modèles de manière autonome est sa force, elle n'est pas sans poser de problèmes lorsqu'il s'agit de la mettre en œuvre. Ces défis sont : un manque de bon sens, des fonctions objectives, un environnement d'apprentissage sûr et réaliste, des algorithmes biaisés, une intelligence artificielle compréhensible et contrôlable, le paradoxe de l'automatisation et le transfert de connaissances.
Manque de bon sens
Qu'entendons-nous par manque de bon sens ? Ce n'est pas une insulte à ses programmeurs ou aux utilisateurs ; non, nous voulons dire que l'algorithme lui-même manque de ce que nous, les humains, appelons le "bon sens". Nous savons que l'intelligence émotionnelle est importante, et en effet les systèmes d'IA sont de plus en plus capables de reconnaître les émotions des gens, par la reconnaissance d'images, l'analyse de la voix ou l'analyse de textes. Mais reconnaître les émotions ce n’est pas les comprendre et les ressentir. Un système d'IA pourrait apprendre que les mots "reine" et "couronne" sont liés, et pourrait même les utiliser de manière appropriée dans une phrase, mais le sens des mots et des phrases s'en trouverait perdu. Tout ce qui s'approche du bon sens doit être programmé par une personne, ce qui devient un problème lorsqu'il s'agit de fonctions objectives.
Fonctions objectives
Une fonction objective est une fonction qui spécifie le résultat que l'algorithme d'IA vise à optimiser (Sutton et Barto, 2018). Dans le contexte du marketing, cela pourrait ressembler à une maximisation des profits ou à la fidélisation des clients. La "liberté" de l'IA par rapport au bon sens entrave sa capacité à définir une fonction objective. Il se peut que les humains comprennent quelque chose de manière implicite, mais qu'ils aient ensuite du mal à traduire cela pour l'algorithme. Cela pourrait mal tourner : une voiture autonome qui a pour mission de "se rendre à l'aéroport dès que possible" pourrait y arriver en un temps record, mais en ayant fauché des piétons et grillé des feux rouges sur son chemin. Si l'exemple précédent est évidemment extrême, nous avons déjà vu les conséquences de ce jeu dans la vie réelle, avec des systèmes fondés sur le sexe ou la race. Un résultat comme la maximisation des profits ne peut être envisagé sans tenir compte des implications juridiques, morales et éthiques, que les acteurs du marketing doivent garder à l'esprit lorsqu'ils élaborent et mettent en œuvre leurs systèmes.
Un environnement d'apprentissage sûr et réaliste
Comme vous pouvez l'imaginer, tout cela est plus facile à dire qu'à faire. Le transfert de connaissances de l'expert à l'algorithme et vice versa est l'un des plus grands problèmes auxquels l'IA est confrontée aujourd'hui, et le potentiel d'erreurs coûteuses est énorme. Pour éviter les retombées, il est important que les algorithmes d'IA apprennent dans un environnement sûr et réaliste. Sûr, car s'ils font des erreurs, l'impact sur l'entreprise est moindre et ils évitent l'équivalent marketing d'un feu rouge. Réaliste, car les données ressemblent à ce qu'ils recevraient dans une situation réelle. Cela représente un défi pour le marketing, car les clients peuvent être imprévisibles, et un nouveau facteur (comme, par exemple, la COVID-19) peut mettre à mal les campagnes de marketing les mieux conçues. S'il peut être tentant de penser que l'IA réduit, voire élimine, notre besoin de comprendre le comportement des clients, c'est le contraire : nous avons plus que jamais besoin d'une théorie détaillée du comportement des clients, car cela nous aidera à mieux configurer nos algorithmes d'IA.
Algorithmes biaisés
Cela nous amène à une autre limitation de l'utilisation de l'IA dans le marketing : son potentiel à être biaisé. Bien sûr, l'algorithme lui-même n'est pas biaisé, mais s'il est suffisamment puissant, il pourrait identifier une caractéristique comme la race ou le sexe par lui-même et faire des prédictions biaisées. Comment cela se fait-il ? Il peut capter d'autres informations qui agissent comme un proxy du facteur en question, comme l'éducation ou le revenu, reproduisant ainsi involontairement les biais que l'on trouve dans les données. Dans le contexte du marketing, cela pourrait conduire à des résultats tels qu'un algorithme d'optimisation des prix visant à faire payer davantage les femmes ou un algorithme de publicité ciblant une population vulnérable. Cela a des implications légales aussi bien qu'éthiques évidentes. Le problème est compliqué par le fait que l'ajout de la variable sociodémographique en question au modèle pour tenter de le clarifier pourrait simplement faciliter la réalisation de prédictions biaisées par l'algorithme. Si les acteurs du marketing ne comprennent pas correctement les algorithmes qu'ils utilisent, ils pourraient ne pas savoir comment contester ces prédictions troublantes.
L'intelligence artificielle compréhensible
La capacité à comprendre et à expliquer le modèle est un autre facteur de l'adoption de l'IA. Si vous utilisez un modèle d'IA, vous devez comprendre pourquoi il fait les prévisions qu'il fait et être capable d'interpréter ce que fait le modèle. Plus précisément, les "manipulateurs" humains de l'IA doivent être capables d'expliquer : 1) l'objectif du modèle, 2) les données qu'il utilise et 3) le lien entre les entrées et les sorties. En comprenant cela, il est également possible de savoir pourquoi le système d'IA est préférable à un système non-IA.
Intelligence artificielle contrôlable
L'utilisation du terme "handlers" ci-dessus était intentionnelle : un système d'IA doit pouvoir être contrôlé et neutralisé. Cela pourrait faire apparaître des images de moi, de I, Robot et de robot tueur, et bien que la réalité soit moins mortelle, elle reste sérieuse. Un exemple récent est que l'algorithme de tarification d'Uber a répondu à l'afflux de personnes fuyant les lieux de l'attentat terroriste de juin 2017 à Londres en adaptant (en augmentant donc) le prix des trajets à plus du double du tarif habituel. Tous ceux qui ont pris Uber connaissent malheureusement leur système de tarification de pointe, mais à la suite d'un attentat terroriste, Uber est passé pour un profiteur impitoyable. Cependant, le système de surveillance d'Uber a rapidement signalé le problème, et ils ont mis en place des mécanismes qui leur ont permis de passer outre l'algorithme en quelques minutes. Ils ont également été rapides à communiquer sur ce qui se passait, ont fait des tours gratuits dans cette zone et ont remboursé les personnes touchées. Hélas, le mal était fait. Cette situation a laissé une marque noire sur leur réputation et sert d'avertissement aux responsables marketing que tout algorithme qu'ils mettent en œuvre doit être constamment surveillé et avoir la possibilité d'être contourné.
Le paradoxe de l'automatisation
L'objectif de l'automatisation est de remplacer le rôle de l'homme, en visant à rendre les tâches plus rapides et plus précises et en laissant les gens libres d'effectuer des travaux plus complexes. L'inconvénient est que les gens n'ont pas l'expérience de ces tâches plus simples et n'ont pas la possibilité de développer progressivement leur expertise et leurs compétences. Dans le domaine du marketing, cela pourrait signifier que les personnes travaillant dans ce domaine, des agents du service clientèle aux analystes des études de marché, ratent l'occasion d'affiner leurs compétences sur des tâches plus simples et plus répétitives qui leur permettent de mieux comprendre les clients et leurs besoins, et se retrouvent à ne traiter que les cas les plus compliqués et les plus uniques. Il reste à voir quelles seront les conséquences de cette situation sur la qualité du service et du travail.
La prochaine frontière de l'IA et du marketing : transférer et créer des connaissances
Ce qui distingue l'IA des statistiques traditionnelles est sa capacité à effectuer un apprentissage de haut niveau, comme la mise en évidence de relations entre des indicateurs pour prédire la probabilité qu'un internaute clique sur une publicité, et ce de manière autonome. Pouvoir créer des connaissances de ce type est un énorme avantage de l'IA. Cependant, le transfert de connaissances du modèle d'IA à l'expert et vice versa est une faiblesse majeure de l'IA. Comme le marketing traite du comportement humain, cela nécessite beaucoup de bon sens, ce qui, comme nous le savons maintenant, n'est pas le point fort des modèles d'IA. Comme ce type de connaissance est souvent plus implicite, traitant des codes et des normes sociales, il est également plus difficile de programmer dans un modèle d'IA. La machine sera également capable de repérer les liens qu'elle doit transférer à l'expert humain, notamment pour que les experts puissent identifier les failles du système et comprendre son fonctionnement. Un système d'IA capable de créer et de transférer des connaissances à l'expert humain est donc le Saint Graal de la technologie de l'IA.
Les points à retenir
Que peut donc faire un responsable marketing qui souhaite utiliser l'IA ? Il y a quelques points clés à garder à l'esprit :
1. Comprendre l'objectif de la mise en œuvre du système d'IA. Quel est votre objectif ?
2. Identifier la valeur ajoutée du système d'IA. Qu'apporte-t-il en plus des capacités humaines ?
3. Comprendre ce que fait votre système d'IA. Quelles sont les données qu'il analyse ? Comment produit-il les résultats ?
4. Examinez le système pour voir s'il n'est pas biaisé. Votre système comporte-t-il des biais intégrés ?
5. Communiquer : veiller à ce que les parties prenantes concernées (consommateurs, employés) aient la possibilité d'observer le système d'IA et d'interagir avec lui, d'établir la confiance, d'assurer le transfert réciproque de connaissances et de pratiques.
Pour aller plus loin :
De Bruyn, A., Viswanathan, V., Shan Beh, Y., Kai-Uwe Brock, J., & von Wangenheim, F. (2020). Artificial intelligence and marketing: Pitfalls and opportunities. Journal of Interactive Marketing, 51, 91-105.
Sutton, R. S., & Barto, A. G. (2018). Reinforcement Learning: An Introduction Second Edition. Cambridge, MA: MIT Press.