Comment l’intelligence artificielle révolutionne l’analytique et ce que cela signifie pour les entreprises

Comment l’intelligence artificielle révolutionne l’analytique et ce que cela signifie pour les entreprises

Les progrès majeurs en matière d’intelligence artificielle (IA) transforment une grande partie des secteurs d’activité et des métiers. Dans son article intitulé “Augmented analytics”, à paraître en 2019 dans la revue Business & Information Systems Engineering, le Professeur Nicolas Prat s’intéresse à l’impact qu’a l’intelligence artificielle sur l’analytique. Comment celle-ci révolutionne-t-elle l’analytique et quels sont les défis et opportunités pour les managers ?

L’analytique (“analytics”) désigne les technologies et processus employés pour collecter, combiner, modéliser, analyser et visualiser les données, afin d’obtenir des informations servant à appuyer une décision. Différents types d’analyse ont pu être définis, notamment: l’analyse descriptive, diagnostique, prédictive et prescriptive.

Le terme “analytics” a gagné en popularité à partir du milieu des années 2000. Au début des années 2010, la révolution Big Data lui a permis de se développer. Les logiciels d’analytique en libre-service ont donné la possibilité aux managers de traiter leurs propres données et de créer des visualisations sans devoir systématiquement recourir au département IT. Aujourd’hui, l’IA (et notamment le machine learning et le traitement automatique du langage naturel) constitue une nouvelle révolution pour ces outils. L’entreprise Gartner parle d’analytique augmentée (“augmented analytics”). D’autres évoquent la “génération cognitive de l’aide à décision”, l’analytique intelligente (“smart analytics”) ou simplement l’analytique augmentée par l’IA. L’analyse prédictive (et plus généralement les méthodes d’analytique avancées) s’est traditionnellement appuyée sur des algorithmes de machine learning, comme les réseaux neuronaux, pour créer des modèles. En revanche, ce qui est nouveau est que les applications de l’IA interviennent dorénavant à tous les niveaux du cycle analytique. Par exemple, on peut appliquer le machine learning à la recherche du meilleur modèle de machine learning (utiliser le machine learning pour automatiser le machine learning…).

L’intelligence artificielle imprègne l’ensemble du cycle analytique

Le cycle analytique comprend les phases suivantes :

  • Phase 1: l'identification du problème à résoudre avec l’analytique, ainsi que des opportunités pour l’entreprise
  • Phase 2: la préparation des données, dans laquelle on distingue le profilage des données (vérification de la qualité) et leur transformation
  • Phase 3: l’analyse en elle-même. Dans cette phase, on opère une distinction entre la découverte de données (qui peut être du fait des analystes ou des managers utilisant les logiciels de business intelligence en libre-service) et la modélisation (construction et évaluation de modèles par des data scientists)
  • Phase 4: le déploiement des modèles dans les systèmes de production
  • Phase 5: la prise de décision fondée sur le résultat des analyses
  • Phase 6: l’action (mise en œuvre des décisions)
  • Phase 7: le contrôle et le suivi des résultats des actions prises.

Les exemples ci-après illustrent quelques cas d’application de l’IA au cours du cycle analytique. Bien qu’elles ne soient pas toutes au même stade de maturité, ces applications sont actuellement mises en œuvre, et d’autres vont encore émerger, à mesure que l’IA continue de se rapprocher de l’intelligence humaine.

Dans la phase 2, certains outils guident les utilisateurs dans la préparation des données, en suggérant des transformations pour nettoyer ou standardiser les données. Ici, les gains de performances procurés par l’IA peuvent être significatifs puisque, très souvent, cette préparation compte pour plus des deux tiers du temps consacré à l’ensemble du cycle analytique.

Dans la phase 3, le machine learning et le traitement automatique du langage naturel transforment significativement la découverte des données. Ils permettent par exemple un renforcement des visualisations avec des analyses avancées (clustering et prédiction), des conseils en matière de découverte des données (suggestions de visualisations fondées sur l’avancée du processus de découverte de données), l’interrogation de données en langage naturel, ou encore la génération de langage naturel (génération automatique de texte résumant les informations importantes dans une visualisation). Concernant la modélisation, certains outils utilisent le machine learning pour automatiser la génération et l’évaluation des modèles de machine learning, ce qui est traditionnellement un rôle très important des data scientists.

Dans les phases 5 et 6, certaines décisions opérationnelles sont déjà appliquées et mises en place grâce à l’IA, l’exemple le plus caractéristique étant le trading haute-fréquence.

La démocratisation de l’analytique

Les systèmes interactifs d’aide à la décision (SIAD) sont apparus dans les années 1970. Ils ont progressivement évolué, donnant de plus en plus de liberté aux managers dans l’analyse de leurs données pour obtenir des informations et prendre les bonnes décisions. Les systèmes d’information pour dirigeants (Executive Information Systems, EIS) sont la toute première version des tableaux de bord électroniques. Grâce au développement des entrepôts de données, les managers ont pu créer leurs analyses de façon indépendante, c’est-à-dire sans avoir à solliciter systématiquement le département IT. Avec les logiciels de business intelligence en libre-service, la démocratisation de l’analytique s’est affirmée, à l’aide d’outils comme Tableau, Qlik ou Power BI, facilitant la découverte de données et la visualisation. En revanche, ces outils se sont d’abord cantonnés aux tâches traditionnelles, à savoir le reporting, le traitement analytique en ligne (OnLine Analytical Processing, OLAP) et les tableaux de bord. La découverte intelligente de données (“smart data discovery”, un terme introduit par Gartner) a apporté aux outils de business intelligence en self-service des techniques d’analytique avancées. Par exemple, l’outil Watson Analytics d’IBM repose en grande partie sur l’analyse prédictive. Cette découverte intelligente de données a abaissé la barrière à l’entrée pour accéder à l’analytique avancée. Ainsi, spécialistes de domaine, analystes et managers sont devenus, selon l’expression du cabinet Gartner, des citoyens data scientists (“citizen data scientists”). Avec la dernière génération d’analytique augmentée par l’IA, la démocratisation va plus loin que la simple découverte de données. Ainsi, du moins en principe, vous n’avez plus besoin d’être un professionnel de l’IT pour nettoyer les données, ou un data scientist pour créer et évaluer des modèles de machine learning.

L’affirmation selon laquelle des décisions fondées sur les données entraînent de meilleurs résultats et la maîtrise de l’analytique conduit à de meilleures performances est maintenant communément acceptée et a été étayée empiriquement. A l’ère du Big Data et de l’Internet des objets (Internet of Things, IoT), les données pouvant appuyer une décision sont de plus en plus nombreuses et variées, et les décisions doivent être prises de plus en plus rapidement. Ce contexte, couplé à la pénurie de data scientists sur le marché du travail, demande aux managers de jouer un rôle de plus en plus important dans l’analytique. L’IA peut les y aider. En revanche, la croissance de l’analytique augmentée par l’IA apporte de nouveaux défis, notamment en matière de gouvernance et de qualité des données.

Qualité des données et gouvernance

La qualité de l’analytique dépend en grande partie de la qualité des données en amont. Dans les faits, les données sont souvent incomplètes, inexactes, contradictoires ou biaisées. Le fait que l’IA permette de démocratiser la préparation des données multiplie les risques de mauvaise qualité des données. De plus, la qualité des données a une influence sur la confiance accordée à l’analytique augmentée par l’IA, de la même manière qu’elle a une influence sur la confiance accordée à l’IA en général. L’intelligence humaine a encore un rôle important à jouer dans la garantie de la qualité des données, notamment dans l’interprétation de ce qu’est une "mauvaise donnée".

Au-delà de la qualité des données, l’analytique augmentée par l’IA met le sujet de la gouvernance de l’ensemble du cycle analytique au centre des préoccupations. Ce cycle est complexe et il peut être composé de plusieurs sous-cycles et instancié de plusieurs façons. Le processus fait intervenir de multiples plusieurs parties prenantes et outils, et l’accès démocratisé à l’analytique redéfinit les rôles de ces parties prenantes, rajoutant une couche de complexité dans l’orchestration des différentes responsabilités dans le cycle.

Avec la révolution numérique, certaines tâches traditionnellement assignées au département IT se sont déplacées vers d’autres départements. En revanche, ce département garde un rôle essentiel dans la gouvernance de l’IT en général, et dans la gouvernance de l’analytique en particulier, notamment par la définition des rôles, des processus et des normes, établie en lien avec les managers.

Là où l’intelligence artificielle ne peut pas (encore) battre les humains

En permettant l’automatisation de tâches autrefois réalisées par des agents humains, l’IA entraîne une redéfinition des rôles. Les rôles traditionnels dans le cycle analytique doivent évoluer en prenant en compte les compétences qui permettent aux humains de se distinguer des machines. Bien que les capacités de l’IA progressent à grande vitesse, les humains surpassent encore les machines dans les domaines suivants : poser les bonnes questions (trouver les problèmes plutôt que les solutionner), créer, interagir avec les autres. Ces compétences encore fondamentalement humaines peuvent suggérer certaines évolutions dans le rôle des data scientists, des analystes et des managers dans le cycle analytique. Les data scientists sont menacés par l’IA dans leur fonction de création et d’évaluation de modèles. Ainsi, ils pourraient solidifier leur rôle dans la phase initiale du cycle, c’est-à-dire identifier les questions opérationnelles que résoudront par la suite les modèles de machine learning. Les data scientists tout comme les analystes devrait par ailleurs aiguiser leurs compétences en storytelling. Comme pour rédiger des romans, raconter une histoire à l’aide de données requiert de la créativité. Finalement, les managers pourraient utiliser leurs compétences relationnelles pour faire de l’analytique un processus plus collectif. Contrairement aux SIAD de groupe d’antan (GDSS), les principaux systèmes d’analytique actuels se concentrent principalement sur les individus. En utilisant la réalité virtuelle ou augmentée (analyse immersive), les managers pourraient analyser les données de façon collective, et débattre sur leur signification, avant de prendre une décision commune.

Bien managée, l’analytique augmentée par l’IA procure l’opportunité d’analyser plus de données, de façon plus efficace, afin de prendre de meilleures décisions. Au-delà des défis mentionnés ci-dessus, plusieurs questions demeurent ouvertes pour de futurs travaux de recherche et pour les praticiens :

  • Tous les managers doivent-ils adopter le rôle de citoyen data scientist, ou faudrait-il désigner une certaine catégorie devant endosser ce rôle ?
  • Dans quelle mesure l’IA améliore-t-elle l’utilité et la facilité d’usage des systèmes analytiques ?
  • Quels sont les facteurs clés de réussite de l’analytique fondée sur l’IA ?
  • Quels sont les principaux facteurs affectant la crédibilité des informations découlant de l’analytique augmentée par l’IA, et quel est le niveau de confiance que l’on peut accorder aux décisions que cette dernière prend ou suggère ?

Suivez nous sur les réseaux