Les entreprises s'appuient de plus en plus sur les modèles d'intelligence artificielle et de machine learning. Mais comment s'assurer de leur fiabilité ?
L'intelligence artificielle (IA) nous promet d'accroître la compréhension humaine en automatisant la prise de décision. Josh Parenteau, directeur de la veille stratégique chez Tableau, estime qu'à l'avenir, l'intelligence artificielle et le machine learning offriront une nouvelle perspective, « en aidant à dégager des informations exploitables qu'on n'avait encore jamais décelées ». Une étude Gartner révèle que d'ici 2020, « 85 % des DSI mettront à l'essai des programmes d'IA via plusieurs approches de sourcing : achat, développement ou externalisation ». Mais, alors que les entreprises s'appuient de plus en plus sur les modèles d'apprentissage automatique, comment peut-on s'assurer de leur fiabilité ?
De nombreuses applications de machine learning ne permettent pas pour l'instant de « regarder sous le capot » pour comprendre les algorithmes ou la logique ayant mené aux recommandations ou à la prise de décision. Quand elles envisagent une adoption à plus grande échelle, les entreprises qui pilotent des programmes d'IA émettent donc des doutes tout à fait légitimes. Comme l'explique Adrian Weller, chercheur senior dans le domaine à l'Université de Cambridge : « La transparence est généralement considérée comme essentielle au déploiement effectif de systèmes intelligents » tels que le machine learning. En effet, elle garantit notamment que les modèles fonctionnent comme prévu et permet aux utilisateurs de faire confiance aux prédictions du système au moment de prendre des décisions.
Ce besoin de transparence a donné naissance à une pratique qui consiste à rendre les modèles de machine learning compréhensibles et transparents. Face à un résultat, les décisionnaires ont davantage de questions : pourquoi le modèle a-t-il donné cette réponse ? Quel est son niveau de certitude ? Qu'aurait-il répondu si les données avaient été différentes ? Au final, ils poseraient les mêmes questions à un expert humain avant de prendre une décision stratégique. Selon Richard Tibbetts, chef de produit pour l'intelligence artificielle chez Tableau, « les décisionnaires ont raison de se méfier lorsque les réponses fournies par un système d'intelligence artificielle ou de machine learning sont inexplicables. L'analytique et l'intelligence artificielle ont pour objectif d'assister et non pas de remplacer entièrement, l'expertise et la compréhension humaine ».
Dans les entreprises, particulièrement celles qui sont exposées à des risques comme les services financiers ou les laboratoires pharmaceutiques, les responsables métier exigent que les équipes de data science utilisent des modèles plus explicables dont la construction est consignée dans un historique et bien documentée. Pour expliquer ces modèles aux utilisateurs métier, les data scientists se servent des plates-formes BI. En effet, celles-ci permettent d'analyser des conclusions de manière interactive pour mieux les valider.
Les entreprises ont fini par reconnaître la valeur de l'intelligence artificielle et du machine learning. Mais, pour avoir un réel impact, ces systèmes doivent se montrer dignes de confiance. Ils doivent pouvoir justifier leurs conclusions de façon intelligible, aussi simplement que possible et répondre de façon dynamique aux questions supplémentaires, afin d'aider les humains à mieux comprendre leurs données.