Comment rendre un algorithme de machine learning interprétable ou explicable ? by VISEO

Parution presse

Comment rendre un algorithme de machine learning interprétable ou explicable ?

L'interprétabilité et l'explicabilité des algorithmes sont des enjeux clé de l'intelligence artificielle. Souvent qualifiés de boites noires, les modèles de deep learning sont au cœur du problème. Mais alors, comment rendre une IA transparente ? Frédérick Vautrin, Directeur Data Science VISEO, et Jérémie Méhault, Consultant Data Science VISEO, répondent à la question dans le JDN. Découvrez la publication. 
 

Comment rendre un algorithme de machine learning interprétable ou explicable ? Un véritable défi quand il s'agit d'éclairer un décideur sur le résultat d'une IA qu'il est censé utiliser pour éclairer ses orientations opérationnelles ou stratégiques. Comment pourrait-il se prononcer s'il ne saisit pas la manière dont le modèle fonctionne, s'il n'a aucun moyen d'apprécier le processus logique qui a conduit à générer tel ou tel indicateur en matière de prévision financière, de recommandation de produits, de maintenance prédictive... Transparence rime aussi avec confiance, et tout particulièrement lorsqu'on évoque l'IA comme nouvelle étape dans l'automatisation des systèmes. La transparence de l'intelligence artificielle va par ailleurs de pair avec des considérations réglementaires : comment une autorité de mise sur le marché peut-elle certifier une IA si elle se résume à une black box ?
 

En matière d'IA, les chercheurs et data scientists distinguent clairement interprétabilité et explicabilité. "Un algorithme est dit interprétable quand on comprend comment il fonctionne, comment il apprend [....] A l'inverse des algorithmes de machine learning dits classiques, le deep learning, lui, ne peut se résumer à des formes analytiques simples. Il n'est donc pas "nativement" interprétable. Ce qui ne l'empêche pas d'afficher des résultats révolutionnaires, notamment dans la vision par ordinateur ou le traitement automatique du langage naturel et de la voix. C'est ce qui fait son succès. Un vrai paradoxe. Quant à l'explicabilité d'un algorithme, elle consiste à identifier pas à pas les variables d'entrée qui ont mené aux résultats qu'il produit. [...]

 

Il existe de nombreuses autres méthodes et outils d'explicabilité orientés machine learning. C'est le cas d'Eli5 qui est taillé pour élucider les processus de prévision des classificateurs et régresseurs linéaires de la librairie Scikit-learn, ou encore de Shap qui consiste à moyenner l'impact qu'une variable a pour toutes les combinaisons de variables possibles d'un modèle. "Les variables combinées peuvent évidemment avoir plus d'impact que si elles sont prises indépendamment", commente Frédérick Vautrain, directeur data sciences de VISEO. Côté interprétabilité, "une des méthodes est de réduire le modèle de départ à un algorithme moins complexe tel un arbre de décision ou une régression", explique Jérémie Méhault, consultant en data science chez VISEO. [...]

 

Au-delà de l'interprétabilité et de l'explicabilité d'un modèle d'IA, maîtriser les résultats d'un algorithme passe enfin par le test. "L'objectif est de mesurer la cohérence des résultats avec les objectifs fixés et analyser la sensibiliser aux erreurs", précise Frédérick Vautrain. [...]

 

Retrouvez l'intégralité de l'article dans le JDN