intelligence artificielle

Tribune d'expert

Comment le cloud a libéré tout le potentiel de l'IA ?

Avec le cloud, les entreprises ont aujourd'hui accès à une gamme étendue de services innovants jusqu'alors réservés au monde de la R&D. Pour en bénéficier pleinement, elles doivent toutefois mettre en place un cadre méthodologique, préalable à toute industrialisation. Les experts VISEO vous partagent leur vision du sujet.

Cantonnée aux laboratoires de recherche depuis une cinquantaine d'années, l’intelligence artificielle est aujourd'hui accessible à toutes les entreprises, de la startup au grand compte. Cette démocratisation, on la doit à deux révolutions. Le big data a tout d'abord permis d'absorber la croissance exponentielle du volume de données. Des données structurées mais aussi des informations plus complexes comme des images, des sons ou du texte libre.


L'autre tournant est intervenu avec la transformation cloud. En s'appuyant sur la scalabilité et la puissance de calcul de leurs infrastructures, les providers proposent un catalogue étendu de solutions innovantes sous forme de services managés. Des services cognitifs comme la reconnaissance vocale, l’analyse du langage naturel, la classification de textes, la reconnaissance de formes ou la traduction automatique, jusqu’à un passé récent réservés aux équipes de R&D, sont aujourd’hui à la disposition de n’importe quel développeur. 

Des services innovants sur étagère

Une entreprise peut ainsi expérimenter puis déployer ces services innovants sans avoir à les développer elle-même ni à investir dans une infrastructure dédiée. Ces modèles algorithmiques sont, par ailleurs, packagés et pré-entraînés et leur intégration se fait par le simple appel d’une API. Ce qui réduit le délai de mise en production. 


Les offres d'automatisation de machine learning (AutoML) vont jusqu'à suggérer l'algorithme le plus pertinent à partir d'un jeu de données ou d'une problématique donnée. Cette IA "sur étagère" permet également de surmonter la pénurie d'experts en data science.


L'approche multicloud est, bien sûr, essentielle. Elle permet de benchmarker les cloud providers en fonction de leurs performances, service par service. Un hyperscaler sera particulièrement pertinent en computer vision dans un contexte particulier, un autre dans le traitement du langage naturel.  


Dans la nécessaire industrialisation des projets d'IA, le cloud présente un autre avantage. Il fait passer d'une vision centralisée de la donnée, dans un data lake, à un environnement décentralisé, le data mesh. Ce "maillage de données" va désiloter les entrepôts de données tout en appliquant les mêmes structures de règles. 


La création de digital factories permet d'industrialiser cette démarche en mettant en place des pipelines de données. C'est un gain de temps appréciable pour un data scientist qui consacre jusqu'à 80 % de son activité aux phases préparatoires d'exploration, d'extraction et de valorisation de la donnée. Le cloud, avec ses process et ses services packagés, autorise cette automatisation.


L'edge computing permet, lui, de traiter l'information au plus proche de sa collecte sans qu'elle n'ait à monter dans le cloud pour être analysée. Le traitement - l'analyse du taux de glucose dans le sang, par exemple - se fait en local mais à partir de modèles algorithmiques entraînés dans le cloud. Soit une réduction du délai de latence et une meilleure protection des données sensibles.

L'ère du POC est finie

Avec toutes ces avancées, l'ère du POC est définitivement derrière nous. Une entreprise peut tout de suite se projeter dans la mise en production. Cette industrialisation suppose toutefois de mettre en œuvre un cadre méthodologique ad hoc. L'approche DataOps améliore l’automatisation des flux de données en favorisant la communication entre les gestionnaires et les consommateurs de données. Le data architecte et le data ingénieur vont collaborer, dans un même environnement. Une fois le modèle en production, une bonne gouvernance permettra de le monitorer afin de s'assurer qu'il ne dérive pas avec le temps. 


Plus généralement, une entreprise doit définir une stratégie IA claire. Certaines organisations ont une vision idéalisée voire irréelle des apports du machine learning et du deep learning. Nous sommes encore loin de l'IA totale et ces technologies résolvent, pour l'heure, des problèmes identifiés et sur des périmètres cadrés. Il convient donc de démystifier l'IA et d'expliquer ses apports réels dans un contexte opérationnel. Dans la phase de cadrage et d'idéation, la compréhension des enjeux métiers permettra de remonter les cas d'usage les plus pertinents. 


L'implication des métiers apparaît, par ailleurs, comme un facteur clé de succès. Un modèle peut être particulièrement performant et ne pas être utilisé tout simplement parce que ses résultats ne sont pas interprétables. Pour éviter l'effet boîte noire, l'explicabilité du modèle est essentiel. Il faut avoir la capacité d'expliquer par quels mécanismes il obtient, à partir de ces données en entrée, ces résultats en sortie. La définition des indicateurs doit se faire avec les futurs utilisateurs. Il ne faut pas faire de l'IA pour faire de l'IA mais des produits opérationnels avec de l'IA "inside".


Autre élément à prendre en compte dès le début d'un projet d'IA : son impact environnemental. Pour réduire son empreinte carbone, il convient d’établir des indicateurs permettant de mesurer ces impacts puis de la modélisation à la mise en œuvre du produit de favoriser les modèles algorithmiques les plus faiblement consommateurs de données. Ou comment concilier transformation numérique et transition écologique.

 

Télécharger l'ebook Cloud VISEO