Dans un blog précédent, nous avions introduit l’initiative prise par Smals Recherche en collaboration avec les analystes business d’organiser des ateliers dans le but de capturer les opportunités d’intelligence artificielle (IA) chez nos membres. Pour rappel, l’objectif de ces ateliers était d’une part de partager les connaissances et bonnes pratiques et d’autre part, de détecter des cas d’utilisation prometteurs.
Les use cases
Nous avons noté un grand intérêt pour l’IA de la part des participants en partie dû à la récente popularité de ChatGPT et beaucoup d’idées ont été proposées lors de nos sessions de brainstorming. Cependant, pour des contraintes de temps, nous n’avons pu analyser chaque proposition en détail et avons dû faire une sélection. Cette sélection s’est faite sur base des critères suivants :
- Le use case est clairement énoncé et l’objectif bien défini
- Le use case est réaliste
- Le use case est un problème connu d’intelligence artificielle
- Les données sont disponibles et utilisables
- Il y a une réelle valeur ajoutée pour l’institution
- L’impact sur les processus business est signifiant
- Il y a une réelle valeur ajoutée pour les institutions en général (problème récurrent)
Les use cases ont été regroupés par thèmes décrits dans la liste ci-dessous:
- Suivi et prédiction des incidents. Amélioration du système de monitoring des infrastructures IT pour prévenir les pannes et défaillances systèmes qui entrainent une dégradation de la qualité des services proposés aux citoyens ou aux autres institutions.
- Aide à la décision. Suggestion d’un code ou d’une catégorie qui ouvre le droit à des avantages sociaux selon la situation de la personne ou de l’entreprise.
- Détection de fraude. Reconnaître des patterns de fraude et faire des suggestions des cas à investiguer. Les propositions générées par le modèle sont contrôlées par l’agent.
- Extraction d’information sur internet. Système d’extraction qui permet de détecter et d’extraire sur certains sites l’information pertinente pour l’institution. Ces informations alimenteront des bases de connaissance, l’objectif étant de pouvoir suivre l’évolution de la législation ou les discussions en cours autour d’un sujet.
- Recherche sémantique d’informations dans une base de connaissance. Il y a un réel besoin chez presque toutes les institutions d’avoir un système de recherche performant type « Google ». La recherche se fait dans le cadre du traitement d’un dossier ou autour d’un thème, et porte principalement sur des documents disponibles en interne ou des informations disponibles publiquement (ex. législation).
- Détection des anomalies. Contrôle des données reçues, contrôle des calculs des montants à verser. Le système doit être capable d’identifier les anomalies et les situations erronées.
- Assistants virtuels. Utilisation des chatbots pour assister et améliorer le service aux citoyens, routing des appels vers le service le plus approprié.
- Routing des mails entrants. Les administrations reçoivent quotidiennement une grande quantité de documents sous forme électronique ou par courrier. Après extraction de métadonnées et classification, ces documents sont ensuite envoyés vers les services adéquats et/ou vers un système de gestion électronique.
Points d’attention
Le passage du simple intérêt pour l’IA à la résolution de problèmes concrets demande : de partir d’un besoin clairement identifié et non pas d’une technologie, d’avoir un processus d’identification rigoureux de use cases d’IA et enfin, de s’assurer de la valeur ajoutée de l’IA comme solution et de disposer de métriques pour mesurer le gain apporté.
Constatations
Des zones de synergie potentielle
Lors des workshops, nous avons observé que certains besoins étaient partagés par plusieurs institutions. C’est le cas notamment de la détection de fraude. Bien que l’objet de fraude soit différent pour chaque institution et au sein des institutions, celles-ci rencontrent les mêmes challenges techniques, juridiques et organisationnels notamment autour de la collection et l’utilisation des données. Il convient aussi de définir collectivement un cadre éthique et juridique pour l’utilisation et l’échange de données sensibles.
Un autre point commun à tous les membres est la recherche facile d’informations autour d’un dossier ou d’un sujet. Les récentes avancées en matières d’intelligence artificielle et de traitement de langage en particulier pourraient certainement apporter des solutions efficaces.
L’amélioration des interactions entre le citoyen et les services au moyen d’assistants virtuels sont un besoin récurrent. L’objectif étant d’amener le citoyen à accéder rapidement à son dossier ou à une information d’ordre général. Néanmoins, l’accès aux dossiers via un assistant virtuel pause des défis pour l’identification des personnes et l’échange d’informations personnelles. Ce point requiert une réflexion commune de la part des institutions.
Pour tous les éléments de synergie cités ci-dessus, les mêmes méthodes et bonnes pratiques ainsi que les outils techniques pourraient être utilisés.
L’IA n’est pas toujours la réponse
L’importance de l’IA comme réponse à un problème est parfois surestimée, très souvent les use cases proposés comme idéals pour l’IA demandent simplement un ajustement des processus existants ou d’implémenter une bonne gouvernance de données. Il ne faut jamais perdre de vue le gain d’une solution IA par rapport à l’investissement, cela ne peut se faire qu’en identifiant des critères mesurables qui permettent d’évaluer le gain par rapport à une situation existante. Pour cela, il est important d’analyser les causes du problème que l’on veut résoudre et/ou de définir quantitativement l’objectif que l’on veut atteindre en implémentant un nouveau service. Les actions qui peuvent être prises dans ce sens sont par exemple :
- Collecter des statistiques. Combien d’appels, de mails envoyés ? Quelles sont les questions fréquemment posées ? Quelles types d’erreurs dans le traitement des dossiers et à quelle fréquence? Quelle est la fréquence d’utilisation d’un service ? …
- Collecter les avis des utilisateurs. Quelle information est difficile à retrouver ? qu’est ce qui rend un service difficile à utiliser ? …
L’arbre qui cache la forêt
Les problèmes énoncés pendant les sessions de brainstorming qui semblent à priori simples se révèlent, après discussion, plus complexes à mettre en pratique entre autres à cause des challenges discutés ci-dessous.
Les données restent un point difficile
Les participants aux workshops sont conscients de l’importance des données pour l’implémentation de l’IA et très souvent soulignent l’abondance des données disponibles dans leur institution. Cependant, en analysant de près les use cases, nous constatons qu’il reste de nombreux défis quant à l’utilisation de ces données.
Le principal obstacle au déploiement de l’IA (notamment pour la détection de fraude) est l’obtention de données prêtes à utiliser pour construire un modèle. Bien que les données soient abondantes, celles-ci sont dispersées et pas toujours faciles d’accès. Le développement d’un modèle d’IA est un processus très itératif et évolutif d’où l’importance de mettre en place des pipelines qui permettent de rapidement identifier et collecter les données nécessaires à la construction du modèle. Avant de déployer l’IA à échelle, il faut donc au préalable mettre en place une bonne gouvernance de données ainsi que les infrastructures nécessaires pour assurer le flux automatique des données. Ceci facilite l’expérimentation et le développement rapide de proof of concept (PoC) pour tester les idées. Sans oublier de mettre en place un système de contrôle de qualité des données car le regroupement de données provenant de sources diverses pose des problèmes de qualité qui affectent sérieusement les performances des modèles d’IA.
Et enfin, les données historiques sont peu ou mal labellisées. Dans le cadre de la fraude par exemple, seule une partie des cas réels de fraude est détectée et caractérisée comme telle. Ces exemples positifs ne sont pas représentatifs et induiraient des biais dans le modèle qui ne pourrait détecter les patterns complexes qui sont précisément ceux recherchés par les inspecteurs.
L’éthique
Dans le contexte dans lequel nous travaillons (secteur public), les aspects éthiques sont primordiaux et l’IA apporte un réel challenge sur ce plan. Beaucoup de questions éthiques restent en suspens quant à l’utilisation de l’IA, en particulier dans le domaine de la fraude et des services à destination des citoyens. Il n’existe pas toujours de lignes directrices claires au sein des institutions sur ce qu’on peut faire et ne pas faire avec les données. L’impact positif ou négatif sur le citoyen nécessite une réflexion qui sort du cadre des workshops et exige des outils et des compétences particulières pour mener à bien cette discussion éthique.
Sous-estimation des ressources nécessaires
Les use cases pour lesquels on estime que l’IA apporterait une réelle plus-value doivent être validés par un proof of concept (PoC). Toutefois, la réalisation d’un PoC demande des ressources aussi bien business que technique pour suivre le PoC, collecter les données, réaliser et tester la proposition. Les institutions se heurtent très vites aux limites posées par la difficulté de collecter des données et le manque de ressources business internes.
Conclusions
Comme rappelé lors du blog précédent, la motivation et l’implication des participants a été un des facteurs clé au succès des workshops. Nous avons pu détecter des cas d’utilisation d’intelligence artificielle avec une vraie valeur ajoutée cependant, il reste des défis à relever pour les convertir en PoC ou même en projet. Il ne faut pas non plus sous-estimer l’importance et la charge de travail nécessaire pour constituer un set de données pertinent et représentatif. Et surtout, il faut disposer des ressources techniques et compétences nécessaires : expert business, data steward, expert IT/IA, expert UX, …
_________________________
Ce post est une contribution individuelle de Gunther Hellebaut et Katy Fokou, spécialisée en intelligence artificielle chez Smals Research. Cet article est écrit en leurs noms propres et n’impacte en rien le point de vue de Smals.
Leave a Reply