Restez à l'avant-garde. Recevez les derniers articles en suivant notre page LinkedIn
digital

Comment justifier les décisions prises par un algorithme d’IA ?

Nous publions une série de trois articles traitant de l’intelligence artificielle. Le premier article est une réflexion sur les biais de l’IA. The deuxième article met en lumière la réglementation de l’IA dans l’UE. Dans le troisième article, nous cherchons à expliquer les décisions prises par les algorithmes de l’IA.

LIRE ÉGALEMENT L’intégration de l’intelligence artificielle dans le secteur de la distribution

Comment expliquer les décisions prises par les algorithmes d’intelligence artificielle ?

Le besoin d’explicabilité n’est pas nouveau ! Charles Peirce, philosophe et logicien américain, a introduit le raisonnement abductif, c’est-à-dire la recherche d’explications. De nombreuses méthodes utilisées en intelligence artificielle (IA) symbolique, qui sont basées sur la modélisation des connaissances avec des approches telles que la logique, l’apprentissage symbolique, etc. sont dites « explicables par essence », car la séquence de raisonnement qui conduit à une décision est identifiée. Mais ceci n’est que partiellement vrai, car si le problème posé devient trop grand, avec un grand nombre de formules logiques, des arbres de décision très complexes, des règles d’association très nombreuses, l’explication devient difficile.

La question de l’explicabilité est d’autant plus pertinente aujourd’hui que le deuxième paradigme de l’IA, les approches statistiques de l’IA, est revenu sur le devant de la scène ces dernières années. Alors que l’IA symbolique se base sur des règles et reproduit le raisonnement humain, les approches statistiques de l’IA s’appuient sur des méthodes d’apprentissage statistique, en particulier les réseaux de neurones artificiels qui sont entraînés sur de grands volumes de données. Ces approches font partie de l’apprentissage automatique, y compris l’apprentissage profond (DL) – mais pas seulement. Il est très difficile d’extraire et d’exprimer les règles de fonctionnement des réseaux neuronaux, qui partent des données.

L’apprentissage profond (Deep learning) est une sous-branche de l’apprentissage machine (ML) qui imite le fonctionnement du cerveau humain pendant le traitement des données. Il permet aux machines d’apprendre sans supervision humaine. Il donne la capacité de comprendre des mots parlés et ce qui se cache derrière, de traduire, d’identifier des objets et de prendre des décisions éclairées.
Bien qu’ils soient une branche de l’apprentissage automatique, les systèmes DL n’ont pas des capacités d’apprentissage limitées comme les algorithmes ML traditionnels. Au contraire, les systèmes DL peuvent continuellement améliorer leurs capacités au-delà de l’imagination au fur et à mesure qu’ils reçoivent des données plus importantes et plus cohérentes.

Comment expliquer une décision de l’IA ?

Tout d’abord, il faut définir ce qu’il faut expliquer, pour qui, comment et pourquoi… Le choix des outils ou des méthodes d’explicabilité dépend de la réponse donnée à ces questions.
Pour les réseaux de neurones, il est possible d’y répondre au niveau des données utilisées, au niveau du fonctionnement du réseau lui-même ou au niveau du résultat produit.
Pour l’opération, on peut se demander s’il est nécessaire d’expliquer. Prenons l’exemple de l’aspirine, elle a été utilisée pendant longtemps sans que personne ne sache comment elle fonctionnait. Et quand on a compris son fonctionnement, on s’en est servi pour développer de nouvelles choses, sans changer l’usage qu’on en faisait. De la même manière, on peut conduire une voiture sans comprendre le moteur, mais avec un niveau de connaissance suffisant pour bien l’utiliser.

Au niveau du résultat final, l’explication peut nécessiter de passer par des étapes intermédiaires pour mieux l’expliquer.
Nous attendons d’un algorithme qu’il soit neutre, mais rien n’est jamais neutre ! Le médecin déclenche un examen d’imagerie pour son patient parce qu’il cherche quelque chose qu’il pourrait identifier dans cette image, il a une intention. Cela introduit des biais, qui ne sont pas statistiques, mais cognitifs, de cadrage, de confirmation, de complaisance, etc. On retrouve ces mêmes biais face à des résultats produits par un algorithme.
De plus, il ne faut pas oublier que nous faisons d’autant plus confiance à l’algorithme qu’il montre ce que nous cherchons. Un autre facteur est le coût de l’erreur, car il est très différent selon qu’elle est détectée à tort ou à raison.

L’explicabilité dépend de l’utilisateur et de l’utilisation d’un algorithme

L’explication est un processus de conversation, de communication. Nous adaptons le niveau d’explication en fonction de notre interlocuteur. Prenons une image montrant une tumeur. Le médecin expliquera cette image et la tumeur différemment selon qu’il s’adresse à son personnel, à des étudiants, au public d’une conférence ou à son patient.

Nous devons également nous demander pourquoi nous voulons expliquer. Est-ce pour justifier, pour contrôler le fonctionnement d’un algorithme, pour découvrir une connaissance scientifique, un phénomène ? Les objectifs varient et cela nécessitera des outils différents. Les enjeux sont également différents, il y a des questions de confiance, d’éthique, de responsabilité, et éventuellement des questions économiques.

Le besoin d’explicabilité est plus fort à l’heure actuelle

Elle est essentiellement due aux réseaux neuronaux profonds, de plus en plus utilisés, qui ont des millions de paramètres et qui sont extrêmement complexes. On s’appuie beaucoup sur les données en espérant que l’augmentation des volumes utilisés permettra d’améliorer les résultats. Cela dit, il y a beaucoup de connaissances du domaine qui pourraient être utilisées.
C’est ce que propose l’IA hybride, qui combine plusieurs approches de l’IA. Elle combine connaissances et données, IA symbolique et réseaux neuronaux, logique et apprentissage.

Quelle que soit l’approche, le rôle de l’être humain reste primordial et il sera toujours nécessaire de justifier les décisions prises par un algorithme.

Nous avons publié une série de trois articles traitant de l’intelligence artificielle. Le premier article est une réflexion sur les biais de l’IA. The deuxième article met en lumière la réglementation de l’IA dans l’UE. Dans le troisième article, nous cherchons à expliquer les décisions prises par les algorithmes de l’IA.