Restez à l'avant-garde. Recevez les derniers articles en suivant notre page LinkedIn
ai chain

L’UE réglemente l’intelligence artificielle avec l’IA Act

Nous publions une série de trois articles traitant de l’intelligence artificielle. Le premier article propose une réflexion sur les biais de l’IA. Le deuxième article met en lumière la réglementation de l’IA dans l’UE. Dans le troisième article, nous cherchons à expliquer les décisions prises par les algorithmes d’IA.

LIRE ÉGALEMENT La blockchain pour le Passeport Numérique du Produit de l’UE ?

Les questions réglementaires doivent être confrontées à la réalité technique. L’IA n’est pas une zone de non-droit. Les réglementations existantes s’appliquent déjà à l’IA, qu’il s’agisse du RGPD pour les données personnelles, ou des réglementations sectorielles dans le domaine de la santé (dispositifs médicaux), de la finance (modèles de trading, solvabilité), ou de l’automobile par exemple.

Le terme intelligence artificielle (IA) est utilisé lorsqu’une machine imite les fonctions cognitives que les humains associent à d’autres esprits humains. Par rapport à l’intelligence programmée par l’homme, l’IA est capable de créer ses propres algorithmes par le biais du processus d’apprentissage machine (ML).

L’Acte européen sur l’IA propose d’ajouter un règlement spécifique

Les logiciels d’IA, et en particulier les logiciels de Machine Learning (ML), posent de nouveaux problèmes. Les logiciels « traditionnels » – l’IA symbolique parfois appelée « bonne vieille IA » – sont développés à partir de spécifications précises, avec des données de sortie certaines et prouvables. Il s’agit d’algorithmes déterministes : l’entrée « a » plus l’entrée « b » conduiront toujours à la sortie « c ». Si ce n’est pas le cas, il y a un bug.

Dans le ML, les algorithmes se créent eux-mêmes en apprenant à partir de grands volumes de données et fonctionnent de manière probabiliste. Leurs résultats sont exacts la plupart du temps.
En outre, ils peuvent fonder leurs prédictions sur des corrélations non pertinentes qu’ils ont apprises à partir des données d’apprentissage. Le risque d’erreur est une caractéristique inévitable des modèles ML probabilistes, qui soulève de nouvelles questions réglementaires, notamment pour les systèmes d’IA à haut risque. Est-il possible d’utiliser un algorithme probabiliste dans un système critique, comme la reconnaissance d’images dans une voiture autonome ? D’autant plus que les algorithmes ML sont relativement inintelligibles.

Le crash en Arizona de la voiture autonome d’Uber en 2018 est une parfaite illustration du problème. L’enjeu pour l’avenir sera d’entourer ces systèmes probabilistes – très efficaces pour des tâches comme la reconnaissance d’images – de garde-fous. Les systèmes hybrides, qui combinent ML et IA symbolique, constituent une piste prometteuse.

Réglementation visant à résoudre ce problème

Le projet de règlement européen sur l’IA exigera des tests de conformité et le marquage CE pour tout système d’IA à haut risque mis sur le marché en Europe.
Le premier défi consiste à définir ce que l’on entend par système d’IA à haut risque ! À l’heure actuelle, il s’agit des logiciels utilisés par la police, pour l’évaluation du crédit, pour l’examen des candidatures à l’université ou dans les entreprises, des logiciels intégrés dans les voitures, etc. La liste est appelée à s’allonger. La reconnaissance faciale en temps réel utilisée par la police à des fins d’identification sera soumise à des contraintes particulières, notamment des tests indépendants, et au moins deux opérateurs humains avant qu’une « correspondance » ne soit confirmée.

Pour les autres systèmes à haut risque, le projet de règlement envisage un contrôle de conformité par l’entreprise elle-même. Chaque système devra faire l’objet d’une évaluation des risques et être accompagné d’une documentation expliquant les risques, le cas échéant. Les systèmes devront garantir un contrôle humain efficace. L’opérateur du système devra générer des journaux d’événements permettant l’auditabilité du système. Pour les systèmes d’IA intégrés dans des systèmes déjà couverts par la réglementation, le régime de test et de conformité sera régi par la réglementation sectorielle. Cela évite de créer des doublons réglementaires.

Pourquoi tant de méfiance à l’égard des algorithmes ML alors que les risques sont acceptés dans d’autres domaines ?

Le rapport Tricot de 1975 (rapport qui a conduit à l’adoption de la loi française sur l’informatique et les libertés en 1978) évoquait déjà la méfiance envers les systèmes informatiques qui réduisent l’être humain à une série de probabilités statistiques. En nous réduisant à des chiffres, ces systèmes nient notre individualité et notre humanité. Nous sommes habitués au profilage statistique lorsqu’il s’agit de recevoir une publicité ou une recommandation musicale. Mais pour des décisions plus sérieuses – une décision d’embauche, l’admission dans une université, le déclenchement d’un contrôle fiscal ou l’obtention d’un prêt – pouvant être jugées uniquement sur un profil statistique sont problématiques, surtout lorsque l’algorithme qui crée ce profil est inintelligible !

L’algorithme doit donc apporter un éclairage statistique à la question, mais ne jamais remplacer le discernement et la nuance d’un décideur humain. Il ne faut pas non plus minimiser les défauts humains – aux États-Unis, les données suggèrent que les juges prennent des décisions plus lourdes en matière de prison avant le déjeuner, lorsqu’ils ont faim. Les algorithmes peuvent aider à compenser ces biais humains.

Nous publions une série de trois articles traitant de l’intelligence artificielle. Le premier article propose une réflexion sur les biais de l’IA. Le deuxième article met en lumière la réglementation de l’IA dans l’UE. Dans le troisième article, nous cherchons à expliquer les décisions prises par les algorithmes d’IA.