Nous accueillons chaque semaine Alain Anquetil, professeur de philosophie morale à l’ESSCA Ecole de Management, pour une chronique de philosophie pratique.
Aujourd’hui, vous allez nous parler de la régulation européenne de l’intelligence artificielle.
Elle s’incarne dans la « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle », publiée en avril 2021 (1). Elle vise, je la cite, à définir « un cadre juridique pour une IA digne de confiance ».
J’ai été intéressé par la notion de « contrôle humain », qui est très présente dans le document et qui fait l’objet d’un article spécifique, l’article 14, à propos des systèmes d’IA à haut risque.
Que recouvrent ces systèmes ?
Ils recouvrent huit domaines, notamment l’identification biométrique des personnes physiques, la gestion et l’exploitation des infrastructures critiques (fourniture d’eau, de gaz, d’électricité, etc.), l’évaluation des étudiants, les décisions de recrutement et de licenciement, et l’accès aux services privés essentiels, aux services publics et aux prestations sociales (2).
Le domaine militaire est-il inclus ?
La proposition de règlement « ne s’applique pas aux systèmes d’IA développés ou utilisés exclusivement à des fins militaires » (3). Mais le Parlement européen a adopté, en janvier 2021, une résolution dans laquelle il « considère que l’IA utilisée dans un contexte militaire et civil doit faire l’objet d’un véritable contrôle humain » (4). Soit dit en passant, l’utilisation de l’adjectif « véritable » est une manière de souligner l’importance de la supervision humaine et, peut-être aussi, les difficultés liées à sa mise en œuvre.
L’article 14 de la proposition de règlement portant sur les systèmes d’IA à haut risque témoigne de ces difficultés. On lit que leur contrôle par des êtres humains suppose, entre autres, que ceux-ci aient la faculté « d’appréhender totalement les capacités et les limites du système, […] de surveiller correctement son fonctionnement [et, point notable,] d’avoir conscience d’une éventuelle tendance à se fier automatiquement ou excessivement aux résultats produits par un système d’IA à haut risque ».
Cela suppose une véritable expertise.
Oui. Le dernier point, par exemple, se réfère au biais d’automatisation. Il signifie, selon Daniel Andler, qu’un « opérateur humain a tendance à faire trop confiance à une solution qui ne lui est même pas imposée mais suggérée par un processus automatisé » (5).
La référence à ce biais illustre l’importance et les difficultés du contrôle humain, et elle explique peut-être, avec d’autres facteurs, la façon dont la proposition européenne le met en scène. L’article 14, qui recense les compétences qu’un contrôleur humain devrait exercer, n’est pas seulement la description d’un rôle. C’est aussi une forme de codification éthique. Le préambule de cet article indique en effet que « le contrôle humain vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux », et la Commission européenne affirmait, dans un Livre blanc publié en février 2020, que « le contrôle humain contribue à éviter qu’un système d’IA ne mette en péril l’autonomie humaine ou ne provoque d’autres effets néfastes » (6). Il s’agit, comme dans l’éthique professionnelle, et selon les mots de Monique Canto-Sperber, de préserver « les intérêts et les droits de ceux qui sont concernés » (7).
En bref, le contrôle humain de l’intelligence artificielle n’est pas seulement une affaire d’expertise. Il est aussi une affaire d’éthique. Et ce fait même – son inscription dans le champ éthique – pourrait avoir un effet sur l’état d’esprit des êtres humains qui en auront la charge.
(1) Voir le site de la Commission européenne, 21 avril 2021. Parmi les publications récentes sur ce sujet, on peut consulter M. Duarte, G. Biot-Paquerot et M. Bidan, « Vers un règlement européen concernant l’IA ? », Management & Data Science, 3 novembre 2021, et « Régulation européenne de l'IA : ‘Une gouvernance multipartite est indispensable’ », L’Usine Digitale, 19 octobre 2021.
(2) « Annexe III à la Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union », 21 avril 2021.
(3) « Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle », voir la note 1.
(4) « Résolution du Parlement européen du 20 janvier 2021 sur l’intelligence artificielle : questions relatives à l’interprétation et à l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires ainsi qu’à l’autorité de l’État en dehors du champ d’application de la justice pénale », 20 janvier 2021.
(5) D. Andler, Les Cahiers de TESaCo, 2, 2 juin 2021. https://www.tesaco.fr/les-cahiers-de-tesaco-%C2%B7-n2/
(6) « Livre blanc sur l’intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance », Commission européenne, 19 février 2020.(7) M. Canto-Sperber, « Philosophie morale et éthique professionnelle », in M.-A. Frison-Roche, Secrets professionnels, Paris, Editions Autrement, 1999.
Alain Anquetil au micro de Cécile Dauguet
Toutes les chroniques philo d'Alain Anquetil sont disponibles ici