La chronique philo d'Alain Anquetil

Intelligence artificielle : l’Europe peut-elle changer ses règles ?

Photo de KATRIN  BOLOVTSOVA - Pexels Intelligence artificielle : l’Europe peut-elle changer ses règles ?
Photo de KATRIN BOLOVTSOVA - Pexels

Chaque mois Alain Anquetil, professeur émérite de philosophie morale à l’ESSCAÉcole de Management, nous livre une chronique de philosophie pratique.

Aujourd’hui, vous allez nous parler des effets, sur la régulation européenne de l’intelligence artificielle, de l’intervention du vice-président américain J. D. Vance lors du Sommet pour l’action sur l’IA qui s’est tenu à Paris du 6 au 11 février 2025.

Vance a déclaré que « bon nombre de nos entreprises technologiques les plus productives sont obligées de se conformer à la loi sur les services numériques de l’Union européenne et aux réglementations massives qu’elle a créées en matière de retrait de contenus et de contrôle de la soi-disant désinformation » (1).  Par ses propos, par son attitude et par sa vision du monde, il exige un changement des règles européennes.

La critique n’est pas nouvelle…

Oui, mais dans son discours au Sommet pour l’action sur l’IA, Ursula von der Leyen a rappelé que « l’IA doit inspirer de la confiance et offrir de la sécurité », et que tel est l’objectif du Règlement européen sur l’intelligence artificielle adopté le 13 juin 2024 (2). Celui-ci affirme notamment qu’« afin d’introduire un ensemble proportionné et efficace de règles contraignantes pour les systèmes d’IA, il convient de suivre une approche clairement définie fondée sur les risques » (3). 

L’impression produite par ce règlement, qui a « vocation à devenir un standard mondial », est qu’il est bâti pour résister à des appels au changement du genre de celui de J. D. Vance (4).

Mais la Commission européenne vient de retirer de son agenda la directive sur la responsabilité en matière d’IA…

Cette directive, qui a en effet été retirée juste après le Sommet de Paris, « visait à faire porter la charge de la preuve aux [fournisseurs d’IA] en cas de préjudice causé par un système d’IA » (5). Il s’agirait d’un « signal » positif envoyé aux États-Unis (6).

Donc les règles de l’Union peuvent changer à la suite de pressions extérieures, voire être supprimées…

Dans la mesure où ces règles ont été décrétées par une autorité politique, elles peuvent changer selon la volonté des législateurs et des citoyens qui les ont élus. Il en va autrement d’autres types de règles – par exemple les règles de politesse, de grammaire et d’orthographe. Le philosophe Jean-Pierre Cometti observe que ces règles-là « changent ou peuvent être changées, non parce qu’il nous est permis d’en décider de façon arbitraire ou souveraine […], mais parce que les règles ne sont rien de plus que leurs applications, […] c’est dans l’usage qu’elles sont à même de se transformer » (7). Dans ce cas, une règle qui n’est pas appliquée n’est pas une règle.

Mais nous parlons ici de règles promulguées officiellement par une autorité. 

Et l’une des premières décisions de Donald Trump a été d’annuler un décret de Joe Biden pris le 30 octobre 2023 en vue de protéger les Américains des risques liés à l’IA (8). Ajoutons que, dans une récente tribune sur la régulation européenne, le professeur de droit privé Patrick Barban a affirmé qu’« un geste de Mark Zuckerberg a suffi pour que les règles de Meta mutent en l’espace d’une journée » (9). 

Même si ces décisions n’étaient pas arbitraires (10), elles suscitent l’étonnement parce qu’elles semblent violer des valeurs morales fondamentales.

Pouvez-vous préciser ce point ?

On peut aisément défendre l’idée que les règles qui sont établies par les règlements européens sur les marchés numériques, sur les services numériques ou sur l’IA ont une origine morale. Ainsi, le règlement sur l’IA « garantit la protection de principes éthiques » et rappelle « les lignes directrices en matière d’éthique pour une IA digne de confiance » : 

« action humaine et contrôle humain ; robustesse technique et sécurité ; respect de la vie privée et gouvernance des données ; transparence ; diversité, non-discrimination et équité ; bien-être sociétal et environnemental ; et responsabilité ». 

Cela ne signifie pas que les règles qui composent ce règlement ont elles-mêmes un caractère moral. La règle « Le marquage CE [conformité européenne] est apposé de façon visible, lisible et indélébile sur les systèmes d’IA à haut risque » n’est pas morale en tant que telle, mais elle dérive de principes moraux.

Une autre source d’étonnement vient de ce que ces règles sont inspirées par la réalité. Le règlement européen sur l’IA affirme que leur type et leur contenu est adapté « à l’intensité et à la portée des risques que les systèmes d’IA peuvent générer ». Comment peut-on annuler des règles qui sont en prise avec la réalité ?

Y a-t-il d’autres sources d’« étonnement » ?

Un ensemble de règles cohérent, pertinent et peut-être optimal amène la stabilité et la prévisibilité, ce qui devrait dissuader de le supprimer. La philosophe Dorothy Emmet notait que, « dans la vie sociale, les gens [n’interagissent pas] de manière efficace s’ils ne peuvent compter jusqu’à un certain point sur ce que feront les autres » (11). Or, « ces attentes relativement stables, qui sont les conditions de l’action intentionnelle dans toute société, ne sont satisfaites que lorsqu’il existe des manières de se comporter généralement acceptées » – c’est-à-dire des règles.

En outre, quand on parle d’un « ensemble cohérent de règles », on se réfère à un bloc solide, homogène, qu’on ne peut supprimer aisément. Jean-Pierre Cometti note qu’« il existe des corps de règles […] au sein desquels les règles se conjuguent, de manière plus ou moins efficace, et au service de certaines fins » (12). Les règles du droit en sont un exemple. Cependant, si l’on peut parler ici de « système », il n’est pas clos et fermé au changement.

Un dernier point mérite d’être souligné à propos des exigences exprimées par Vance. L’une des manières de défendre les règlementations européennes, dont celle relative à l’IA, est d’invoquer l’argument selon lequel elles permettent de combler le décalage éthique entre l’émergence d’une technologie et sa régulation éthique et juridique (13). 

Il s’agit d’un décalage temporel ?

Exactement : il part du constat que la régulation éthique et légale d’une nouvelle technologie apparaît avec retard, c’est-à-dire un certain temps après son avènement, notamment parce que la réflexion éthique et juridique est plus lente que l’innovation technique. Or, quand on demande un assouplissement des régulations, voire leur disparition, on menace d’accroître ce décalage et la possibilité que des torts soient commis. C’est une raison supplémentaire pour que les réglementations qui visent indirectement à le combler résistent à des changements autoritaires tels que ceux qui, aujourd’hui, proviennent des autorités américaines.

Sources : 

(1) « JD Vance’s full speech on AI and the EU », The Spectator, 12 février 2025.

(2) Discours de la Présidente von der Leyen à l’occasion du Sommet pour l’action sur l’intelligence artificielle, 11 février 2025.

(3) Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle.

(4) Rapport parlementaire sur les nouveaux développements de l’intelligence artificielle, 29 novembre 2024.

(5) « De nouvelles règles en matière de responsabilité applicables aux produits et à l’IA pour protéger les consommateurs et favoriser l’innovation », Commission européenne, 28 septembre 2022, et « Après les critiques de JD Vance, la Commission retire la directive sur la responsabilité en matière d’IA », Euractiv, 12 février 2025.

(6) Voir « Intelligence artificielle : à Bruxelles, l’heure est à l’allégement de la régulation », La Croix, 12 février 2025.

(7) J.-P. Cometti, Qu’est-ce qu’une règle ?, Librairie philosophique J. Vrin, 2011.

(8) « Régulation de l’IA : Joe Biden signe un décret présidentiel décisif », Le Grand Continent, 30 octobre 2023.

(9) « La régulation européenne qui entrave la loi des plateformes est insupportable aux géants américains de la tech », Le Monde, 18 février 2025.

(10) Elles n’étaient ni dépourvues de « motif rationnel », ni fondées sur « le bon plaisir d’une autorité », ni (dans le cas de l’abrogation du décret de Joe Biden) contraires à l’intérêt général (le président Trump a été élu démocratiquement) (C. Godin, Dictionnaire de philosophie, Paris, Fayard / Editions du Temps, 2004, et A. Lalande, op. cit.).

(11) D. Emmet, Rules, roles and relations, Macmillan, 1966.

(12) Qu’est-ce qu’une règle ?, op. cit.

(13) Voir B. Kracher et C.L. Corritore, « Is there a special e-commerce ethics? Business Ethics Quarterly, 14(1), 2004, p. 71-94.