Chaque semaine sur euradio, Perspective Europe, l'association du master "Affaires européennes" de Sciences Po Bordeaux, revient sur l'actualité bruxelloise et européenne.
Aujourd’hui, nous abordons un tournant décisif pour l’Union européenne: l’entrée en vigueur des premières mesures du règlement européen sur l’intelligence artificielle. Ce texte, présenté comme le plus ambitieux au monde en matière de régulation de l’IA, a commencé à s’appliquer dès dimanche.
Ce règlement est décrit comme une avancée majeure. Pouvez-vous nous expliquer pourquoi ?
Bien sûr. L’AI Act est le premier cadre juridique au monde visant à encadrer l’intelligence artificielle. L’Union européenne souhaite poser des limites claires pour protéger les citoyens contre des usages jugés abusifs, tout en garantissant un développement responsable de cette technologie. Ce texte veut éviter les dérives et s’assurer que l’IA respecte les droits fondamentaux.
Quelles sont les premières mesures qui sont entrées en application dimanche ?
Le texte va se déployer progressivement, mais pour l’instant il se traduit par l’interdiction de certains usages de l’IA. Parmi eux, les logiciels de notation sociale, similaires à ceux utilisés en Chine, ainsi que les systèmes de police prédictive individuelle qui cherchent à évaluer la probabilité qu’une personne commette un crime.
On interdit donc certaines utilisations de l’IA jugées trop intrusives ?
Exactement. La reconnaissance des émotions au travail ou à l’école est bannie, tout comme l’exploitation des vulnérabilités psychologiques des individus. Autre point fort du texte : l’interdiction de la reconnaissance faciale en temps réel dans l’espace public, sauf dans certaines situations exceptionnelles, notamment pour les forces de l’ordre.
Mais le volet principal du règlement entrera en vigueur plus tard, c’est bien cela ?
Oui. Le 1er août, ce seront les IA génératives comme ChatGPT, Gemini ou Mistral qui devront être plus transparentes sur leurs méthodes d’entraînement et leurs sources de données. Ensuite, en 2027, des obligations concerneront les IA dites à haut risque utilisées dans des secteurs clés comme l’éducation, la justice, la banque ou encore la gestion des infrastructures critiques. Ces systèmes devront faire l’objet d’évaluations de risques poussées.
Cela semble être une avancée, mais est-ce que ces mesures font consensus ?
Non, au contraire il y a encore beaucoup de débats et même des contestations. Par exemple, une disposition du texte exige que les entreprises publient un résumé détaillé des contenus utilisés pour entraîner leurs modèles. Cela oppose les professionnels de la culture ou de la presse, qui souhaitent savoir si leurs œuvres et articles ont été utilisés sans compensation, et les fabricants d’IA qui, eux, invoquent le « secret des affaires ».
Ce règlement pourrait-il être remis en question par des pressions extérieures ?
C’est un risque. Les géants du numérique américains comme Google, OpenAI ou Meta, ainsi que des lobbys de la tech, exercent une forte pression contre certaines obligations du texte. Et avec la montée en puissance de Donald Trump, il y a une possibilité que les États-Unis soutiennent encore plus leurs entreprises face aux régulations européennes.
Le timing est intéressant, puisque dans quelques jours se tient un sommet international sur l’IA à Paris…
Oui, et c’est un hasard du calendrier assez symbolique. Ce sommet réunira une centaine de chefs d’État, ainsi que des figures majeures du secteur comme Elon Musk, le pdg d’OpenAI ou encore le président-directeur général de Google. L’un des enjeux sera justement d’obtenir un consensus international sur la régulation de l’IA.
En conclusion, que faut-il retenir de cette première phase d’application du texte ?
L’Europe ouvre la voie à une IA plus encadrée, avec des interdictions immédiates et une réglementation qui se durcira progressivement. Mais les débats restent vifs et la mise en application complète d’ici 2027 pourrait être semée d’embûches.
Un entretien réalisé par Laurence Aubron.