Une semaine sur deux sur euradio, retrouvez la chronique « Consommateurs européens » présentée par Elphège Tignel du Centre Européen des Consommateurs France.
Vous avez décidé de nous parler aujourd’hui de la protection de nos données personnelles dans notre monde ultra connecté.
Oui. À l’ère du tout numérique et des nouvelles technologies, nos habitudes d’achat et nos modes de consommation évoluent.
Montre ou réfrigérateur connecté, Chatbot en guise de service client, robot capable de répondre à toutes nos questions et dans toutes les langues, contrôle par une application des lumières à la maison … Oui, l’intelligence artificielle a, petit à petit, envahi nos habitudes de consommation.
Et si elle fait le pari de faciliter la vie des consommateur·ices et de répondre à leurs besoins, elle n’est pas sans risques, notamment sur la sécurité de leurs données personnelles.
Quels sont justement les risques de cette consommation de plus en plus digitalisée ?
Tout d’abord, l’intelligence artificielle implique de nombreux·ses acteur·ices : des développeur·rices, fournisseur·euses, importateur·trices, distributeur·trices etc. Ainsi, le système reste opaque pour le·la consommateur·trice. Et il est bien difficile donc de savoir qui a concrètement accès aux données personnelles et qui serait responsable en cas de problèmes.
Ensuite, le système de l’IA étant programmé et automatisé, le risque de défaillance technique est donc à prendre en compte. Et les conséquences seraient dommageables. Imaginez donc des voitures autonomes qui deviendraient incontrôlables, une panne d'électricité généralisée ou encore un mauvais diagnostic énoncé par un outil conversationnel à qui vous auriez décrit vos symptômes.
Enfin, le risque de fuite ou de perte de contrôle sur les données personnelles enregistrées est grand. Quelles seraient les conséquences ? Une série de cyber attaques, de piratages informatiques, des infox sur les réseaux sociaux ou des escroqueries en tout genre.
Alors comment protéger nos données face à l’essor de l’intelligence artificielle ?
En appliquant un conseil simple que l’on recommande bien souvent : SE RENSEIGNER.
En posant des questions personnelles, d’ordre médical par exemple, à un robot, les consommateur·ices n’ont pas toujours conscience qu’ils·elles donnent aux entreprises derrière cette intelligence artificielle des informations sensibles, qui pourraient être exploitées à des fins commerciales.
Voilà pourquoi il est important de toujours se renseigner sur l’entreprise qui recueille les informations et sur sa politique de traitement des données personnelles.
Et enfin, est-ce que l’Europe envisage de renforcer ses règles protectrices face à l’utilisation de l’intelligence artificielle ?
Oui. En complément du RGPD et de la Loi européenne sur la gouvernance des données, l’Union européenne a proposé trois textes pour réglementer l’utilisation de l’IA et responsabiliser les acteurs.
L’UE souhaite notamment interdire sur le marché et sanctionner les IA qui présentent des risques « inacceptables ». Il s’agit par exemple de celles qui repéreraient à distance, en temps réel et dans des espaces publics, des individus pour les arrêter ou les sanctionner.
L’Europe souhaite également évaluer et contrôler les "IA à haut risque" liées notamment à la sécurité d’un produit, comme les voitures autonomes par exemple.
Et enfin, l’UE veut réguler les "IA à risques acceptables" en obligeant, par exemple, les géants du numérique et autres plateformes et réseaux sociaux à mieux informer les utilisateurs sur leurs algorithmes.
Ces textes sont bien sûr encore en phase de discussion entre les 27 et le Parlement européen. Mais le défi de l’Europe sera de les adopter vite, plus vite que l’innovation et l’investissement qui est mis dans l’intelligence artificielle.
Entretien réalisé par Laurence Aubron.