Chaque semaine sur euradio, Albrecht Sonntag, professeur à l’ESSCA Ecole de Management à Angers, nous ouvre son bloc-notes pour partager ses idées sur les questions d’actualité, en Europe et au-delà.
L’intelligence artificielle – dont tout le monde semble parler actuellement – représente-t-elle une menace pour la démocratie ?
L'intelligence artificielle peut, de toute évidence, avoir un impact significatif sur la démocratie.
Dans un premier temps, elle peut aider à améliorer la participation citoyenne en permettant un accès plus facile à l'information et en facilitant l'interaction entre les citoyen·nes et les élu·es. Par exemple, les désormais fameux« chatbots » peuvent aider les citoyen·nes à trouver des informations sur les politiques publiques et à interagir avec les représentants élus.
Qui plus est, l’intelligence artificielle peut aider à identifier les préférences des citoyen·nes, à améliorer la collecte de données et à faciliter la prise de décision basée sur des données.
Vous ne pensez pas que l'intelligence artificielle peut également être utilisée de manière inappropriée ou abusive ?
Il est vrai que son utilisation pour la surveillance de masse peut porter atteinte aux droits à la vie privée et à la liberté d'expression. De plus, elle peut être utilisée pour diffuser de la désinformation et pour manipuler les opinions publiques.
Il est donc important que les gouvernements travaillent à promouvoir une utilisation responsable de l’intelligence artificielle. Cela peut inclure la création de réglementations et de normes pour garantir la transparence et la responsabilité dans son utilisation, ainsi que la promotion de son développement éthique. Les citoyen·nes doivent également être éduqué·es sur les risques et les avantages, afin de pouvoir participer de manière informée aux décisions démocratiques concernant l'IA.
Tout cela est sans doute juste, mais tout cela est aussi très banal. Vous ne nous aviez pourtant pas habitués à manier la langue de bois !
C’est que tout ce qui a été dit jusqu’ici, y compris d’ailleurs votre relance sur l’usage inapproprié ou abusif, a été rédigé par « ChatGPT », en quelques secondes. J’ai juste fait un copier-coller, en ajoutant les mots suivants : « de toute évidence », puis « désormais fameux », sans oublier « Bonjour, Laurence ! », histoire de faire « humain ».
Ah, d’accord. Si j’ai bien compris, vous pouvez me faire plusieurs éditos par jours maintenant, à condition qu’ils soient d’une banalité confondante.
C’est vrai qu’on a envie d’en rire, mais il n’en reste pas moins que les derniers progrès en performance de ces algorithmes apprenants capables de brasser des volumes de données inimaginables en quelques instants sont inquiétants.
Au point où – vous l’avez peut-être lu – un collectif hétéroclite d’entrepreneur·euses et de scientifiques vient de publier une lettre qui demande un « moratoire » de six mois, une pause pour mieux peser les dangers inhérents à ce qui risque d’être un bouleversement technologique de grande ampleur. (Je vous mets le lien vers la traduction en français publiée par Le Grand Continent.)
Cette lettre, et cette idée de « moratoire » n’est-ce pas une initiative bien naïve ?
Si, elle l’est. Même en appliquant la présomption de sincérité à ce collectif, ses membres ressemblent à l’apprenti sorcier de Goethe qui est à l’origine d’une situation dont la maîtrise lui échappe. Mais une fois le dentifrice sorti du tube…
… il est impossible de l’y faire rentrer, je sais, je sais.
De toute façon, la situation n'est pas entièrement inédite. En 1962, déjà, l’auteur suisse, Friedrich Dürrenmatt, l'avait mise en scène dans une pièce intitulée Les physiciens. C’était une tragi-comédie qui, sur fond de la capacité d'autodestruction nucléaire acquise par l’humanité, posait la question de la responsabilité éthique de la science et avait connu un écho retentissant. La leçon de Dürrenmatt est limpide et peut être résumée en une phrase clé de sa pièce : « Ce qui a été pensé une fois ne pourra être effacé. » En d’autres termes : on n'arrêtera pas le progrès scientifique, tout au plus peut-on essayer d'anticiper ses conséquences et tenter de l’encadrer. À l'époque de Dürrenmatt, on ne parlait pas encore d' « études d’impact » ni de « principe de précaution », mais c’est bien de ça qu’il s’agit.
Et sans vouloir donner dans la dystopie apocalyptique, c'est sur ce point que je donne raison au collectif d’experts qui s'inquiète de sa propre création :
Si on n’encadre pas l'intelligence artificielle, c'est elle qui finira par nous encadrer.
Et cette phrase-là, c'est moi qui l'ai écrite, tout seul.
Entretien réalisé par Laurence Aubron.