La chronique philo d'Alain Anquetil

Les deux sens de la « peur » à l’égard de ChatGPT et de l’intelligence artificielle générale

Les deux sens de la « peur » à l’égard de ChatGPT et de l’intelligence artificielle générale

Nous accueillons chaque semaine Alain Anquetil, professeur émérite de philosophie morale à l’ESSCA Ecole de Management, pour une chronique de philosophie pratique.


Aujourd’hui, vous allez nous parler de la peur provoquée par les programmes d’intelligence artificielle tels que ChatGPT-4.

Beaucoup d’articles évoquent en effet la peur suscitée par ces programmes, et une lettre ouverte, signée entre autres par Elon Musk, a appelé à une « pause » dans le développement de programmes plus puissants que ChatGPT-4 (1).

Cette lettre ouverte n’emploie pas le mot « peur », mais parle de « danger » – un mot qui entre dans la définition de la peur – et de « risques majeurs pour l’humanité » – or, la peur se situe en arrière-plan du risque (2).

L’emploi du mot « peur » n’est-il pas exagéré ?

Vous pensez peut-être à la peur comme réaction à un stimulus de l’environnement, qui peut être accompagnée de manifestations physiologiques – frissons, sueurs froides, etc.

Cette émotion primaire a été sélectionnée par l’évolution, car elle peut assurer notre survie, mais il en va de même pour la peur dont nous parlons, car elle a pour conséquence de nous pousser à réfléchir, et c’est précisément ce qu’ont fait les auteurs de la lettre ouverte (3).

Ce n’est pas une émotion « passive »…

Non, d’autant que la peur dépend généralement de notre manière de percevoir les choses : nous sommes actifs quand nous percevons.

Nous pouvons ici introduire une notion philosophique qui conduit à considérer la peur non pas comme une émotion que l’on subit, mais comme une attitude psychologique, une « disposition d’esprit » qui conduit à agir d’une certaine façon (4).

On dit ainsi que la peur est une « attitude propositionnelle », c’est-à-dire que, dans le langage, on l’exprime sous la forme d’une attitude envers une réalité concrète ou abstraite – une « proposition ».

Par exemple, « Je crois que l’intelligence artificielle peut favoriser le chômage » exprime une attitude de croyance qui a pour objet la possibilité que l’IA accroisse le chômage (5).

De même, « Sam Altman (le dirigeant d’OpenAI, créateur de ChatGPT) a peur que l’intelligence artificielle générale puisse conduire à de la ‘désinformation’ » exprime une attitude de peur dont l’objet est la désinformation (6).

Que peut-on en tirer en pratique ?

L’attitude propositionnelle de peur est une attitude active et non passive : elle implique qu’il est possible, par la réflexion, de relativiser, voire de supprimer l’émotion de peur (7).

Mais la peur n’est pas seulement exprimable sous la forme d’une attitude propositionnelle. Le philosophe Henry Habberley Price notait ainsi l’existence d’une « peur de », par exemple une peur du vide, des serpents, du noir, de la mort. Or, la « peur de » exprime le versant passif de cette émotion (8).

Pouvez-vous préciser ce point ?

La « peur que » comprend une incertitude que la raison peut éliminer. Je peux, par la réflexion, éliminer ma peur que des programmes d’intelligence artificielle puissent menacer l’existence de l’humanité. Cette peur disparaît en même temps que l’incertitude.

Mais si j’ai « peur de » ces programmes, il se peut que la raison soit inefficace même s’il existe des arguments convaincants qui pourraient éliminer ma peur – Price observe que « le simple fait de penser à une chose peut nous faire peur, même si rien ne prouve qu’elle va se produire » (et même si l’on sait qu’elle ne se produira pas) (9). Ma « peur de » résiste comme peuvent résister des formes d’angoisse ou d’anxiété.

La possibilité d’éprouver de la « peur de quelque chose » peut malheureusement être au service de buts peu honorables : quand on veut « faire peur » pour influencer l’opinion, la « peur de » et son caractère passif est plus efficace que la « peur que », qui, elle, demeure accessible à l’esprit critique et à la raison – c’est encore cette forme-là (la « peur que ») qui, je crois, prévaut aujourd’hui à propos de l’intelligence artificielle générale.

Entretien réalisé par Laurence Aubron.


(1) « Pause giant AI experiments: An open letter », The Future of Life Institute, 22 mars 2023. Voir aussi « Elon Musk et des centaines d’experts réclament une pause dans le développement de l’IA », France24, 30 mars 2023.

(2) La peur est une « émotion pénible que produit la vue ou la conscience d’un danger, d’une menace, réels ou supposés » (Dictionnaire de l’Académie française, 9e édition). Selon la lettre ouverte, les risques des programmes d’intelligence artificielle concernent notamment la propagande et les mensonges sur le Net, les pertes d’emplois et même la perte de contrôle de notre civilisation. De Visscher note que le risque « apparaît comme le point de jonction de la peur, de l’anxiété et de l’incertitude » (« Craintes, peurs, insécurités », Les Cahiers Internationaux de Psychologie Sociale, 108(4), 2015, p. 719-743).

(3) Cependant, leur sincérité a été mise en doute. Voir par exemple ce passage issu d’un article du Monde : « Derrière le cri d’alarme [la lettre ouverte dont nous avons parlé], certains décèlent des intérêts bien compris. Beaucoup de signataires sont en effet juges et parties. En tant qu’investisseurs et développeurs d’IA, sous couvert de sauver l’humanité du chaos, ils sont surtout inquiets de ne pas réussir à normer la puissance de cette technologie, ce qui réduirait son utilité sociale et les revenus qu’ils peuvent en attendre. » (« ChatGPT : ‘La pause – si pause il y a – doit être mise à profit pour responsabiliser les acteurs de l’intelligence artificielle’ », Le Monde, 3 avril 2023.)

(4) Source : CNRTL. Christian Godin note que l’attitude est une « disposition d’esprit commandant une conduite », qu’elle « est une conduite anticipée » (C. Godin, Dictionnaire de philosophie, Paris, Fayard / Editions du Temps, 2004).

(5) Ce risque est mentionné dans la lettre ouverte. Voir aussi « Intelligence artificielle : un utilisateur de ChatGPT sur cinq craint pour son emploi », franceinfo, 7 février 2023.

(6) La phrase complète, issue d’une interview à ABC News, est la suivante : « Je crains particulièrement que ces modèles ne soient utilisés à des fins de désinformation à grande échelle. […] Maintenant qu’ils savent mieux écrire des codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives ». (« OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’ », ABC News, 16 mars 2023.)

(7) La « pause » proposée par la lettre ouverte en est un exemple, de même que la tribune de Noam Chomsky et de deux de ses collègues qui, s’agissant de ChatGPT, affirment que l’intelligence de ce programme est bien inférieure à l’intelligence humaine (N. Chomsky, I. Roberts & J. Watumull, « Noam Chomsky: The false promise of ChatGPT », The New York Times, 8 mars 2023).

(8) H. H. Price, Belief, Routledge, 1969.

(9) « Avoir peur que » et « avoir peur de » peuvent toutefois avoir un sens équivalent.