La chronique philo d'Alain Anquetil

L’utilitarisme apparent d’OpenAI, l’entreprise qui a créé ChatGPT

L’utilitarisme apparent d’OpenAI, l’entreprise qui a créé ChatGPT

Nous accueillons chaque semaine Alain Anquetil, professeur émérite de philosophie morale à l’ESSCA Ecole de Management, pour une chronique de philosophie pratique.

Aujourd’hui, vous allez nous parler de la mission d’OpenAI, l’entreprise qui a créé ChatGPT, le fameux robot conversationnel.

Pour justifier ses recherches et ses productions en matière d’intelligence artificielle générale, qui recouvre « des systèmes qui sont généralement plus intelligents que les êtres humains », OpenAI a décrit précisément sa raison d’être, sa mission (1). Elle est de « faire en sorte que l’intelligence artificielle générale profite à l’ensemble de l’humanité ».

C’est ambitieux…

C’est ambitieux – on a parlé de « vision messianique » et d’« ambitions planétaires » (2) –, mais OpenAI estime qu’une IA « superintelligente » pourrait changer le monde et faire courir des risques « extraordinaires » à l’humanité.

Il faudrait donc, selon elle, agir comme si ces risques pouvaient advenir et assurer une « transition graduelle » vers un monde où l’intelligence artificielle générale serait une composante des sociétés humaines.

Que signifie « profiter à l’ensemble de l’humanité » ?

La formule implique deux obligations : d’une part, « maximiser le bien et minimiser le mal », d’autre part, faire en sorte que « les avantages de l’intelligence artificielle générale, son accès et sa gouvernance soient largement et équitablement partagés ».

Pour Monique Canto-Sperber et Ruwen Ogien, « maximiser le bien et minimiser le mal » est une platitude, mais c’est sur cette platitude que repose la perspective morale que l’on qualifie de « conséquentialiste » (3).

Selon le conséquentialisme, dont fait partie l’utilitarisme, nous devons « œuvrer directement ou indirectement à la promotion du meilleur état de choses possible, [qui est] meilleur non pas pour moi personnellement, mais pour tous ceux qui sont concernés, c’est-à-dire meilleur d’un point de vue impartial ou impersonnel » (4).

Le « meilleur état de choses possible » désigne la « maximisation du bien » ?

Oui, et cette obligation de maximiser un bien est une caractéristique fondamentale de l’utilitarisme, une théorie morale qui tient pour obligatoire de produire le plus de bien possible, ou le plus grand bonheur, pour le plus grand nombre de personnes.

Pouvez-vous préciser le « bien » qu’OpenAI cherche à maximiser ?

OpenAI parle d’épanouissement, de progrès, de créativité, de « changement des limites du possible », de sécurité ou de décentralisation du pouvoir.

C’est une vision complexe du bonheur…

Mais la liste des biens que l’utilitarisme cherche à maximiser peut s’avérer très large.

Ruwen Ogien et Christine Tappolet observent qu’elle peut inclure « non seulement le bonheur, mais aussi la connaissance, l’activité douée de sens, l’autonomie, la solidarité, le respect et la beauté » (5).

Ils ajoutent que, « dans la liste des choses à promouvoir, [l’utilitarisme] pourrait aussi inclure une répartition des biens égale ou équitable ».

Or, le partage équitable des bienfaits de l’intelligence artificielle générale que défend OpenAI entre dans cette catégorie.

Il permettrait en effet de décourager les tentatives de profiter de l’intelligence artificielle pour dominer le monde, des tentatives qui pourraient être le fait d’« un régime autocratique possédant une avance décisive » dans ce domaine.

En quoi le fait de qualifier la philosophie d’OpenAI d’« utilitariste » est-il important ?

D’abord, grâce à cette qualification (qui est peut-être discutable, il ne s’agit que d’une hypothèse), on comprend mieux la manière dont OpenAI justifie sa mission et ses prises de position morales.

Et puis sa mission et ses prises de position peuvent aussi faire l’objet des critiques que l’on adresse habituellement à l’utilitarisme, dont la plus connue est qu’il pourrait autoriser le sacrifice du bien-être de quelques-uns au profit du bien-être de tous.

Ce genre de qualification a donc une importance en termes d’explication, de justification et d’évaluation, pas seulement en matière d’intelligence artificielle.

Entretien réalisé par Laurence Aubron.


(1) About OpenAI. Les citations qui suivent proviennent de la même source, sauf indication contraire.

(2) A. Piquard, « Intelligence artificielle : dans la tête des créateurs de ChatGPT », Le Monde, 23 janvier 2023.

(3) M. Canto-Sperber & R. Ogien, La philosophie morale, PUF, 2004.

(4) Ibid.

(5) R. Ogien & C. Tappolet, Les concepts de l’éthique. Faut-il être conséquentialiste ? Hermann Editeurs, 2009 (la citation a été légèrement modifiée). Les auteurs se réfèrent ici à un article du philosophe Peter Railton, dont la traduction française est « L’aliénation, le conséquentialisme et les exigences de la moralité », dans C. Tappolet (dir.), L’amitié et la partialité en éthique, volume thématique Les Cahiers de l’éthique, 2(3), 2007.