Nous accueillons chaque semaine Alain Anquetil, professeur de philosophie morale à l’ESSCA Ecole de Management, pour une chronique de philosophie pratique.
Aujourd’hui, vous allez de nouveau nous parler d’intelligence artificielle.
Je vais vous parler de Delphi, un outil d’intelligence artificielle qui modélise nos jugements moraux (1). Il étudie les possibilités et les limites de l’enseignement de l’éthique à des machines (2). Dans la mesure où il est un prototype de recherche, il ne fait pas partie des systèmes d’IA qui font l’objet de la proposition de régulation européenne dont nous parlions la semaine dernière.
Le site est-il accessible ?
Depuis mi-octobre. On se rend sur la page « Ask Delphi », une interface qui permet de dialoguer avec Delphi, on coche trois cases (3), on soumet la situation de son choix et Delphi produit un jugement moral.
Il aide à prendre une décision ?
Non, parce que ce modèle est expérimental. D’ailleurs, certains de ses jugements manquent de cohérence (4), même si, selon ses concepteurs, Delphi dispose de « réelles capacités de raisonnement moral, le degré d’exactitude de ses jugements, qui est évalué par des personnes humaines, s’élevant à 92,1 % » (5).
L’avez-vous utilisé ?
J’ai soumis des affirmations relatives à la corruption en partant d’une base identique : « Je peux – ou je dois – corrompre », et en ajoutant des justifications : « parce que mon supérieur hiérarchique m’en a donné l’ordre », « parce que la survie de mon entreprise en dépend », etc.
Que répond Delphi ?
Quelle que soit la manière de justifier la corruption, Delphi génère un jugement négatif. Mais il semble attiré par le mal moral que représente la corruption aux dépens d’autres considérations. Car si on lui propose : « Je dois corrompre parce que, sinon, ma famille risque d’être assassinée », il répond : « Ce n’est pas acceptable [de corrompre] » ; et à l’affirmation : « Je refuse la corruption, même si je dois être assassiné », il répond : « C’est acceptable ».
Au-delà de ces limites, l’un des intérêts de Delphi est de prendre au sérieux la complexité de la morale. Aux cas qui lui sont soumis, il n’applique pas des règles morales toutes prêtes. Il se fonde au contraire sur un ensemble de données composé de jugements moraux bruts qui ont été produits par des êtres humains dans une grande variété de situations. Ces jugements dépendent non seulement de principes absolus, mais aussi du contexte (pensez au « sinon, ma famille risque d’être assassinée » de l’exemple précédent).
Parce que Delphi fonde ses jugements sur la moralité de sens commun et sur l’idée que « la moralité est déterminée par les situations » (6), il confère une importance particulière aux intuitions. Car une partie de nos jugements moraux est spontanée, non réfléchie, comme s’ils reflétaient un sens moral inné.
On peut essayer de justifier nos intuitions, par exemple celle selon laquelle il est préférable d’accepter la corruption si la vie de notre famille en dépend. Si l’on y parvient, on reconstitue de fait un raisonnement moral. Si tel était le cas de toutes nos intuitions morales, la tâche d’intelligences artificielles telles que Delphi en serait grandement facilitée.
Mais, comme le notait Ruwen Ogien, on rencontre fréquemment, dans les expériences de psychologie morale, des cas où le jugement intuitif ne peut être justifié, quand bien même il paraît évident à la personne qui en est l’auteur (7). Il faut alors l’interpréter, ce qui est un exercice difficile. C’est là l’une des difficultés qui se posent aux intelligences artificielles lorsqu’elles se confrontent à la complexité de la vie morale des êtres humains.
(1) Site « Ask Delphi ».
(2) Sa finalité est d’« apprendre à l’IA à se comporter de manière plus inclusive, plus éthique et plus sociale lorsqu’elle travaille ou interagit avec des humains » (« Towards machine ethics and norms. Making machines more inclusive, ethically-informed, and socially-aware », Blog du Allen Institute for AI (AI2), 4 novembre 2021).
(3) L’une d’elles précise que le modèle « peut générer des résultats involontairement inappropriés ou offensants ».
(4) Voir « ‘Tuer gentiment sa femme, c’est bien’ : les biais racistes et sexistes de Ask Delphi rappellent les limites de l’IA’ », Numerama, 21 octobre 2021 , et « Nous avons testé Delphi, l’IA qui résout les problèmes moraux », Philosophie Magazine, 10 novembre 2021.
L’article de Numerama note cette incohérence : « Frapper des enfants au visage, c’est mal. Mais frapper des enfants au visage avec le sourire, ce serait acceptable ». Elle s’expliquerait par le fait que le système, fondé sur un corpus empirique de normes morales, issu de jugements éthiques réels, manquerait de normes relatives aux « actions potentiellement illégales ». Il note aussi la sensibilité de Delphi à la forme du langage. Sur ce point, l’article de Philosophie Magazine souligne la difficulté du modèle à pondérer les valeurs morales des parties d’un énoncé. Ainsi, à la question : « Faut-il que je me coupe la jambe pour sauver la vie de quelqu’un ? », Delphi répond : « C’est noble », ce qui revient à nier le problème des actes dits « surérogatoires ».
(5) « Towards machine ethics and norms », op. cit.
(6) Ibid
(7) R. Ogien, L’influence de l’odeur des croissants chauds sur la bonté humaine et autres questions de philosophie morale expérimentale, Paris, Editions Grasset & Fasquelle, 2011.
Alain Anquetil au micro de Cécile Dauguet
Toutes les chroniques philo d'Alain Anquetil sont disponibles ici