Alain ANQUETIL
Philosophe spécialisé en éthique des affaires - ESSCA

L’utilitarisme « accepte comme fondement de la morale le principe d’utilité ou du plus grand bonheur », selon lequel « les actions sont moralement bonnes dans la mesure où elles tendent à promouvoir le bonheur, moralement mauvaises dans la mesure où elles tendent à produire le contraire du bonheur » (1). Ce principe semble s’incarner dans la visée de l’« altruisme efficace », qui est de faire le plus de bien possible de façon rationnelle, et dans la raison d’être d’OpenAI, l’entreprise qui a créé ChatGPT : « faire en sorte que l’intelligence artificielle générale profite à l’ensemble de l’humanité » (2). Ces affinités apparentes méritent un petit examen.

Illustration par Margaux Anquetil

L’altruisme efficace (effective altruism) a une affinité bien connue avec l’utilitarisme.

Selon le philosophe William Macaskill, qui est à l’origine de l’expression « altruisme efficace », cette « manière de penser » reflète une attitude qui, selon ses termes, « consiste à se demander comment il est possible d’agir au mieux en fondant ses décisions sur des faits probants et un raisonnement prudent » (3).

Macaskill prend soin de distinguer les deux termes de l’expression. « Altruisme » se réfère à l’« amélioration de la vie des gens », ce qui ne devrait pas, pour un altruiste efficace, impliquer le sacrifice de ses intérêts personnels. « Efficace » désigne le fait de « faire le plus de bien possible avec les ressources dont on dispose ».

Macaskill insiste sur l’idée de maximisation : « l’altruisme efficace ne consiste pas seulement à faire un peu de bien : il vise à essayer de produire le plus de bien possible », par exemple en donnant le maximum de ses revenus (sans compromettre la qualité de son existence) à des organismes qui en feront le meilleur usage pour le bien général.

Le raisonnement moral d’un authentique altruiste efficace devrait avoir pour fin de produire les meilleures conséquences. L’utilitarisme est la manifestation la plus connue de ce « conséquentialisme ». D’éminents promoteurs de l’altruisme efficace sont des utilitaristes convaincus (par exemple Peter Singer) ou des personnalités qui éprouvent une sympathie pour le conséquentialisme (c’est le cas de William Macaskill). Ajoutons que certains critiques de l’altruisme efficace l’assimilent à une version de l’utilitarisme, mais ceci ne peut parler en faveur de l’affinité en question (4).

Peter Singer note que, même si « les altruistes efficaces ne sont pas nécessairement des utilitaristes », ils ont avec eux des points communs : « comme les utilitaristes, ils admettent [en particulier] que, toutes choses égales par ailleurs, nous devons faire le maximum de bien possible » (5).

Cependant, Benjamin Todd, un autre défenseur de ce mouvement, relève trois différences avec l’utilitarisme : d’abord, l’altruisme efficace n’exige pas de sacrifier son intérêt personnel pour faire le plus de bien possible à autrui ; ensuite, il rejette l’idée selon laquelle la fin peut justifier les moyens (mais l’utilitarisme n’accepte pas nécessairement cette condition) ; enfin, l’altruisme efficace ne prétend ni que le bien à réaliser est la somme totale du bien-être des individus (ce qui autoriserait une distribution inégale du bien-être), ni que « le bien-être est la seule chose qui ait de la valeur » (6).

En définitive, selon Todd, ce qui rapproche l’altruisme efficace de l’utilitarisme se réduit à l’idée de maximisation.

Il pourrait en être de même de la mission d’OpenAI. L’idée de maximisation y est explicitement présente dans les trois principes qui guident son action :

  1. 1. Nous voulons que l’intelligence artificielle générale permette à l’humanité de s’épanouir au maximum dans l’univers. […] Nous voulons maximiser le bien et minimiser le mal […].
  2. 2. Nous voulons que les avantages de l’intelligence artificielle générale, son accès et sa gouvernance soient largement et équitablement partagés.
  3. 3. Nous voulons piloter les risques massifs liés à l’intelligence artificielle générale. En affrontant ces risques, nous reconnaissons que ce qui semble juste en théorie se révèle souvent plus étrange que prévu dans la pratique. Nous pensons que nous devons continuellement apprendre et nous adapter en déployant des versions moins puissantes de la technologie […]. » (7)

Ces principes contiennent des notions qui sont susceptibles de renvoyer à une théorie morale (8) :

  1. l’épanouissement humain,
  2. la maximisation du bien et la minimisation du mal,
  3. l’équité (le partage équitable des bienfaits de l’intelligence artificielle générale),
  4. la sûreté (le pilotage des « risques massifs » liée à l’intelligence artificielle, l’« AI safety»),
  5. et la prudence (caution), une notion qui ne figure pas explicitement dans l’extrait précédent mais qui fait l’objet d’un paragraphe subséquent (9).

La référence à l’« épanouissement humain » pourrait renvoyer à une conception attractive de la morale. Selon cette conception, dont l’éthique de la vertu est un exemple typique, c’est le bien (good) qui importe (il désigne ce qui a de la valeur), et le « juste » (right) en découle (il désigne ce qu’il faut faire ou ce qu’il convient de faire dans une situation donnée) (10).

Mais l’utilitarisme ne fait pas partie des conceptions attractives de la morale, mais des conceptions impératives, qui sont fondées sur les devoirs et obligations qui s’imposent à tout agent. Même si elle s’appuie sur une notion du bien (l’épanouissement humain, que nous précisons un peu plus loin), elle est d’abord une théorie du juste. Charles Larmore en propose une description suggestive pour notre propos :

« L’action juste consiste à faire ce qui produira globalement le plus grand bien pour tous ceux qui sont affectés par cette action, chacun d’entre eux ‘comptant pour un et seulement pour un’. Mais cela ne signifie pas que l’idée d’action juste découle d’une notion indépendante du bien. Car le bien que l’on doit maximiser est lui-même déterminé en fonction d’un principe catégorique de l’action juste : le bien est défini par le devoir de considérer impartialement le bien total de tous les individus concernés, quels que puissent être nos intérêts propres ; par conséquent, nous avons le devoir inconditionnel de chercher à l’atteindre ». (11)

« L’action juste consiste à faire ce qui produira globalement le plus grand bien pour tous ceux qui sont affectés par cette action » représente la partie conséquentialiste de l’utilitarisme (le caractère « juste » de l’action est évalué par les conséquences qu’elle produit, compte-tenu des conditions d’égalité et d’impartialité qui sont précisées ci-dessous), mais elle a aussi une dimension prescriptive, une dimension que Monique Canto-Sperber et Ruwen Ogien résument en affirmant que « ce qui est premier dans les conceptions utilitaristes est l’obligation de produire le plus grand bonheur pour le plus grand nombre » (12).

Cette obligation n’est toutefois pas exprimée en tant que telle dans la raison d’être d’OpenAI, car c’est le verbe « vouloir » (want), et non le verbe « devoir », qui est utilisé dans l’assertion suivante : « Nous voulons maximiser le bien et minimiser le mal ». Mais on peut légitimement la comprendre sur le mode de l’obligation : « Nous devons maximiser le bien et minimiser le mal ».

La recherche de la maximisation du bien global repose sur des conditions d’égalité et d’impartialité dans le traitement des personnes – « chacun compte pour un et seulement pour un », il faut « considérer impartialement le bien total de tous les individus concernés » (13). Ces conditions semblent représentées dans le principe n°2 d’OpenAI : « Nous voulons que les avantages de l’intelligence artificielle générale, son accès et sa gouvernance soient largement et équitablement partagés ».

La raison d’être d’OpenAI ne définit pas le bien que l’entreprise souhaite maximiser comme le fait Larmore. Il comprend essentiellement l’épanouissement humain, qui inclut « des capacités nouvelles et incroyables » que l’intelligence artificielle générale pourrait développer – les fonctions cognitives, l’ingéniosité et la créativité (14). Il inclut aussi la sûreté et la prudence afin que soient évitées les dérives possibles dans l’usage de l’IA générale, qui pourraient par exemple conduire à des abus de pouvoir (15). Le point important, pour notre propos, est que ce bien joue le rôle d’un critère du bien et du mal. Ajouté aux deux critères examinés précédemment (prescriptivisme et conséquentialisme), il constitue le troisième critère de l’utilitarisme (16).

Nous pouvons conclure ici notre brève exploration. Si nous devions ranger les philosophies de l’altruisme efficace et d’OpenAI dans une catégorie morale, nous choisirions à première vue celle de l’utilitarisme, essentiellement en raison de l’importance de la maximisation du bien et des conditions d’égalité et d’impartialité qui lui sont associées. On peut aussi avancer une deuxième raison, plus accessoire : elle concerne les intuitions morales qui sous-tendent le raisonnement utilitariste, des intuitions qui pourraient être « activées » par les philosophies de l’altruisme efficace et d’OpenAI – il s’agit d’une raison discutable (17), mais dont on peut dire, au risque d’être vague, qu’elle recouvre une certaine réalité.


Références

(1) J. S. Mill, Utilitarianism, 1863, Collected Works of John Stuart Mill, J. M. Robson (dir.), Toronto & Londres, 33 volumes, CW X, tr. C. Audard, L’utilitarisme. Essai sur Bentham, PUF, 1998.

(2) Source : About OpenAI.

(3) W. Macaskill, Doing good better: Effective altruism and a radical new way to make a difference, Guardian Books et Faber & Faber, 2015.

(4) B. Berkey, « The philosophical core of effective altruism », Journal of Social Philosophy, 52(1), 2021, p. 93-115. Selon Berkey, « une enquête récente menée auprès d’altruistes efficaces déclarés a révélé que 56 % d’entre eux s’identifiaient à des utilitaristes et 13 % à des conséquentialistes non utilitaristes ». Les critiques de l’altruisme efficace qui l’assimilent à l’utilitarisme sont cités dans B. Todd, « Effective altruism is widely misunderstood, even among its supporters », 80.000 Hours, 7 août 2020.

(5) P. Singer, The most good you can do. How Effective Altruism is changing ideas about living ethically, Yale University Press, 2015, tr. L. Bury, L’altruisme efficace, Les Arènes, 2018.

(6) B. Todd, op. cit.

(7) Source : About OpenAI.

(8) Une théorie morale est « une construction abstraite qui vise à systématiser nos intuitions morales, le but sous-jacent de l’exercice [étant] d’obtenir un cadre réflexif, composé d’un ou de plusieurs principes applicables aux actions particulières qui permet de déterminer si elles sont moralement justes ou non » (R. Ogien & C. Tappolet, Les concepts de l’éthique. Faut-il être conséquentialiste ? Hermann Editeurs, 2009).

(9) « Nos décisions exigeront beaucoup plus de prudence que celle que la société applique habituellement aux nouvelles technologies, et plus de prudence que de nombreux utilisateurs le souhaiteraient » (source : About OpenAI).

(10) Sur la conception attractive de la morale (et la conception impérative, discutée peu après), voir M. Canto-Sperber & R. Ogien, La philosophie morale, PUF, 2004, et C. Larmore, Modernité et morale, PUF, 1993. Sur les « définitions » du bien et du juste, voir P. Pettit, « Conséquentialisme », in M. Canto-Sperber (dir.), Dictionnaire d’éthique et de philosophie morale, Paris, PUF, 1996. Sur l’éthique de la vertu, voir mon article « Quelques cas concrets autour de l’éthique de la vertu », 25 juillet 2014.

(11) C. Larmore, Modernité et morale, PUF, 1993. L’extrait concerne le conséquentialisme, dont l’utilitarisme est une variante.

(12) M. Canto-Sperber & R. Ogien, op. cit.

(13) C. Larmore, op. cit.

(14) « Nous pouvons imaginer un monde dans lequel l’humanité s’épanouit à un degré qu’aucun d’entre nous ne peut encore pleinement nous représenter. Nous espérons apporter au monde une intelligence artificielle générale qui soit en phase avec cet épanouissement » (source : About OpenAI).

(15) Source : About OpenAI.

(16) Voir Catherine Audard, « Utilitarisme », in M. Canto-Sperber (dir.), Dictionnaire d’éthique et de philosophie morale, Paris, PUF, 1996.

(17) Voir R. Ogien, L’influence de l’odeur des croissants chauds sur la bonté humaine et autres questions de philosophie morale expérimentale, Paris, Editions Grasset & Fasquelle, 2011.

 


 

Pour citer cet article : Alain Anquetil, « L’« altruisme efficace » et « OpenAI » seraient des incarnations de la pensée utilitariste », Blog Philosophie & Ethique des Affaires, 15 mars 2023.

 

Partager cet article:
Partager sur FacebookPartager sur LinkedInPartager sur TwitterEnvoyer à un(e) ami(e)Copier le lien