La question de la protection des données personnelles a été nourrie par deux cas récents. Le premier concerne l’enceinte Amazon Echo, connectée à l’application vocale Alexa. En vue d’améliorer le service, les conversations des utilisateurs peuvent être enregistrées puis écoutées par des salariés d’Amazon. Ceci leur donne, entre autres, l’opportunité (involontaire) de surprendre des séquences de la vie privée des utilisateurs, y compris des moments intimes ou des situations potentiellement criminelles (1). Le deuxième cas a trait à la technologie de reconnaissance faciale Rekognition, également développée par Amazon. Ce logiciel est susceptible d’être utilisé par des autorités publiques. Fin mars 2019, des chercheurs ont publié une lettre ouverte dans laquelle ils soulignent le fait qu’« il n’existe pas de lois ni de normes pour s’assurer que Rekognition soit utilisé d’une manière qui ne contrevienne par aux libertés publiques » (2). La complexité et l’importance des problèmes moraux posés par ces deux cas suggère une question sur la manière, pour Amazon et d’autres opérateurs concernés, de se conduire avec rectitude. Pour des raisons d’espace, nous en discutons en deux temps. Dans le présent billet, nous présentons les initiatives éthiques prises par Amazon et certains de ses confrères afin de prévenir les problèmes moraux relatifs à l’usage des technologies en question.Alexa

 

Le mot « rectitude » a une valeur morale spécifique. Il désigne la « qualité d’une personne (et par métonymie de ses actions) qui ne dévie pas de la bonne direction, dans le domaine intellectuel et moral », ou encore l’action conforme à « la raison, au droit, à la véritable norme » (3). Cette valeur a-t-elle été spécifiquement exprimée par Amazon et d’autres opérateurs concernés par les outils en cause ?

 

Considérons d’abord le premier cas. Il y est question de « prudence » et de « sérieux ».

Un professeur d’université, interviewé par Bloomberg (4), notait que « la question de savoir s’il existe un problème de protection de la vie privée dépend du fait de savoir si Amazon et d’autres entreprises ont faire preuve de prudence en choisissant le type d’information qui est annoté manuellement et en déterminant les destinataires de cette information ».

Le « sérieux » est mentionné dans ces propos d’un représentant d’Amazon :

« Nous prenons au sérieux la sécurité et la préservation des informations personnelles de nos clients. Nous n’annotons qu’un échantillon extrêmement petit des enregistrements d’Alexa afin d’améliorer l’expérience client. Par exemple, ces informations nous aident à entraîner nos systèmes de reconnaissance vocale et de compréhension du langage naturel, pour qu’Alexa puisse mieux comprendre vos requêtes, et assurer que le service fonctionne parfaitement pour tout le monde » (4)

Ces éléments peuvent suggérer qu’Amazon traite avec prudence les informations dont elle a connaissance à travers l’enceinte Echo. L’affirmation selon laquelle il s’agit de « traitement de données sur une grande échelle » (5) en est un autre exemple : il ne s’agit pas de singulariser ou d’identifier des informations et des utilisateurs – ce qui constituerait une violation de la vie privée –, mais d’aider l’application Alexa à « donner du sens » (expression utilisée dans l’article de Bloomberg) aux données qu’elle recueille.

 

Considérons le second cas, celui de Rekognition. Le 7 février 2019, en réponse aux inquiétudes formulées à l’égard de ce logiciel (6), Amazon a proposé cinq principes éthiques à l’attention de responsables politiques. Elles figurent sur une page intitulée « Some Thoughts on Facial Recognition Legislation »

1. La reconnaissance faciale devrait toujours être utilisée conformément à la loi, y compris les lois qui protègent les droits civils.

2. Lorsque la technologie de reconnaissance faciale est utilisée dans le cadre de la loi, une vérification humaine est nécessaire afin de s’assurer que l’utilisation d’une prédiction en vue de eprendre une décision ne viole pas les droits civils.

3. Lorsque la technologie de reconnaissance faciale est utilisée par les services chargés d’appliquer la loi à des fins d’identification, ou d’une manière qui pourrait menacer les libertés civiles, un seuil de confiance de 99 % est recommandé.

4. Les services chargés d’appliquer la loi devraient faire preuve de transparence dans la façon dont ils utilisent la technologie de reconnaissance faciale.

5. Le public doit être informé de l’utilisation combinée de la vidéosurveillance et de la technologie de reconnaissance faciale dans un cadre public ou commercial. (7)

En conclusion, Amazon avance un méta-principe : une technologie censée contribuer au bien-être général (à travers, par exemple, la lutte contre le trafic des êtres humains, la recherche de personnes disparues ou la sécurisation d’un bâtiment) ne peut pas être interdite d’emblée du fait qu’elle pourrait être mal utilisée :

« Les nouvelles technologies ne devraient pas être interdites ou condamnées en raison de leur mauvaise utilisation potentielle. Elles devraient plutôt donner lieu à un dialogue ouvert, honnête et sincère entre toutes les parties concernées afin de s’assurer que la technologie est appliquée de manière appropriée et fait l’objet d’améliorations continues. »

 

Google a également formulé des principes relatifs à ses recherches en matière de reconnaissance faciale. Elle y a renoncé dans l’attente de lois encadrant son utilisation.

Dans un texte publié le 13 décembre 2018, l’un des dirigeants de Google soulignait l’engagement de l’entreprise pour développer des technologies d’intelligence artificielle permettant de contribuer au bien-être général. Il proposait plusieurs exemples, parmi lesquels la détection de rétinopathies chez les diabétiques ou la préservation des oiseaux indigènes.

En revanche, affirmait ce dirigeant, les technologies susceptibles de faire l’objet d’« usages multiples » méritent d’être considérés avec prudence. La reconnaissance faciale entre précisément dans cette catégorie :

« Google s’est engagé depuis longtemps dans le développement responsable de l’intelligence artificielle. Ces principes guident nos décisions sur les types de fonctions à élaborer et sur les recherches à mener. Ainsi, la technologie de reconnaissance faciale présente des avantages, par exemple en matière de recherche des personnes disparues, où des applications prometteuses sont attendues. Cependant, comme de nombreuses technologies présentant des usages multiples, la reconnaissance faciale mérite une attention particulière afin de garantir que son utilisation est conforme à nos principes et valeurs, qu’elle ne donne pas lieu à des abus et ne produit pas des conséquences néfastes. Nous continuons à travailler avec de nombreuses organisations pour identifier et relever ces défis, et contrairement à d’autres entreprises, Google Cloud a choisi de ne pas offrir d’API [interfaces de programmation d’applications] de reconnaissance faciale généraliste avant d’avoir résolu les importantes questions technologiques et politiques qu’elle soulève. » (8)

Les principes auxquels il est fait référence au début de cet extrait ont été adoptés en juin 2018 (9). Ils concernent exclusivement l’intelligence artificielle. Voici leur intitulé (le sujet de ces principes est pour l’essentiel « la technologie ») :

1. Bénéficier à la société.

2. Eviter de créer et de renforcer des biais injustes.

3. Être conçue et testée pour la sécurité.

4. Pouvoir rendre des comptes.

5. Incorporer des principes de respect de la vie privée.

6. Se maintenir aux hauts standards de l’excellence scientifique.

7. Être mise à disposition des autres pour des usages en accord avec ces principes.

 

Le 13 juin 2017, le président de Microsoft avait déjà appelé à une régulation légale des programmes de reconnaissance faciale (10). Les mots qu’il utilise en introduction de son propos expriment avec clarté le méta-principe d’Amazon que nous avons cité précédemment :

« N’importe quel outil peut être utilisé pour le bien ou pour le mal. Même un balai peut être utilisé pour balayer le sol ou pour frapper quelqu’un sur la tête. Plus l’outil est puissant, plus les bénéfices ou les maux qu’il peut produire sont importants. »

La technologie de reconnaissance faciale est l’un de ces outils. Le président de Microsoft souligne la diversité de ses usages possibles, ainsi que sa « relative immaturité ». De ces caractéristiques, il déduit que le gouvernement devrait réglementer ces usages. Il est en effet mieux placé que les entreprises privées pour contribuer au bien-être général ou réaliser des objectifs publics. Les engagements des entreprises en matière de responsabilité sociale ne peuvent en aucun cas se substituer aux décisions législatives et gouvernementales. En outre, à supposer que l’on compte avant tout sur leur sens de la responsabilité sociale, il n’est pas garanti que toutes les entreprises soient également soucieuses de l’intérêt général, en l’occurrence de la préservation de droits fondamentaux. Microsoft propose cette maxime générale pour justifier sa position :

« En règle générale, il semble plus raisonnable de demander à un gouvernement démocratiquement élu de réglementer les entreprises que de demander à des entreprises non démocratiquement élues de réglementer un tel gouvernement. »

Le président de Microsoft utilise également l’argument du « décalage éthique », qui affirme que la régulation éthique d’une nouvelle technologie apparaît avec retard, c’est-à-dire un certain temps après son avènement (11) :

« Compte tenu de l’importance et de l’ampleur des questions relatives à la reconnaissance faciale, Microsoft et le secteur de la haute technologie ont la responsabilité de veiller à ce que cette technologie soit centrée sur l’être humain et développée d’une manière conforme aux valeurs sociétales communément admises. Nous devons reconnaître que bon nombre de ces questions sont nouvelles et que personne n’a toutes les réponses. Et nous devons encore travailler afin d’identifier toutes les questions posées. Bref, nous avons tous beaucoup à apprendre. »

Nous pourrions ajouter d’autres considérations, mais les éléments empiriques qui figurent ci-dessus devraient permettre d’apprécier la rectitude de ces différentes approches. Nous en discuterons dans le prochain billet.

Alain Anquetil

(1) Voir « Alexa : des milliers de salariés Amazon écoutent les conversations des utilisateurs », BDM Media, 12 avril 2019. L’article s’inspire de « Amazon Workers Are Listening to What You Tell Alexa », Boomberg, 11 avril 2019. Des salariés d’Amazon auraient été les témoins auditifs d’une possible agression sexuelle.

(2) « Reconnaissance faciale : 55 chercheurs demandent à Amazon de ne plus vendre son logiciel à la police », Le Monde, 4 avril 2019. La lettre ouverte des chercheurs a pour titre « On Recent Research Auditing Commercial Facial Analysis Technology », Medium, 26 mars 2019. Voir aussi « Amazon pris dans la tempête de la reconnaissance faciale », Le Temps, 5 avril 2019.

(3) Sources : respectivement le Dictionnaire historique de la langue française, Le Robert, 2010, et le CNRTL.

(4) Voir la note 1.

(5) Voir la note 1.

(6) Voir « Coalition Letter to Amazon Urging Company Commit Not to Release Face Surveillance Product », 15 janvier 2019, cet article : « Amazon proposes ethical guidelines on facial recognition software use », The Sociable, 11 février 2019, et cet autre article de The Sociable du 18 janvier 2019 sur l’initiative d’actionnaires d’Amazon demandant le retrait du programme Rekognition : « Amazon Rekognition : de gros actionnaires réclament son retrait. En attendant des guaranties », Les Numériques, 18 janvier 2019.

(7) Ma traduction.

(8) « AI for Social Good in Asia Pacific », 13 décembre 2018.Ma traduction.

(9) « AI at Google: our principles », 7 juin 2018. Voir aussi « Google s’engage à ne pas mettre ses technologies d’intelligence artificielle au service de l’armement », Le Monde, 7 juin 2018. Je reprends la traduction française des sept principes donnée dans cet article.

(10) « Facial recognition technology: The need for public regulation and corporate responsibility », 13 juin 2018. Je traduis en français.

(11) Voir mon article « L’explication des conflits par le ‘décalage’ entre domaines humains », 20 décembre 2012. On pourra se référer à B. Kracher et C.L. Corritore, « Is there a special e-commerce ethics ? », Business Ethics Quarterly, 14(1), 2004, p. 71-94.

[cite]

Partager cet article:
Partager sur FacebookPartager sur LinkedInPartager sur TwitterEnvoyer à un(e) ami(e)Copier le lien