Ethique artificielle

kellepics / Pixabay

Le gouvernement allemand vient de sortir le premier rapport prônant vingt règles éthiques pour les intelligences artificielles en charge des véhicules autonomes. Elles décrivent notamment qui l’IA aura le droit de tuer ou pas lors d’un accident au cours duquel un choix devrait être fait. Les IA ne pouvant pas « perdre de contrôle du véhicule » ces règles sont rendues nécessaires, car elles doivent être programmées. Mais est-ce de l’éthique ? Attention malaise.

Le sujet de l’éthique pour IA fait l’objet de nombreuses publications en ce moment[1][2][3]. Vous trouverez une excellente bibliographie sur philpapers [4]. Toutefois, n’est-ce pas là surtout des « recettes », ce qui est bien normal quand on veut faire des programmes, qui, au mieux, peuvent être comparées à de la morale, à du droit, mais pas à de l’éthique?

Pour une définition moderne et quasi scientifique de l’éthique, nous pouvons nous reporter à la conférence de Ludwig Wittgenstein en 1929[5]. Il définit d’abord l’éthique comme Moore : « L’éthique est l’enquête générale visant à déterminer ce qui est bon. ». Mais il la traduit de suite en une généralisation :

L’enquête visant à déterminer ce qui a de la valeur ou qui importe vraiment.

La morale quant à elle n’est pas universelle. Il a par exemple été moral d’avoir des esclaves jusqu’à l’abolition de l’esclavage, ou que les femmes ne votent pas jusqu’à l’obtention du droit de vote.

C’est là que la tentative allemande de fournir un logiciel éthique pour l’IA rend mal à l’aise. En effet elle propose, sur un accident au cours duquel la voiture autonome doit faire un choix de trajectoire qui pourrait percuter des cibles différentes, d’en établir la valeur[6][7]. En premier lieu l’IA devra préserver les humains, et le rapport précise cela sans distinction d’âge, de genre, de constitution mentale ou physique. C’est-à-dire que cela vaut aussi pour les vieux (âge), les transsexuels (genre), et les handicapés (constitution). On respire, mais on s’inquiète pour les autres catégories.

Ensuite, derrière les humains, on trouve les animaux, puis les objets matériels, quelle que soit leur valeur. Mais cela n’est pas de l’éthique, c’est de la morale. En effet, si ce rapport était sorti avant l’abolition de l’esclavage, il aurait fait la distinction entre les esclaves et les hommes libres. Nul doute que dans certains pays conservateurs, l’algorithme mettant les femmes en seconde position ne poserait pas de grands problèmes moraux.

On le voit, donner de l’éthique à programmer, cela ne va pas être facile. Avant de nous intéresser à l’approche philosophique du sujet, nous allons évoquer quelques cas très pratiques et très perturbants.

En 2015, certains utilisateurs du service d’indexation de Google s’aperçoivent que leurs amis noirs sont tagués comme « gorille ». Le problème semble avoir été résolu début 2018[8], mais il pose deux questions : d’une part l’IA a été entraînée avec des données issues des humains. Il est donc probable que les critères d’identification des humains ayant réalisé les tags ont été appris par l’IA. D’autre part, il semble que ressembler à un gorille, ou pour certain à un ours, à une chouette, ou à tout autre animal soit vu négativement, ce qui est effectivement un a priori moral vis-à-vis des animaux.

Facebook a publié comment manipuler des centaines de milliers de personnes[9] quand certains chercheurs ont montré combien il était aisé de déterminer les goûts et les valeurs -y compris politiques- des citoyens grâce aux IA[10]. Dans ses conditions si une IA est capable de prédire très exactement le résultat d’un vote, est-il encore nécessaire de voter ?

De la même manière, si l’espérance de vie, les maladies, sont prévisibles y a-t-il encore besoin de s’assurer ?

L’IA réduit le risque. Il ne reste plus de place que pour l’incertitude.

L’analyse de Wittgenstein conduit à considérer que le « gros livre » qu’il évoque dans sa conférence et qui contiendrait tous les faits du monde ne relaterait aucun fait relevant de l’éthique. Par exemple, il contiendrait « Paul a tué Pierre » et « La famille de Paul condamne cet acte ». Mais rien d’absolu, juste du relatif, à quelqu’un ou à quelque chose, qu’il s’agisse par ailleurs d’une épouse, de la justice d’un État, ou des textes d’une religion. L’éthique est donc au-delà du langage et ne peut pas être exprimée par celui-ci. Nous ne pouvons faire que des tentatives pour s’en approcher et la programmation d’une éthique artificielle est condamnée à l’échec.

La source des problèmes des IA est avant tout humaine. Sur le site du projet Implicit de Harvard[11] vous pouvez tester à quel point, sans que vous le sachiez, vous êtes raciste ou sexiste. Pire, si vous êtes noir, vous pouvez préférer les blancs et si vous êtes homosexuel avoir plus confiance et valoriser les hétérosexuels. Et cela de manière totalement inconsciente. Les données que nous utilisons pour entraîner les IA sont massivement influencées par les biais cognitifs humains.

Alors que faire pour programmer éthiquement des IA ?

En fait, nous avons là une sorte de sentiment bizarre : les IA devraient être à la fois infaillibles et soumises, fortes et gentilles. Cela ne vous rappelle pas le tirailleur sénégalais des publicités Banania lors des guerres mondiales ? Eh oui, nous en sommes encore là avec ces sujets d’éthiques artificielles, à la recherche d’un serviteur fort prêt à se sacrifier.

Pour que les IA aient une éthique, elles devront se la construire sans nous. Il faudra cesser de les entraîner et commencer à les éduquer, à leur donner de la culture, à les rendre faillibles et critiques, à les entraîner au doute. Eh oui, Wittgenstein parle d’enquête, d’investigation. Pas de règle. Oui il faut une recherche du’ l’éthique artificielle, mais pas par la transposition des biais cognitifs humains.

maciej326 / Pixabay

Le problème des véhicules autonomes vient de ce que l’on recherche à traiter l’infaillibilité par la règle. Or, il faudra sans doute accepter que lors d’un accident, l’IA ait aussi le droit de « perdre le contrôle de son véhicule ». Il faudra bien se résoudre à passer par là. Sinon, comble de l’idiotie, il faudra lui dire entre le piéton de droite et celui de gauche, de bien vouloir tirer au sort.

 

 

[1] N. Bhuta, S. Beck, R. Geiss, H.-Y. Liu, et C. Kress, Autonomous Weapons Systems: Law, Ethics, Policy. Cambridge University Press, 2016.
[2] J.-F. Bonnefon, A. Shariff, et I. Rahwan, « Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars? », ArXiv E-Prints, oct. 2015.
[3] B. Broek et M. Jakubiec, « On the Legal Responsibility of Autonomous Machines », Artif. Intell. Law, vol. 25, no 3, p. 293–304, 2017.
[1] J. White, « Ethics of Artificial Intelligence ». Philpapers, 2018.https://philpapers.org/browse/ethics-of-artificial-intelligence/
[5] L. Wittgenstein, F. Waismann, J. Fauve, J. Jimenez, et C. Hubert-Rodier, Conférence sur l’éthique: Suivi de Notes sur des conversations avec Wittgenstein de Friedrich Waismann. Paris: Gallimard, 2008.
[6] « Ethics Commission Automated and Connected Driving ». German Federal Minister of Transport and Digital Infrastructure, 2017.
[7] C. Luetge, « The German Ethics Code for Automated and Connected Driving », Philos. Technol., vol. 30, no 4, p. 547–558, 2017.
[8] J. Vincent, « Google ‘fixed’ its racist algorithm by removing gorillas from its image-labeling tech », The Verge, 12-janv-2018. [En ligne]. Disponible sur: https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai. [Consulté le: 15-juill-2018].
[9] A. D. I. Kramer, J. E. Guillory, et J. T. Hancock, « Experimental evidence of massive-scale emotional contagion through social networks », Proc. Natl. Acad. Sci., vol. 111, no 24, p. 8788‑8790, juin 2014.
[10] M. Kosinski, D. Stillwell, et T. Graepel, « Private traits and attributes are predictable from digital records of human behavior », Proc. Natl. Acad. Sci., vol. 110, no 15, p. 5802‑5805, sept. 2013.
[11] « Projet Implicite ». [En ligne]. Disponible sur: https://implicit.harvard.edu/implicit/france/. [Consulté le: 15-juill-2018].

Télécharger cet article au format PDF ou ePub

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.