L’Intelligence artificielle (Plus de dérives que de progrès ?)

Tous les jours, nous sommes confrontés à l’intelligence artificielle, parfois ça peut nous sembler aussi banal que l’autodestruction du spam[1] dans notre boîte mail, mais les avancées de l’IA peuvent aller beaucoup plus loin, jusqu’au perfectionnement des systèmes d’imagerie médicale ou encore de la gestion du trafic aérien.[2]

Sa facilité et son développement suscitent, depuis toujours, de nombreux fantasmes, mais également beaucoup d’inquiétudes, de dangers et même des dérapages qu’on pensait observer uniquement dans des romans ou des films de science-fiction. Aujourd’hui, ils sont déjà très présents dans nos vies. Des personnalités aussi connues que Elon Musk et Stephen Hawking qui l’utilisaient fréquemment nous mettent déjà en garde contre celle-ci et ont signé une lettre ouverte sur l’intelligence artificielle (Beneficial AI) qui recommande aux chercheurs d’étudier les impacts sociétaux de ce phénomène.[3] Il en était ressorti une liste des « 23 principes d’Asilomar » qui repose sur les craintes autour du développement de l’intelligence artificielle. Cette liste a été signée par plus de 2 500 personnes, dont plus de 1 200 chercheurs. Ce qui signifie qu’un grand nombre de gens ont une vision assez pessimiste de l’intelligence artificielle.[4]

Aujourd’hui on s’accorde pour dire qu’il existe trois types d’intelligence artificielle allant de la plus simple, l’ANI, à la plus complexe, l’ASI en passant par une IA intermédiaire, l’AGI.

La première est l’ANI (Artificial Narrow Intelligence), c’est une intelligence artificielle qui consiste en une mono-activité et qui est capable d’exécuter des tâches simples comme par exemple prendre un rendez-vous chez le coiffeur. La seconde, un petit peu plus complexe, est l’AGI (Artificial General Intelligence). Globalement aussi intelligente que l’humain, elle pourrait traiter des problèmes variés et  raisonner de façon abstraite. Ce type d’IA utilise « des réseaux de neurones artificiels » qui tentent d’imiter la transmission neuronale biologique. Mais évidemment créer un ordinateur aussi complexe qu’un cerveau humain est une tâche difficile. Le dernier type d’intelligence artificielle est le plus complexe, il s’agit de l’ASI (Artificial Super Intelligence) amène à une IA potentiellement nettement supérieure à l’humain, et cela dans tous les domaines. Celle-ci serait même dotée d’une conscience propre et s’améliorerait seule sans cesse. L’écrivain Eliezer Yudkowsky utilise l’expression de boucle « d’auto-amélioration pour décrire ce phénomène. Il parle ainsi d’une IA qui réécrit son propre « algorithme cognitif »[5].

L’intelligence artificielle est en effet très prometteuse pour de nombreux secteurs. Donc pourquoi au vu de tous ces progrès, devrions-nous en avoir peur ?

Parce qu’il ne faut pas perdre de vue, qu’aucune technologie n’est infaillible et qu’utilisée avec de mauvaises intentions, les conséquences engendrées peuvent s’avérer très graves, comme par exemple une perte de contrôle, comme des cyberattaques ou encore des attaques de drones.[6] L’utilisation de cette technologie peut également engendrer des discriminations sur base du genre, de l’âge, des convictions politiques , philosophiques ou de tout autre motif, elle peut amener à un non-respect de la vie privée ou encore à un usage à des fins criminelles.

C’est suite à cela que le 19 février 2020, la Commission européenne a présenté une nouvelle stratégie pour encadrer l’intelligence artificielle.[7] L’instance européenne souhaite des applications « dignes de confiance ». Elle a présenté un livre blanc avec des recommandations pour favoriser l’innovation, protéger et respecter les intérêts des citoyens européens.[8] L’Objectif de ces recommandations européennes étant d’établir des règles pour les usages qui peuvent présenter des risques pour la santé et le respect des droits fondamentaux.[9] Bruxelles recommande que les futurs systèmes d’intelligence artificielle considérés comme étant à haut risque (par exemple ceux qui concernent le domaine de la santé) soient « certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques ainsi que les jouets »[10].

Alors que pour certains cet aspect semble uniquement lié à un effet de mode, d’autres insistent ardemment sur son importance éthique, juridique et politique. Nous allons aborder les dérapages de l’IA davantage d’un point de vue éthique que criminel.

Un des dérapage de l’intelligence artificielle pourrait viser à accentuer les discriminations algorithmiques :

Robot Microsoft « Tay »

On se souvient en 2016, du robot Tay lancé par l’entreprise américaine Microsoft, celui-ci était un «  agent conversationnel » capable de participer à des conversations sur divers sujets sur des réseaux sociaux comme Twitter, Snapchat, Kik ou encore GroupMe. Le robot conversationnel se basait sur des données accessibles publiquement afin de proposer des réponses aux questions posées. L’équipe Microsoft précisait également qu’un grand nombre de réponses étaient déjà toutes faites, réalisées par des humoristes. Les mêmes phrases étaient susceptibles de sortir régulièrement. Lorsqu’on interrogeait le robot sur des sujets plus sensibles comme l’organisation « État islamique » ou le terrorisme, Tay disposait de la réponse préenregistrée suivante « Le terrorisme sous toutes ses formes est déplorable. Cela me dévaste d’y penser»[11]. Cependant malgré les réponses préenregistrées le robot a tout de même fini par déraper et par nier l’existence de l’Holocauste. Il a été mise hors circuit par la société Microsoft seulement quelques heures après cette malheureuse réponse.

Algorithme de recrutement utilisé par Amazon

D’autres exemples d’intelligence artificielle nous posent également des problèmes. C’est ainsi qu’en 2014, le géant du e-commerce Amazon a décidé de confier le recrutement de ses employés à un algorithme, un programme informatique secret qui devait déterminer les meilleurs candidats à embaucher . Ce programme était inspiré de Workland tout en utiisant une technologie différente.

L’algorithme était capable d’examiner le curriculum vitae des candidats afin d’automatiser le processus de recrutement en attribuant une note d’une à cinq étoiles selon les profils. Mais lors des tests, le robot a montré une préférence pour les profils masculins, ce qui a pénalisé les CV utilisant un vocabulaire à consonance féminine, ainsi que l’a révélé l’agence de presse Reuters.[12]

Amazon a donc été contraint d’abandonner ce projet car il n’y avait pas de garantie d’impartialité. Le service des ressources humaines d’Amazon a toutefois précisé que le classement préconisé par le système de recrutement n’avait jamais été l’unique critère.

Le logiciel COMPAS

Un autre logiciel[13] controversé est utilisé aux Etats-Unis dans le but d’évaluer le risque
de récidive chez les criminels. Dans de nombreux États américains, les prédictions de ce logiciel influencent les cautions, les conditions de probation ainsi que la durée des peines de prison accordées lors d’une condamnation pénale. Ce logiciel s’appuie sur des études académiques en criminologie et en sociologie, ainsi que sur différents modèles statistiques et sur le traitement d’un questionnaire de 137 entrées relatif à la personne concernée et à son passé judiciaire sans aucune référence à son origine ethnique.[14] Le questionnaire permet ensuite au juge d’évaluer les différents « scores » sur un horizon de deux années comprenant le risque de récidive, le risque de comportement violent et celui de non-comparution pour les situations de placement en détention provisoire. La démarche apparaît a priori pluridisciplinaire et fondée scientifiquement. Toutefois, en mai 2016, une enquête de l’ONG ProPublica a révélé l’efficacité des « prédictions » de COMPAS dont le logiciel aurait un a priori négatif à l’égard des Noirs. Cette conclusion a été contestée par le fabricant mais la Cour suprême du Wisconsin n’en a pas moins invité les juges à utiliser ce logiciel avec une « grande prudence ».

Le « Deep fake » est un autre exemple de dérive de l’IA

Ce concept de « Deep fake » également appelé « hyper trucage » consiste à modifier des vidéos réalisées par une synthèse d’images pour répandre des fake news. Il est très facile de retoucher une vidéo en procédant par exemple à une permutation intelligente de visages. C’est une pratique très courante et très rapide qui permet de répandre des mauvaises informations, des rumeurs, etc.

Grâce à l’intelligence artificielle, Samsung est parvenu à animer de manière très réaliste des tableaux ou des photos. Cette pratique ne semble à premier abord pas si dangereuse. Cependant si elle vient à se trouver entre des mains mal intentionnées , la donne peut s’avérer bien différente. L’utilisation du « Deep Fake » pour prendre l’apparence de personnalités telles que des chefs d’États et pour leur faire dire des choses mal intentionnées pourrait conduire à des conflits.[15] Cette technologie s’avère être si complexe que Facebook s’en est remis à la communauté pour tenter de trouver des contre-mesures pour lutter contre l’utilisation des « Deep Fake »[16].

Des experts internationaux nous mettent en garde contre l’utilisation malveillante de l’intelligence artificielle, celle-ci pouvant aller jusqu’à la cybercriminalité. Des robots ou des drones pourraient être utilisés à des fins terroristes.

Ingérence dans la vie privée

L’ingérence dans la vie privée fait aussi partie des dérapages possibles de l’IA. Dans ce cas, on pense aux caméras présentes dans les rues et qui sont capables avec l’aide d’un système de reconnaissance faciale de vous identifier. Cette technologie est d’application en Chine, à Singapour et dans d’autres pays. Ce système offre à chaque habitant du pays un certain nombre de points en fonction de leur comportement. Ainsi les autorités chinoises relèvent les infractions telles que traverser lorsque le feu est rouge ou encore fumer dans des lieux où cela est interdit, etc.[17]

Conclusion :

Ces exemples de dépassement de l’intelligence artificielle nous semblent provenir tout droit de romans de science-fiction. Cependant, il faut bien constater que les robots ne sont pas aussi neutres ni infaillibles qu’on pourrait le penser. La technologie de l’IA peut être utilisée de manière déviée.

Actuellement elle est utilisée dans le but d’améliorer de nombreux aspects de nos vies comme par exemple pour affiner la qualité du diagnostic médical ou encore pour trouver de nouveaux remèdes pour soigner le cancer, etc. Malheureusement, plus les capacités de l’intelligence artificielle s’améliorent plus elles pourraient devenir dangereuses en étant utilisées à mauvais escient. C’est pour cette raison qu’il est très important de parler des possibilités de rendre l’IA sûre et de minimiser son potentiel destructif. Il faut toutefois rester réaliste, elle n’est pas infaillible. Et dans des domaines aussi importants que la justice, la santé, la sécurité sociale, ou les applications militaires où le coût humain d’une erreur peut s’avérer énorme, il est essentiel d’avoir plus de transparence.

Les robots sont conditionnés à essayer de reproduire des jugements humains. On sait qu’un robot ne naît pas raciste puisqu’il n’a pas encore de liberté décisionnelle ; il est composé d’un ensemble de principes informatiques et de formules mathématiques. Une IA n’a pas d’opinion propre, et en réalité, son dysfonctionnement provient d’erreurs humaines. Mais un dérapage n’est pas à exclure malgré les bonnes intentions de ses créateurs comme l’affirme Abhishek Gupta, ingénieur logiciel à Microsoft et fondateur du Montreal AI Ethics Institute. L’ingénieur donne comme exemple : « Si vous ne faites pas attention et que vous entraînez le robot avec 1 000 oranges, mais uniquement 10 pommes, le robot ne sera pas efficace pour reconnaître les pommes ». Peut-être même qu’il les confondra avec des oranges. Dans cet exemple évidemment, il n’y a rien de dramatique. Mais ceci nous fait repenser à un cas survenu en 2015 avec des conséquences beaucoup plus importantes, lorsqu’un algorithme de reconnaissance visuelle proposé par Google photo en 2015, a confondu des Noirs et des gorilles[18]. Cet exemple nous amène à penser que malgré tout, les algorithmes peuvent répéter nos préjugés.

Certains de ces critères discriminatoires sont inculqués de manière volontaire aux algorithmes, un exemple connu concerne l’âge lorsqu’il s’agit d’obtenir un prêt bancaire, l’état de santé pour l’obtention d’une assurance ou encore le lieu de résidence pour moduler les primes.

Lorsque nous laissons un algorithme de recommandation agir pour nous influencer sur le choix de films ou séries, ça ne semble pas avoir une trop grande importance, mais qu’en est-il lorsque ces algorithmes choisissent vos amis et agissent sans même que vous vous en rendiez compte et se permettent de décider pour vous quels articles vous devriez lire et en ne vous donnant même plus accès aux autres. Ces cas posent clairement des problèmes éthiques et entrave notre liberté d’opinion.

Le thème de l’éthique devient incontournable au niveau mondial. On a pu retrouver cette préoccupation lors des conférences sur l’intelligence artificielle qui se sont tenues au Canada, en Chine et aux USA. En effet le Canada a publié le 4 décembre 2019, la Déclaration de Montréal[19], un texte qui propose 10 grands principes pour assurer un développement responsable de l’intelligence artificielle. Cette Déclaration vise entre autres à éliminer les discriminations, à élaborer un cadre éthique pour le développement et le déploiement de l’IA.[20] L’Europe s’y est également intéressée même s’il ne s’agit à l’heure actuelle que d’un livre blanc composé de recommandations.

Céline Béclard
Juriste

  1. N. KUMARAN, « Spam does not bring us joy – ridding Gmail of 100 million more spam mes- sages with TensorFlow», 6 février 2019, Google Cloud Blog, disponible sur https://cloud.google. com/blog/products/g-suite/ridding-gmail-of-100-million-more-spam-messages-with-tensorflow
  2. J. DE COOMAN, « Éthique et intelligence artificielle : l’exemple européen », Rev. Dr. ULiège, 2020/1, p. 79-123.
  3. An Open Letter RESEARCH PRIORITIES FOR ROBUST AND BENEFICIAL ARTIFICIAL INTELLIGENCE
  4. Disponible sur : https://www.nextinpact.com/article/28064/106188-une-etude-pointe-possibles-effets-pervers-et-dangers-intelligence-artificielle (consulté le 2 novembre 2020).
  5. Disponible sur : https://www.sicara.fr/parlons-data/2018-06-11-intelligence-artificielle-ethique?utm_term=&utm_campaign=FR++%5BSearch%5D+Computer+vision&utm_source=adwords&utm_medium=ppc&hsa_acc=9872608880&hsa_cam=10936526771&hsa_grp=106988552626&hsa_ad=459090908311&hsa_src=g&hsa_tgt=dsa19959388920&hsa_kw=&hsa_mt=b&hsa_net=adwords&hsa_ver=3&gclid=Cj0KCQjwxNT8BRD9ARIsAJ8S5xbclVUpWRRPsjKwpaR9BwnJFo4bRyWR4gJ2QFUXKljs9nbPnkvDjcaAnp_EALw_wcB (consulté le 26 octobre 2020).
  6. Disponible sur : https://www.futura-sciences.com/tech/questions-reponses/intelligence-artificielle-20-menaces-plus-dangereuses-intelligence-artificielle-14343/ (consulté le 26 octobre 2020) ;
  7. C. CASTETS-RENARD, « Titre 2 – Réglementation des systèmes d’intelligence artificielle » in Droit du marché unique numérique et intelligence artificielle, Bruxelles, Bruylant, 2020, p. 340
  8. Livre blanc : https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf; L. CHANCERELLE, « La lutte contre les discriminations en Europe à l’ère de l’intelligence artificielle et du big data », J.D.J., 2019/1, n° 381, p. 25-37.
  9. Disponible sur : https://www.arte.tv/fr/videos/RC-018563/intelligence-artificielle-entre-progres-et-derives/ (consulté le 23 octobre).
  10. Disponible sur : https://www.maddyness.com/2020/03/02/intelligence-artificielle-ethique/ (consulté le 26 octobre 2020) ; Y. POULLET, « Chapitre 3 – Le principe et les obligations du responsable en ce qui concerne la sécurité des données (art. 5, 32 et s.) » in Le RGPD face aux défis de l’intelligence artificielle, Bruxelles, Éditions Larcier, 2020, p. 84-109.
  11. Disponible sur : https://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html (consulté 22 octobre 2020)
  12. Disponible sur : https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753 (consulté le 23 octobre 2020)
  13. Correctional Offender Management Profiling for Alternative Sanctions (Profilage des délinquants correctionnels pour des sanctions alternatives) est un algorithme développé par la société privée Equivant (ex-Northpointe), http://www.equivant.com/solutions/inmate-classification.
  14. Practitioner’s Guide to COMPAS Core, Northpointe, 2015, disponible sur : http://www.northpointeinc.com/downloads/compas/Practitioners-Guide-COMPAS-Core-_031915.pdf.
  15. Y. MENECEUR, « #3.02 – L’informatique : un « fait social total » » in L’intelligence artificielle en procès, Bruxelles, Bruylant, 2020, p. 189-197
  16. M. SZADKOWSKI, « Facebook lance une compétition contre les vidéos « deepfake » », Le Monde, 6 septembre 2019
  17. Disponible sur : https://fr.sputniknews.com/presse/201903051040254660-intelligence-artificielle-risques-avertissement/ (consulté le 31 octobre 2020).
  18. Disponible sur : https://lejournal.cnrs.fr/articles/peut-faire-confiance-a-lintelligence-artificielle (consulté le 31 octobre 2020).
  19. Disponible sur : https://www.declarationmontreal-iaresponsable.com/la-declaration (consulté le 20 octobre 2020).
  20. Disponible sur : https://lactualite.com/sante-et-science/quand-lintelligence-artificielle-derape/source : https://fr.wikipedia.org/wiki/Intelligence_artificielle#cite_note-5 (consulté le 16 octobre 2020).