Travail précaire : à qui profite le crime ?

Marie Béclard - FAML

Travailler pour plusieurs employeurs, en horaires décalés, à la demande… Les formes atypiques d’emploi se multiplient depuis les années 70. Dans les pays industrialisés, le temps partiel en « horaires de travail très courts » ou les contrats sans durée minimum de travail garantie sont de plus en plus courants. Les Etats tentent de diminuer le nombre de chômeurs en mettant en place de nouvelles mesures mais jusqu’où pourrait-on aller pour atteindre cet objectif ? Offrir toujours plus de flexibilité aux entreprises dans l’espoir qu’elles engagent ? Mener une telle politique peut-elle se faire sans conséquences pour la sécurité sociale  et pour les travailleurs ?

L’Uberisation, Création ou destruction de l’emploi ? Le cas de Deliveroo

Deliveroo est une plateforme qui met en relation des clients, des restaurateurs et des livreurs. Ces derniers, plus communément appelés « coursiers », ne sont pas des employés. Pour travailler avec Deliveroo, ils sont contraints d’adopter le statut de micro-entrepreneur, ils sont des « partenaires » de la plateforme. Ils travaillent avec la contrainte de devoir assurer la livraison du repas à vélo (mais certains coursiers utilisent également leur véhicule), en moins de trente minutes.[1] Une subordination qui ne devrait pas exister lorsqu’il s’agit d’indépendants selon la juriste Barbara Gomes. Pour être un vrai indépendant, le livreur doit être réellement libre de choisir quand il travaille ou non. A certains moments Deliveroo a contraint des livreurs à accepter des courses sous peine de ne plus pouvoir travailler pour la plateforme. Les coursiers étaient forcés de travailler le week-end de 20 à 22h sinon ils n’avaient aucune chance d’être bien placés dans les statistiques et d’avoir accès à un maximum de plages horaires. Les coursiers qui n’acceptaient pas assez de courses étaient prévenus et cela avait des conséquences sur « Le classement qu’il effectue garantit une certaine protection à ceux qui prêtent allégeance, c’est-à-dire à ceux qui sont disponibles dans le travail précaire, qui sont réactifs et corvéables » un même fait qui va brouiller les limites «  qui brouillent la frontière entre travail subordonné et travail indépendant »[2].

Les coursiers n’avaient pas la possibilité de ralentir ou de prendre du repos s’ils voulaient garder leurs privilèges car toutes les deux semaines, les statistiques sont recalculées. Certains coursiers se retrouvaient dans des situations aberrantes : travailler avec un vélo en location (et donc quasi pour rien) ou encore acheter des heures à un autre livreur pour ne pas baisser dans les statistiques. Cette pratique a été fortement critiquée et Deliveroo prône désormais le free login. Les coursiers sont désormais libres de choisir quand ils décident de travailler pour la plateforme. Le lien de subordination est détourné de manière subtile par Deliveroo puisque l’employé est contrôlé par une application sans qu’on doive lui donner directement des ordres.

Deliveroo ne fournit pas le matériel aux personnes qui travaillent pour eux. Mais il permet aux coursiers de se fournir chez eux à des tarifs préférentiels. Certains font l’achat de vélos plus performants, de vélos électriques (voire de scooters), pour répondre à ce besoin de vitesse d’exécution (être trop lent n’est pas rentable) tout en soulageant les corps de l’intensité à laquelle ils sont soumis.

Deliveroo et la loi de Croo

Avant 2017, en Belgique, pendant une période, une partie des livreurs de Deliveroo travaillaient sous contrat SMart.be[3]. Les contrats SMart ont été utilisés dès 2013 par les livreurs de la plateforme Take Eat Easy. Les livreurs perçoivent ce système de contrat comme une « alternative viable au statut d’indépendant, dont les cotisations sociales et les démarches administratives sont trop pesantes au regard des rémunérations perçues et du nombre moyen d’heures prestées ». [4]

A l’arrivée de Deliveroo sur le marché belge en 2016, bon nombre de livreurs se sont tournés également vers SMart. La coopérative s’est intéressée aux conditions de travail des livreurs : elle a mis en avant qu’ils étaient payés en dessous des minima légaux et mal couverts en cas d’accident. Face aux conditions de travail alarmantes, SMart entame début 2016 des négociations avec les deux plateformes. Comme une grande majorité des coursiers utilisaient ses services, SMart était en position de force pour négocier une convention cadre en mai 2016. La coopérative exige alors pour ses membres: « une rémunération à l’heure respectant les minima légaux, la garantie d’être rémunéré minimum 3 heures par jour presté, un défraiement pour l’utilisation du téléphone portable, la prise en charge à 50% des frais d’entretien des vélos ainsi qu’une formation à la sécurité routière et un contrôle technique du vélo gratuit pour chaque nouveau coursier ».[5]

Si le système de fonctionnement de la Smart n’est pas parfait, il présente l’avantage d’avoir permis aux 400 coursiers de Take Eat Easy de toucher leur dernier mois de salaire quand la plateforme a fait faillite. Mais aussi de profiter de sa force, en septembre 2017, SMart représentait 900 coursiers Deliveroo, pour tenter de conclure une nouvelle convention collective.

Mais l’instauration de la loi Alexander De Croo sur l’économie collaborative, qui limite à 10% la taxation sur les revenus perçus ainsi que la création du statut d’étudiant auto entrepreneur a permis à Deliveroo d’encourager vigoureusement ses coursiers « à quitter leur poste sous contrat Smart pour devenir des « prestataires de service » » [6]. Si la plateforme de livraison de repas a gagné dans ce changement ce n’est pas le cas pour les coursiers: la rémunération est passée à une rémunération à la livraison plutôt qu’à l’heure. Ils touchent désormais 5 euros pour une livraison là où ils touchaient jusqu’à 11 euros de l’heure. Le coursier qui a réservé des créneaux horaires pour travailler avec Deliveroo n’a plus de garanties d’avoir une rémunération, ce qui exacerbe sa dépendance aux fluctuations de la demande et de sa distribution par la plateforme numérique : le travailleur doit « prendre sur lui » la contrainte externe. Il a une activité de travail en deux temps : d’une part, un temps où le coursier attend d’avoir une commande, une proposition de livraison. Pourquoi avoir accepté le changement ? Le livreur peut sous ce statut gagner jusqu’à 6000 euros tout en étant exonéré d’impôt. Ce système peut fonctionner grâce au profil particulier des coursiers. Le livreur lambda preste une dizaine d’heures par semaine. En général, on ne fait pas carrière comme livreur chez Deliveroo, en effet, on s’aperçoit que les gens arrêtent généralement après 6 mois de travailler avec la plateforme. Les étudiants sont très nombreux à travailler pour la plateforme.

 

Si Deliveroo prétend offrir une grande flexibilité de travail à ses coursiers, on s’aperçoit qu’en réalité, l’entreprise est la seule à dicter le rythme de travail. Le collectif des coursier-e-s, les syndicats et SMart estimaient pourtant que Deliveroo ne pouvait rentrer dans cette logique d’économie collaborative car les services devaient être rendus de particulier à particulier ce qui n’est pas totalement le cas. [7] Pourtant, Deliveroo est toujours sur la liste des entreprises pouvant utiliser ce système. Les livreurs pourront donc l’utiliser jusqu’à la fin de l’année 2020 quand le système sera définitivement aboli puisque la Cour de cassation a décidé de mettre fin à ce système en décembre 2020.

Si l’objectif de la loi de Croo était de sortir du travail au noir toute une série d’emplois, on peut questionner les bénéfices réels tant pour les employés que pour la sécurité sociale.

L’emploi chez Amazon, précaire ou très précaire ?

S’il y a un employeur qui est souvent décrié c’est bien Amazon. Une étude réalisée en 2019 a mis en avant les conséquences de l’expansion de la multinationale en termes d’emploi. Chaque fois qu’Amazon crée des emplois, c’est le double d’emplois qui sont perdus dans de petites entreprises.

Souvent, à la une des journaux, on peut lire que les employés sont poussés à avoir une grande rentabilité, qu’ils sont toujours sous pression, qu’ils sont épuisés, qu’ils prennent des risques, que l’entreprise pratique l’évasion fiscale de manière massive, que Amazon est responsable d’une importante pollution. Il ne s’agit pas de nier ces faits mais en termes d’emplois précaires : les employés d’Amazon sont très nombreux à être engagés avec des contrats à durée indéterminée. Il y a des périodes où la multinationale engage des intérimaires, sous contrat plus précaire, pendant les fêtes par exemple pour répondre à une demande accrue de livraisons.

Les contrats zéro heure (Zero-hour contract)

Ce type de contrat de travail s’est développé dans l’Union européenne. La caractéristique principale est que l’employeur ne mentionne dans le contrat aucune indication d’horaires ou de durée minimum de travail. Le salarié est rémunéré uniquement pour les heures qu’il preste mais il doit pouvoir se rendre disponible à n’importe quel moment de la journée pour effectuer la tâche même si légalement ils ne sont cependant pas forcés d’accepter les heures de travail proposées, on observe que personne n’ose dire non.[8]

Au Royaume-Uni, en juillet 2016, les contrats « zéro heure » concernaient 2.9% des actifs soit 900 003 personnes.[9] En 2017, McDonald’s a été largement critiqué pour l’utilisation massive de ce type de contrat : environ 90% de ses salariés en possèdent un.[10]

Les flexi-jobs

Ce système a été instauré au 1er janvier 2015 et constitue une forme d’emploi permettant au travailleur occupé auprès d’un ou de plusieurs autres employeurs à 4/5 temps au moins. Ils peuvent alors bénéficier d’un revenu complémentaire dans certains domaines : commerce, Horeca… Cela permet aussi à des pensionnés de travailler. [11] Ce type de contrat ne crée pas de nouveaux emplois mais ce contente de proposer des emplois avec des statuts précaires. [12] La sécurité sociale est progressivement détricotée : les cotisations patronales sont réduites à 25 %, celles du travailleur sont nulles.

Cela permet également à des gens qui ont déjà un travail de faire un grand nombre d’heures supplémentaires au détriment de leur santé et d’heures qui auraient pu être offertes à une personne en recherche d’emploi. De plus, concernant le salaire : il n’existe « pas de barème portant sur le flexi-jober : il devra au moins percevoir le salaire horaire minimum belge ».[13]

Les titres services

L’Etat innove sans cesse pour réduire le chômage, remettre au travail des gens éloignés depuis longtemps du marché de l’emploi. Un système qui fonctionne en partie puisqu’en 2006, « le système des titres-services emploie un grand nombre de groupes-cibles: 46% des travailleurs titres-services étaient au chômage (de longue durée), 39 % des travailleurs sont peu qualifiés et 14% des travailleurs sont de nationalité non belge. »[14] Mais d’un autre côté, on observe que ces emplois sont précaires : les aides-ménagères (les femmes sont beaucoup plus présentes) sont peu nombreuses à travailler à temps plein. Parfois par choix : pour pouvoir mener une vie de famille mais également parce qu’on ne leur propose pas suffisamment d’heures ou encore parce que il est difficile physiquement de prester 38 heures.

Si le but est de remettre des chômeurs au travail, le résultat est atteint. Le nombre de travailleurs n’a cessé d’augmenter ces dernières années. Mais d’un autre côté, on observe que ces emplois ne jouent pas du tout leur rôle de tremplin pour atteindre d’autres types d’emplois. Ces femmes sont donc soumises aux aléas des clients qui annulent et les agences qui ne remplacent pas les heures perdues, elles sont fréquemment mal traitées (violence physique, morale et sexuelle). Le salaire actuel est trop faible : 11,04€ de l’heure en 2019. Avec le coronavirus, elles sont confrontées à la présence du client en télétravail et donc mises en danger. [15]

Les clients souvent privilégiés profitent d’un service pour un faible coût et bénéficient encore d’une déduction fiscale. Est-ce que ce coût tant social qu’économique ce justifie réellement ?

Ces différents types de contrats permettent de réduire le chômage mais il cache aussi toute une série de cas où les gens ne peuvent pas vivre de leur travail. Ce type de contrat est donc incontestablement au bénéfice de l’employeur et non de l’employé. Le salarié devient progressivement serviable et corvéable à merci.

Quelles sont les conséquences du travail précaire ?

Les conséquences de la précarisation du travail sont nombreuses, tant sur le plan matériel que sur le plan physique. L’employé a difficile à se loger : un bailleur préfère toujours un dossier solide, obtenir un prêt bancaire relève de l’impossible quand on n’a pas le saint graal d’un contrat à durée indéterminée.

L’endettement est une conséquence des emplois précaires, souvent les employés disposant de contrat à court terme ou à temps partiel, ne peuvent pas mettre suffisamment de côté pour faire face aux aléas de la vie et au moindre problème ils peuvent se retrouver surendettés. Le stress engendré par une situation financière instable peut également provoquer des problèmes familiaux, des tensions dans le couple et mener jusqu’au divorce. Une situation qui peut renforcer les situations de détresse financière et mener à une précarité extrême, et même parfois à devenir sans domicile fixe. [16]

Cette précarité a également des conséquences sur la santé : cette situation engendre du stress, du mal-être, nuit à la santé mentale du travailleur.[17]

Le travailleur est beaucoup moins revendicatif. Il n’ose pas contester les ordres car il a peur de perdre son emploi. Des études montrent également que « les salariés précaires sont généralement très impliqués et investis dans leur travail, en partie dans l’objectif de voir leur emploi pérennisé ou de faciliter leur recherche d’un nouvel emploi »[18] ou au contraire amener à une perte de lien social. Il n’a pas le sentiment d’appartenir au groupe et le vivent mal. [19]

Il est difficile pour les syndicats d’atteindre certains types de travailleurs. Ils restent trop peu dans l’entreprise, n’ont pas le temps de quoi ?. Pourtant, ils sont à cibler car ils n’ont pas connaissance de leurs droits. [20]

Conclusion

Les 30 glorieuses et le plein emploi sont loin derrière nous. Les entreprises et l’Etat ont donc tenté de trouver des solutions pour conserver ou créer des emplois. On assiste depuis des années à une précarisation de l’emploi, à un affaiblissement de la sécurité sociale, aux cadeaux offerts par l’Etat aux entreprises comme l’exonération patronale des cotisations ONSS et à la création de statuts toujours plus précaires (Flexijob, loi de Croo…). Si les entreprises y gagnent de la main d’œuvre quasi jetable, ce sont les travailleurs, chômeurs, et pensionnés qui paient la facture. Pour les employés, certains se trouvent obligés de passer par la case chômage de longue durée pour avoir enfin accès à des jobs sous conditions d’aide à l’emploi. L’Etat qui doit faire des choix, met en danger les chômeurs risquant toujours une réduction de la durée du chômage ou des montants des indemnités. Pour les pensions, on voit également l’âge de la retraite reculer.

  1. F. LEMOZY, « La tête dans le guidon. Être coursier à vélo avec Deliveroo », 14, 2019, mis en ligne le 07 mai 2019, consulté le 05 novembre 2020. Consulté sur le site http://journals.openedition.org/nrt/4673 ; DOI : https://doi.org/10.4000/nrt.4673
  2. F.LEMOZY, « La tête dans le guidon. Être coursier à vélo avec Deliveroo », 14, 2019, p.16 mis en ligne le 07 mai 2019, consulté le 05 novembre 2020. Consulté sur le site http://journals.openedition.org/nrt/4673 ; DOI : https://doi.org/10.4000/nrt.4673.
  3. La Smart a été créée en 1998. Elle est actuellement présente dans près de 40 villes dans 8 pays européens. Elle se définit comme « l’émanation de travailleurs autonomes de tous horizons qui s’associent, au travers d’une société coopérative, pour se doter des moyens de développer en toute autonomie leurs propres activités économiques et de se procurer des revenus socialisés et fiscalisés ». Elle permet à différents types de travailleurs de déclarer des revenus tout en payant des cotisations sociales, leur permettant ainsi de travailler comme salariés plutôt que comme indépendants. Elle permet aussi à ses membres de bénéficier de conseils juridiques, financiers ou administratifs, formations et encore de profiter d’un accompagnement économique et d’espaces de travail partagés.
  4. Coursiers à vélo et Deliveroo: les enseignements d’un combat social informations consultées sur le site https://smartbe.be/wp-content/uploads/2018/07/06-2018-deliveroo_final.pdf
  5. A. JEHN, SMart, Coursiers à vélo et Deliveroo. Les enseignements d’un combat social, juin 2018 consulté le 12 octobre 2020 sur le site https://smartbe.be/fr/comprendre/publications/education-permanente/deliveroo-les-enseignements-dun-combat-social/
  6. Deliveroo devant le tribunal du travail pour infractions à l’ONSS, informations consultées sur le site https://www.7sur7.be/belgique/deliveroo-devant-le-tribunal-du-travail-pour-infractions-a-l-onss~a6a345f9/
  7. A. JEHN, SMart, Coursiers à vélo et Deliveroo. Les enseignements d’un combat social, p.3, juin 2018 consulté le 12 octobre 2020 sur le site https://smartbe.be/fr/comprendre/publications/education-permanente/deliveroo-les-enseignements-dun-combat-social/
  8. « Les flexi-jobs minent la sécurité sociale et poussent les travailleurs vers un statut précaire » informations consultées le 12 septembre 2020 sur le site https://www.lacsc.be/actualite/actualites-et-communiques-de-presse/2019/12/16/les-flexi-jobs-minent-la-securite-sociale-et-poussent-les-travailleurs-vers-un-statut-precaire
  9. Ubérisation : les nouvelles formes d’emploi toujours plus précaires, informations consultées le 12 septembre 2020 sur le site https://www.novethic.fr/actualite/social/conditions-de-travail/isr-rse/uberisation-les-nouvelles-formes-d-emploi-toujours-plus-precaires-144187.html
  10. T. PORTES, Grève des employés de McDonald’s à Londres pour dénoncer les contrats 0 heure, informations consultées le 12 septembre 2020 sur le site https://blogs.mediapart.fr/thomas-portes/blog/050917/greve-des-employes-de-mcdonalds-londres-pour-denoncer-les-contrats-0-heure
  11. Informations consultées le 12 septembre 2020 sur le site www.securex.eu
  12. « Les flexi-jobs minent la sécurité sociale et poussent les travailleurs vers un statut précaire » informations consultées le 12 septembre 2020 sur le site https://www.lacsc.be/actualite/actualites-et-communiques-de-presse/2019/12/16/les-flexi-jobs-minent-la-securite-sociale-et-poussent-les-travailleurs-vers-un-statut-precaire
  13. « Le flexi-job pose son lot de contradictions sociales » informations consultées le 12 septembre 2020 sur le site https://plus.lesoir.be/113105/article/2017-09-09/le-flexi-job-pose-son-lot-de-contradictions-sociales
  14. Informations consultées le 12 septembre 2020 sur le site https://emploi.belgique.be/fr/actualites/les-titres-services-des-outils-efficaces-pour-lemploi-et-les-services-aux-personnes
  15. Mémorandum 2019 FGTB Titres-servicesPOUR DES EMPLOIS DE QUALITÉ DANS UN SYSTÈME SOLIDE, informations consultées le 10 septembre 2020 sur le site https://www.accg.be/sites/default/files/sectors/scp-32201/accg-scp-32201-tool-memorandum-2019-titres-services.pdf, p.4-6.
  16. G. KOZLOWSKI, A. LEDUC, M.-A. HOTTELET, et al. « Sur le précariat En hommage à Robert Castel » dans Les Cahiers du Fil Rouge, 16-17, p. 41.
  17. Emploi précaire informations consultées le 13 septembre 2020 sur le site https://interim.ooreka.fr/astuce/voir/550377/emploi-precaire
  18. Salariés précaires : qui sont-ils ? Quelles sont leurs conditions de travail ?, publié le 17/10/2013, informations consultées le 12 septembre 2020 sur le site https://www.anact.fr/salaries-precaires-qui-sont-ils-quelles-sont-leurs-conditions-de-travail
  19. G. KOZLOWSKI, A. LEDUC, M.-A. HOTTELET, et al. « Sur le précariat En hommage à Robert Castel » dans Les Cahiers du Fil Rouge, 16-17, p. 41.
  20. G. KOZLOWSKI, A. LEDUC, M.-A. HOTTELET, et al. « Sur le précariat En hommage à Robert Castel » dans Les Cahiers du Fil Rouge, 16-17, p. 41.

 

Quelle éthique pour les systèmes de recommandation ?

Céline Béclard - Juriste

 

Comment Netflix et Amazon ont réussi en quelques années à s’imposer comme les leaders du marché en matière de films et séries et de vente en ligne? Comment ces deux géants se sont basés sur des algorithmes prédicteurs de nos goûts pour arriver à plaire à un plus grand nombre de personnes ? C’est en développant des recommandations personnalisées grâce aux algorithmes de recommandation qu’ils ont pu construire leur empire.

 

Mais que sont ces algorithmes prédicteurs de nos goûts ?

Il s’agit de systèmes de recommandation, définis comme étant: « une forme spécifique de filtrage de l’information visant à présenter les éléments d’information (films, musique, livres, news, images, pages Web, etc.) qui sont susceptibles d’intéresser l’utilisateur»[1]. Ces algorithmes de recommandation se basent sur des prédictions afin de proposer aux utilisateurs uniquement des éléments par lesquels ils pourraient être intéressés. Ces systèmes de recommandation font d’internet un lieu qui n’est plus neutre, mais un lieu qui est personnalisé en fonction des goûts et préférences de chacun. Les recommandations de contenu sont omniprésentes dans tous les grands secteurs d’activités numériques, comme par exemple  le e-commerce, la presse en ligne, les services de streaming vidéo et musical mais aussi les réseaux sociaux qui y ont aussi massivement recours.

On s’est d’ailleurs rendu compte à travers des recherches que des moteurs de recherche comme Google et Yahoo ne proposent pas aux utilisateurs un résultat identique pour la même recherche effectuée. Des réseaux sociaux comme par exemple « Facebook ou Twitter analysent les interactions entre un utilisateur et les autres usagers constituant son cercle d’amis ou non. Ces sites se concentrent sur les interactions sociales telles que les « likes », les « partages », les abonnements, etc. »[2].

D’autres sites de vente bien connus comme Amazon utilisent également l’algorithme de recommandation afin de proposer aux clients des articles qui pourraient les intéresser. Combien de fois après avoir passé une commande pour tel ou tel article, vous recevez des propositions d’achat pour d’autres articles similaires ou complémentaires. Un système de recommandation est un outil de business qui peut renforcer jusqu’à 30% les revenus d’une entreprise.

« Aujourd’hui, un utilisateur ne veut pas qu’on lui propose sur internet des produits qu’il a déjà achetés ou bien qui ne l’intéressent pas »[3]. C’est pour cette raison que les systèmes de recommandation cherchent en permanence à affiner leur compréhension du comportement de l’utilisateur afin de s’adapter au mieux à ses envies.

Comment ces système de prédiction fonctionnent-ils ?

Les algorithmes agissent en collectant une grande quantité d’informations. Pour atteindre leurs objectifs, les systèmes de recommandation ont besoin de procéder en trois étapes :[4]

La première étape est la collecte de données. Pour être capable de proposer aux utilisateurs des informations adéquates, les algorithmes ont besoin d’une grande quantité d’informations sur les personnes visées.

Cette collecte de données est ensuite divisée en trois étapes. La première qui est dite « explicite » suppose que les utilisateurs «  définissent et révèlent eux-mêmes leurs préférences au site internet ». Il est par exemple demandé à l’utilisateur de classer une collection d’objets en fonction de sa préférence. Il arrive aussi que ce soit le système qui propose deux choix à un utilisateur et lui demande de choisir le meilleur. Il peut également être demandé à un utilisateur de créer une liste d’articles qui l’intéressent. Cette personnalisation du système est basée sur des révélations volontaires de la part de l’utilisateur.

À la deuxième étape on trouve  la collecte « implicite d’information » (également appelée le filtrage passif), qui, elle, ne requiert pas une participation active de l’utilisateur. Le site internet va analyser lui-même le comportement ainsi que les habitudes des usagers pour générer les préférences de chaque utilisateur. « Pour récolter suffisamment d’informations, les sites internet utilisent des éléments tels que les cookies ou l’historique de navigation». Facebook utilise un filtrage collaboratif passif, « c’est-à-dire qu’il collecte « en arrière-plan » les informations et interactions des utilisateurs et en déduit leurs goûts et préférences »[5]. Sur un réseau social (Facebook, Twitter, Instagram, etc.), un ensemble d’algorithmes décident du contenu à afficher sur le fil d’actualité en fonction des diverses informations telles que les goûts ou les réactions de l’utilisateur, les derniers contenus consultés, etc.

Cette deuxième étape est la classification des données. Dans cette étape très importante, on construit un « modèle de données » qui consiste à mettre en relation les informations récoltées sur l’utilisateur avec les produits qui sont disponibles sur le site internet. Cette mise en commun permet d’obtenir les meilleures correspondances afin de répondre au mieux aux besoins ou envies de chaque utilisateur.

Finalement la dernière étape appelée « filtrage des informations ». C’est un filtrage qui peut être réalisé sur base de trois approches différentes. Il peut se faire par un filtrage « par le contenu » (content-based approach), c’est le filtrage le plus répandu. L’objectif de celui-ci est d’évaluer, du contenu nouveau en fonction de ce que l’utilisateur a déjà consommé et apprécié dans le passé. Ce système peut néanmoins présenter un désavantage non négligeable puisque les éléments subjectifs ne sont pas pris en compte.

Une autre manière de filtrer l’information est la méthode dite « collaborative » qui se base sur le contexte social en cherchant à lier le client à d’autres utilisateurs.[6] Cette méthode suppose que les utilisateurs qui présentent un profil similaire seront par intéressés par un type de produit semblable dans le futur. L’avantage principal de cette méthode est que le site internet n’a pas besoin de récolter énormément d’informations sur les objets.

Il faut néanmoins garder à l’esprit que cette méthode présente trois inconvénients majeurs.[7] Le premier est que cette forme de recommandation demande une grande puissance de calcul. Le second est que ces systèmes de recommandation nécessitent une quantité de données très importantes pour être capables de réaliser des prédictions suffisamment précises. Et enfin, il est également difficile de réaliser des recommandations lorsque le nombre d’objets présents sur le site est très important car même les produits les plus populaires ne disposent que d’un nombre d’opinions limité. Ce type de filtre est utilisé notamment par des sites internet les plus connus comme Amazon, Netflix ou encore Google.

Quel est l’objectif de ces algorithmes de recommandation ?

De nombreux grands secteurs d’activités se sont très vite saisis des opportunités offertes à eux suite à la collecte d’une immensité de données mises à leur disposition par les utilisateurs eux-mêmes.

Bien sûr les secteurs qui l’utilisent prônent une amélioration de l’expérience des utilisateurs qui se trouvent face à une telle masse d’informations qu’il leur est impossible de les traiter toutes. Même si les données générées en ligne ne font qu’accroître de façon exponentielle, notre capacité à les absorber n’a, quant à elle, pas changé.

Des recherches ont été effectuées par McKinsey et montrent que le phénomène de « big data »[8], bien que déjà énorme, est chaque jour de plus en plus important.

Ces algorithmes sont devenus indispensables au traitement du flux grandissant de données dont les plateformes disposent. A l’heure où chaque recherche dans un moteur de recherche peut donner lieu à plusieurs milliards de résultats, il semble impossible de se passer d’un algorithme capable d’analyser et de classer les résultats en fonction de leur pertinence mais aussi de l’intérêt qu’il représente pour l’utilisateur.

Malgré l’évolution extrêmement rapide du monde, nos capacités mentales quant à elles ne s’adaptent pas assez rapidement pour pouvoir suivre celle-ci. Nous possédons, en tant qu’êtres humains, « une rationalité limitée ». C’est un concept qui a été développé par Herbert Simon et qui met en évidence « le fait que les acteurs économiques ne peuvent traiter qu’une quantité d’informations très limitée face à l’immensité des informations disponibles et ne disposent que de capacités cognitives limitées ne leur permettant pas d’optimiser leurs choix ».

Les êtres humains peuvent bénéficier d’outils extérieurs pour les aider à prendre des décisions. Ces algorithmes de recommandation permettent aux utilisateurs de gagner du temps pour trouver les informations qu’ils estiment pertinentes. Si l’objectif est de faciliter la vie des usagers, ce n’est pas l’unique avantage pour les plateformes qui, grâce à leurs algorithmes, peuvent non seulement répondre aux besoins de leurs utilisateurs mais parfois même les anticiper. Les sites de vente en ligne utilisent également énormément ces algorithmes car ils leur permettent de proposer rapidement de nouveaux produits aux utilisateurs et ainsi de déclencher des ventes supplémentaires.

Quels sont les risques ?

Un des risques liés à l’utilisation de ces algorithmes consisterait simplement à ne proposer aucune recommandation d’actualité à l’utilisateur. Le risque est donc que ces algorithmes ne limitent l’accès à l’information des utilisateurs.

Un autre désavantage du système de recommandation est que le filtrage par utilisateur est sensible au Shilling Attack, phénomène qui peut permettre à certaines personnes mal intentionnées de détourner le système et de faire en sorte que certains produits soient plus recommandés que d’autres, et ce, à leur avantage.[9]

Une étude américaine a prouvé également que les algorithmes de recommandation peuvent réussir à modifier l’émotion des personnes. Un test a été réalisé sur un groupe de personnes qu’on a divisé en deux parties. Aux premiers que l’on appelle « groupe de contrôle », un contenu classique a été proposé, quant au second groupe, on lui a proposé un contenu considéré comme étant plus triste. Après quelques temps, on constate que les personnes du second groupe sont plus susceptibles de poster des publications tristes que ceux du premier groupe.[10]

D’autres problèmes associés à ce type d’implémentation peuvent également apparaître comme par exemple les changements de préférence des utilisateurs qui peuvent générer de nombreuses suggestions inappropriées. Il a également été remarqué que plus le nombre d’utilisateurs augmente, plus il sera difficile de générer des recommandations.

Conclusion

Si les algorithmes de recommandation peuvent être vus comme intéressants en ce qu’ils sont utiles pour traiter l’information en la rendant plus effective pour le consommateur, ces types algorithmes sont surtout utilisés pour rendre plus productive la vente de produits dans le marketing ciblé, en utilisant notamment les réseaux sociaux.

On s’inquiète peu aujourd’hui des dangers engendrés par ces algorithmes. Cependant, il ne faut pas perdre de vue que les algorithmes de recommandation se permettent de prendre les décisions de choix eux-mêmes, ne vous laissant plus aucune autonomie de décision. Lorsqu’il s’agit de choisir un film ou une série, ça ne semble pas être problématique, mais lorsque ces mêmes algorithmes vous enferment dans une bulle ne vous proposant plus qu’un certain type de contenu, ils vous limitent l’accès l’information.

Cela devient réellement problématique lorsque l’algorithme ne nous laisse plus le choix et décide pour nous ce que nous devons lire ou penser comme cela peut être le cas avec les articles de presse en ligne.

Les algorithmes nous analysent et tentent – et réussissent parfois – de nous pousser à la consommation, ce qui pose bien évidemment des questions éthiques notamment quant au respect de notre vie privée : ils savent presque tout de nous, choisissent ce qu’on regarde, ce qu’on lit, ce qu’on achète et peuvent même décider qui seront nos amis (Facebook).

  1. Système de recommandation. (s. d.). Dans Wikipédia, l’encyclopédie libre ? Repéré le 27/10/20 à https://fr.wikipedia.org/wiki/Syst%C3%A8me_de_recommandation
  2. B. UPBIN, (2011). Facebook Ushers In Era Of New Social Gestures. Forbes, disponible sur : https://www.forbes.com/sites/bruceupbin/2011/09/22/facebook-ushers-in-era-of-new-social- gestures/#2219d174263d
  3. Disponible sur : https://blog.invivoo.com/systeme-de-recommandation/ (consulté le 9 novembre 2020) ; J. LESKOVEC, A. RAJARAMAN, J.D. ULLMAN, « Mining of massive Datasets », disponible sur :http://infolab.stanford.edu/~ullman/mmds/book.pdf (consulté le 9 novembre 2020).
  4. Mathieu,. (2012, 25 avril). Les algorithmes de recommandation [Billet de blogue]. Disponible sur : http://www.podcastscience.fm/dossiers/2012/04/25/les-algorithmes-de-recommandation/
  5. Disponible sur : https://www.csa.fr/Informer/Toutes-les-actualites/Actualites/Terminologies-autour-des-algorithmes-de-recommandation-des-plateformes-de-contenus-numeriques (consulté le 10 novembre 2020).
  6. N. BECHET, (2016).Etat de l’art sur les Systèmes de Recommandation. Disponible sur : http://people.irisa.fr/Nicolas.Bechet/Publications/EtatArt.pdf
  7. MATHIEU,. (2012, 25 avril). Les algorithmes de recommandation [Billet de blogue]. Disponible sur : http://www.podcastscience.fm/dossiers/2012/04/25/les-algorithmes-de-recommandation/
  8. « Le Big Data fait référence à l’explosion du volume des données dans l’entreprise et des nouveaux moyens technologiques proposés par les éditeurs, en particulier de la Business Intelligence, pour y répondre » (JDN, 2016). Il a été inventé pour être capable de traiter des bases de données gigantesques. B. BROWN, J. BUGHIN, A.H. BYERS, M. CHUI, R. DOBBS, J. MANYIKA, & C. ROXBURGH, (2011). Big data: The next frontier for innovation, competition, and productivity. Repéré à http://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/big-data-the- next-frontier-for-innovation
  9. Disponible sur : https://medium.com/@Arcbees/introduction-aux-systèmes-de-recommandation-d2f98d3e4160 (consulté le 7 novembre 2020).
  10. Disponible sur : https://www.forbes.fr/technologie/les-algorithmes-de-recommandations-mettent-en-danger-votre-liberte/ (consulté le 10 novembre 2020).

 

Laïcité, libertés de conscience et d’expression

Pierre Guelff - Auteur, chroniqueur radio et presse écrite

Prêche-t-on à des convaincus en publiant la présente chronique dans Morale Laïque ? À découvrir les courants contraires qui secouent le monde de la laïcité et, surtout, la récupération politicienne d’extrême droite et la manipulation intégriste de ce concept qui nous est si cher, le doute n’est plus permis.

Ces derniers temps, la laïcité a été mise à rude épreuve, plus particulièrement à la suite d’actes terroristes et de vandalisme, de détournements de ses principes, dont celui, inaliénable, de la liberté de conscience à des fins démagogiques, de lynchages publics sur les réseaux sociaux de certaines personnes appelées abusivement des « laïcard.e.s » au motif qu’elles revendiquaient le droit à la liberté d’expression.

La laïcité qui dérange

Assurément, la laïcité dérange certaines gens quand il leur est expliqué qu’elle n’est pas une opinion, mais qu’elle garantit la liberté d’en avoir une qui ne soit pas contraire aux valeurs démocratiques.

Et, ce qui dérange davantage, c’est d’évoquer le concept de désobéissance civile, pourtant démocratique par excellence, comme l’explique le philosophe Jean-Marie Muller dans son essai L’impératif de désobéissance (Éditions Le Passager clandestin, 2011) :

« La principale vertu du bon citoyen n’est ni l’obéissance ni la désobéissance, elle est la responsabilité éthique qui doit le conduire, en chaque circonstance, à choisir politiquement ce qu’il a le plus de chances de réduire la violence parmi les hommes, le plus de chances de favoriser la justice, la dignité, la liberté dans la société et dans le monde.

C’est sous le sceau de cette responsabilité qu’il obéira ou désobéira à l’ordre, au commandement, à l’injonction, au décret, à la loi des autorités et des pouvoirs établis.

Pour le citoyen responsable, la légalité ne sera jamais un critère de moralité. La désobéissance aux lois injustes est un devoir moral. »

Bien sûr, cela ne confère à quiconque le droit de proclamer que « la loi divine est supérieure à la loi civile », la religion relevant exclusivement de la sphère privée comme il se doit.

À ce propos, la laïcité garantit aux citoyens cette possibilité de penser ce qu’ils veulent, de croire ou de ne pas croire, à condition de n’exercer aucune menace, a fortiori celle de mort, cela semble aussi couler de source.

Pourtant, c’est dans ce contexte tendu que la laïcité est instrumentalisée par les xénophobes et populistes, voire par ceux qui prônent le droit de pratiquer sans limites une religion, dont la fatwa inscrite dans la charia (loi islamique), par exemple.

« Pas de vague » et engagements

C’est encore dans le contexte de cette grave situation sociétale, que l’assassinat de l’enseignant Samuel Paty a révélé l’ampleur du problème causé par l’interprétation de la notion de « laïcité » :

« La laïcité française favorise l’islamophobie » (Washington Post), « La décapitation du professeur creuse les divisions sur l’identité laïque de la France et un nombre croissant de personnes pensent que les lois françaises sur la laïcité et la liberté d’expression doivent changer » (BBC) et si, à Molenbeek, également en octobre 2020, dans le cadre de son cours sur la liberté d’expression, un enseignant a été écarté par mesure disciplinaire par son pouvoir organisateur, c’est pour avoir montré à ses jeunes élèves des caricatures jugées « obscènes » et non parce qu’il s’agissait de Mahomet, selon la bourgmestre Catherine Moureaux.

Cette déclaration fut reprise par The World News et prêta à divers commentaires : mesure pour protéger l’enseignant d’un sort comparable à son collègue Paty, mesure qui pousse à l’autocensure, mesure hypocrite et clientélisme politique…

Sur France 5, lors de l’émission-débat « C dans l’air » (29 octobre 2020), un expert déclara : « Pour les autorités, choisir le déshonneur de décréter « Pas de vague » pour éviter le conflit débouche sur les deux, et le déshonneur et le conflit. »

Au sujet de tout ce débat qui enflamme de nombreuses parties du monde, il est apparu intéressant de connaître l’opinion de deux laïques « de terrain » particulièrement médiatisés depuis des années.

Tout d’abord, celle de Nadia Geerts, maître-assistante en philosophie et essayiste[1], Prix international de la Laïcité en 2019 décerné par le Comité Laïcité République (France), dont le titre à ses propos à Morale Laïque est « Laïcité ou neutralité ? Assez de tergiversations ! » :

« Petit pays coincé entre une république laïque et des États de tradition davantage multiculturaliste, la Belgique n’en finit pas d’hésiter quant au sens à donner à l’exigence d’impartialité de l’État que nul ne conteste, du moins frontalement.

Faut-il ériger des digues étanches séparant radicalement le politique du religieux, ou au contraire admettre que se nouent entre ces deux sphères des partenariats, des négociations, au même titre que s’invitent régulièrement dans le débat politique d’autres courants d’influence ?

Aussi, quand des élèves se déclarent choqués par la caricature du prophète de leur religion, nul ne sait exactement quelle attitude adopter, car nul texte ne précise clairement ce que l’école, même officielle, est censée faire des sentiments religieux des élèves dont elle a la charge. Et ceux qui décident de passer outre lesdits sentiments pour continuer, envers et contre tout, à aborder sans détour certaines questions sensibles que l’actualité nous donne à penser, sont trop souvent considérés comme des casse-cou, voire des trublions qui cherchent les ennuis.

Il serait trop long de revenir ici sur les multiples indices de l’incapacité structurelle de l’école officielle belge francophone à se déterminer une bonne fois : ou bien la neutralité « à l’anglo-saxonne », qui accueille des élèves dont elle reconnaît pleinement la dimension de croyants, mais aussi de membres de telle ou telle minorité ethnique ; ou bien la neutralité « à la française » – mieux connue sous le terme « laïcité » -, qui dans un objectif avoué d’émancipation par l’instruction, n’accepte d’accueillir que des élèves, libres et égaux en dignité et en droits – ainsi qu’en devoirs.

Et c’est de nos divisions sur cette question essentielle que se repaissent les fondamentalistes de tous poils, au premier rang desquels il faut évidemment nommer les partisans d’un islam politique : pour ceux-là, pour qui la religion a pour fonction d’englober tous les domaines de la vie du croyant, il n’est que normal d’exiger d’avoir leur mot à dire sur tous les aspects de la vie en société. Il est donc illusoire de penser que céder sur le terrain des caricatures serait de nature à apaiser les choses.

Bien au contraire, l’islam politique n’aura de cesse de conquérir tous les domaines où le religieux ne fait pas encore sa loi, et chaque concession sonne à ses partisans comme une capitulation.

La seule manière de s’opposer à la recléricalisation de la société, c’est de dire « non ». Un « non » clair, ferme, définitif, à toute revendication religieuse visant à imprégner sa marque sur l’école, sur la presse, sur les lois, en deux mots sur nos libertés. Non, la religion, aussi précieuse soit-elle pour ceux qui y croient, n’a pas vocation à dire le vrai, ni le juste, dans une société démocratique et pluraliste. Non, la sensibilité religieuse de certains ne peut mener à la limitation de l’instruction de tous, car il est impossible d’instruire sans accepter le risque de choquer, de bousculer, d’ébranler les certitudes trop rapidement acquises de nos élèves. Prendre ce risque devrait être salué comme le véritable travail de l’enseignant, et non un regrettable dérapage.

Ce « non » ferme que nous n’osons pas prononcer, par peur d’être accusés d’intolérance, a pour nom « laïcité ».

Et c’est le seul rempart démocratique que nous ayons contre le retour du fanatisme et de la véritable intolérance : celle dont se sont rendus coupables, de tous temps, les cléricaux des deux hémisphères. »

Le regard de Nasser Yanat, Algérien, membre actif d’un Collectif laïque aux rassemblements dominicaux de la Place de la République à Paris et illustrateur des célèbres posters « Wanted », entre autres, est également apparu intéressant d’être répercuté en nos colonnes :

« Je suis entièrement d’accord avec un compatriote qui écrivait sur les réseaux sociaux : ‘‘Aucune religion n’a été propagée pacifiquement, toutes ont utilisé la violence.’’

Pour moi, l’intégrisme et le fondamentalisme existaient bien avant l’impérialisme américain et le colonialisme en Afrique du Nord, par exemple.

La laïcité est un aboutissement et un progrès humain pour le salut de tous. Ce n’est pas à elle à reculer. Pourquoi vouloir changer la loi de 1905 en France (La République assure la liberté de conscience. Elle garantit le libre exercice des cultes. Par corollaire, elle donne le droit de ne pas être croyant, ou de croire, et la liberté de culte si on l’est. Il s’agit de la loi codifiant la laïcité, entre autres) ?

Quelque 2.500 mosquées[2] construites sur le territoire français, si ce n’est pas du ‘‘respect’’, c’est quoi alors ?

Mais l’islam est conquérant et hégémonique, et il est nécessaire de le mettre au diapason avec notre temps en proposant d’abolir les versets qui appellent à la haine et au meurtre.

Je persiste à dire qu’il faut en finir avec le moralisme religieux et le traditionalisme stérilisant qui nous sont imposés.

Il y a lieu de permettre à l’éthique de se reconstituer à partir de la sagesse civilisée et de bon sens.

Les libertés de conscience et d’exercer ses croyances sont forcément prolongées dans les libertés d’expression, individuelles et collectives.

Je suis engagé en ce sens sur le terrain et je sais, aussi, que chaque jour je risque ma vie pour les Lumières… »

Respect de la dignité humaine

Puisque l’Algérie est évoquée, Albert Camus (1913-1960), originaire de ce pays du Maghreb et qui y travailla en tant que journaliste, outre le fait d’avoir été couronné du Prix Nobel de littérature, reste un personnage hors du commun pour son humanisme et son engagement.

Dans son éditorial du 27 mars 1945 dans le quotidien français Combat, il évoqua la laïcité en tant que journaliste-militant épris de justice, de liberté et de vérité.

Une position qu’il revendiquait au nom du respect de la dignité humaine, « soucieux d’introduire la morale en politique » et, aussi, dans la société, le terme « morale » devant être compris comme l’« éthique ».

Extraits tirés de À Combat (Folio essais, 2002) :

« Il est très fâcheux et un peu ridicule d’être obligé, aujourd’hui, de se prononcer sur le problème de la laïcité (…) Dans tous les cas, le problème est là et il faut se prononcer (…) La liberté des consciences est une chose infiniment trop précieuse pour que nous puissions la régler dans une atmosphère de passion. Il faut de la mesure. Chrétiens[3] et incroyants devraient apercevoir également que cette liberté sur le plan de l’éducation, réside dans la liberté du choix. »

Albert Camus poursuivit son éditorial qui, septante-cinq ans plus tard, ne devrait certainement pas être modifié d’une ligne sur le principe :

« L’État ne peut enseigner ou aider à enseigner que des vérités connues de tous. Il est possible ainsi d’imaginer une instruction civique fournie par l’État[4]. C’est qu’elle est sans contestation. Il n’est pas possible, au contraire, d’imaginer un enseignement officiel de la religion, parce qu’on se heurte à la contradiction. C’est que la foi ne s’enseigne pas plus que l’amour. Et ceux qui sont assez sûrs de leur vérité pour vouloir l’enseigner doivent le faire à leur propre compte. Ils ne peuvent raisonnablement demander que l’État le fasse ou les aide à le faire.

(…) Nous avons toujours apporté à l’examen des problèmes religieux le respect et l’attention qu’ils méritent. C’est ce qui nous autorise à mettre en garde les catholiques contre les excès de leur conviction.

Personne plus que nous ne souhaite le dialogue entre chrétiens et incroyants, parce que nous jugeons cela profitable. Mais l’école laïque est justement un lieu où cette rencontre est possible. Et avec toute l’objectivité du monde, il n’est pas permis d’en dire autant de l’école libre.

(…) Si nous étions catholiques et si, comme il est naturel, nous voulions alors donner tout son rayonnement à notre conviction, nous déciderions la suppression pure et simple des écoles libres et nous participerions directement, en tant qu’individus, à l’enseignement laïque national. »

Liberté et utopie

Dans son cinquième cahier de l’essai Carnets II (Janvier 1942 à mars 1951, Éditions Folio 2013), Albert Camus déclara également :

« J’ai un goût très vif pour la liberté. Et pour tout intellectuel, la liberté finit par se confondre avec la liberté d’expression. Mais je me rends parfaitement compte que ce souci n’est pas le premier d’une très grande quantité d’Européens parce que seule la justice peut leur donner le minimum matériel dont ils ont besoin et qu’à tort ou à raison ils sacrifieraient volontiers la liberté à cette justice élémentaire.

Je sais cela depuis longtemps. S’il me paraissait nécessaire de défendre la conciliation de la justice et de la liberté, c’est qu’à mon avis là demeurait le dernier espoir de l’Occident. Mais cette conciliation ne peut se faire que dans un certain climat qui aujourd’hui n’est pas loin de me paraître utopique. Il faudra sacrifier l’une ou l’autre de ces valeurs ? Que penser, dans ce cas ? »

Le dessinateur de presse Cabu (1938-2015), lui aurait probablement répondu ce qu’il disait volontiers : « L’utopie, ce n’est pas ce qui est irréalisable, mais ce qui est irréalisé. »

Cabu a été sacrifié sur l’autel du fanatisme.

En conclusion, à l’heure actuelle, compte tenu de la situation, le laïque ne peut plus rester les bras ballants. Son engagement, sous quelque forme que ce soit, en faveur de la Démocratie, fait partie intégrante de l’arsenal (pacifique) pour contrecarrer l’inquiétante montée de l’obscurantisme :

« La bougie ne perd rien de sa lumière en la communiquant à une autre bougie », soulignait Morale Laïque Magazine dans son précédent numéro, slogan que nous ne cesserons jamais de clamer.

Quand la religion supplante l’éthique

Que pensent le législateur, la Justice et l’Ordre des médecins de la pratique chirurgicale pédiatrique qu’est la circoncision masculine rituelle opérée sans anesthésie et en toute impunité par des rabbins et des imams n’appartenant pas au corps médical ?

L’exercice illégal de la médecine est, ici, balayé au nom d’un laxisme récurrent en faveur de pouvoirs religieux.

Selon un collectif d’experts (UCL, ULB et Conseil d’État, en 2016), « en droit belge, la circoncision masculine, à la différence de l’excision féminine, ne fait l’objet d’aucune législation spécifique. »[5]

En 2018, le Comité consultatif de Bioéthique de Belgique spécifiait :

« Le Comité consultatif de bioéthique ne recommande pas de modification législative. Tous les membres du Comité s’accordent pour affirmer que la charge financière de la circoncision non médicale ne doit pas incomber à l’ensemble des citoyens. Le Comité propose, à l’unanimité, de réfléchir à surmonter les controverses en encourageant l’évolution des pratiques vers la seule symbolique, de sorte que les rites continuent à se réaliser, mais sans inscription dans la chair de l’enfant. Ainsi, toutes les sensibilités religieuses seraient respectées sans qu’il soit porté atteinte à l’intégrité physique de quiconque. »

Pour information et non « pieuse » recommandation sans effet, parfois dans des conditions hygiéniques déplorables et dangereuses, la circoncision masculine continue à être pratiquée sur des enfants de quelques semaines (judaïsme) à 5 ou 8 ans (islamisme). Les derniers chiffres évoquent au moins 25.000 bébés ou petits garçons annuellement en Belgique.

Déclaration de médecins bruxellois en 2017 : « Il s’agit d’une mutilation génitale, ce qui est interdit par la loi… », alors que, un an plus tard, le Conseil de l’Europe « assimilait la circoncision a une violation des droits de l’enfants. »[6]

  1. Parmi ses publications, relevons « Liberté ? Égalité ? Laïcité ! » aux Éditions du CEP et « Dis, c’est quoi une religion ? » à La Renaissance du Livre.
  2. Chiffre officiel de 2020 établi par la Grande Mosquée de Paris et le Bureau des Cultes du Ministère de l’Intérieur français, sans compter les mosquées clandestines.
  3. Gageons qu’à l’heure actuelle, il évoquerait toutes les religions, mais, à l’époque, l’Église catholique était majoritaire en Occident.
  4. Précision de l’éditeur : « On sait que cet enseignement existe désormais ; mais le problème de l’aide de l’État aux écoles libres – qui est de fait actuellement – donne toujours lieu à des débats passionnés. » Il en est de même en Belgique.
  5. Presses universitaires de Strasbourg, 2016.
  6. Le Ligueur, 2018.

L’Intelligence artificielle (Plus de dérives que de progrès ?)

Tous les jours, nous sommes confrontés à l’intelligence artificielle, parfois ça peut nous sembler aussi banal que l’autodestruction du spam[1] dans notre boîte mail, mais les avancées de l’IA peuvent aller beaucoup plus loin, jusqu’au perfectionnement des systèmes d’imagerie médicale ou encore de la gestion du trafic aérien.[2]

Sa facilité et son développement suscitent, depuis toujours, de nombreux fantasmes, mais également beaucoup d’inquiétudes, de dangers et même des dérapages qu’on pensait observer uniquement dans des romans ou des films de science-fiction. Aujourd’hui, ils sont déjà très présents dans nos vies. Des personnalités aussi connues que Elon Musk et Stephen Hawking qui l’utilisaient fréquemment nous mettent déjà en garde contre celle-ci et ont signé une lettre ouverte sur l’intelligence artificielle (Beneficial AI) qui recommande aux chercheurs d’étudier les impacts sociétaux de ce phénomène.[3] Il en était ressorti une liste des « 23 principes d’Asilomar » qui repose sur les craintes autour du développement de l’intelligence artificielle. Cette liste a été signée par plus de 2 500 personnes, dont plus de 1 200 chercheurs. Ce qui signifie qu’un grand nombre de gens ont une vision assez pessimiste de l’intelligence artificielle.[4]

Aujourd’hui on s’accorde pour dire qu’il existe trois types d’intelligence artificielle allant de la plus simple, l’ANI, à la plus complexe, l’ASI en passant par une IA intermédiaire, l’AGI.

La première est l’ANI (Artificial Narrow Intelligence), c’est une intelligence artificielle qui consiste en une mono-activité et qui est capable d’exécuter des tâches simples comme par exemple prendre un rendez-vous chez le coiffeur. La seconde, un petit peu plus complexe, est l’AGI (Artificial General Intelligence). Globalement aussi intelligente que l’humain, elle pourrait traiter des problèmes variés et  raisonner de façon abstraite. Ce type d’IA utilise « des réseaux de neurones artificiels » qui tentent d’imiter la transmission neuronale biologique. Mais évidemment créer un ordinateur aussi complexe qu’un cerveau humain est une tâche difficile. Le dernier type d’intelligence artificielle est le plus complexe, il s’agit de l’ASI (Artificial Super Intelligence) amène à une IA potentiellement nettement supérieure à l’humain, et cela dans tous les domaines. Celle-ci serait même dotée d’une conscience propre et s’améliorerait seule sans cesse. L’écrivain Eliezer Yudkowsky utilise l’expression de boucle « d’auto-amélioration pour décrire ce phénomène. Il parle ainsi d’une IA qui réécrit son propre « algorithme cognitif »[5].

L’intelligence artificielle est en effet très prometteuse pour de nombreux secteurs. Donc pourquoi au vu de tous ces progrès, devrions-nous en avoir peur ?

Parce qu’il ne faut pas perdre de vue, qu’aucune technologie n’est infaillible et qu’utilisée avec de mauvaises intentions, les conséquences engendrées peuvent s’avérer très graves, comme par exemple une perte de contrôle, comme des cyberattaques ou encore des attaques de drones.[6] L’utilisation de cette technologie peut également engendrer des discriminations sur base du genre, de l’âge, des convictions politiques , philosophiques ou de tout autre motif, elle peut amener à un non-respect de la vie privée ou encore à un usage à des fins criminelles.

C’est suite à cela que le 19 février 2020, la Commission européenne a présenté une nouvelle stratégie pour encadrer l’intelligence artificielle.[7] L’instance européenne souhaite des applications « dignes de confiance ». Elle a présenté un livre blanc avec des recommandations pour favoriser l’innovation, protéger et respecter les intérêts des citoyens européens.[8] L’Objectif de ces recommandations européennes étant d’établir des règles pour les usages qui peuvent présenter des risques pour la santé et le respect des droits fondamentaux.[9] Bruxelles recommande que les futurs systèmes d’intelligence artificielle considérés comme étant à haut risque (par exemple ceux qui concernent le domaine de la santé) soient « certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques ainsi que les jouets »[10].

Alors que pour certains cet aspect semble uniquement lié à un effet de mode, d’autres insistent ardemment sur son importance éthique, juridique et politique. Nous allons aborder les dérapages de l’IA davantage d’un point de vue éthique que criminel.

Un des dérapage de l’intelligence artificielle pourrait viser à accentuer les discriminations algorithmiques :

Robot Microsoft « Tay »

On se souvient en 2016, du robot Tay lancé par l’entreprise américaine Microsoft, celui-ci était un «  agent conversationnel » capable de participer à des conversations sur divers sujets sur des réseaux sociaux comme Twitter, Snapchat, Kik ou encore GroupMe. Le robot conversationnel se basait sur des données accessibles publiquement afin de proposer des réponses aux questions posées. L’équipe Microsoft précisait également qu’un grand nombre de réponses étaient déjà toutes faites, réalisées par des humoristes. Les mêmes phrases étaient susceptibles de sortir régulièrement. Lorsqu’on interrogeait le robot sur des sujets plus sensibles comme l’organisation « État islamique » ou le terrorisme, Tay disposait de la réponse préenregistrée suivante « Le terrorisme sous toutes ses formes est déplorable. Cela me dévaste d’y penser»[11]. Cependant malgré les réponses préenregistrées le robot a tout de même fini par déraper et par nier l’existence de l’Holocauste. Il a été mise hors circuit par la société Microsoft seulement quelques heures après cette malheureuse réponse.

Algorithme de recrutement utilisé par Amazon

D’autres exemples d’intelligence artificielle nous posent également des problèmes. C’est ainsi qu’en 2014, le géant du e-commerce Amazon a décidé de confier le recrutement de ses employés à un algorithme, un programme informatique secret qui devait déterminer les meilleurs candidats à embaucher . Ce programme était inspiré de Workland tout en utiisant une technologie différente.

L’algorithme était capable d’examiner le curriculum vitae des candidats afin d’automatiser le processus de recrutement en attribuant une note d’une à cinq étoiles selon les profils. Mais lors des tests, le robot a montré une préférence pour les profils masculins, ce qui a pénalisé les CV utilisant un vocabulaire à consonance féminine, ainsi que l’a révélé l’agence de presse Reuters.[12]

Amazon a donc été contraint d’abandonner ce projet car il n’y avait pas de garantie d’impartialité. Le service des ressources humaines d’Amazon a toutefois précisé que le classement préconisé par le système de recrutement n’avait jamais été l’unique critère.

Le logiciel COMPAS

Un autre logiciel[13] controversé est utilisé aux Etats-Unis dans le but d’évaluer le risque
de récidive chez les criminels. Dans de nombreux États américains, les prédictions de ce logiciel influencent les cautions, les conditions de probation ainsi que la durée des peines de prison accordées lors d’une condamnation pénale. Ce logiciel s’appuie sur des études académiques en criminologie et en sociologie, ainsi que sur différents modèles statistiques et sur le traitement d’un questionnaire de 137 entrées relatif à la personne concernée et à son passé judiciaire sans aucune référence à son origine ethnique.[14] Le questionnaire permet ensuite au juge d’évaluer les différents « scores » sur un horizon de deux années comprenant le risque de récidive, le risque de comportement violent et celui de non-comparution pour les situations de placement en détention provisoire. La démarche apparaît a priori pluridisciplinaire et fondée scientifiquement. Toutefois, en mai 2016, une enquête de l’ONG ProPublica a révélé l’efficacité des « prédictions » de COMPAS dont le logiciel aurait un a priori négatif à l’égard des Noirs. Cette conclusion a été contestée par le fabricant mais la Cour suprême du Wisconsin n’en a pas moins invité les juges à utiliser ce logiciel avec une « grande prudence ».

Le « Deep fake » est un autre exemple de dérive de l’IA

Ce concept de « Deep fake » également appelé « hyper trucage » consiste à modifier des vidéos réalisées par une synthèse d’images pour répandre des fake news. Il est très facile de retoucher une vidéo en procédant par exemple à une permutation intelligente de visages. C’est une pratique très courante et très rapide qui permet de répandre des mauvaises informations, des rumeurs, etc.

Grâce à l’intelligence artificielle, Samsung est parvenu à animer de manière très réaliste des tableaux ou des photos. Cette pratique ne semble à premier abord pas si dangereuse. Cependant si elle vient à se trouver entre des mains mal intentionnées , la donne peut s’avérer bien différente. L’utilisation du « Deep Fake » pour prendre l’apparence de personnalités telles que des chefs d’États et pour leur faire dire des choses mal intentionnées pourrait conduire à des conflits.[15] Cette technologie s’avère être si complexe que Facebook s’en est remis à la communauté pour tenter de trouver des contre-mesures pour lutter contre l’utilisation des « Deep Fake »[16].

Des experts internationaux nous mettent en garde contre l’utilisation malveillante de l’intelligence artificielle, celle-ci pouvant aller jusqu’à la cybercriminalité. Des robots ou des drones pourraient être utilisés à des fins terroristes.

Ingérence dans la vie privée

L’ingérence dans la vie privée fait aussi partie des dérapages possibles de l’IA. Dans ce cas, on pense aux caméras présentes dans les rues et qui sont capables avec l’aide d’un système de reconnaissance faciale de vous identifier. Cette technologie est d’application en Chine, à Singapour et dans d’autres pays. Ce système offre à chaque habitant du pays un certain nombre de points en fonction de leur comportement. Ainsi les autorités chinoises relèvent les infractions telles que traverser lorsque le feu est rouge ou encore fumer dans des lieux où cela est interdit, etc.[17]

Conclusion :

Ces exemples de dépassement de l’intelligence artificielle nous semblent provenir tout droit de romans de science-fiction. Cependant, il faut bien constater que les robots ne sont pas aussi neutres ni infaillibles qu’on pourrait le penser. La technologie de l’IA peut être utilisée de manière déviée.

Actuellement elle est utilisée dans le but d’améliorer de nombreux aspects de nos vies comme par exemple pour affiner la qualité du diagnostic médical ou encore pour trouver de nouveaux remèdes pour soigner le cancer, etc. Malheureusement, plus les capacités de l’intelligence artificielle s’améliorent plus elles pourraient devenir dangereuses en étant utilisées à mauvais escient. C’est pour cette raison qu’il est très important de parler des possibilités de rendre l’IA sûre et de minimiser son potentiel destructif. Il faut toutefois rester réaliste, elle n’est pas infaillible. Et dans des domaines aussi importants que la justice, la santé, la sécurité sociale, ou les applications militaires où le coût humain d’une erreur peut s’avérer énorme, il est essentiel d’avoir plus de transparence.

Les robots sont conditionnés à essayer de reproduire des jugements humains. On sait qu’un robot ne naît pas raciste puisqu’il n’a pas encore de liberté décisionnelle ; il est composé d’un ensemble de principes informatiques et de formules mathématiques. Une IA n’a pas d’opinion propre, et en réalité, son dysfonctionnement provient d’erreurs humaines. Mais un dérapage n’est pas à exclure malgré les bonnes intentions de ses créateurs comme l’affirme Abhishek Gupta, ingénieur logiciel à Microsoft et fondateur du Montreal AI Ethics Institute. L’ingénieur donne comme exemple : « Si vous ne faites pas attention et que vous entraînez le robot avec 1 000 oranges, mais uniquement 10 pommes, le robot ne sera pas efficace pour reconnaître les pommes ». Peut-être même qu’il les confondra avec des oranges. Dans cet exemple évidemment, il n’y a rien de dramatique. Mais ceci nous fait repenser à un cas survenu en 2015 avec des conséquences beaucoup plus importantes, lorsqu’un algorithme de reconnaissance visuelle proposé par Google photo en 2015, a confondu des Noirs et des gorilles[18]. Cet exemple nous amène à penser que malgré tout, les algorithmes peuvent répéter nos préjugés.

Certains de ces critères discriminatoires sont inculqués de manière volontaire aux algorithmes, un exemple connu concerne l’âge lorsqu’il s’agit d’obtenir un prêt bancaire, l’état de santé pour l’obtention d’une assurance ou encore le lieu de résidence pour moduler les primes.

Lorsque nous laissons un algorithme de recommandation agir pour nous influencer sur le choix de films ou séries, ça ne semble pas avoir une trop grande importance, mais qu’en est-il lorsque ces algorithmes choisissent vos amis et agissent sans même que vous vous en rendiez compte et se permettent de décider pour vous quels articles vous devriez lire et en ne vous donnant même plus accès aux autres. Ces cas posent clairement des problèmes éthiques et entrave notre liberté d’opinion.

Le thème de l’éthique devient incontournable au niveau mondial. On a pu retrouver cette préoccupation lors des conférences sur l’intelligence artificielle qui se sont tenues au Canada, en Chine et aux USA. En effet le Canada a publié le 4 décembre 2019, la Déclaration de Montréal[19], un texte qui propose 10 grands principes pour assurer un développement responsable de l’intelligence artificielle. Cette Déclaration vise entre autres à éliminer les discriminations, à élaborer un cadre éthique pour le développement et le déploiement de l’IA.[20] L’Europe s’y est également intéressée même s’il ne s’agit à l’heure actuelle que d’un livre blanc composé de recommandations.

Céline Béclard
Juriste

  1. N. KUMARAN, « Spam does not bring us joy – ridding Gmail of 100 million more spam mes- sages with TensorFlow», 6 février 2019, Google Cloud Blog, disponible sur https://cloud.google. com/blog/products/g-suite/ridding-gmail-of-100-million-more-spam-messages-with-tensorflow
  2. J. DE COOMAN, « Éthique et intelligence artificielle : l’exemple européen », Rev. Dr. ULiège, 2020/1, p. 79-123.
  3. An Open Letter RESEARCH PRIORITIES FOR ROBUST AND BENEFICIAL ARTIFICIAL INTELLIGENCE
  4. Disponible sur : https://www.nextinpact.com/article/28064/106188-une-etude-pointe-possibles-effets-pervers-et-dangers-intelligence-artificielle (consulté le 2 novembre 2020).
  5. Disponible sur : https://www.sicara.fr/parlons-data/2018-06-11-intelligence-artificielle-ethique?utm_term=&utm_campaign=FR++%5BSearch%5D+Computer+vision&utm_source=adwords&utm_medium=ppc&hsa_acc=9872608880&hsa_cam=10936526771&hsa_grp=106988552626&hsa_ad=459090908311&hsa_src=g&hsa_tgt=dsa19959388920&hsa_kw=&hsa_mt=b&hsa_net=adwords&hsa_ver=3&gclid=Cj0KCQjwxNT8BRD9ARIsAJ8S5xbclVUpWRRPsjKwpaR9BwnJFo4bRyWR4gJ2QFUXKljs9nbPnkvDjcaAnp_EALw_wcB (consulté le 26 octobre 2020).
  6. Disponible sur : https://www.futura-sciences.com/tech/questions-reponses/intelligence-artificielle-20-menaces-plus-dangereuses-intelligence-artificielle-14343/ (consulté le 26 octobre 2020) ;
  7. C. CASTETS-RENARD, « Titre 2 – Réglementation des systèmes d’intelligence artificielle » in Droit du marché unique numérique et intelligence artificielle, Bruxelles, Bruylant, 2020, p. 340
  8. Livre blanc : https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf; L. CHANCERELLE, « La lutte contre les discriminations en Europe à l’ère de l’intelligence artificielle et du big data », J.D.J., 2019/1, n° 381, p. 25-37.
  9. Disponible sur : https://www.arte.tv/fr/videos/RC-018563/intelligence-artificielle-entre-progres-et-derives/ (consulté le 23 octobre).
  10. Disponible sur : https://www.maddyness.com/2020/03/02/intelligence-artificielle-ethique/ (consulté le 26 octobre 2020) ; Y. POULLET, « Chapitre 3 – Le principe et les obligations du responsable en ce qui concerne la sécurité des données (art. 5, 32 et s.) » in Le RGPD face aux défis de l’intelligence artificielle, Bruxelles, Éditions Larcier, 2020, p. 84-109.
  11. Disponible sur : https://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html (consulté 22 octobre 2020)
  12. Disponible sur : https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753 (consulté le 23 octobre 2020)
  13. Correctional Offender Management Profiling for Alternative Sanctions (Profilage des délinquants correctionnels pour des sanctions alternatives) est un algorithme développé par la société privée Equivant (ex-Northpointe), http://www.equivant.com/solutions/inmate-classification.
  14. Practitioner’s Guide to COMPAS Core, Northpointe, 2015, disponible sur : http://www.northpointeinc.com/downloads/compas/Practitioners-Guide-COMPAS-Core-_031915.pdf.
  15. Y. MENECEUR, « #3.02 – L’informatique : un « fait social total » » in L’intelligence artificielle en procès, Bruxelles, Bruylant, 2020, p. 189-197
  16. M. SZADKOWSKI, « Facebook lance une compétition contre les vidéos « deepfake » », Le Monde, 6 septembre 2019
  17. Disponible sur : https://fr.sputniknews.com/presse/201903051040254660-intelligence-artificielle-risques-avertissement/ (consulté le 31 octobre 2020).
  18. Disponible sur : https://lejournal.cnrs.fr/articles/peut-faire-confiance-a-lintelligence-artificielle (consulté le 31 octobre 2020).
  19. Disponible sur : https://www.declarationmontreal-iaresponsable.com/la-declaration (consulté le 20 octobre 2020).
  20. Disponible sur : https://lactualite.com/sante-et-science/quand-lintelligence-artificielle-derape/source : https://fr.wikipedia.org/wiki/Intelligence_artificielle#cite_note-5 (consulté le 16 octobre 2020).