17 juillet 2024
29 juin 2020
Le Défenseur des droits et la CNIL ont publié conjointement un rapport sur les algorithmes, portant chacun leurs expertises au service des droits fondamentaux des personnes. Si le recours aux algorithmes n’est pas nouveau, l’utilisation devient de plus en plus massive : au sein du secteur privé et des administrations (prestations sociales, police, justice, hôpitaux, accès aux services publics, procédures d’embauches) conditionnant l’accès aux droits des personnes accompagnées par le secteur social et médico-social. Sujet resté longtemps dans l’angle mort des débats publics, un travail de vigilance doit être mené afin de prévenir les discriminations qui pourraient découler de ces technologies.
Pour rappel :
Un algorithme c’est : la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis. Par exemple, une recette de cuisine est un algorithme permettant d’obtenir un plat à partir de ses ingrédients. Pour qu’un algorithme puisse être mis en œuvre par un ordinateur, il faut qu’il soit exprimé dans un langage informatique et prend la forme d’un logiciel : une application.1
Une discrimination c’est : la discrimination consiste à favoriser ou défavoriser un individu, en raison de certaines de ses caractéristiques ou de certains de ses choix personnels. Ce traitement différencié des personnes influe sur leurs droits fondamentaux : l’accès aux droits, à un service, à une fonction, etc. 2
Les deux autorités indépendantes font part de leurs préoccupations sur l’effet de ces technologies sur les droits fondamentaux étant conçus par des humains et pouvant donc être biaisés. Les trois formes de discriminations peuvent être à l’œuvre par l’intermédiaire des algorithmes :
Discrimination directe3 : parfois de manière intentionnelle avec l’incorporation d’un biais discriminatoire interdit (sexe, origine, etc.) dans l’algorithme.
Discrimination indirecte4 :
A noter que la combinaison des critères neutres peuvent tendre vers de la discrimination.
– Discrimination systémique5 : L’application de biais discriminatoires dans un algorithme se fait de manière automatique et cette répétition parfois à grande échelle pourrait systématiser les discriminations. Ceci risquant de renforcer la stigmatisation envers certaines populations. Car, le but d’un algorithme est de repérer des comportements ou des caractéristiques de groupe afin de dire les actions à adopter. Ainsi, en incorporant des données discriminantes dans le système, celui-ci va proposer une marche à suivre « rationnelle » pouvant faire penser que ce sont des décisions objectives même si discriminantes.
« Ce risque de discrimination est d’autant plus grand pour les groupes sociaux qui font déjà l’objet de discriminations systémiques majeures au sein de la société, par exemple, les femmes, les personnes en situation de handicap ou les personnes issues de l’immigration. »
La CNIL et le Défenseur des Droits ont donc formulé les recommandations suivantes :
– La non-discrimination n’est pas une option mais bien un cadre juridique. Les biais discriminatoires dans les algorithmes devraient pouvoirs être repérés et corrigés et les auteurs de ces biais devraient pouvoir être sanctionnés
– Il y a un enjeu pour que les victimes fassent valoir leurs droits. Le problème étant que les effets discriminatoires des algorithmes ne sont souvent mesurables qu’à l’échelle des groupes. Ils risquent de rester tout à fait invisibles pour les victimes.
Pour rappel, les 25 types de discriminations sont :
1 Définition de la CNIL https://www.cnil.fr/fr/definition/algorithme
2 Voir le Défenseur des droits et la CNCDH sur ce sujet
3 C’est lorsqu’une personne est choisie ou rejetée délibérément par rapport à une autre sur le fondement d’un ou de plusieurs des 25 critères listés.
4 C’est lorsqu’une pratique ou une règle mise en place semble neutre, mais qu’en réalité, cela entraine un désavantage pour une certaine catégorie de personnes.
5 Elle est intégrée et issue d’un jeu d’acteurs ou du système de la société. Elle se rapproche de la discrimination indirecte mais se produit de manière massive.
Pour rappel https://x.com/canardenchaine/status/1770715537523229131?s=46&t=V158PkKw3nW4GhbAj_9UGw
Samedi 13 juillet le président de la FAS se joindra à l'association #Salam 18h30 parc Richelieu #Calais au moment pour les naufragés puis à la marche à la mémoire de notre irremplaçable ami #JeanClaudeLenoir décédé hier au volant de sa camionnette de distribution de nourriture.
Pascal Brice, président de la FAS sur France Info : des réponses attendues pour en finir avec le lancinant défi de la pauvreté confirmé par l'INSEE.
A écouter en intégralité ici : https://www.federationsolidarite.org/wp-content/uploads/2024/07/Video-France-Info-Pascal.mp4
Pendant ce temps là @GabrielAttal @guillaumekasba @GDarmanin prière de ne pas laisser @Prefet28 punir une association adhérente de la #FAS en lui retirant le 115/SIAO pour avoir refusé d'appliquer des instructions illégales de tri des sans-abri @dihal_gouv
22 films sélectionnés, le jury de la 25è image 2024 remettra en octobre le Prix de la fiction & le Prix du documentaire.
Ses membres ont été nommés : @stephanmercurio présidente, @CarolineGlorion, @GoldbergDaniel, @alhallier, Nathalie Latour @FedeSolidarite, Cécile Tagliana.
Ces dernières semaines le Pacte du @PouvoirDeVivre, dont la FAS est membre, s’est mobilisé pour éviter le pire. Nous appelons les partis et les responsables politiques à l’apaisement et au retour au dialogue.
Retrouvez le communiqué de presse : https://www.federationsolidarite.org/wp-content/uploads/2024/07/CP-PPV-Legislatives-9-juillet.pdf
📢 La FAS appelle les parlementaires à prendre la mesure de leurs responsabilités 👇
Soulagé-es. Tirons les leçons de ce qu’il vient de se passer.
📣 Nous subissons actuellement une crise du logement, le RN au gouvernement accentuerait les problématiques du secteur avec des mesures aggravant les inégalités.
🗳️ Votons dimanche ‼️