Petit à petit, la lumière se fait sur un système de surveillance de masse insidieux : l’utilisation par la CAF d’un algorithme de notation des allocataires pour prédire lesquels seraient indignes de confiance et doivent être contrôlés. Construit à partir de l’analyse des millions de données que la CAF détient, il attribue un « score de suspicion » compris entre 0 et 1 à chaque allocataire. Plus il est proche de un, plus l’algorithme juge qu’un.e allocataire est suspect.e. Un contrôle est déclenché lorsqu’il se rapproche de sa valeur maximale. « Cet algorithme est neutre » et serait « même l'inverse d'une discrimination », selon un responsable de la CAF. Pourquoi alors fliquer 32 millions d'allocataires et leurs familles ?
Le dernier code source* qu'ont pu obtenir des lanceurs d'alerte date de 2018. La CAF refuse de communiquer celui actuellement utilisé. Mais les caractères discriminants sont bien là, y compris sont ciblées les personnes en situation de handicap. Des simulations prouvent que les « scores de suspicion » élevés sont très majoritairement ceux des bénéficiaires des minimas sociaux ou de l'AAH et les familles monoparentales, dont 80% sont des femmes.
C’est en transformant les allocataires en « assisté.es », puis en « risques » pour notre système social que le discours politique pernicieux de « lutte contre l’assistanat » a fait de leur contrôle un impératif. Or les chiffres montrent que la « fraude sociale » est marginale et que c’est au contraire le non-recours aux aides qui se révèle être un phénomène massif (36% pour le RSA). Mais la CAF préfère jouer la carte « Big Brother ».
Conseil aux politiques à l'origine de ce flicage de masse. Prendre le train Paris - Luxembourg. Pour les amateurs d'exotisme : les Îles Vierges, Panama… ou le Qatar. Pas besoin d'algorithme. Fraude sociale : 1 milliard. Fraude fiscale : entre 80 et 100 milliards. Y'a pas photo.
* Code source : donne les instructions de fonctionnement à un programme informatique.
© 2024 - La Dépêche de l’Aube
Création : Agence MNKY