Le 16 octobre dernier, quinze associations, parmi lesquelles Amnesty International, La Quadrature du Net et la Ligue des Droits de l’Homme, ont déposé un recours devant le Conseil d’État pour contester l’utilisation par la Caisse Nationale des Allocations Familiales (Cnaf) d’un algorithme jugé discriminatoire. Cet algorithme, utilisé pour noter et orienter les contrôles des allocataires, est accusé de cibler de manière disproportionnée les populations précaires.

Un algorithme sous le feu des critiques

Depuis plusieurs années, des associations se battent pour comprendre le fonctionnement de cet algorithme opaque. Ce dernier attribue à chaque allocataire un score de « suspicion », basé sur des variables personnelles comme le revenu, la situation familiale ou encore le lieu de résidence. Je trouve cette situation particulièrement inquiétante, car les individus présentant les scores les plus élevés se voient soumis à des contrôles renforcés, dans une logique de détection d’indus et de prévention de la fraude.

Pour les associations, et de mon point de vue également, le problème principal réside dans la nature même des critères utilisés. Le profilage inclut des données sensibles telles que le fait de recevoir des allocations comme le RSA ou l’AAH, ou d’être au chômage, ce qui crée une suspicion quasi systématique envers les personnes les plus vulnérables.

Le recours déposé devant le Conseil d’État met en avant que ce traitement massif de données personnelles va bien au-delà de la simple lutte contre la fraude. En tant que citoyen concerné par la protection des données, je trouve que cette surveillance constitue une atteinte disproportionnée à la vie privée, en violation des principes fondamentaux de protection des données. De plus, l’opacité entourant les critères précis employés par cet algorithme pose question… Pourquoi ne rien rendre public ?

Une technologie discriminatoire ?

Les études, notamment celle du sociologue Vincent Dubois, confirment que ce sont les plus précaires qui ont le plus de chances d’être contrôlés. Cette situation m’indigne, car il ne s’agit pas d’une plus grande propension à la fraude chez ces personnes, mais plutôt de la complexité de leur situation administrative, qui rend leur profil plus susceptible de déclencher des erreurs ou des irrégularités. L’algorithme de la CAF, en se basant sur ces critères sociaux, renforce cette inégalité, associant pauvreté et soupçon de fraude.

La lutte pour plus de transparence

Je soutiens pleinement le recours de ces associations, qui réclament que la totalité du code source de l’algorithme soit rendue publique afin de garantir la transparence et l’équité. Ce combat pour la transparence dans les technologies utilisées par les institutions publiques me paraît crucial pour protéger les droits des allocataires.

Katia Roux, d’Amnesty International, exprime d’ailleurs très bien ce point lorsqu’elle affirme que « ces outils numériques peuvent enraciner des inégalités préexistantes« . Comme elle, je pense que, plutôt que d’être impartiaux, ces algorithmes renforcent les préjugés de ceux qui les conçoivent.

Ces outils ne doivent en aucun cas contribuer à aggraver les situations de précarité des plus défavorisés.

Il est essentiel, selon moi, de repenser la manière dont ces outils numériques peuvent être utilisés pour améliorer les services publics, tout en garantissant l’équité et le respect des droits fondamentaux.

Pour aller plus loin :

  1. La Quadrature du Net – Organisation de défense des droits et libertés sur Internet, à l’origine de nombreuses actions contre l’opacité des algorithmes publics. www.laquadrature.net
  2. Amnesty International – Leur analyse des impacts des technologies numériques sur les droits humains. www.amnesty.org
  3. Contrôler les assistés, de Vincent Dubois – Un livre qui explore les mécanismes de contrôle social appliqués aux plus précaires. Disponible chez l’éditeur Raisons d’agir.

By Benoît