L’intelligence artificielle nous est imposée sans débat depuis plusieurs années, et cela pourrait s’amplifier à l’occasion du déploiement de la 5G qui, avec la technologie du Edge computing, la disséminerait dans des micro data centers locaux. L’État s’en sert pour, d’une part, sucrer des budgets sociaux et donc des droits et, d’autre part, pour pister les bénéficiaires, forcément fraudeurs .
Ainsi, Pôle emploi, la CAF, la police, etc. se dotent d’algorithmes plus ou moins complexes, particulièrement discriminants car déployés avec la volonté de réduire drastiquement nos droits.
Nous relayons l’action du Collectif Changer de cap qui, justement, demande le démantèlement du système d’IA qui piste et discimine les allocataires CAF.
Nous les invitons pour un débat à la Cale (16 rue Royet, Saint-Étienne) le 9 juin, avec Gilles Jeannot, co-auteur du livre La Privatisation numérique. Déstabilisation et réinvention du service public (affiche ci-dessous et en bas de l’article, en pdf).
À ce jour, l’intelligence artificielle se déploie sans aucun contrôle car elle n’est encadrée par aucune loi. D’où l’importance d’un règlement européen (contrairement à une directive, c’est un texte directement applicable en France), négocié depuis plus d’un an et qui pourrait être arrêté dès juin.
Le gouvernement français, qui occupe actuellement la présidence du Conseil européen, pousse pour aller le plus vite possible et insiste particulièrement sur des dispositions répressives qui seraient classées comme exceptions, donc exemptées de tout contrôle...
Un gros travail de plaidoyer auprès des élu.e.s européen.ne.s est mené par un ensemble de collectifs européens de défense des droits (123 signataires, dont pour la France seulement la LDH, GHETT’UP et la Quadrature du net), avec la coordination de l’EDRI.
Ils contestent le déploiement de systèmes d’IA qui, par exemple, seraient censés prédire si des crimes sont susceptibles d’être commis dans certains quartiers et renforcent les pratiques policières discriminatoires envers certaines communautés racialisées et ouvrières, remettent en cause la présomption d’innocence sur une base collective. D’autres systèmes sont utilisés pour, à partir des données corporelles, déduire la personnalité, le caractère, les croyances politiques et religieuses.
Ces organisations revendiquent aussi l’interdiction totale de l’identification biométrique à distance (dit « à la chinoise »), et les systèmes d’analyse prédictive utilisés pour interdire, restreindre et empêcher la migration. Elles réclament l’introduction d’informations concernant l’impact environnemental du développement ou du déploiement de ces systèmes d’IA.
Ces différents points (et d’autres) sont développés dans l’appel collectif que nous reprenons dans l’article « Le projet de loi européenne sur l’Intelligence Artificielle menace nos droits fondamentaux ».
Collectif stéphanois Halte au contrôle numérique, site
Compléments d'info à l'article