Au croisement des politiques urbaines et des politiques sécuritaires
La smart city et sa version sécuritaire la safe city se situent au croisement des politiques urbaines et des politiques sécuritaires. L’aménagement de la ville à des fins de contrôle social n’est pas en soi une pratique nouvelle, ce souci inspirant par exemple la transformation urbanistique de Paris initiée par Haussman à la fin du dix-neuvième siècle. On retrouve aussi l’idée de recourir à un traitement informatisé des données pour aiguiller la prise de décision et la mise en place des politiques publiques à partir de la fin des années 1970, au Chili ou ailleurs. Les algorithmes sur lesquels repose aujourd’hui ce traitement ne proposent donc en soi rien de nouveau, seulement la puissance de calcul mobilisable permet de le déployer à une toute autre échelle.
La dynamique actuelle remonte à la fin des années 2000, lorsque de grosses entreprises informatiques telles que IBM et Cisco, à l’affût de nouvelles sources de profit, ciblent les marchés publics liés aux collectivités territoriales. Les activités visées, portant sur l’équipement d’aménagements urbains ou sur la gestion de la fourniture en énergie ou en eau, sont cependant contrôlées par des conglomérats comme Suez ou Veolia via la gestion de délégations de services publics. Plutôt que leur livrer concurrence, les entreprises informatiques vont par conséquent s’appliquer à bâtir des alliances en apportant leur maîtrise du numérique.
La multiplication des projets de safe city
Si initialement il est question de développer une smart city, la finalité sécuritaire s’impose rapidement à travers la promotion d’une safe city. Les projets ont longtemps semblé être pour l’essentiel cantonnés aux États-Unis, avec la police prédictive [1], ou à la Chine, qui expérimente actuellement la reconnaissance faciale couplée à la vidéosurveillance à grande échelle. Toutefois, en novembre 2017, un communiqué de presse conjoint de la mairie de Marseille et de la société Engie annonce le lancement d’un « laboratoire d’analyse de big data pour la tranquillité publique ». La création de ce laboratoire, en réalité en germe depuis 2014, préfigure une prolifération de projets sur le territoire français [2].
Les projets s’articulent autour soit de l’analyse des big data soit d’un traitement automatisé de flux de données issues en particulier de la vidéo-surveillance.
La mise en commun, à Marseille, des données en provenance des hôpitaux, de la police municipale, du ministère de l’Intérieur, etc. ou la mise en place de la plateforme Digital Saint-Étienne [3] relèvent du premier ensemble. Dans le second figure une série de dispositifs visant à automatiser le traitement des images issues de la vidéo-surveillance (Valencienne, Toulouse, Nice, Marseille ou Cannes). Le croisement de ces données avec celles issues des fichiers TAJ (le fichier de traitement des antécédents judiciaires) et TES (qui rassemble les données relatives aux passeports et à l’immigration), de l’application Alicem [4], de la carte d’identité biométrique, etc. permettrait de massifier la reconnaissance faciale – comme cela est déjà pratiqué avec les plaques numérologiques. Le projet Serenicity à Saint-Étienne en était une déclinaison sonore, à partir de captations par des micros [5]. Certains projets affichent également l’ambition de prédire les comportements, à partir de la démarche ou de la voix.
Un business alléchant
L’argumentaire mobilisé à l’appui du développement de la safe city porte en premier lieu sur la sécurité : le recours à ces technologies permettrait d’accroître la tranquillité publique en assurant une surveillance plus efficace de l’espace public. La perspective de l’organisation des jeux olympiques en 2024 est notamment invoquée par des responsables de services de sécurité tels que la Direction générale de la sécurité intérieure pour réclamer la généralisation de ces dispositifs.
Alors que la dynamique de concentration à l’œuvre dans le secteur a abouti à la constitution de deux mastodontes composés à majorité de capitaux français, le gouvernement y voit un secteur économique à promouvoir.
Il s’agit aussi d’un activité économique qui promet des marges de profit considérables : le marché de la vidéo-surveillance en France s’élève à un montant d’un à deux milliards par an ; celui de la smart city était estimé en 2018 à 71,3 milliards de dollars à l’échelle mondiale. Et des financements par des fonds publics, en provenance de l’État français (par la Banque publique d’investissement) comme de l’UE, assurent d’ores et déjà sa rentabilité. Alors que la dynamique de concentration à l’œuvre dans le secteur a abouti à la constitution de deux mastodontes composés à majorité de capitaux français (Engie Ineo et Thalès), le gouvernement y voit un secteur à promouvoir. Aussi, le développement de ces expérimentations devrait-il être, selon le secrétaire d’État au numérique Cédric O, assuré « pour que nos industriels progressent » [6].
Le recours à l’algorithmie prédictive à partir des big data renforce les discriminations.
Des dispositifs liberticides
Pourtant, les problèmes posés sont nombreux et d’envergure. D’une part, le recours à l’algorithmie prédictive à partir des big data renforce les discriminations. Celle-ci reposant sur des bases de données alimentées par des cas préalablement collectés, elle ne peut que reproduire les tendances antérieures. Aussi, le fait d’avoir relevé par le passé des taux d’infraction plus élevés dans un quartier donné aura-t-il pour implication qu’un algorithme concluera mécaniquement à concentrer la surveillance sur ce quartier, quelle que soit la criminalité effective. De même, les expérimentations de jugement automatisé aux États-Unis ont pour effet de reproduire les biais antérieurs, tout particulièrement en termes de taux disproportionné de condamnation des Afro-américains.
D’autre part, la massification d’une surveillance automatisée notamment par la vidéo assure une vérification d’identité permanente et généralisée. Outre le fait qu’elle met à disposition des moyens sans précédent pour instaurer un contrôle total (même si la mise en œuvre est souvent plus chaotique et donc moins efficace qu’escomptée par les concepteurs), elle génère une tendance, largement inconsciente, à l’auto-contrôle et à la normalisation des comportements. Qu’il s’agisse de sa démarche et de son comportement dans l’espace public que l’on corrigera pour les aligner sur des pratiques jugées conformes à la norme, de recherches en ligne que l’on s’abstiendra de faire par crainte d’être repéré·e comme représentant une menace pour l’ordre public, de propos que l’on ne prononcerait pas par souci d’éviter d’être perçu·e comme déviant·e, etc.
Comment résister ?
Sans se substituer aux actions menées dans l’espace public, la Quadrature du Net et Technopolice développent différentes activités pour freiner et contrecarrer l’essor de ces projets. Elles recensent ces derniers et publient les documents les concernant, en les obtenant par la saisine de la Commission d’accès aux documents administratifs ou grâce à leur transmission par des lanceurs d’alerte sur un espace sécurisé mis à disposition (cf. technopolice.fr/securedrop sur le site http://3hvdw2twgf3l47os.onion/ accessible par Tor). Ce travail est ensuite accessible à tou·te·s via notamment une base de données (data.technopolice.fr) et un forum d’échange en ligne (forum.technopolice.fr).
La Quadrature du Net recourt par ailleurs au levier juridique. Elle a ainsi contesté devant le Tribunal administratif le projet d’installation de portails avec reconnaissance faciale dans les lycées de la région Provence-Alpes-Côte-d’Azur. Acculée, la Région a dès lors interrogé la Commission nationale de l’informatique et des libertés (CNIL), qui a pointé le caractère disproportionné du dispositif : le contrôle de l’accès peut être réalisé par d’autres moyens, moins intrusifs, et qui doivent donc être privilégiés, a fortiori lorsqu’il s’agit de mineurs. Informée du projet d’installation de micros dans le quartier Tarentaize-Beaubrun, la Quadrature a alerté la CNIL, obtenant un rappel du cadre légal qui, en l’état, n’autorise pas ce type d’expérimentation.
S’il suppose une certaine expertise juridique, le recours au contentieux judiciaire ou à la saisine de la CNIL est ouvert à tout le monde. Ces moyens sont à mobiliser aux côtés d’autres modes d’actions pour organiser la résistance à ces projets, d’autant qu’en face, la pression est forte pour les poursuivre : une loi est actuellement en préparation pour faciliter l’expérimentation de technologies de reconnaissance faciale, le blanc seing donné par la Commission européenne à la reconnaissance faciale le 19 février 2020 ouvrant de fait un boulevard au gouvernement…
Contacts :
- Quadrature : https://www.laquadrature.net
- Technopolice : https://www.technopolice.fr
- Halte au contrôle numérique : HalteauControleNumerique[at]protonmail.com
Compléments d'info à l'article