Smart Cities – Vers la fin de l’espace public urbain comme espace démocratique ? Rencontre avec Félix Tréguer

Depuis septembre 2019, La Quadrature du net, association française dédiée à la défense des libertés à l’ère numérique, coordonne le projet Technopolice1, une campagne militante et participative de lutte contre les projets urbains de surveillance automatisée.

Membre fondateur de cette association, Félix Tréguer est aujourd’hui chercheur associé au Centre Internet et Société du C.N.R.S. en France (Centre National de Recherche Scientifique). Invité par le GSARA en mars dernier dans le cadre du Cycle Numérique organisé par PointCulture, il devait nous y présenter son ouvrage L’Utopie déchue, une contre-histoire d’internet, XVème-XXIème siècle2 ainsi que répondre à nos questions relatives au projet Technopolice.

Suite à la crise sanitaire, nous avons dû annuler cet événement. Cependant, Félix Tréguer a accepté de répondre à nos questions à distance. Il évoque avec nous les enjeux de la surveillance automatisée dans l’espace urbain, mais aussi les conséquences que pourrait provoquer la crise sanitaire sur la mise en place de tels procédés sécuritaires.

technopolice.fr

Qu’est-ce que la campagne Technopolice et quels sont ses objectifs ?

Le projet, que nous qualifions souvent de « Recherche-action », est de documenter et de s’organiser pour résister aux déploiements de technologies policières de surveillance dans l’espace public urbain. Cette campagne a été rejointe par de nombreux acteurs associatifs notamment La Ligue des Droits de l’Homme en France. L’idée remonte à il y a un peu plus de deux ans. À l’époque, on parlait beaucoup de la reconnaissance faciale qui se développait très vite en Chine ou encore du rôle d’entreprises comme Palantir Technologies pour croiser de nombreux jeux de données et déployer des solutions de police prédictive, soit d’évaluation de la menace en fonction de telle ou telle zone sur laquelle on dispose de données. Grâce aux avancées en matière de machine learning et autres techniques d’intelligence artificielle, ces technologies de surveillance ont fait de gros progrès ces dernières années.

Documenter et s’organiser pour résister aux déploiements de technologies policières de surveillance dans l’espace public urbain.

C’est alors que la mairie de Marseille a annoncé la mise en place de ce qu’ils appelaient alors « L’observatoire big-data de la tranquillité publique » rebaptisé depuis « M-Pulse », un outil de police prédictive. À cette occasion, nous nous sommes rendu compte que des projets similaires étaient en cours, sur des questions de police prédictive mais aussi de vidéosurveillance automatisée. En fait, ces outils Big Data prolifèrent à travers le champ de la sécurité et notamment au niveau des polices locales. Des dizaines de projets sont en cours à différents échelons locaux, parfois inscrits dans des programmes nationaux ou européens. Face à la prolifération de ces projets, la petite équipe de salariés, de bénévoles et de sympathisants de la Quadrature du net s’est vite rendu compte qu’ils n’allaient pas faire le poids. Nous avons donc choisi de mettre en place des outils pour permettre à des collectifs locaux de s’organiser et de rejoindre l’aventure.

Au-delà du site technopolice.fr, il existe un forum où des volontaires toujours plus nombreux recueillent des informations, font de la veille, discutent des stratégies, des formats d’action, organisent des réunions publiques et des actions de terrain. Nous avons aussi développé une plateforme cryptographique de fuite de données (technopolice.fr/leaks) pour permettre à des lanceurs d’alerte de nous envoyer des documents : par exemple des personnes qui travailleraient au sein de grandes entreprises ou de start-ups qui développent des technologies de surveillance, ou encore des travailleurs employés par les administrations publiques qui ont ce type de projets dans leurs cartons. De notre côté, nous écrivons aux collectivités pour faire valoir nos droits d’accès aux documents administratifs. Nous récupérons ainsi des documents sur ces projets pour mieux comprendre de quoi il retourne. Ceux-ci sont publiés dans une base de données sur data (data.technopolice.fr).

Très peu de communication et de transparence sont faites sur ces enjeux, il s’agit souvent de projets locaux vendus comme des expérimentations, il y a très peu d’informations publiques. L’idée générale est de collaborer et d’être le plus nombreu.x.ses possible à faire face à ces tendances, notamment en réunissant de la documentation. L’enjeu est énorme.

Tout récemment, La Quadrature du Net a reçu deux décisions de justice…

Nous avons entrepris des actions contentieuses devant les juridictions françaises. Au mois de février, nous avons reçu deux décisions, l’une concernant le projet d’expérimenter la reconnaissance faciale à l’entrée de deux lycées de la région P.A.C.A.3 (un portique qui permette d’ouvrir la porte pour les élèves qui étaient reconnus par le système de reconnaissance faciale). Après une phase test dans deux lycées à Marseille et à Nice, l’idée était de généraliser ça à l’ensemble de la région. Après un an de procédure, la juridiction nous a donné raison sur tous les plans, notamment qu’il s’agit d’un système complètement contraire au règlement européen en matière de protection des données personnelles (R.G.P.D.).

La deuxième action concerne la vidéosurveillance automatisée. Depuis une dizaine d’années, la vidéosurveillance s’est déployée partout dans les villes. Aujourd’hui, l’enjeu est d’automatiser l’analyse des flux vidéo grâce à des techniques d’intelligence artificielle, ceci pour se passer d’opérateurs humains qui scrutent les flux vidéo. Aujourd’hui, ces flux sont tellement nombreux qu’il faut recourir à des algorithmes qui automatisent l’analyse et déclenchent donc automatiquement des alertes lorsque des « événements suspects » ou des « comportements anormaux » sont détectés.

En octobre 2019, nous avons appris que la ville de Marseille avait lancé un projet de ce type, puis l’adjointe au maire en charge de la sécurité a révélé que ce marché public était lancé et que 50 premières caméras allaient être branchées à un algorithme au mois de décembre 2019. À cette occasion, nous avons déposé un recours en urgence. Suite à certains obstacles procéduraux, nous avons eu une décision négative mais qui ne remet pas en cause la pertinence de nos arguments en matière d’atteintes aux libertés fondamentales. Nous travaillons donc à d’autres recours sur des projets similaires à Marseille via une autre procédure. D’autres villes françaises sont aussi concernées, notamment Valenciennes qui est en pourparlers avec la société Huaweï, il y a aussi un projet en cours avec IBM à Toulouse…

Quel type de sociétés répond aux marchés publics concernant ces procédés de vidéo-surveillance automatisée ?

Souvent de grosses sociétés issues du secteur des télécommunications, Huaweï, IBM, Cisco (qui était partie prenante de l’expérimentation dans les lycées et qui travaille aussi beaucoup avec la mairie de Nice sur la vidéosurveillance), mais aussi des industries de la défense et de la sécurité. En Europe, ce sont deux grosses entreprises multinationales mais historiquement françaises, Thalès (qui a racheté plusieurs entreprises européennes spécialisées dans la surveillance biométrique) et Idémia, résultat de la fusion de la branche biométrie de Safran4 et de son concurrent néerlandais Oberthur Technologies. Il y a aussi des start-up, notamment une française comme Two-i à Metz qui développe des algorithmes de détection des émotions à partir de l’analyse des flux de vidéo-surveillance. Ces start-up se lancent sur ces marchés en plein essor pour faire valoir des travaux universitaires de recherche liés à ce qu’on appelle la vision assistée par ordinateur. Il y a également un projet de safe city (soit les applications sécuritaires de la smart city), qui implique un centre de recherche public, l’I.N.R.I.A.5.

Des alliances assez hétéroclites se nouent entre des acteurs du monde de la recherche publique et des grands acteurs privés industriels, qui proposent souvent des solutions développées dans le cadre de projets de recherche publics, donc avec de l’argent public. On commence à avoir un débat sur ces technologies alors même que ça fait dix ans que ces développements sont soutenus financièrement au niveau national ou européen.

On commence à avoir un débat sur ces technologies alors même que ça fait dix ans que ces développements sont soutenus financièrement au niveau national ou européen.

Les discours des promoteurs de ces solutions safe-city, mettent en avant la nécessité de maintenir la souveraineté européenne dans l’accès à ces technologies sécuritaires. En effet, les sociétés chinoises ou américaines se taillent une part de ces marchés européens, et il faudrait donc vite que l’industrie européenne se mette à niveau. Et donc pour cela, déployer ces expérimentations pour permettre à ces grands acteurs industriels européens et aux start-ups qui travaillent avec elles d’être compétitifs face à leurs concurrents chinois, américains ou israéliens.

Au-delà de George Orwell ou de Philip K. Dick, quelles sont les conséquences concrètes sur les libertés individuelles que vous entrevoyez suite à la mise en place de tels systèmes ?

Ces modes de gestion extrêmement technocratiques de la sécurité posent tout un tas de questions sur ce qui fait le bien-être dans un environnement urbain et une vie urbaine apaisée ! Nous critiquons cette fuite en avant où la police et la sécurité sont traitées à travers le prisme étriqué du contrôle social inhérent à ces technologies de surveillance.

Parlons de la police prédictive. Un système assez rudimentaire tel que celui envisagé à Marseille agrège des données sur l’intervention des forces de l’ordre, les statistiques de la délinquance, ceci dans le but de savoir quelles sont les zones de la ville où les incidents en termes de sécurité publique sont les plus susceptibles de survenir. Mais ce qu’on observe, notamment à partir de travaux réalisés aux États-Unis, c’est que de tels systèmes renforcent les discriminations. En effet, les quartiers dans lesquels la police patrouille le plus sont déjà les quartiers où vivent des populations marginalisées et précaires, donc les quartiers sur lesquels le plus de données seront fournies à l’algorithme et donc évidemment, les recommandations seront les plus précises, les plus fournies. D’où le risque de renforcer la présence policière dans des zones déjà exposées à une surveillance structurelle.

Ce qu’on observe, c’est que de tels systèmes renforcent les discriminations.

Quant aux applications de vidéosurveillance automatisée, notamment la reconnaissance faciale, permettez-moi de citer une note issue de l’école d’officiers de la gendarmerie nationale en France, celle-ci explique qu’à terme, les contrôles d’identité seront « généralisés, permanents et invisibles ». En circulant dans l’espace public, dans les rues, nous serons exposés au fait que notre démarche, notre visage, notre accoutrement vestimentaire soit un signe distinctif qui permette aux autorités de nous identifier, de nous suivre ou de repérer des comportements anormaux.

Pour prendre un peu de recul historique sur ces déploiements, on peut se poser la question de ce qui serait advenu de nos grands-parents qui ont pris part aux réseaux clandestins de la résistance pendant la 2de guerre mondiale. Que ce serait-il passé pour eux si ces technologies de surveillance avaient été massivement déployées dans l’espace public urbain des années 40 ? Ils n’auraient sans doute pas passé plus de trois semaines en clandestinité. Nous jouons beaucoup à nous faire peur en regardant ce qui se passe en Chine, en ayant l’impression que la population entière n’oppose aucune résistance aux pratiques autoritaires du régime… C’est évidemment faux ! Effectivement il y a un contrôle institutionnel et juridique qui diffère, il y a un degré d’ingérence dans les libertés et dans le contrôle social qui est moindre ici, mais en termes d’utilisation des outils de surveillance, les logiques sont similaires.

Ces dispositifs de surveillance automatisés sont-ils des atteintes à la législation européenne en général et au R.G.P.D. en particulier ? Est-ce votre but que de le démontrer ?

Évidemment, et c’est notamment ce que nous pointons à travers nos actions contentieuses: l’absence de tout cadre juridique spécifique pour réguler ces nouvelles technologies de surveillance.

Beaucoup des promoteurs de ces projets expliquent que nous devons expérimenter ces technologies afin de permettre aux industriels de se mettre à niveau, puis avoir un débat a posteriori sur : « Est-ce que ce sont ou non des atteintes aux libertés ? ». Nous rappelons simplement l’état du droit martelé tout au long de la jurisprudence de la cour européenne des droits de l’homme et notamment au niveau européen : pour qu’une mesure de surveillance respecte a minima formellement les droits fondamentaux, il faut qu’elle soit prévue par la loi. Or, la vidéosurveillance automatisée transforme complètement l’échelle ! On ne peut pas prétendre que la vidéosurveillance automatisée soit similaire à la vidéosurveillance classique. Dans une ville comme Marseille, 1500 caméras sont déployées sur le territoire de la ville, pour une trentaine d’opérateurs policiers qui scrutent ces flux vidéo. Lorsque tout ceci est automatisé à travers des technologies toujours plus fiables, l’ampleur et l’efficacité de la surveillance sont radicalement transformées. Nous refusons ces technologies de contrôle. Mais il est quand même hallucinant qu’elles soient déployées en l’absence de dispositions législatives spécifiques pour apporter des garanties, des garde fous, préciser les modalités d’utilisation… Cela montre à quel point les grands principes juridiques sont abstraits, et à quel point les formes de pouvoir se développent en dehors du droit et de toutes les règles censées les juguler.

Nous sommes confiants dans le fait de pouvoir suspendre certains de ces projets, au moins pour un temps. Le problème, c’est qu’à moyen terme, nous risquons de contribuer à accélérer un processus de légalisation de ces technologies. À l’époque de la controverse autour des révélations et des divulgations permises par Edward Snowden, on a vu apparaître en Europe des stratégies de légalisation. La Belgique, l’Allemagne, la France, le Royaume Uni, ont adopté de nouvelles législations pour blanchir les capacités de surveillance massive que leurs services de renseignements avaient développé sans encadrement juridique spécifique. Aujourd’hui, ce phénomène risque de se reproduire avec l’apparition de débats législatifs, au niveau européen ou au niveau national, pour discuter des règles destinées à encadrer ces dispositifs. Le plus souvent, la raison d’État impose sa logique et prend le pas sur la démocratie.

Nous affirmons pour le moment un refus total de ces technologies de contrôle social. Nous affirmons que la reconnaissance faciale est une technologie qui participe à une déshumanisation de nos sociétés, à une forme de contrôle social à distance extrêmement dangereuse. De plus, en ce qui concerne les lois de surveillance déjà existantes, on constate que les garanties inscrites dans le droit sont très rarement effectives et respectées en pratique.

La reconnaissance faciale est une technologie qui participe à une déshumanisation de nos sociétés, à une forme de contrôle social à distance extrêmement dangereuse.

Est-ce que vous pensez que la loi anti-haine en France ou le règlement européen antiterroriste soient des lois qui tendent à blanchir ce genre de pratiques ?

Il s’agit plutôt de questions de censure. Même si ces lois constituent aussi une forme de surveillance automatisée, mais cette fois de l’espace public numérique et des expressions publiques. Sur les grandes plateformes, nos publications sont scannées par des algorithmes de détection de contenus litigieux mis au point par des entreprises comme Google ou facebook. Nous sommes là aussi face à une forme de « gouvernementalité algorithmique », pratiquée par ces réseaux sociaux sur nos espaces d’expression en ligne.

Dans l’espace réel/public et dans l’espace virtuel/web, des pratiques de surveillance automatisées sont installées. S’agit-il d’un phénomène global ?

Les débats et les enjeux sont en partie distincts mais les logiques sont similaires: la mise en place d’un gouvernement automatisé et à distance de l’espace public, qu’il s’agisse de l’espace public numérique ou de l’espace public urbain. Et ce sont les perfectionnements de l’outil informatique à l’aulne du big data ou de l’intelligence artificielle qui permettent à ces modes de gestion et de régulation sociale de se mettre en place. Ceux-ci sont attentatoires aux grands principes du droit libéral, au sens du libéralisme politique, qui protège notamment la liberté d’expression. Normalement, quand on abuse de cette liberté, c’est à un juge judiciaire de le décider et de nous sanctionner, certainement pas à un acteur privé ou à des filtres automatiques.

Dans l’espace public urbain, peut-on concilier l’emploi de dispositifs de vidéosurveillance automatisée à échelle massive, tout en préservant un cadre libéral démocratique, dans lequel puissent s’épanouir les libertés fondamentales ? Ces technologies de surveillance se déploient dans nos villes, et on observe d’ores et déjà qu’elles sont souvent employées pour museler des formes d’expression et de mobilisation, notamment lors des manifestations. Les drones pilotés par la police française aujourd’hui semblent principalement utilisés pour vidéosurveiller les manifestations, et désormais encore plus largement pour imposer les obligations de confinement dans le cadre de la pandémie de COVID 19. Ce ne sont pas simplement nos libertés d’aller et venir et notre vie privée qui sont en péril, mais aussi certaines formes d’action collective, d’expression publique. Ce qui fait que la ville peut être un espace politique, un espace démocratique de rencontre, de confrontation à l’altérité et d’action collective.

De plus en plus de manifestants se masquent le visage. D’autre part, en ce qui concerne la surveillance des échanges sur internet, certains utilisateurs recourent à des boîtes mail cryptées ou se détournent des réseaux sociaux… Y voyez-vous une solution ou plutôt un refuge ?

Utiliser des outils cryptographiques ou refuser d’utiliser les grandes plateformes pour privilégier des alternatives décentralisées fondées sur du logiciel libre, cela ne nous immunise pas contre les systèmes de surveillance mais cela rehausse un peu leur coût. C’est clairement un enjeu. L’économie politique de la surveillance est fondamentale dans l’équilibre de la protection des libertés, cet équilibre qui a été rompu par l’informatisation massive de nos sociétés qui a fait proliférer des données tout en les rendant toujours plus faciles à collecter et à exploiter. Se masquer le visage ou utiliser des outils cryptographiques, ce sont des stratégies individuelles qui permettent de se ménager quelques marges de manœuvre pour continuer à agir politiquement. Si vraiment de très nombreuses personnes se livrent à ces stratégies, cela pourrait être une réponse collective. Mais pour le moment, c’est encore le fait d’une minorité de citoyens, souvent engagés dans la vie militante ou politique.

Après avoir beaucoup cru que la technologie pouvait permettre d’aller vers le progrès social et politique, et qu’internet pouvait participer à démocratiser nos sociétés, notamment l’environnement médiatique, j’en suis largement revenu. Au-delà de ces stratégies individuelles, l’enjeu aujourd’hui est de se rendre compte que la prolifération de l’informatique dans nos vies, dans nos sociétés, contribue à construire une société fondamentalement antidémocratique, en nous rendant dépendant de grandes bureaucraties centralisées sur lesquelles nous n’avons aucun contrôle. À mon sens, la solution relève de l’action collective, sans doute d’un changement de système politique et très certainement d’un rapport beaucoup plus critique et raisonné à la technologie.

À mon sens, la solution relève de l’action collective, sans doute d’un changement de système politique et très certainement d’un rapport beaucoup plus critique et raisonné à la technologie.

Antoinette Rouvroy6 parle d’une « hypertrophie de l’espace privé » et d’une « désertification de l’espace public au profit d’une logique sectorielle hyper-fonctionnaliste », opposant l’essence de la politique qui serait de trouver des solutions collectives, à des solutions individualisées7. Dans votre ouvrage, vous posez la question de la disparition des espaces publics. Pensez-vous que les politiques numériques tendent à affaiblir les citoyens en les isolant et en organisant la disparition des espaces publics ?

Évidemment. Antoinette Rouvroy évoque cet aspect-là avant tout à travers les formes d’individualisation, la manière dont les algorithmes personnalisés (en fonction de nos activités, de nos lectures, de nos déplacements, de nos préférences) fragmentent nos horizons, nos lectures, nos existences et à quel point cette fragmentation va à l’encontre de la possibilité d’un vivre-ensemble et d’une construction du commun. C’est tout à fait juste.

Il y a quelques années, on a vu un regain d’intérêt autour de la notion de bien commun, notamment avec l’essor des logiciels libres, d’un projet comme Wikipedia, des systèmes où les individus à distance peuvent s’unir et œuvrer à un projet commun. Mais malheureusement, à travers ces nouvelles formes de pouvoir permises par l’informatique contemporaine, il y a aussi eu une désertification de l’espace public. S’agissant de technopolice par exemple, le déploiement de ces projets techno-sécuritaires vise à mettre sous forte surveillance toute forme d’appropriation citoyenne de la ville qui ne serait pas régulée, encadrée par les pouvoirs publics. Notamment des formes d’occupation de l’espace public liées à des sociabilités populaires, ou encore à des actions militantes ou politiques.

Dans le même temps, certaines villes de France exercent des politiques de gentrification fondées sur la « requalification urbaine », comme c’est utilisé dans le langage des urbanistes, et une marchandisation toujours plus poussée de l’espace public. Plutôt que de prévoir des espaces communs qui permettent une appropriation collective, la confrontation à l’altérité et in fine l’émergence de projets collectifs, on met en avant des projets destinés aux consommateurs des grandes marques du capitalisme international. Ces logiques de dépolitisation et de privatisation très fortes se retrouvent à la fois dans l’environnement numérique et au niveau des villes.

D’une manière générale craignez-vous que la situation actuelle liée à la crise sanitaire, favorise la mise en place de dispositifs de vidéosurveillance automatisée et soit prétexte à tester tous types de dispositifs que vous essayez de combattre ?

Nous sommes évidemment très inquiets des projets dont discutent de nombreux états et de nombreuses entreprises pour lutter contre la pandémie, qu’il s’agisse de collecter des données pour savoir si les obligations quant au confinement sont respectées, ou de géolocaliser certains individus « à risque ». À l’occasion de cette crise, la surveillance est mise en avant, y compris d’ailleurs la vidéosurveillance automatisée. Plusieurs sociétés développent des algorithmes d’analyse des flux de vidéosurveillance qui promettent de détecter automatiquement des gens qui ont des températures corporelles anormales et peuvent présenter des symptômes de maladies telles que le COVID19.

Peut-être que cette crise sanitaire, le confinement généralisé et l’utilisation parallèle du numérique pour continuer à « faire société » à distance est une illustration des tendances pointées par Antoinette Rouvroy, et qu’on retrouve à divers niveaux dans nos sociétés contemporaines. Dans cette période, cette notion d’hypertrophie de l’espace privé et de désertification de l’espace public se matérialise de manière extrêmement préoccupante. Cela nous renvoie à cette société « sans contact » que permet de faire advenir la prolifération de ces technologies, du paiement « sans contact » au télétravail, la télé-médecine, les cours en ligne etc. Une société décharnée, sans corps, sans vraie rencontre. À long terme, la conséquence de cette crise sanitaire sera peut-être la banalisation de ce projet technocratique, la banalisation du désir au sein de la population d’une société où les considérations sanitaires ou hygiénistes conduiront à ce que la rencontre dans l’espace physique, si importante pour créer de l’action collective, soit rendue plus difficile et moins désirable.

Dans cette période, cette notion d’hypertrophie de l’espace privé et de désertification de l’espace public se matérialise de manière extrêmement préoccupante.

À travers les siècles, les pandémies ont été des moments où les mesures en matière de fichage des populations, de surveillance et de contrôle social de manière générale se sont largement renforcées, ont été expérimentées, perfectionnées et souvent pérennisées. Il y a un risque très fort que tous ces appareils sécuritaires contre lesquels nous nous battons se trouvent une nouvelle virginité à l’aulne de cette crise sanitaire, qu’il y ait une acceptation sociale plus grande de ces technologies de surveillance, plus simplement envisagées dans un usage sécuritaire de lutte contre la délinquance ou le terrorisme mais désormais pour garantir la sécurité sanitaire des nations. Nous devrons être vigilants, collectivement.

Propos recueillis et mis en forme par Olivier Grinnaert.

1https://technopolice.fr/

2Editions Fayard, 2019.

3Provence Alpes Côte d’Azur.

4 Grande entreprise française de l’aérospatiale et de la défense.

5 Institut National de Recherche en Informatique Appliquée

6Docteur en sciences juridiques de l’Institut universitaire européen (Florence, 2006), chercheuse qualifiée du F.N.R.S. au centre de Recherche en Information, droit et Société (CRIDS).

7Conférence au Point Culture en décembre 2019. Retrouvez la captation vidéo ici : https://www.youtube.com/watch?v=GArHYcQTuuQ&t=1009s