Big Data ou la tyrannie du réel – Entretien avec Antoinette Rouvroy

Les Big Data, nouveau champ de la modélisation sociale, prétendent capturer le réel comme tel. Antoinette Rouvroy nous explique comment la « gouvernementalité algorithmique », ce nouveau pouvoir, tente de catégoriser et d’évaluer les propensions, les opportunités et les risques que représentent les personnes.

Antoinette Rouvroy, docteur en sciences juridiques de l’Institut universitaire européen et chercheuse qualifiée au FNRS, se consacre à la philosophie du droit et à la philosophie des normes. Rattachée au Centre de Recherche Information, Droit et Société (CRIDS) à l’université de Namur, Rouvroy développe une approche interdisciplinaire ou même plutôt indisciplinaire. Son intérêt porte sur le rapport des modes de production du savoir au départ de la génétique et des technologies de l’information. Quelles sont les conceptions du sujet qui se développent en articulation avec les nouveaux modes de production du savoir et les nouveaux modes d’exercices du pouvoir ?

Selon vous, les données brutes et les Big Data permettent de créer des profils ou des modèles de comportement. Pouvez-vous nous expliquer cette problématique et les risques qui en découlent ?

Bien que les Big Data peuvent être utilisées dans d’autres domaines que celui de la modélisation sociale (par exemple dans la gestion de l’environnement ou de l’astronomie), ce qui m’interpelle, ce sont les nouvelles possibilités de catégorisation et d’évaluation des propensions, des opportunités et des risques que représentent les personnes. Il s’agit d’une nouvelle méthode pour évaluer et catégoriser les individus. Les données brutes constituent des nouveaux objets dans le paysage sémiotique – le paysage des signes et des signaux. Tout d’abord, les données brutes ne fonctionnent pas du tout comme des icônes. Elles ne font pas signe par ressemblance aux choses auxquelles elles sont censées faire signe. Une donnée brute ne ressemble à rien. Elle est très souvent « anonymisée », désindexée et décontextualisée. Elles sont également ininterprétables et fonctionnent comme un pur signal quantitatif, agrégeable à un niveau supra-individuel sous forme de profil (modèle de comportement). Ensuite, bien que l’on parle souvent de traces numériques, les données brutes ne fonctionnent pas non plus comme des traces. Je pense que c’est une métaphore trompeuse car une trace, au regard des théories sémiotiques, se définit par le fait qu’elle retient, comme une empreinte, la marque d’un contact physique avec la chose pour laquelle elle fait signe. Or, une donnée brute n’a aucune mémoire dans sa forme et ne garde aucun passage ni aucun contact avec un corps ou même avec un mouvement que nous aurions pu faire. De plus, elles ne fonctionnent pas non plus comme un signe conventionnel, ni comme un symbole dans la mesure où les symboles – comme par exemple, les signaux routiers – tirent leur signification d’une convention antérieure. Enfin, les données brutes n’émergent pas non plus de la nature mais sont produites grâce à des processus sophistiqués d’anonymisation, de désindexation et de décontextualisation. Ce sont des données qui sont par la suite expurgées de toute signification singulière et de tout lien avec ce qui pourrait les rattacher à un sens intelligible pour l’être humain.

En ce qui concerne les Big Data, elles ne sont pas constituées uniquement de données brutes. Les Big Data forment un ensemble de données de différentes natures. Il y a les données brutes, comme caractérisées ci-dessus mais aussi les données à caractère personnel relatives à des individus identifiés ou identifiables, les données de localisation, les images, les sons, les trajectoires et toutes sortes de données extrêmement complexes. On parle aussi des données qui émergent de l’administration – Hard Data – et celles issues des réseaux sociaux – Soft Data.

Les Big Data enflent à très grande vitesse et constituent des quantités immenses, stockées dans des entrepôts de données traitées en temps de réel. On fait référence aux Big Data à partir du moment où l’on franchit un certain seuil de complexité et de vitesse. Ces quantités seront encore plus importantes à partir du moment où se développera l’Internet des objets.

Quantité, vélocité et complexité. Comment traiter à la fois des images, des sons et des trajectoires ? Nos méthodes traditionnelles de traitement des bases de données ne sont plus adéquates. Nous sommes aujourd’hui forcés d’automatiser la production de savoir à partir des données brutes et d’accélérer la transformation de ces données en information ou en savoir. Ce sont les algorithmes qui permettent d’automatiser la production de savoirs, d’informations et de modèles au départ de bases de données gigantesques et extrêmement complexes. Comment fonctionnent ces algorithmes utilisés spécifiquement dans les applications de ce que l’on appelle les data mining – le forage des données ou d’exploitation des données, le profilage et la fabrication de modèles relativement prédictifs au départ de données ? On fait tourner des algorithmes dont le travail consiste à détecter des corrélations entre des données recueillies dans des contextes hétérogènes. Le but est de faire surgir des profils ou des modèles de comportements qui seront prédictifs dans la mesure où ces corrélations sont récurrentes, indépendamment de toute notion de cause. On passe des ambitions de la rationalité moderne qui liait les phénomènes à leurs causes à une sorte de rationalité post-moderne purement statistique qui vise à faire émerger ou à faire visualiser – la visualisation des données – des corrélations entre des données tout à fait hétérogènes qui ne sont liées par aucune forme de causalité. Plus on a de quantités massives de données, plus on peut parvenir à des prédictions de comportement relativement fines. C’est donc la quantité qui assure la validité des modèles plutôt que la validité du modèle a priori. D’ailleurs, le modèle ne pré-existe pas à la collecte et au traitement des données. Autrement dit, dans le cas du data mining, des hypothèses sur le monde ne pré-existent pas au traitement des données. Ce sont plutôt les algorithmes qui feront surgir des hypothèses et des modèles.

C’est par rapport à ce constat que vous introduisez la notion de gouvernementalité algorithmique.

Ce sont surtout des dispositifs qui nous dispensent de toute une série d’opérations mentales sur la vérité et qui nous dispensent de devoir comprendre les causes des phénomènes puisqu’ils prétendent prédire la survenance de choses que l’on redoute ou de choses que l’on souhaite sans s’intéresser à leurs causes. Ces dispositifs seraient capables de prédire à la fois des actions terroristes mais également le passage à l’acte d’achat. Ils promettent de pouvoir gérer ce qui n’est que de l’ordre de la potentialité, du possible, de l’avenir sans avoir à interroger les causes des phénomènes, sans avoir à interroger les personnes sur ce que sont leurs préférences ou leurs choix. L’idée est de se dispenser de toute forme de rencontre et de gérer la fluidité en temps réel. Il s’agit d’une manière de gouverner qui nous dispense de prendre des décisions par nous-mêmes. Les gouvernants, les entreprises, les policiers sont écartés. On va s’en remettre de plus en plus à ce que l’on appelle des « algorithmes de recommandation » qui ne prennent pas nécessairement la décision pour nous mais qui nous recommandent de nous diriger vers une direction précise.

Il n’est pas étonnant de constater que ce modèle soit de plus en plus appliqué à la sécurité…

Il existe une idéologie des Big Data qui les présente comme la solution à tous les problèmes. C’est le solutionisme de la Silicone Valley. Depuis le 11 septembre 2001, les coûts du personnel de sécurité dans les aéroports ont augmenté très significativement et représentent une charge financière assez importante pour les états. À partir du moment où l’on peut automatiser la détection et l’évaluation anticipative des risques, il est certain qu’il y aura une tentation de remplacer le personnel de sécurité par des machines. Il existe un réseau d’intérêts convergeant vers une utilisation intensive de ces dispositifs. Ceux-ci sont présentés comme une méthode beaucoup plus rationnelle que l’évaluation humaine dans la mesure où l’on pense qu’un algorithme est aveugle aux préjugés racistes, de genre, etc. Les algorithmes ne recouperaient aucune catégorisation socialement éprouvée et paraîtraient beaucoup plus objectifs. C’est une promesse à la fois de rationalisation mais aussi d’accélération. Cela permettrait de transformer les aéroports en des lieux commerciaux sans zone de transit où l’on pourrait faire passer les contrôles de sécurité uniquement aux personnes qui seraient désignées à risque par les algorithmes. Il y a à la fois un rêve de plus grande fluidité, d’économie de personnel et d’objectivation. Les industriels de la sécurité se sont saisis de ces dispositifs et les vendent comme étant la garantie de la sécurité absolue. On sait par ailleurs que ces dispositifs ne sont pas exempts de biais. Ce sont de véritables boîtes noires dans lesquelles les biais ne sont pas nécessairement visibles. De plus, ces dispositifs dans le domaine de la sécurité sont parfois importés de zones géographiques en guerre. Par exemple, Israël exporte ces techniques vers les Etats-Unis et l’Europe. Or ces dispositifs (les algorithmes) ont été fabriqués dans le contexte du conflit Israélo-Palestinien.

Il y a un embarquement de toute une série de valeurs et de vision du monde dans la technologie elle-même et, une fois que ces dispositifs sont vendus comme des boîtes noires à l’étranger, nous pensons naïvement que ces biais disparaissent complètement au profit de l’objectivité.

Oui, et puis, de toute façon, il ne faut pas oublier que les algorithmes sont conçus par des êtres humains et ne peuvent donc de toute façon être objectifs…

Oui, bien entendu, mais les évolutions récentes vont vers ce que l’on appelle le machine learning ou l’apprentissage par les machines elles-mêmes. L’idéal étant que les machines auto-apprenantes puissent apprendre de leurs propres erreurs et s’auto-corriger. Leurs critères de sélection des éléments pertinents afin de déterminer un risque échapperont à leur concepteur. IBM appelle cela l’autonomic computing, un modèle de parc informatique qui se gérerait lui-même et qui pourrait détecter le risque d’attaque, s’adapter à l’environnement et se corriger lui-même. On s’est rendu compte qu’on allait rapidement avoir un manque d’informaticiens pour entretenir tout ce matériel qui se multiplie et qui se diversifie à une vitesse folle. Le matériel devient surabondant par rapport à une main d’œuvre d’entretien insuffisante. Il y a une nécessité que les machines deviennent de plus en plus autonomes. La vision de l’armée américaine en matière de résolution de conflits armés va un peu dans le même sens. L’idée étant qu’on envoie des drones suffisamment autonomes pour faire face à d’éventuelles coupures des communications. Les drones autonomes seraient plus moraux que les humains dans la mesure où ils ne craindraient pas pour leur vie et ne seraient animés par aucune haine.

data

« data.path Ryoji.Ikeda – 2 » by r2hox is licensed under CC BY-SA 2.0

La gouvernementalité algorithmique se distingue d’un mode de pouvoir dont la contrainte est intériorisée (Foucault). Quelles sont les nouvelles « tactiques » employées par cette nouvelle manière de gouverner ?

La gouvernementalité algorithmique est un mode de gouvernement nourri essentiellement par des données brutes et qui affecte le comportement des individus sur le mode de l’alerte ou du stimulus provoquant du reflex plutôt que de la réflexivité. Par exemple, dans le domaine du marketing, on va attirer votre attention sur certaines choses. On va vous envoyer des publicités ciblées. Ces nouvelles pratiques qui ont notamment été décrites par le chercheur américain Ryan Calo (digital market) permettent de détecter le moment où le consommateur et/ou l’internaute sera le plus susceptible, subjectivement, de cliquer sur un type de publicité. Notre capacité de résistance à des offres ou à des tentations s’émousse au fur et à mesure qu’on s’en sert au cours de la journée. En suivant votre trajectoire (votre activité en ligne) sur votre ordinateur, les neuromarketers sont capables de détecter le moment précis où vous serez le plus enclin à cliquer sur une publicité. Un autre exemple, c’est ce qu’on appelle le dynamic pricing qui est notamment utilisé par certaines compagnies d’aviation low-cost et qui permet de détecter parmi les clients captifs comme, par exemple, ceux qui doivent impérativement voyager entre Bruxelles et Genève le lendemain. Les compagnies peuvent ainsi pister votre activité en ligne et sont en mesure d’adapter les prix en fonction des autres compagnies concurrentes dont vous avez également visité les sites web. Si vous devez voyager de toute urgence, ils vont augmenter les prix uniquement pour vous. Ayant peur que les prix continuent à augmenter, votre réflexe sera d’acheter immédiatement un billet. On vous vend des dispositifs de personnalisation de l’offre.

Ce gouvernement a pour cible privilégiée non pas l’actuel, non pas ce que font les individus, ni leur passé et ce qu’ils ont fait mais le potentiel : ce que les corps pourraient faire

Ce gouvernement a pour cible privilégiée non pas l’actuel, non pas ce que font les individus, ni leur passé et ce qu’ils ont fait mais le potentiel : ce que les corps pourraient faire. Ce que vous pourriez faire. Si l’on compare ce mode de gouvernementalité à l’évolution de la gouvernementalité telle que décrite chez Foucault, ce qui a pris la place de la peste, de la lèpre, de la maladie mentale, ou de la mendicité, c’est l’incertitude comme telle. L’incertain pour l’incertain à savoir le mode conditionnel de ce que peuvent les corps. La puissance des sujets et la potentialité des individus deviennent la cible. La résistance ou la récalcitrance à ce mode de gouvernement est très difficile à organiser parce que, précisément, personne ne se sent visé. On ne vise plus aucune catégorie socialement éprouvée : ce ne sont plus les noirs, les femmes ou les juifs mais le potentiel comme tel. L’objectif gouvernemental est de faire en sorte que certaines choses n’arrivent pas ou que d’autres arrivent. Dans le domaine du marketing qui est un domaine où cela se développe le plus fortement aujourd’hui, l’objectif est que les individus aient le moins de temps ou de recul possible pour revoir leurs préférences. Cela fonctionne sur le mode de l’exploitation de l’addiction. La gouvernementalité algorithmique ne connaît aucune limite et aucune norme. Les notions de raisonnabilité disparaissent complètement.

Cette manière de gouverner n’aurait pas de précédent dans l’histoire ?

À mon sens, c’est à la fois quelque chose de tout à fait neuf et à la fois un prolongement du néolibéralisme. L’idéal néolibéral est de gouverner le moins possible et de faire en sorte que le réel numérisé se suffise à lui-même. En quelque sorte, ce gouvernement de la personnalisation vise à ce que l’individu devienne sa propre norme statistique et que ce soit le réel numérisé lui-même, par le biais d’algorithmes, qui finisse par se gouverner sans que les gouvernants aient à prendre encore la moindre décision ou orientation politique. Cela correspond très bien à cette idée libérale ou néolibérale de quasi absence de gouvernement. Un désinvestissement de tout ce qui relève de la sphère institutionnelle symbolique. C’est aussi une intensification du néoliberalisme dans la mesure où cette gouvernementalité algorithmique ne repose sur aucun sujet. La notion de sujet individuel disparaît complètement au profit de réseaux de données ou de points de localisation dans des tables actuarielles. Les données brutes sont une sorte d’éclatement et de fragmentation de la vie quotidienne dématérialisée. On parle de double numérique mais c’est une notion totalement fausse. Nous n’avons aucun double numérique. Nous ne comptons que comme agrégats temporaires de données qui sont elles-mêmes agrégeables ou exploitables en masse à l’échelle industrielle. Pour la gouvernementalité algorithmique, il n’y a pas de sujet mais des fragmentages infra-individuels de données qui ne sont plus des données à caractères personnel puisqu’elles sont anonymisées. Quant aux modèles, ils sont eux supra-individuels à savoir des profils qui ne sont jamais des personnes. Chaque individu peut avoir différents profils qui sont évolutifs en temps réel mais aucun ne lui correspond totalement. Il s’agit d’une hyper-fragmentation des individus qui peuvent être mis en concurrence les uns avec les autres à l’échelle quasiment moléculaire. Dans ce sens-là, la notion même de sujet ou d’individu ne fait absolument plus barrière à l’hyper-exploitation y compris du temps de sommeil disponible ou de l’attention. On ne peut même plus opposer l’intégrité de sa vie à la surexploitation de la moindre parcelle d’existence. À mon sens, cela accentue le néolibéralisme.

En même temps, l’effacement du sujet  pourrait sembler paradoxal avec la notion même de libéralisme.

Oui, effectivement. La notion de libéralisme présuppose comme unité fondamentale le sujet soi-disant rationnel, autonome, égoïste. Ici, on est complètement à l’opposé. Nous nous en éloignons assez radicalement et c’est ce qui est très nouveau par rapport à la notion de discipline foucaldienne. L’individu ne doit plus se conformer à aucune norme car cette gouvernementalité apparaît comme absolument anormative. Il s’agit d’un système dans lequel les individus se sentent complètement libres car ils n’internalisent aucune norme dont ils auraient pris connaissance a priori puisque les normes ou les modèles de comportement doivent émerger eux-mêmes des masses de données en temps réel et ne président pas à la récolte des données. Il n’y a aucune intériorisation de la norme et ces dispositifs ne visent aucunement à la réforme psychologique des individus. Autrement dit, à les rendre « normaux ».

On est exactement à l’opposé de la discipline foucaldienne : il ne s’agit plus de rendre les corps dociles par rapport aux normes mais de rendre les normes dociles par rapport aux corps

On est exactement à l’opposé de la discipline foucaldienne : il ne s’agit plus de rendre les corps dociles par rapport aux normes mais de rendre les normes dociles par rapport aux corps. Quoi qu’il arrive, quelque soit la sauvagerie des faits, les modèles ou les profils s’adaptent à tout ce qui peut survenir dans le monde. Si vous vous écartez radicalement par vos comportements d’un profil qui vous a été assigné, cela ne va jamais être inscrit comme une erreur ni comme un échec de la part du système. Au contraire, chaque écart permettra d’enrichir la base statistique pour mieux vous profiler la prochaine fois. Plus ça rate, plus ça réussit. C’est un mode de fonctionnement tout à fait viral. Plus on s’en sert, plus ça s’enrichit et ça devient opérationnel. On ne peut dès lors jamais mettre ce système en défaut puisqu’il est évolutif en temps réel. Il s’agit d’une sorte de clôture du numérique sur lui-même qui ne se laisse plus provoquer par la liberté des êtres humains puisque cette liberté quels que soient les actes qui sont posés, conformes ou récalcitrants à la modélisation, vont en fait servir à mieux modéliser.

Vous soulignez qu’il faut voir ce qui se joue au-delà de la question de la protection des données à caractère personnel. Pour vous, la vraie problématique concerne la question du « profilage, de la personnalisation, de l’hypertrophie de la sphère privée, de la paupérisation de l’espace public, de la prédation par des sociétés privées des espaces eux-mêmes privés des internautes 1».

Il y a une hypertrophie de la sphère privée à partir du moment où l’on personnalise l’environnement et votre expérience de la vie. Cette promesse de réponse par anticipation sur l’expression des désirs provoque un gavage des individus. Ces systèmes nous promettent de détecter en temps réel les bons critères de désirabilité et donc d’arbitrer pour nous au détriment du débat politique. Les machines proposent de faire ce travail politique. Vous êtes constamment dans une sorte de bulle personnalisée qui, à terme, risque de vous priver de ce qui constitue une expérience commune : être confronté à quelque chose qui n’a pas été prévu pour vous. Ce qui est l’expérience même de la rencontre politique et du débat.

L’idéologie qui découle des Big Data est le rêve d’un accès immédiat au réel où l’on évite toute forme de représentation. Les Big Data se présentent comme une solution radicale à la crise de la représentation, y compris à la crise de la représentation politique. C’est le rêve d’un accès immédiat au réel qui n’aurait même plus besoin de passer par le langage. Les Big Data se définissent comme relativement exhaustives, comme étant la numérisation de la vie même. C’est comme si on touchait enfin le réel comme tel. Ce n’est même plus le rêve d’un réalisme. C’est le réel sans la représentation. S’il n’existe plus de représentation, il n’y a plus d’espace politique. Nous n’avons besoin d’un espace politique que parce que nous avons besoin de nous représenter les choses y compris par le langage. Et comme nous avons tous des représentations différentes des choses, nous devons confronter ces points de vue différents. C’est à ça que sert l’espace public ! Un espace dans lequel on puisse délibérer de la chose publique. Les Big Data, cette promesse d’objectivité en temps réel, promet de pouvoir se passer de la délibération et de toute forme de médiation. Il y a donc deux aspects : l’hypertrophie de la sphère privée et la réponse donnée par les Big Data à la crise de la représentation politique. Cette réponse est tout à fait radicale puisqu’elle nous dit : « il n’y a plus rien à représenter puisque nous sommes le réel ».

Y a-t-il, selon vous, un accaparement du pouvoir par les algorithmes ?

Les algorithmes ne sont ni bons ni mauvais. Ils n’ont pas de volonté propre. Par contre, je pense qu’il y a une très grande paresse dans notre société qui fait que les gouvernants ont tendance non plus à prendre des décisions sur base de valeurs qu’ils défendraient mais plutôt à prendre des décisions en se réfugiant derrière des chiffres. Des chiffres qui ne sont rien d’autre qu’une représentation particulière du réel, c’est-à-dire les faits. Les faits n’ont aucune valeur en eux-mêmes. Aujourd’hui, je trouve qu’il y a une sorte de confusion entre ce qui est un fait et ce qui est bon et c’est tout le problème de la tyrannie de l’économie qui est accélérée par les algorithmes. On considère que ce qui est dans les faits doit être dans le droit et qu’il faut être réalistes en politique et suivre l’économie. Ceux qui ont des choses à décider ne veulent plus être incombés de cette charge car une décision est un geste qui peut rater. Pourtant, il n’y a que l’incertitude qui donne de la dignité à la décision. La cible principale sinon exclusive de cette gouvernementalité algorithmique est l’incertitude comme telle que l’on veut éradiquer en suspendant les effets de l’incertitude. La nécessité de devoir prendre des décision en situation d’incertitude disparaît aujourd’hui tout comme la notion d’autorité au sens d’ « être auteur ». Dans le cas des politiciens ou des décideurs au sens large, être auteur de la décision ce serait ne pas suivre aveuglément une recommandation faite par un algorithme mais plutôt de décider en situation d’incertitude, sachant qu’on peut se tromper et qu’on aura des comptes à rendre. Ce que nous n’acceptons plus aujourd’hui – et que l’on fait assumer par des algorithmes – c’est le risque de l’erreur.

Les politiques se tournent de plus en plus vers cette manière de gouverner ou de ne pas gouverner ?

Ce qu’ils veulent, ce sont tous les avantages en nature et tous les avantages symboliques de la fonction mais sans pour autant assumer la fonction. La gouvernenmentalité algorithmique n’est qu’un symptôme aigu. Le problème le plus important, c’est la soumission de la politique et du droit à l’économie d’une part, et la soumission de l’économie à la finance d’autre part. Nous sommes en plein dans une tyrannie du réel. C’est le réel, le monde qui, soi-disant, voit des signaux neutres qu’il suffit de capter et de calculer le plus rapidement possible de manière à faire décider les machines au lieu de décider nous-mêmes. Quelles que soient les applications qu’on en fasse, que ce soit dans le domaine de l’orientation professionnelle, dans le domaine de la sécurité, du marketing ou même dans le domaine médical, on vit une passion pour le réel comme tel et un refus de prendre des décisions. De plus, l’accélération des flux devient incontournable. Amazon a récemment breveté un logiciel qui leur permettrait d’envoyer les marchandises vers ses clients avant même que ceux-ci aient pu cliquer sur « j’achète ». On va aussi cibler les petits enfants dès la maternelle pour reconnaître leurs prédispositions aux mathématiques, aux langues, etc. de manière à leur éviter de perdre une année. Le temps de vie doit être maximisé. Nous n’avons plus de temps à perdre dans aucune forme de médiation. Le temps réel exige aussi que l’on court-circuite le temps de la discussion et de la délibération politique. C’est la passion pour le réel.

Est-ce que l’on constate pour autant une préoccupation grandissante par rapport au développement effréné des algorithmes ? Par exemple, même les révélations d’Edward Snowden ne semblent pas toujours alerter l’opinion publique.

Justement, j’écoutais une conférence que donnait Alain Badiou et qui expliquait la signification du mot « scandale ». Le scandale est la validation a contrario de l’ordre ordinaire. Quand on dit que quelque chose est un scandale – « le scandale de Snowden » – cela apparaît comme exceptionnel mais en fait ce n’est pas exceptionnel. Le scandale ou l’exception constitue la norme. On en a fait un événement particulier qui isole ce fait comme si c’était un accident et qu’il ne faut pas trop s’en faire car mis à part cet accident ou quelques autres, « tout va bien Madame la Marquise ».

Par ailleurs, nous sommes dans une société hautement individualiste dans laquelle les personnes ne se sentent pas menacées directement. Il faut leur parler de leur vie privée car on pense que ça leur parle. Par contre, dans le contexte du data mining et du profilage, il s’agit de données anonymes. On peut vous profiler très précisément sans avoir recours à aucune donnée à caractère personnel vous concernant. En fait, les juristes et les instances européennes, en particulier la Commission européenne dans son projet de règlement sur la protection des données à caractère personnel, nous encourage ou nous enferme dans cette vision selon laquelle ce qui compte ce sont les droits individuels : « On va protéger vos données et l’on va vous donner le droit de consentir par rapport à l’usage de vos données à caractère personnel ». C’est évidemment une très mauvaise vision car, comme je vous le disais, nous faisons face à une hypertrophie de la sphère privée et ce repli de l’individu sur lui-même, encouragé par le droit et par la culture libérale, nous empêche de percevoir les enjeux structurels. Il existe des tentatives de récalcitrance du côté des hackers qui visent notamment à brouiller les pistes en envoyant des requêtes ou en entourant les mots-clés dans un nuage d’autres mots-clés de façon à ne pas être tracé. Mais ces solutions sont relativement élitistes car tout le monde n’y a pas accès et n’a pas le temps ni les capacités d’utiliser ces dispositifs de brouillage qui ne font qu’entraîner la machine de surcroît. On rendrait un grand service aux dispositifs de profilage en les entraînant à distinguer les vraies des fausses requêtes.

Il y a un mouvement qui vise plutôt à revendiquer la transparence des algorithmes. Comme je le soulignais ci-dessus, les algorithmes sont comme une boîte noire : on sait plus ou moins ce qui y entre et on voit ce qui en sort mais on ne sait pas comment ça se bidouille à l’intérieur. C’est très difficile de rendre ça transparent car, d’une part, les algorithmes sont protégés par le secret industriel ou alors le secret d’Etat (dans le cas des applications sécuritaires) et, d’autre part, il y a des obstacles techniques qui sont très compliqués à résoudre. Les algorithmes combinent différents types de logiques de gestion de base de données qui sont imbriquées et les données elles-mêmes sont très complexes et diversifiées. Essayer de mettre les algorithmes à l’épreuve et de comprendre comment elles peuvent produire de la discrimination s’avère être une opération très compliquée à entreprendre.

Que pensez-vous alors d’avoir recours, à un niveau individuel, soit à la cryptographie ou alors aux bons gestes et aux bons usages pour éviter d’être tracé ?

La cryptographie répond à un problème de sécurité des communications dont le but est de pouvoir communiquer avec une autre personne sans que le contenu du message puisse être lu. Cela ne répond pas aux enjeux du profilage car, pour le profilage, l’importance est de savoir que votre ordinateur communique avec d’autres ordinateurs sans se préoccuper du contenu. Comment la cryptographie peut-elle nous aider à ne pas être trop profilé ? La réponse n’est pas simple car la cryptographie peut nous aider à être anonyme et sa manière d’y parvenir est d’ajouter, en quelque sorte, des données. Plus on ajoute des données, plus vous êtes facilement profilable. Il y a peut-être un paradoxe qui veut que plus vous êtes anonyme, plus vous êtes profilable. Il faut trouver une sorte d’optimum. Les solutions techniques ne sont réellement pas évidentes. Par contre, les bonnes pratiques moi je n’y crois pas. Il y a une tendance à vouloir éduquer les utilisateurs. On s’est rendu compte en faisant des études notamment à l’Université de Namur sur les pratiques des jeunes sur Internet qu’ils étaient beaucoup plus avertis que nous le pensions quant aux enjeux de protection de leur vie privée. De plus, je crois que l’exposition de soi sur les réseaux sociaux joue aujourd’hui un rôle tout à fait important d’autant que nous sommes de plus en plus anonymes dans les espaces publics. Je fais notamment référence à une veille description de Walter Benjamin à propos de l’intérieur bourgeois du XIXe siècle. Ces intérieurs étaient farcis de signes de leur propre univers. Walter Benjamin nous explique que si les bourgeois du XIXe siècle saturaient leur intérieur des traces de leur existence terrestre c’était avant tout pour se consoler d’anonymat dans l’espace public. Aujourd’hui, si nous saturons nos espaces numériques de traces de nous-mêmes c’est en lien direct avec la désertification de l’espace public. Nous avons besoin d’espace public. Il s’agit d’une forme de consolation. Ce qui a remplacé l’intérieur bourgeois, ce sont les blogs, Facebook, les autres réseaux sociaux. Je ne suis pas non plus adepte du jugement moral un peu hâtif sur l’exhibitionnisme car s’il s’agissait d’exhibitionnisme cela resterait un comportement très minoritaire. Or il est absolument majoritaire et nous montre bien l’acuité du problème de la disparition de l’espace public.

Propos recueillis par Aurélie Ghalim

1. [Pierre Alonso, « Big Data is algorithming you », Article11]