Un média indépendant en accès libre, sans publicité, animé par sept journalistes, a besoin du soutien de ses lectrices et lecteurs. Faites un don à Basta ! En passant par J’aime l’info, un don de 50 euros ne vous coûte que 17 euros.

Avancement de la campagne : 29399 € sur 100000 € !

29.4%

À lire sur Rue 89

« Au moins, dans un système totalitaire, on sait à quoi on a affaire »

  • Ajouter
  • Imprimer
  • Partager sur Delicious
  • Partager sur Google+

La loi sur le renseignement prévoit des algorithmes pour détecter les comportement suspects. Une « idéologie du big data » qui risque de nous pousser à nous autocensurer, prévient la chercheuse Antoinette Rouvroy.

Rue89 : Le gouvernement français a présenté le 19 mars un projet de loi sur le renseignement. L’un des volets de ce projet de loi est d’installer sur le réseau français des équipements de traitement de données, dans lesquels des algorithmes vont tourner pour détecter des comportements, le but étant d’identifier des terroristes potentiels. Ça vous inspire quoi ?

Antoinette Rouvroy : Ça m’inspire beaucoup de choses. Pas toutes très positives.

Tout d’abord, c’est l’idée que grâce au calcul, grâce à l’analyse des données en quantité massive, grâce au big data, on va pouvoir vivre dans un monde non-dangereux, dans le sens où ce monde aurait été expurgé de trois sources principales de l’incertitude radicale.

D’une part, la subjectivité, que l’on éradique avec l’automaticité. On substitue une sorte d’objectivité machinique à la subjectivité humaine du surveillant, du contrôleur, du policier, de l’agent de sécurité, qui est toujours trop biaisée, trop partiale, et qui est liée au fait que l’observateur humain, lui, a un corps, placé dans une certaine perspective, qui est sous le joug de la représentation humaine. L’idée est que grâce au big data, on pourra se passer de cette représentation et accéder au réel directement. C’est le réel qui va parler de lui-même : les terroristes vont se trahir par leurs propres données, sans qu’on ait vraiment à traduire leurs motivations, les causes de leurs actions...

Ensuite, la sélectivité. L’une des causes de notre impression d’incertitude est que l’on a toujours une perception sélective des événements : on ne peut avoir qu’une vision partielle des choses. Or, cette sorte d’idéologie du big data promet une prétendue absolue non-sélectivité qui permettrait d’épuiser tous les possibles.

C’est la définition même de la préemption. Qui n’a rien à voir ni avec la prédiction, ni avec la prévention. « Pré-dire », c’est dire par avance ce qu’il va se passer. La préemption, c’est agir par avance sur tous les possibles, sans se soucier des causes. Pas de prévention. On éradique directement. Ce sont par exemple les frappes des drones en Afghanistan.

La troisième cause d’incertitude radicale qu’on voudrait éradiquer, c’est précisément cette virtualité. Le fait que le présent tremble toujours d’un devenir, qui est bien réel sans être actuel. L’idée de la préemption, c’est précisément d’actualiser ce virtuel. De faire comme si le virtuel était déjà réel.

Les gens qui font du big data sérieusement vous diront que tout cela, c’est faux ; que les données brutes sont fabriquées, et qu’il y a de nombreux biais.

Ce projet de loi est donc exemplaire de ce fantasme de maîtrise de la potentialité. Alors que cette potentialité, cette part d’incertitude radicale inhérente à l’existence, autrefois, on la gérait autrement : par exemple, par des dispositifs de solidarité, de mutualisation des risques, par des calculs de probabilité qu’on abandonne aussi. Ce que prévoit ce projet de loi, c’est tout autre chose que la probabilité.

Du coup, forcément, l’idée même de proportionnalité de la récolte des données par rapport à l’objectif n’est plus posée. L’objectif, c’est de réaliser la logique absolue de la sécurité, par avance. Et cette logique absolue ne peut pas être mise en balance avec quoi que ce soit d’autre.

Le terrorisme, c’est le cataclysme et le cataclysme, c’est incommensurable.

Alors même qu’il y a eu des jugements, notamment de la Cour de justice des communautés européennes, qui dit justement que collecter les données de tout le monde, y compris en vue de faire respecter la loi, c’est tout à fait excessif.

Le projet de loi encadre un peu l’utilisation de ces équipements, ne la permettant qu’à des fins de prévention du terrorisme. Le problème, c’est que techniquement, il n’y a rien qui permette de s’assurer que ces « boîtes noires » ne seront pas utilisées pour autre chose...

Lire l'article

Vidéos

  • Artisanat « Un métier n’est pas là pour vous emprisonner mais pour vous rendre libre »

    Voir la vidéo

Voir toutes les vidéos