Catégories
Portraits

Olivier Tesquet : « Ce qui m’intéresse dans la technologie, c’est son rapport au pouvoir »

Depuis 10 ans, le journaliste Olivier Tesquet s’intéresse aux questions de surveillance numérique. Passé par le média Owni, où il a collaboré avec Wikileaks, il continue d’explorer la thématique pour le magazine Télérama. En pleine pandémie de Covid-19 et alors que de nombreux pays ont mis en place des outils de traçage et de contrôle des malades, il publie un livre intitulé État d’urgence technologique (Éditions Premier Parallèle), dans lequel il dresse un panorama inquiétant pour nos libertés publiques.  

RAS : Vous sortez un nouveau livre intitulé État d’urgence technologique. Pourquoi la crise du Covid-19 a-t-elle pu intensifier mais aussi rendre plus visible la question de la surveillance? 

O. T : Je parle d’ “état d’urgence technologique” car c’est un terme auquel on a fini par s’habituer. Il sera probablement prorogé jusqu’à ce qu’on sorte de la crise, puis pérennisé dans le droit commun. C’est le nom que je donne à cet écosystème qui est à la fois lié à ces états d’urgence sécuritaire et sanitaire, mais qui est aussi moins borné dans le temps et l’espace que ceux-ci. Toutes les dynamiques que je décrivais dans mon livre précédent À la trace, – la militarisation de l’espace public, la banalisation de dispositifs de surveillance particulièrement intrusifs jusque dans le domicile, la biométrie…- déployées au nom d’impératifs sécuritaires avant le Covid-19 ont été détournées pour être déployées à des fins sanitaires pendant la pandémie. Ce qui montre d’ailleurs que les crises sanitaires sont de forts moments de normalisation, plus encore que les crises sécuritaires et notamment la lutte contre le terrorisme. 

Etat d’urgence technologique (2021, Editions Premier Parallèle)

Avec la pandémie mondiale de Covid-19, tous les dispositifs de surveillance deviennent plus visibles. Un certain nombre d’entreprises qui jusque-là évoluaient plutôt sous la surface en traitant des marchés purement sécuritaires réorientent leurs technologies pour essayer de gagner des marchés sanitaires. Les exemples les plus spectaculaires sont ceux de Palantir et NSO, deux têtes de pont de cette économie de la surveillance mondiale. 

Palantir est une société américaine fondée après le 11 septembre 2001, grâce au fond d’investissement de la CIA, qui vend sa capacité à mouliner des données à la fois à de très grandes entreprises mais aussi aux services de renseignement du monde entier. NSO est une entreprise israélienne qui vend des logiciels espions à tout un tas de régimes pas forcément très recommandables, qui permettent ensuite d’espionner des journalistes, des défenseurs des droits humains, des avocats etc.

Ces deux entreprises, à la faveur du Covid-19, ont essayé avec des fortunes diverses de se positionner comme des acteurs incontournables de la résolution de la crise sanitaire. Aujourd’hui aux États-Unis, c’est Palantir qui est chargé d’ordonner la logistique de la politique de vaccination. NSO a essayé, en Israël, mais aussi à l’étranger, de vendre une sorte de tableau de bord qui permettait de construire un score de contagiosité des personnes, pour ordonner leur place dans l’espace public. 

Dans votre nouveau livre, vous dressez une liste des expérimentations et systèmes de surveillance mis en place pour suivre les malades, contrôler qu’ils respectent leur quarantaine, vérifier la distanciation sociale… En Chine, en Russie ou encore en Israël, la surveillance est très impressionnante (habitants géolocalisés, malades suivis grâce à reconnaissance faciale…). En France, on en est loin, mais observe-t-on un risque croissant pour nos libertés ?

Ça me semblait important d’avoir ce panorama mondial, pour montrer qu’on avait quand même une lame de fond provoquée par le Covid-19. Si l’on s’arrête sur le cas de la Chine, ce qui est intéressant c’est qu’elle est systématiquement présentée comme le repoussoir en matière de surveillance, car c’est la dictature technologique par excellence. Il suffit de voir comment le gouvernement chinois traite la minorité ouïghour au Xinjiang, avec des outils technologiques extrêmement puissants et de la reconnaissance faciale à tous les étages.

« [StopCovid] crée une accoutumance qui a tendance à affaiblir notre système immunitaire face au déploiement de technologies beaucoup plus intrusives. »

Et dans le même temps, alors qu’on réfléchit à un hypothétique retour à la normale, on songe à déployer tout un tas de dispositifs, qui ne sont pas si éloignés de ce qui se pratique en Chine. Ce sont des régimes politiques très différents et donc avec des garanties qui ne sont évidemment pas les mêmes, mais quand on songe à mettre en place des passeports sanitaires avec un code couleur qui permettrait de réguler et d’ordonner la circulation dans l’espace public, comme certains parlementaires songent à faire en France, ça me fait penser à ce qui a été mis en place dès le mois de mars en Chine. 

L’application chinoise Alipay mesure la contagiosité des habitants de plusieurs villes chinoises, assortie d’un code couleur. Vert, ils peuvent se déplacer librement. Jaune, ils doivent rester chez eux pendant sept jours. Rouge, une quatorzaine est obligatoire.

Quasiment tous les pays dans le monde ont développé des outils de contact tracing numérique, avec des degrés de prédation qui ne sont pas les mêmes. Je remarque par exemple qu’en France, quand on a lancé StopCovid, on a beaucoup cité l’exemple de Singapour. Or à Singapour – qui est par ailleurs un petit territoire, avec peu d’habitants et déjà extrêmement surveillé – l’application de tracing a eu du mal à convaincre les gens et à avoir un taux d’installation suffisamment important. L’application est en train de devenir obligatoire et les données sont maintenant également utilisées dans des enquêtes criminelles. 

Dès lors qu’on calcule la distance entre les individus, qu’on essaie de trouver leur place dans l’environnement, ça pose et va poser un certain nombre de questions pour l’après Covid-19. Car on ne sera pas tous égaux dans la libre circulation, dans la mesure où on ne va pas tous être vaccinés à la même vitesse. Avec la possible émergence d’un passeport sanitaire, on risque de créer des disparités entre certaines catégories de populations. Mais l’application Tous Anti Covid n’est pas ce qui m’inquiète le plus aujourd’hui, par rapport au déploiement et à la banalisation de technologies de surveillance.

En revanche, cela crée une accoutumance qui a tendance à affaiblir notre système immunitaire, face au déploiement de technologies beaucoup plus intrusives. 

« Owni était un média très axé sur une culture d’internet libre, empreint des idéaux de l’internet militant des années 1980-1990. »

Plus globalement, vous travaillez depuis dix ans sur les questions de surveillance numérique. Pourquoi vous êtes vous intéressé à ce sujet ? 

Je fais partie des “Digital natives” et de cette génération qui au début des années 2010 a vu Internet comme un formidable outil émancipateur, avec le printemps arabe, la révolution Twitter en Iran…J’ai commencé à m’intéresser à Wikileaks, aux Anonymous et à tout un tas de modes d’organisations en ligne. Mais assez rapidement, on s’est rendu compte que les régimes autoritaires utilisaient de plus en plus les outils numériques afin de renforcer leur pouvoir et retournaient ces outils d’émancipation contre ceux qui s’en servaient. J’ai alors commencé à m’intéresser à toute la facette sécuritaire de la technologie. Ce qui m’intéresse dans la technologie, c’est son rapport avec le pouvoir. 

Vous avez commencé votre carrière de journaliste il y a dix ans, sur le site Owni, un média original et précurseur sur ces questions de surveillance numérique.

En 2010, pendant mon master de Géopolitique, je leur ai proposé des piges et ils m’ont offert un CDI ! Owni était un média très axé sur une culture d’internet libre, empreint des idéaux de l’internet militant des années 1980-1990.

L’objectif était d’observer le monde à travers le prisme numérique et technologique. On faisait travailler main dans la main des journalistes, des développeurs et des graphistes. C’était un peu les précurseurs de ce que l’on appelle aujourd’hui le data journalisme. En 2010, alors qu’on suivait avec beaucoup d’intérêt le travail de Wikileaks, ils nous ont contactés. Ils voulaient mettre en place une interface technique afin de mettre en ligne les centaines de milliers de documents transmis par Chelsea Manning, relatifs à la guerre en Irak et en Afghanistan. Nous étions des petits partenaires de Wikileaks, on n’avait pas les moyens du Monde ou du Spiegel, mais on a rendu lisible la base de données pour naviguer dedans et chercher des documents précis. C’était extrêmement excitant. 

J’ai quitté Owni un an plus tard. La rédaction ne cessait de grossir et on ne parvenait pas à trouver de modèle économique pérenne. J’avais 23 ans et je suis passé d’une rédaction où on était tous copains, où on dormait sous les bureaux et où on faisait presque les trois huit, à Télérama, une rédaction bien plus traditionnelle avec une hiérarchie. Mais ce qui a été chouette chez Télérama au fil du temps, c’est que j’ai pu ramener toutes mes obsessions et aller naviguer au confins de la ligne éditoriale pour continuer de traiter des sujets qui m’intéressaient. Je suis devenu cette espèce de zone autonome au sein du journal, d’autant plus qu’on a la chance d’avoir encore du temps et des moyens pour faire notre travail. Dans mon service “Médias et Net”, le suivi des plateformes constitue un gros morceau. On traite aussi des questions de surveillance et des questions technologiques quand elles ont des implications sur les libertés publiques – de l’affaire Snowden à la reconnaissance faciale.

Y a-t-il un intérêt croissant pour ces sujets au sein de la rédaction de Télérama

Oui, un intérêt croissant qui est le reflet de la place que prennent ces sujets dans le débat public. On en parle de plus en plus et je pense que la crise sanitaire augmente cet intérêt. J’ai l’impression que mes sujets infusent un peu partout et en même temps, je suis toujours cette espèce de bizarrerie au sein de la rédaction, qui s’intéresse parfois à des sujets étranges. C’est vrai que ce sont des sujets qui sont complexes, qui demandent du temps et sont souvent techniques. 

« Aujourd’hui, dès qu’un dispositif de surveillance est déployé, le réflexe pavlovien, c’est de parler de Big Brother »

On a parfois l’impression que ces sujets n’intéressent pas toujours le grand public.

En fait, le grand public est souvent très intéressé par ces sujets, mais il y a une distorsion entre l’intérêt pour le sujet et la capacité à en cerner pleinement les contours. Et puis nous sommes finalement tous devenus des participants des dispositifs de surveillance. On est tous amenés à participer à cette espèce de “société de vigilance permanente” comme l’appelle la chercheuse Vanessa Codaccioni, ce qui ne rend pas simple le fait de formuler une position critique sur la technologie, son rôle et son impact sur nos vies. 

Je crois qu’il faut accepter que l’on se débat tous avec nos contradictions par rapport aux technologies et que dans le monde actuel et a fortiori le monde covidé de 2021, c’est très difficile de s’en passer. Et dans cette position inconfortable, réussir à forger un discours critique, en documentant le plus rigoureusement et exhaustivement possible l’essor de ces technologies.   

Et justement, comment travaille-t-on sur ces questions de surveillance? 

D’abord, je lis énormément. En plus de ma veille quotidienne sur les réseaux, je travaille aussi beaucoup avec des chercheurs, en suivant leur production et en échangeant régulièrement avec eux. Il y a un besoin très grand d’associer les sciences sociales à la réflexion sur la technologie et ne pas en faire un sujet purement technique. Puis vient le travail d’enquête. Mais j’essaie de conjuguer l’enquête journalistique traditionnelle et un travail de médiation de la production des chercheurs, de penser selon la forme de l’essai, notamment pour essayer d’envisager tous les scénarios.

Quand on parle de technologie, on ne parle pas seulement des effets immédiats, mais aussi des effets qu’elle pourrait avoir à moyen ou long terme sur la société. Il faut donc pouvoir mobiliser des ressources qui ne sont pas seulement journalistiques, mais aussi philosophiques, sociologiques… Je me vois comme un grand entonnoir dans lequel plein d’informations rentrent, que je tente de rendre intelligibles en les compressant pour que tout fasse sens et que cela tienne dans une enquête, un livre ou un essai. 

Revenons à la question de la surveillance d’un point de vue plus global. Dans votre livre À la trace, vous la qualifiez de “gazeuse”. Selon vous, la comparaison avec la figure de Big Brother, développée dans le livre de George Orwell 1984 n’est pas la plus pertinente. Pourquoi ? 

On a longtemps été -et on est toujours- très prisonniers d’une vision orwellienne de la surveillance. Mais 1984 est bien plus un livre sur le totalitarisme que sur la surveillance. Aujourd’hui, dès qu’un dispositif de surveillance est déployé, le réflexe pavlovien c’est de parler de Big Brother, avec cette idée qu’il y a un œil surveillant, qui verrait absolument tout, tout le temps. Aujourd’hui, la dystopie orwellienne se manifeste dans un pays comme la Chine, car c’est une dictature technologique. Mais cette grille de lecture ne fonctionne pas dans des démocraties libérales, qui, même si elles sont en crise, ont quand même des institutions à peu près fonctionnelles. 

Le premier livre d’Olivier Tesquet, « A la trace » (2020, Editions Premier Parallèle)

Ça me fait penser à une phrase géniale de Simon Leys dans son livre Orwell ou l’horreur de la politique qui illustre assez bien le monde dans lequel on vit : « Vivre en régime totalitaire est une expérience orwellienne. Vivre tout court est une expérience kafkaïenne ». Aujourd’hui on est bien plus dans l’expérience kafkaïenne qu’orwellienne : on vit nos existences avec tous ces dispositifs assez invisibles autour de nous, soit car ils ne sont pas perçus comme des dispositifs de surveillance, soit car ils sont tellement tissés dans la trame de notre existence que l’on ne se rend même plus compte qu’ils sont là. 

Au-delà des applications sur nos téléphones que l’on utilise tout le temps et qui sont des mouchards qui renseignent notre position géographique, nos habitudes de consommation, nos opinions politiques, nos orientations sexuelles… Il y a aussi tous les objets connectés que l’on fait entrer chez soi, les assistants vocaux, dont on sait que des petites oreilles sont chargées d’écouter nos conversations pour les classer et entraîner les intelligences artificielles. 

Dans À la trace, avant de vous pencher sur le système de surveillance mis en place par Google, Facebook, Apple…, vous observez la surveillance effectuée par les États. Ces deux formes de fichage sont-elles vouées à se recouper et s’entremêler au fil de l’avancée des technologies?

Aux États-Unis, après le 11 septembre 2001, il y a eu une délégation très forte d’un pouvoir de surveillance régalien vers des entreprises privées. On est passé d’un écosystème dans lequel les États étaient très méfiants vis-à-vis des grandes entreprises à un environnement dans lequel ces grandes entreprises sont devenues les postes qui allaient permettre de détecter tout un tas de signaux faibles qui pouvaient être le signe d’un passage à l’acte terroriste. Ce programme qu’on appelait “Total Information Awareness”, consistait à vouloir absolument tout voir et tout entendre tout le temps. L’affaire Snowden nous a montré toute son ampleur. 

Donc quand on me demande s’il faut davantage craindre la surveillance des grandes plateformes ou celle de l’État, j’ai tendance à dire que les deux vont de pair, dans la mesure où la surveillance à des fins commerciales trouve des expédients dans la surveillance à des fins notamment sécuritaires. Aux États-Unis par exemple, la police de l’immigration mobilise des outils technologiques pour traquer des clandestins et les renvoyer dans leurs pays d’origine. Des entreprises privées sont les architectes de cette politique migratoire très dure et un certain nombre d’agences américaines, notamment la police de l’immigration, achètent à des courtiers en données des informations pour pouvoir retrouver les personnes. On voit donc que la surveillance à des fins commerciales ou publicitaires, peut très vite devenir une surveillance beaucoup plus policière, régalienne et sécuritaire.

« La reconnaissance faciale vient répondre à un fantasme policier, celui du contrôle d’identité permanent et général. »

En France, la question de la surveillance est revenue récemment au moment où des drones ont été utilisés pendant des manifestations, et que le projet de loi sécurité globale a été adopté par l’Assemblée nationale. Où en est-on de l’utilisation des drones et de la reconnaissance faciale en France ? 

Le point commun entre les drones et la reconnaissance faciale, c’est que ce sont des technologies déjà éprouvées. A titre expérimental, dérogatoire ou parfois illégal. L’usage précède le droit. Mais cela fausse complètement le débat, car on ne peut pas débattre sereinement du bien fondé de l’irruption de telle ou telle technologie quand le compte à rebours est enclenché et que le seul enjeu est de savoir comment on va légaliser des dispositifs qui ont déjà été mis en place et qui ne peuvent plus être désinstallés. Sur les drones, l’article 22 de la proposition de loi sur la sécurité globale va offrir le cadre légal. Il y a un enjeu et une pression politique et industrielle très forte sur la reconnaissance faciale. 

Fin 2020, Cédric O, le Secrétaire d’État chargé de la Transition numérique et des Communications électroniques, expliquait qu’elle devait être expérimentée, qu’il fallait avancer et que l’on avait en plus des fleurons industriels français, Thales et Iberia, deux champions européens de la biométrie, qu’ils exportent dans un certains nombre de pays, dont pas mal d’anciennes colonies.

Mais la proposition de loi ne décide ni d’interdire la reconnaissance faciale, ni de l’autoriser. On peut donc rester sous le régime de l’expérimentation, comme ce qui est le cas aujourd’hui. La Région Sud par exemple a essayé de déployer des portiques de reconnaissance faciale à l’entrée de deux lycées dans des quartiers populaires. Elle a été attaquée devant le tribunal administratif et s’est fait taper sur les doigts par la CNIL. 

La reconnaissance faciale vient répondre à un fantasme policier, celui du contrôle d’identité permanent et général. C’est une bonne définition de la reconnaissance faciale et des risques qu’elle implique, notamment quand elle est en temps réel, dans l’espace public. C’est un peu l’eldorado policier.

En décembre 2019, Télérama consacre sa Une à la question de la reconnaissance faciale.

Le salut viendra-t-il finalement des institutions étatiques comme la CNIL ou le Conseil constitutionnel ? Y a-t-il quelques victoires au niveau européen ?

La CNIL est à la fois une institution historique et importante, mais la question de sa marge de manœuvre se pose. Elle ne se mouille pas trop politiquement et se borne à intervenir sur des cas spécifiques. On peut quand même se réjouir d’avoir des institutions à peu près fonctionnelles. Ça peut sembler être des contre pouvoirs incomplets ou insuffisants par rapport à l’ampleur de la lame de fond et à l’ambiguïté du pouvoir politique sur la question technologique : aujourd’hui, le pouvoir politique appelle de toutes ses forces à une régulation, alors que c’est ce même pouvoir politique qui délègue depuis des années  nombre de fonctions régaliennes et de responsabilités à des grandes plateformes comme Facebook ou Twitter. On a bien plus une impuissance publique qu’une puissance publique. Dans ces conditions, on ne peut plus compter que sur le Conseil Constitutionnel ou le Conseil d’État pour remettre un peu d’ordre devant cette fuite technologique.

Quant au niveau européen, même s’il a des défauts et que l’on pourrait considérer qu’il est insuffisant, le règlement général sur la protection des données (RGPD) est quand même une vraie victoire. Mais on se rend bien compte que l’Europe ne peut pas être un rempart sur un certain nombre de technologies. Pour reprendre l’exemple de la reconnaissance faciale, la possibilité d’un moratoire européen a été évoquée mais l’idée est morte très rapidement, car au niveau européen, on est toujours pris entre l’hyperpuissance américaine et chinoise. 

Comme on a fait le deuil d’un Google ou d’un Facebook européen, les responsables politiques considèrent que l’émergence de champions européens viendra soit via la technologie sécuritaire, soit par des entreprises qui seraient capables d’exploiter par exemple des données de santé. Alors que le pouvoir politique a la volonté de faire émerger une économie de la donnée, il y a un impératif économique, qui n’est pas compatible avec l’interdiction d’un certain nombre de technologies. Avec l’argument «si ce n’est pas nous, ce sera quelqu’un d’autre».

On observe cette ambivalence entre deux positions :  d’un côté, l’Europe qui tente à la fois de réguler les grandes plateformes et d’offrir un cadre plus protecteur de la vie privée, mais qui, de l’autre essaie de développer une industrie, qui est notoirement prédatrice des libertés et peut avoir des conséquences énormes sur notre vie en commun dans la société.

Quelle serait la solution pour essayer de penser de manière critique la technologie ? Vous faites souvent une comparaison entre surveillance et écologie… 

Je trouve que les deux sujets sont liés. Aujourd’hui les militants écologistes se regroupent pour former des recours collectifs, comme le “Procès du siècle” par exemple. On se rend compte du déséquilibre et de la difficulté à obtenir des victoires. Sur la technologie, il y a des campagnes collectives qui marchent, notamment à l’échelle locale. Ces dernières années et notamment ces derniers mois, la Quadrature du Net a obtenu un certain nombre de victoires, sur les drones, la reconnaissance faciale… 

La mobilisation collective a aussi permis d’interdire la reconnaissance faciale à des fins policières dans les villes américaines de Portland, d’Oakland ou encore de San Francisco. Quelques batailles individuelles réussissent de temps en temps, mais cela reste pour l’instant de petites victoires. Il y a une évolution des pouvoirs publics sur ces questions, mais on fait face à une puissance politique et économique considérable.

À ma petite échelle, je suis persuadé que ce travail de cartographie consistant à situer les différents acteurs dans l’espace et dans le temps, de les nommer et de jeter la lumière sur eux, permet de stimuler ces débats, de susciter des recours éventuels, de visibiliser un débat qui sinon n’aurait pas lieu.

Pour découvrir le travail d’Olivier Tesquet : 

  • Vous pouvez retrouver tous ses articles sur le site de Télérama
  • Il est aussi l’auteur de plusieurs livres :

-> Sur Wikileaks : Comprendre WikiLeaks (Max Milo, 2011) et coauteur avec Guillaume Ledit de Dans la tête de Julian Assange (Actes Sud, 2020)

-> Sur la surveillance numérique : À la trace (Premier Parallèle, 2019) et  État d’urgence technologique, (Premier Parallèle, à paraitre le 4 février 2021)  

  • Sur son compte Twitter , il partage de nombreuses infos et analyses sur les questions de surveillance numérique.

3 réponses sur « Olivier Tesquet : « Ce qui m’intéresse dans la technologie, c’est son rapport au pouvoir » »

Un sujet chaud pour la décennie à venir. Intéressant et bien écrit, je partage. Prenez soins de vous!

PS: question p-e hors sujet.. Pensez-vous être surveillé? Si j’étais à la tête d’un groupe capitalistique style GAFAM, vous seriez le type de personne que j’observerais de près!

Laisser un commentaire