Technopolice : Frontières virtuelles, contrôles bien réels

Version imprimable de cet article Version imprimable


Dans le cadre de la campagne Technopolice sur la surveillance numérique de nos vies, quel sera le devenir des frontières  ? Le remplacement des contrôles humains par des vérifications automatiques basées sur la collecte d’informations ou sur la reconnaissance faciale, bien loin d’éliminer les biais, rend les frontières particulièrement discriminantes.

Nous faisons la queue depuis un moment déjà pour passer les douanes à l’aéroport, les valises dans une main, le passeport et le billet dans l’autre. Nous avançons lentement vers les portiques automatisés qui ont remplacé les contrôleurs, et les autres voyageurs s’impatientent. La foule dirige soudain son attention vers l’un des portiques : celui-ci refuse de s’ouvrir et deux policiers demandent au passager refoulé – un homme arabe, la quarantaine, l’air aussi surpris qu’inquiet – de bien vouloir les suivre. L’homme en question n’a absolument rien à se reprocher et on imagine aisément son malaise et ce qui a pu traverser l’esprit de la plupart des spectateurs. La scène est fictive mais a déjà dû se produire mille fois en Angleterre, en Australie ou aux États-Unis. En France, la chose est encore marginale – pas pour longtemps cela dit.

Prédiction du risque

La mise à l’écart de ce passager dans un aéroport est un résultat de la numérisation des frontières et du remplacement du contrôle humain par un traitement algorithmique, donc automatisé. Depuis le début des années 2000, les États-Unis, pionniers en matière de surveillance des populations, ont mis en place dans les aéroports un « système de ciblage automatisé » (ATS) qui n’a été révélé au public qu’en 2006. Perfectionné au fil du temps, ce système informatique permet de collecter des données relatives à chaque voyageurs et voyageuse (précédents voyages, transactions bancaires, demandes de visa, choix d’un menu spécifique, voire comportement sur les réseaux sociaux) et de les analyser pour en faire émerger des signes de dangerosité potentielle et déterminer la réponse adoptée par les autorités aéroportuaires  : imposer au passager un entretien approfondi, voire lui interdire l’embarquement.

Le caractère intrusif du dispositif est évidemment scandaleux, mais le pire est ailleurs. Un score de risque élevé peut être dû par exemple au fait d’avoir commandé un repas halal dans l’avion et au fait d’avoir parmi ses contacts quelqu’un qui a voyagé dans une zone de guerre, deux traits qui ne constituent en aucun cas un délit mais pourraient suffire à déclencher une enquête approfondie. Le dispositif de contrôle est donc systématiquement différencié pour cibler certaines catégories de personnes, ce qui a pour conséquence d’imprimer ces schémas dans la conscience des personnes soupçonnées et dans celle du public ; tout se passe comme si une forme de justice préemptive condamnait et jetait l’opprobre sur des personne a priori, sans qu’un délit n’ait été commis.

L’administration Obama a dû s’expliquer de ces pratiques devant une cour de justice en 2015, quand des ressortissants états-uniens musulmans se sont vu soudainement interdire de vol après avoir refusé de servir d’indicateurs au FBI, et de même quand des voyageuses ou des voyageurs refoulés en raison de leurs démêlés avec la justice n’ont pas retrouvé leur droit à voler après avoir été acquittés. Cela n’a pas empêché le Royaume-Uni de tenter de mettre en place un système similaire, d’abord prénommé «  E-border  » (frontière électronique), puis Digital Service at the Border (DSAB), en dépensant des sommes colossales sans parvenir pour le moment à l’implémenter efficacement. L’État français n’a pas encore investi dans ce genre de systèmes, vu le coût et le retard pris outre-Manche, mais gageons que cela ne saurait tarder.

Les technologies de ciblage et de reconnaissance faciale participent à la production des stigmates, des amalgames, et des identités collectives dominées.

Une autre raison pourrait expliquer la mise à l’écart de notre passager fictif  : la reconnaissance faciale. Depuis une dizaine d’années, les projets de contrôles biométriques par reconnaissance faciale, au lieu de l’identification des empreintes digitales, fleurissent dans les aéroports des pays riches. En 2018, en partenariat avec Thalès, les aéroports de Roissy, Orly et Nice ainsi que la gare du Nord à Paris ont mis en place des portiques automatisés à reconnaissance faciale pour le contrôle aux frontières sur les vols et trains internationaux, pour les ressortissants de l’espace Schengen – et cela devrait être testé au niveau des portes d’embarquement pour tous types de passagers dès 2019-2020 à Orly au moins. Le but affiché est de fluidifier les passages et de limiter les erreurs humaines de vérification d’identité  ; mais on peut craindre que cela soit un simple marche-pied vers la généralisation de la reconnaissance faciale, laquelle démultiplierait les capacités étatiques de surveillance des populations.

Là encore, un tel traitement automatisé risquerait de stigmatiser certains groupes sociaux plus que d’autres. Les algorithmes de reconnaissance faciale ne sont pas neutres  : la chercheuse Joy Buolamwini a récemment publié une étude [1] révélant que les machines avaient beaucoup plus de difficulté à identifier le sexe des femmes que celui des hommes, ou encore que les personnes blanches avaient sensiblement plus de chance d’être correctement identifiées que les personnes de couleur, et que ces deux biais se cumulaient pour atteindre des taux d’erreur très élevés, de près de 30 %, chez les femmes à la peau foncée – ce genre de biais étant dû à un défaut lors de la phase d’entraînement de l’algorithme. Il peut être particulièrement violent d’être arrêté à la frontière quand tout le monde passe sans soucis. Or, malgré un traitement par des algorithmes sans émotions, les personnes de couleur, et particulièrement les femmes, risquent d’en être plus souvent victimes que les hommes blancs.

Reconnaissance faciale

Que ce soit le résultat de systèmes d’évaluation du risque prédictifs ou de reconnaissances faciales biaisées, la numérisation des frontières juridiques des États redouble celles-ci de frontières symboliques qui stigmatisent et refoulent des groupes de la population déjà dominés par ailleurs. Il est certes juste de pointer la dimension invasive de ces technologies de ciblage et de reconnaissance faciale, et le renforcement du pouvoir répressif étatique qu’elles permettent, ainsi que l’injustice des discriminations, mais la critique doit également prendre en compte leur participation à la production des stigmates, des amalgames, et plus généralement des identités collectives dominées.

Marco (UCL Indre)

[1Joy Adowaa Buolamwini, «  Gender shades : intersectional phenotypic and demographic evaluation of face datasets and gender classifiers  », Massachusetts Institute of Technology, 2017.

 
☰ Accès rapide
Retour en haut