Terrorisme : les systèmes d’analyse des comportements sont inefficaces
Terrorisme : les systèmes d’analyse des comportements sont inefficaces
Par Perrine Signoret
Des documents rendus publics montrent que les outils censés détecter les « comportements à risque » dans les aéroports américains fonctionnent mal.
L’aéroport John F. Kennedy à New York, en août 2016. | STEPHANIE KEITH / REUTERS
L’American Civil Liberties Union a publié, mercredi 8 février, une série de documents accablants pour la Transportation Security Administration (TSA), agence publique chargée de la sécurité dans les transports aux Etats-Unis.
Depuis 2007, celle-ci a mis en œuvre un programme, le Behavior Detection and Analysis (anciennement SPOT, pour Screening of Passengers by Observation Techniques), destiné à détecter de potentiels terroristes dans les aéroports, par l’analyse des images de vidéosurveillance ou des observations des agents. Pour ce faire, il se base sur une liste d’une centaine de critères physiques ou comportementaux, censés révéler un état de stress, de peur, ou une volonté de détourner l’attention. Parmi eux, une posture rigide, un regard fixe, perçant et froid, un brin d’arrogance, ou encore, des raclages de gorge à répétition, ou un visage plus pâle par endroits, qui trahirait une barbe récemment rasée…
A chacune de ces observations, faites par des officiers spécialisés, correspond un nombre de points, positifs, mais aussi parfois négatifs. Etre un couple marié de plus de 55 ans, une femme de plus de 55 ans ou un homme de plus de 65 ans permet ainsi de déduire de son score personnel un à deux points, et ainsi d’apparaître moins suspect aux yeux de la TSA.
En cas de score trop important, le passager est mis à l’écart, afin d’inspecter plus en détail ses bagages et à nouveau, son langage corporel.
Depuis 2013, des doutes sur la fiabilité du dispositif
Mais depuis ses débuts, ou presque, le Behavior Detection and Analysis fait l’objet de nombreuses critiques.
Le Government Accountability Office (GAO), une agence indépendante qui conseille le Congrès américain sur la manière dont sont dépensés les impôts, avait par exemple publié un rapport en 2013 sur le sujet. On y lit que la TSA devrait « limiter le financement à venir des activités de détection de comportements ». Les « preuves disponibles » n’auraient été, à en croire le rapport, suffisamment convaincantes pour en déduire que le Behavior Detection and Analysis puisse être « utilisé pour identifier des personnes qui présentent un risque pour la sûreté aérienne ». Le succès d’une telle opération relèverait même « plutôt de la chance ».
Puis ce fut au tour de l’inspecteur général du Département pour la sécurité intérieure de critiquer le dispositif. Selon lui, la TSA aurait échoué à évaluer son efficacité et, de fait, à justifier l’investissement financier colossal qui lui a été alloué (1,5 milliard de dollars depuis sa mise en place, selon un récent rapport de l’inspecteur général).
Des logiciels testés par la SNCF
Les systèmes de « détection comportementale », similaires, ont pourtant le vent en poupe, y compris en France, depuis les attentats de novembre 2015 : la SNCF, notamment, teste dans certaines gares des logiciels se basant sur des critères similaires pour détecter des comportements suspects. Certains aéroports, comme celui de Schipol, à Amsterdam (Pays-Bas), utilisent ce type de logiciels automatisés.
Si quelques rares officiers de la TSA avaient confié au GAO que les indicateurs leur apparaissaient effectivement trop subjectifs, l’agence chargée de maintenir la sécurité dans les transports avait jusqu’à présent toujours publiquement minimisé, voire nié ces accusations. Ceci au travers d’une campagne de persuasion rondement menée auprès de membres du Congrès ou du GAO, et dont les documents publiés mercredi par l’ACLA révèlent les dessous.
Car la TSA, finalement, jugeait elle aussi depuis longtemps (mais en interne seulement), que ses dispositifs étaient peu fiables et manquaient de fondement scientifique concret.
Plusieurs cas de discrimination répertoriés
Autre enseignement à tirer de ces fichiers : il y aurait effectivement eu des cas de discrimination, raciale, religieuse ou basée sur le sexe, lors des analyses comportementales.
A l’aéroport new-yorkais de Newark, par exemple, certains passagers, semblant venir d’Amérique latine ou de pays arabes, auraient été davantage surveillés. A Chicago, un agent raconte comment ses supérieurs lui ont demandé de « porter une attention particulière » aux voyageurs se rendant ou venant du Moyen-Orient, parce qu’ils transporteraient « de grosses sommes d’argent ». On trouve également d’autres rapports internes, qui mettent en avant des critères de détection contestables, comme « asiatique » ou « noir ». Sans compter de vastes stéréotypes sur les musulmans, définis comme étant plus sujets à la radicalisation que les autres religions, ou sur les Egyptiens et Somaliens, vite considérés comme de potentiels terroristes. Un autre document, intitulé « Femmes fatales : les femmes kamikazes », datant de 2006, raconte également comment « les femmes ont tendance à être plus émotionnelles et donc plus susceptibles d’être endoctrinées ».
Face à ces observations, l’ACLA recommande au Congrès de suspendre les financements du Behavior Detection and Analysis, et de veiller à dispenser aux officiers concernés une « formation rigoureuse à la non-discrimination ».
Le porte-parole de TSA, Bruce Anderson, a lui affirmé au site The Intercept qu’il ne cessait malgré tout de croire en l’efficacité du dispositif. Il a rappelé que les listes de critères étaient en constante évolution, et que ses équipes travaillaient à les rendre plus pertinentes.