Des caméras urbaines intelligentes, en quête permanente de comportements jugés déviants. Non, le roman d’anticipation 1984 ne s’est pas encore réalisé, « la police de la pensée » imaginée par George Orwell ne restreint pas nos libertés afin de protéger « le parti unique ». Mais le nouveau système de vidéosurveillance analytique, déjà implanté dans plusieurs villes des Etats-Unis et des Pays-Bas, pourrait bien avoir été inventé par l’écrivain britannique.

« Saurez-vous repérer le comportement déviant sur ces clichés ? », interroge l’artiste néerlandaise Esther Hovers. Ici, « Overview L, Timeframe : 06 min 09 ». | Esther Hovers

Qu’est-ce qu’un comportement déviant ? A partir de quel moment est-on détecté comme une personne potentiellement dangereuse ? Est-ce bien le rôle d’une caméra d’en juger ? Dans quelle mesure la surveillance de masse est-elle un outil sécuritaire efficace ? Autant d’interrogations à l’origine de « False Positives », série de photos édifiante réalisée par une jeune Néerlandaise, Esther Hovers. Pendant cinq mois, la photographe a erré dans le centre-ville économique de Bruxelles à l’affût des situations « code rouge » identifiées par le logiciel de surveillance intelligente. Il en existe huit définies par les experts en sécurité. Si personne ne conteste le fait qu’abandonner un colis ou un bagage soit suspect, la notion de risque que présentent des actions comme se mettre à courir, attendre longtemps au même endroit ou encore regarder plusieurs fois derrière soi paraît en revanche moins évidente.

« Overview C, Timeframe : 04 min 26 » et « Overview F, Timeframe : 05 min 07 ». | Esther Hovers

Dans « False Positives », chacune des photos illustre une des situations supposées à risques. Dans un effet de plongée, l’œil de la photographe se substitue au point de vue d’une caméra de surveillance. « La plupart des clichés ont été pris sur le vif après de longues heures à observer la rue depuis un endroit surélevé, un escalier ou un échafaudage. Mais certains ont été mis en scène avec des piétons qui ont accepté de jouer le jeu », précise Esther Hovers.

« Saurez-vous repérer le comportement déviant sur ces clichés ? » interroge-t-elle en préambule de son travail. Pas toujours simple en effet. Un joggeur stationne en bas d’un escalier. Un homme marche à contresens des autres piétons sur un trottoir étroit. Un groupe d’hommes se disperse à l’entrée d’un immeuble de bureaux. Rien d’inquiétant a priori. Pourtant, toutes ces situations auront immanquablement été repérées par les caméras intelligentes et soumises à l’analyse de la police de Boston, Chicago, Washington DC, Atlanta ou encore Tilbourg et Eindhoven aux Pays-Bas. La liste des villes qui ont adopté ce nouveau système conçu par deux sociétés privées américaines s’allonge depuis deux ans, même si, à ce jour, aucune étude n’a encore prouvé son efficacité.

Les experts en sécurité ont identifié huit situations potentiellement dangereuses. En parallèle de ses photos, Esther Hovers a reproduit ces « anomalies » en dessins.  De haut en bas et de g. à dr. : Anomaly #2 : Fast Movements ; Anomaly #5 : Clusters Breaking Apart ; Anomaly #6 : Synchronized Movements ; Anomaly #4 : Placement on a Corner. | Dessins Esther Hovers

De manière générale, si la vidéosurveillance permet de résoudre des enquêtes, sa capacité à empêcher les infractions ou les crimes de se produire paraît limitée. « Pour la simple et bonne raison qu’un comportement suspect n’aboutit pas forcément à un acte illégal et que tout acte illégal ne débute pas systématiquement par un comportement suspect », souligne la photographe, dubitative sur cet outil de traque robotisé. C’est en tout cas pour questionner la place de l’intelligence artificielle dans la prévention et souligner le risque de bavures policières que l’artiste néerlandaise a entrepris ce travail.

« False Positives », d’Esther Hovers. Exposition « Watched ! Surveillance Art & Photography » à la C/O Berlin Foundation, Amerika Haus, Hardenbergstraße 22-24, Berlin. Du 17 février au 14 mai 2017. www.co-berlin.org