Quand une alerte de magasin devient une accusation publique

Une nouvelle série de cas signalés au Royaume-Uni durcit le débat sur la reconnaissance faciale dans le commerce quotidien. Selon un reportage du Guardian, certains clients ont été abordés dans des magasins, priés de partir et informés qu’un système de reconnaissance faciale en direct les avait identifiés comme suspects de vol à l’étalage. Les personnes concernées disent être innocentes et avoir ensuite eu du mal à trouver un moyen pratique de contester l’accusation ou de rétablir leur nom.

L’article se concentre sur Facewatch, un système déployé dans le commerce de détail britannique pour aider à lutter contre le vol. Son site web revendique une précision de 99,98 % et affirme avoir envoyé 50 288 alertes de contrevenants connus à des magasins participants au cours d’un mois récent. Mais les expériences rapportées montrent que même un système présenté comme très précis peut devenir socialement nuisible lorsqu’une erreur atteint le terrain. Les pourcentages de précision n’effacent pas les conséquences d’une fausse correspondance pour la personne à qui l’on demande de reposer ses articles et de partir.

La faille de gouvernance devient le sujet central

Le problème le plus important ici n’est peut-être pas l’usage brut de la reconnaissance faciale, mais la faible responsabilité autour de son déploiement. L’un des clients décrits dans le rapport, Ian Clayton, a déclaré qu’on lui avait dit qu’il apparaissait sur le système comme voleur à l’étalage alors qu’il se rendait dans un magasin Home Bargains. Après avoir tenté d’obtenir des réponses, il a finalement déposé une demande d’accès et a appris qu’il avait été associé à tort à un incident antérieur. Il a décrit l’expérience comme le fait d’être considéré coupable jusqu’à preuve du contraire.

Cette formule capture le problème plus profond. Dans de nombreux débats publics sur l’IA, l’accent porte sur la précision du modèle, les affirmations du fournisseur et la question de savoir si la technologie fonctionne en principe. Mais pour les personnes visées par une fausse alerte, les questions pressantes sont procédurales. Qui a pris la décision ? S’agissait-il d’une erreur du système ou du personnel ? Quelles preuves existent ? À quelle vitesse une erreur peut-elle être corrigée ? Qui est responsable du préjudice ?

La réponse rapportée, du moins dans ces cas, n’a rien eu de rassurant. Certaines personnes ont dit avoir reçu peu d’aide et ne pas savoir comment se plaindre ni prouver leur innocence. Cela suggère que la supervision et les recours pour les clients n’ont pas suivi le rythme du déploiement.