L’utilisation par la police d’outils reposant sur l’intelligence artificielle (IA), notamment la reconnaissance faciale ou les algorithmes prédictifs, peut entraîner d’importantes inégalités entre les citoyens. Nous devons être particulièrement vigilants avec ces technologies, qui doivent être soumises à des réglementations strictes et, en définitive, toujours faire l’objet d’une surveillance humaine. C’est ce que prévoit une résolution adoptée hier par le Parlement européen, qui demande également une « interdiction permanente de la reconnaissance automatique des individus dans les espaces publics », précisant que les citoyens ne devraient être surveillés que lorsqu’ils sont soupçonnés d’avoir commis un crime.
Les risques de l’intellligence artificielle
Les députés demandent également l’interdiction de l’utilisation de bases de données privées de reconnaissance faciale, citant l’exemple de Clearview AI, une société américaine qui a analysé 10 milliards de photos pour identifier les personnes qui y figurent. Elle appelle également à la transparence dans le développement de tout algorithme susceptible d’impliquer une intrusion dans la vie privée des citoyens, et c’est précisément la raison pour laquelle l’open source doit être privilégié.
La résolution, adoptée par 377 voix pour, 248 contre et 62 abstentions, n’est pas contraignante, mais elle crée un précédent important pour la loi européenne sur l’intelligence artificielle, le règlement européen sur l’intelligence artificielle qui est actuellement en cours d’élaboration à Bruxelles et qui établira les utilisations autorisées de l’IA en mettant l’accent sur les risques. « Nous nous opposons clairement aux outils de police prédictive basés sur l’IA, ainsi qu’à tout traitement des données biométriques qui aboutit à une surveillance de masse. C’est une formidable victoire pour tous les citoyens européens », a déclaré le député européen bulgare Petar Vitanov après le vote.
Le projet de règlement européen sur l’IA, présenté au printemps, identifiait déjà la reconnaissance faciale et l’utilisation de données biométriques comme des technologies particulièrement dangereuses. La résolution du Parlement plaide pour que ces technologies soient soumises à une réglementation particulièrement stricte.
« Nous travaillons depuis des mois avec plusieurs députés européens pour que le Parlement européen prenne une décision à ce sujet », explique Ella Jakubowska, coordinatrice du programme de biométrie faciale à l’EDRI, une ONG basée à Bruxelles qui défend les droits de l’homme à l’ère numérique.
Les députés européens soulignent les problèmes de biais algorithmique dans la résolution. Ils mettent en garde contre le fait que les systèmes d’identification basés sur l’IA identifient mal les groupes ethniques minoritaires, les personnes LGBTI, les personnes âgées et les femmes plus que les autres. Cela est « particulièrement préoccupant » lorsqu’il s’agit de faire respecter la loi ou de contrôler les frontières, l’un des endroits où ces technologies sont le plus couramment utilisées.
Technologies controversées
Appliquée depuis des années dans le travail de la police dans des pays comme les États-Unis, la reconnaissance faciale a récemment fait l’objet d’un examen approfondi. Plusieurs villes ont interdit ou gelé son utilisation et de grandes entreprises comme Amazon, IBM et Microsoft ont suspendu la vente de ce type de système à la police à la suite des protestations suscitées par la mort de George Floyd, asphyxié par un officier à Minneapolis le 25 mai 2020. Le mouvement Black Lives Matters a marqué un tournant dans la remise en question de cette technologie, qui se trompe souvent à l’encontre des personnes noires.
Une initiative visant à réglementer ces systèmes au niveau fédéral a été enregistrée à la Chambre des représentants, mais n’a jusqu’à présent rien donné de concret. La bataille juridique engagée à Détroit par Robert Williams, premier cas connu d’arrestation injustifiée dans le pays en raison de l’utilisation défectueuse d’un algorithme de reconnaissance faciale, pourrait aboutir à une interdiction judiciaire.
Les algorithmes de police prédictive sont bien établis aux États-Unis et en Chine. En Europe, ils sont également présents dans des pays tels que le Royaume-Uni, l’Allemagne et la Suisse. Leur objectif est de déterminer les points chauds de la criminalité grâce à une analyse automatisée des données, afin de déployer les patrouilles de police plus efficacement.
Ces outils n’ont pas non plus échappé à la controverse. L’un des effets pervers de ces systèmes, largement démontré dans la littérature scientifique, est qu’ils tendent à surcriminaliser les quartiers moins aisés, ce qui, dans le cas des États-Unis, se traduit généralement par des zones à forte population noire ou latino : comme les algorithmes se nourrissent des données d’arrestation, ils affirment généralement que la police a un risque plus élevé d’être prise dans un point chaud de la criminalité.