De Londres à Los Angeles, en passant par des projets pilotes en Europe, la « police prédictive » promet d’optimiser la sécurité publique grâce à l’analyse de masses de données. Ces systèmes identifient des lieux à risque, des périodes sensibles ou, parfois, des personnes considérées comme susceptibles de commettre une infraction.
La Suisse n’est pas en reste : certaines polices cantonales recourent déjà à de tels outils, notamment pour anticiper des cambriolages. C’est précisément sur ces pratiques qu’AlgorithmWatch propose une analyse, en soulignant que ces technologies comportent des risques.
Le premier est le biais d’exposition policière : plus un quartier est patrouillé, plus des délits y sont enregistrés, ce qui renforce artificiellement l’idée qu’il s’agit d’une zone « à risque ». S’y ajoute le risque de profilage abusif : non seulement des personnes peuvent se retrouver associées à des réseaux criminels simplement en raison de leurs contacts, mais certaines catégories de la population — minorités, migrant·e·s ou habitant·e·s de quartiers défavorisés — risquent aussi d’être ciblées de manière disproportionnée. Cela tient au fait que les algorithmes s’appuient sur les données du passé, lesquelles reflètent avant tout les pratiques policières existantes. Sans parler des biais d’interprétation, lorsque des résultats statistiques sont perçus comme des vérités relativement objectives.
AlgorithmWatch pointe également le manque de transparence : ni le public ni des instances indépendantes ne disposent de données suffisantes pour évaluer le fonctionnement de ces systèmes. Enfin, des zones d’ombre juridiques persistent : le Tribunal fédéral a déjà annulé certaines dispositions cantonales faute de base légale suffisamment précise. Plus largement, la présomption d’innocence — pilier de l’État de droit — se trouve fragilisée si l’on commence à considérer comme suspectes des personnes sur la seule base de calculs statistiques. Le droit d’être entendu et l’accès à un·e juge ne sont pas non plus toujours garantis. Quant à leur efficacité, les rares études menées — notamment aux États-Unis et en Allemagne — n’ont pas démontré que ces dispositifs permettaient de prévenir efficacement la criminalité, souligne AlgorithmWatch.
Un enjeu particulier pour les personnes consommatrices
Ces enjeux résonnent particulièrement dans le champ des addictions. L’histoire de la prohibition montre comment la criminalisation de l’usage de substances a ciblé les populations marginalisées. Les personnes consommatrices, déjà surreprésentées dans les statistiques policières, risquent d’être identifiées par ces algorithmes comme « à risque » de récidive, créant un cercle vicieux : plus elles sont contrôlées, plus elles apparaissent dans les bases de données, renforçant artificiellement leur « dangerosité » statistique. Face à ces risques, il importe à la fois de réguler ces technologies et de développer des politiques en matière de drogues centrées sur la santé publique. Tant que l’usage de substances demeure criminalisé, les données alimentant ces algorithmes resteront biaisées contre les personnes consommatrices.
Une question de contrôle démocratique
En définitive, comme dans Minority Report, le problème n’est pas tant l’outil que l’usage qui en est fait. La police prédictive est un instrument qui reflète les intentions de celles et ceux qui le conçoivent et l’emploient. En Suisse comme ailleurs, son avenir dépendra du paramétrage en amont, de la transparence et du contrôle démocratique, afin d’éviter qu’un outil de sécurité ne se transforme en instrument de suspicion généralisée.