La police britannique développe un outil pour prédire les crimes

Non, vous ne rêvez pas. Il semblerait bien que le futur prédit par le film de Steven Spielberg, Minority Report, soit désormais à portée de main grâce à la puissance de calcul phénoménale des ordinateurs. Même s’il ne s’agit pas encore là d’intelligence artificielle, c’est tout de même sous ce terme que le projet est largement présenté. Une intelligence artificielle donc, censée analyser des milliards de données pour prédire les délits.

 

 

Comment fonctionnera un tel outil ?

Cet outil de prédiction des crimes fonctionnera principalement grâce à la puissance de calcul des ordinateurs et aux statistiques. Les forces de police auront accès à toutes les informations disponibles concernant chaque citoyen. Puis, grâce à des algorithmes, ces informations permettront de déterminer les individus les plus susceptibles de commettre un délit.

Ensuite, chacune de ces personnes sera placée sous la surveillance étroite de la police. Grâce aux lois sur les libertés informatiques qui ont été de plus en plus réduites, les forces de l’ordre pourra alors surveiller leurs mouvements sur Internet. Mais ce n’est pas tout, elles pourront également les suivre dans la rue et analyser chacune de leurs rencontres. Cela sera possible grâce aux très nombreuses caméras de vidéosurveillance présentes dans les villes du Royaume-Uni.

 

 

Les problèmes éthiques posés par un tel outil

Outre les problèmes d’éthique évidents que pose un tel logiciel et contre lesquels la science-fiction nous a maintes fois alertés, d’autres problèmes subsistent. En effet, il est discutable d’arrêter quelqu’un seulement parce qu’on le soupçonne de pouvoir commettre un délit. De plus, les méthodes prévues par la police anglaise pour déterminer qui est un potentiel criminel sont encore plus discutables.

En effet, l’usage des statistiques dans les sciences sociales permet de capter des tendances et de tenter de résoudre des problèmes en fonction de différents critères. Avec ce logiciel, votre simple milieu social de naissance pèsera lourdement dans la balance, simplement parce qu’un milieu défavorisé est statistiquement plus criminogène.

 

 

L’existence de biais importants

Le problème d’un tel logiciel, c’est qu’en utilisant les statistiques de cette manière, il crée un biais important. Puisque l’outil va surtout surveiller les personnes défavorisées, il y trouvera forcément plus de criminels. Il en déduira alors qu’il avait raison de surveiller cette population et renforcera sa surveillance. Pendant ce temps, les délits commis dans d’autres milieux sociaux lui échapperont totalement.

Il est important de rappeler qu’un système de surveillance des fraudeurs avait été mis en place par Pôle Emploi. L’organisme avait alors rapidement compris qu’il favorisait les biais en dessinant le portrait type du fraudeur et en renforçant la surveillance de ceux qui lui correspondent. Dans l’ensemble, un tel logiciel de surveillance devient alors contre-productif et ne sert plus qu’à opprimer une partie de la population.

 

 

Lire plus d’articles sur DigiTechnologie :
– Découvrez pourquoi la startup ByteDance inquiète l’amérique, cliquez-ici
– Découvrez comment fonctionne la géolocalisation d’un smartphone, cliquez-ici
– Buvez un café en échange de vos données personnelles, cliquez-ici