L’acquisition de technologies destinées aux forces de l’ordre doit faire l’objet d’un examen plus approfondi

L'acquisition de technologies destinées aux forces de l'ordre doit faire l'objet d'un examen plus approfondi

Un groupe d’experts des États-Unis, de la Belgique et de la Nouvelle-Zélande a informé la commission de la justice et des affaires intérieures de la Chambre des Lords des risques liés au fait d’autoriser les entreprises technologiques à introduire la technologie dans le maintien de l’ordre.

Les députés ont interrogé le panel sur l’utilisation des technologies de surveillance telles que les caméras corporelles et les algorithmes d’application de la loi.

Elizabeth Joh, professeur de droit Martin Luther King Jr à la faculté de droit de l’Université de Californie Davis, a déclaré à la commission que l’utilisation de la technologie pour le maintien de l’ordre aux États-Unis a été carrément expérimentée. Elle a mis en garde contre l’influence des entreprises du secteur privé, qui, selon elle, ont influencé l’adoption de la technologie dans les forces de police.

« C’est le secteur privé qui a développé la technologie pour l’application de la loi », a déclaré Joh. « Ils ont un enjeu énorme et fournissent des incitations ».

Par exemple, les forces de l’ordre sont incitées à utiliser gratuitement des caméras corporelles pendant un an, a-t-elle expliqué. Mais une fois l’essai terminé, les forces de police sont alors contraintes d’utiliser les logiciels et services de l’entreprise pour accéder à toutes les données de surveillance qu’elles ont recueillies.

Selon Mme Joh, les services de police sont obligés d’envoyer les données collectées par les caméras corporelles au magasin de données de la société, auquel on ne peut accéder qu’à l’aide de son logiciel. « Au bout d’un an, de nombreux services de police ont tellement de données sur les caméras corporelles qu’ils sont obligés d’utiliser le logiciel de l’entreprise », a-t-elle ajouté.

Rosamunde Elise Van Brakel, professeur de recherche en études de surveillance à la Vrije Universiteit de Bruxelles, en Belgique, et codirectrice du Surveillance Studies Network, a déclaré à la commission : « Il n’y a aucune transparence sur les règles de passation des marchés. Il n’y a aucune information publique sur la façon dont les décisions sont prises. »

Selon Mme Van Brakel, l’un des défis auxquels les services de police sont confrontés est le fait qu’ils manquent souvent d’expertise. « Je pense qu’un facteur important est d’avoir l’expertise nécessaire pour comprendre ce que les entreprises technologiques promettent que la technologie fera », a-t-elle déclaré. Dans certains pays européens, certains services de police ont choisi de ne pas acheter de technologie auprès de fournisseurs américains, a-t-elle ajouté.

Mme Van Brakel a également évoqué la nécessité de mettre en place des organismes de surveillance et des réglementations. Mais certaines lois, comme celles qui couvrent la protection des données, sont trop restrictives, a-t-elle déclaré. « Une réglementation sectorielle pourrait être très utile, car la protection des données est très axée sur la protection des données en ligne ou dans le secteur privé. Il existe peu de lignes directrices sur la manière dont le secteur public devrait mettre en œuvre la protection des données. »

Par exemple, les réglementations générales ne peuvent pas prendre en compte les spécificités de la criminalité organisée ou de la protection des enfants, a-t-elle déclaré.

Selon Mme Van Brakel, avant d’investir dans les technologies de maintien de l’ordre, il faut procéder à une évaluation de la proportionnalité, qui prend en compte le respect des réglementations et l’impact du déploiement de la technologie sur la société, la démocratie et les droits des citoyens. « Comment la technologie permet-elle à la police d’atteindre son objectif sociétal ? a déclaré Mme Van Brakel. « Cette question n’est pas suffisamment posée. Il n’y a pas assez de réflexion sur la façon dont elle aide la police. »

Dans le pire des cas, a déclaré M. Van Brakel, les réglementations et les droits des citoyens seront dilués, ce qui pourrait conduire à ce que certains groupes de la société soient soumis à la technologie de manière disproportionnée.

Colin Gavaghan, président du groupe consultatif sur les technologies émergentes de la police néo-zélandaise et directeur du New Zealand Foundation Centre for Law and Policy in Emerging Technologies de l’université d’Otago, a déclaré que la réduction des préjugés dans un algorithme ne consiste pas simplement à supprimer un seul point de données, comme l’origine ethnique, car les préjugés sont répartis sur plusieurs ensembles de données.

Be the first to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée.


*