Premiers tests en vue pour la vidéosurveillance assistée par intelligence artificielle

Photo : Caméra de vidéosurveillance (Photo d'illustration S.D L'Essor).

18 février 2024 | Société

Temps de lecture : 2 minutes

Premiers tests en vue pour la vidéosurveillance assistée par intelligence artificielle

par | Société

Ce sera leur premier test: les caméras de vidéosurveillance algorithmique, dont l'expérimentation a été votée dans la loi "Jeux olympiques et paralympiques", seront testées pour la première fois les 3 et 5 mars 2024 à l'occasion de deux concerts du groupe Depeche Mode à l'Arena de Bercy, a annoncé ce vendredi 16 février le ministère de l'Intérieur.

Au total, "six caméras", équipées du logiciel de la société parisienne Wintics, seront déployées par la préfecture de police sur la voie publique autour de la salle de spectacle, a détaillé l'Intérieur. A cette occasion, les caméras seront utilisées pour "tester et paramétrer les solutions logicielles" dans des conditions réelles, a insisté la place Beauvau. 

D'autres tests du même type doivent ensuite être conduits avec la SNCF et la RATP, "à l'intérieur et autour des gares à l'occasion d'événements précis", a ajouté le ministère, sans donner de calendrier. L’intelligence artificielle n’intervient pas dans la décision d’intervention, insiste le ministère. "Il s'agit d'une aide à la lecture des images dans le flot d'une salle de contrôle, pour être sûr que l'opérateur ne manque pas".

Interrogé sur le nombre de ces caméras dites "intelligentes" qui seront déployées lors des JO-2024, notamment pour la cérémonie d'ouverture, le ministère de l'Intérieur a répondu qu'il était "trop tôt" pour donner un chiffre.

Une technologie contestée mais très encadrée

Comme pour les drones, chaque événement nécessitant le recours à la vidéosurveillance algorithmique fera l'objet d'un arrêté préfectoral, en précisant "la temporalité, la localisation et les motifs", souligne l'Intérieur, alors que la technologie est décriée par les associations de défense des libertés individuelles.

La Place Beauvau a d’ailleurs largement insisté sur les garde-fous mis en place dans le cadre de cette expérimentation, "très encadrée par des textes réglementaires". Ainsi, la "reconnaissance faciale" et "le recoupement avec des fichiers" sont interdits, tandis que la liste de ce que l’algorithme peut chercher est limitée à huit évènements précis: le non-respect du sens de circulation, le franchissement d'une zone interdite, la présence ou l'utilisation d'une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante ou un colis abandonné.

Par ailleurs, les solutions d’intelligence artificielle pouvant être utilisées ont été validées par l’Etat, qui a procédé à des "vérifications techniques" mais aussi au respect d’un "certain nombres de conditions éthiques imposées au souscripteur de marché"

L’utilisation de l’intelligence artificielle sera limitée aux forces de Gendarmerie et Police, mais aussi aux polices municipales et services d’incendies et des secours, ainsi que les services de sécurité de la SNCF et de la RATP. 

Enfin, "une évaluation extrêmement poussée sera conduite" par un un comité d’évaluation, présidé par Christian Vigouroux, président de section honoraire au Conseil d'Etat, et qui rassemble les utilisateurs et des personnalités qualifiées. Celui-ci a été installé ce vendredi 16 février par Gérald Darmanin, avant de tenir sa première réunion.

(Avec AFP)

Les modalItés de l’évaluation de l’expérimentation de l’intelligence artificielle sur les images des caméras précisées

La Lettre Conflits

La newsletter de l’Essor de la Sécurité

Voir aussi