La Gendarmerie a été doublement primée, le lundi le 24 juin, lors des Datacraft Awards 2024, une cérémonie récompensant les initiatives les plus remarquables en intelligence artificielle (IA). Son projet Odip – un acronyme pour Outil de détection d'images pédopornographiques – a remporté le Prix de la transformation de l'entreprise ainsi que le Prix des prix.
Développé conjointement par le Commandement du ministère de l'Intérieur dans le cyberespace (Comcyber-MI), l'Unité nationale cyber de la Gendarmerie nationale (UNCyber) et le Service de la Transformation, Odip vise à assister les enquêteurs dans la détection d'images pédopornographiques.
"L'intention initiale est d'accroître la célérité des analyses de données à caractère sensible et, si possible, d'exposer le moins possible les gendarmes à ce type d'images, pour assurer une meilleure protection psychologique.", explique à L'Essor le général Patrick Perrot, coordonnateur IA pour la Gendarmerie et conseiller IA auprès du Comcyber-MI.
Odip fonctionne en deux étapes principales. D'abord, il transforme les images en représentations vectorielles, supprimant ainsi leur caractère visible tout en permettant leur classification. Ensuite, un modèle d'intelligence artificielle est entraîné pour discriminer entre les vecteurs d'images pédopornographiques et non pédopornographiques.
Pour entraîner le modèle et notamment lui éviter d’identifier par erreur des images qui soient simplement pornographiques où des enfants dans des poses anodines, "on a récupéré 48.000 images pédopornographiques et 55.000 non pédopornographiques", précise le général Perrot.
Il souligne également l'importance du compromis fait entre les performances attendues et « les outils de nos gendarmes qui n’ont qu’un ordinateur portable ».
Le projet a été développé en interne par la Gendarmerie, avec l'autorisation d'un magistrat pour accéder aux images sensibles. Le général Perrot insiste : "Les développeurs n'ont pas eu accès aux images. Elles sont converties en vecteurs pour la classification."
4% de faux négatif
Odip est actuellement en phase d'expérimentation cet été auprès du Centre d'analyses d'images pédopornographiques (Cnaip) à Pontoise, dont les quatre membres ont été associés au développement de l’outil.
Pour le moment, les gendarmes constatent un taux de faux négatif (une image pédopornographique non identifiée par l’outil) de 4 % et un taux de faux positif (une image identifiée à tort comme pédopornographique) de 12 %. Ces ratios correspondent à un réglage de l’outil visant à privilégier un signalement erroné d’images problématiques plutôt que de passer à côté d’une image qui le serait.
De toute façon, « il y a toujours une validation humaine », rappelle le général Perrot. .
Le déploiement d’Odip se fera progressivement, d'abord auprès des enquêteurs spécialisés N-Tech, puis potentiellement à d'autres enquêteurs.
"C'est vraiment un outil orienté enquêteurs", affirme le général Perrot. "On veut d'abord l'éprouver au Cnaip. Au fur et à mesure des enquêtes, on aura de plus en plus d'images pour améliorer les performances."
Cette innovation s'inscrit dans la stratégie "Cap IA" de la Gendarmerie, visant à développer des outils d'assistance aux enquêteurs tout en gardant l'humain au centre des décisions. Le général Perrot conclut : "In fine, les enquêteurs gardent toujours la main sur la décision finale."
La Gendarmerie nationale pourrait bien décrocher un nouveau prix aux Datacraft Awards