Général Patrick Perrot (Gendarmerie nationale) "En cybercriminalité, l'IA est le remède et le poison"
Docteur en intelligence artificielle, le général de brigade Patrick Perrot est depuis 2020 le coordonnateur pour l'intelligence artificielle et chargé de mission Stratégie de la donnée, à la Gendarmerie nationale. Il est aussi Conseiller IA auprès du Commandement du ministère de l'Intérieur dans le Cyber Espace.
JDN. Général, quelle est votre feuille de route ?
Patrick Perrot. En tant que coordinateur, ma mission est de mettre en place une stratégie de IA pour la Gendarmerie nationale. Depuis quatre ans, ce plan a pour objectif de rendre l'IA opérationnelle pour nos enquêteurs en se déclinant autour de ses piliers : formation, recherche et développement, éthique, réglementation et conformité, partenariat et valorisation, service à l'usager.
Comment préparez-vous les plus de 95 000 gendarmes à l'IA ?
La palette des formations va de l'acculturation à des parcours doctoraux. Je ne crois pas au passage en force, on n'acculture pas une personne contre son gré. Nous avons lancé une revue électronique bimensuelle, baptisée Cultur'IA, éditée par la Direction générale de la Gendarmerie nationale. Elle aborde le thème par la théorie, le droit et les enjeux juridiques mais aussi par les applications civiles ou celles consacrées à la sécurité. Initialement, elle était destinée aux gendarmes mais dans les faits, elle est accessible au grand public. Nous avons également créé un MOOC généraliste, qui a été suivi par 90% des effectifs afin qu'ils aient une connaissance et une conscience des opportunités et des limites de cette matière. A l'autre bout, une chaire IA et Sécurité permet à des militaires et à des civils de travailler sur nos sujets, de faire de la recherche appliquée pour contrer les menaces.
Et en termes de formation proprement dite ?
Nous en construisons une, avec la Sorbonne et Télécoms Paris Tech qui associerait le droit, la gestion de projet et l'IA. Le but n'est pas d'avoir des experts mais des chefs de conduite de projets. Parallèlement, nous avons préparé des formations courtes, de deux à trois jours destinées aux cadres dirigeants ou à des officiers qui ont besoin d'en savoir plus sur l'IA.
Le 13 mars dernier, le Parlement européen a voté la première loi mondiale sur l'intelligence artificielle, l'IA Act. Comment vous y préparez-vous ?
Avec une juriste, nous y avons travaillé pour protéger le champ de la sécurité intérieure et pour qu'elle soit conforme à la directive police-justice, au RGPD et à la charte éthique de la Gendarmerie nationale. Notre objectif est d'éviter l'asymétrie entre les possibles possibilités des criminels et les capacités des forces de sécurité intérieure. L'IA, c'est le remède et le poison. Et il s'agit que nous ne soyons pas démunis face à la sophistication technologique de la criminalité en étant privés d'outils IA.
Vous avez travaillé sur les JO ?
Oui, nous continuons de travailler sur l'IA au profit de la vidéoprotection dans le cadre des grands événements comme les JO. A titre expérimental, le décret du 28 août 2023 permet l'utilisation de l'intelligence artificielle dans huit cas d'usage définis : on va détecter un départ de feu, une personne qui franchit une limite interdite, une personne au sol ou encore un fusil… Il n'est pas question de biométrie, ni de reconnaissance faciale. L'expérimentation a débuté avec le concert du groupe Depeche Mode en mars dernier, à Paris. Elle se termine le 31 mars 2025.
A chaque fois qu'on utilise la vidéoprotection et l'IA, nous évaluons la manière dont cela se passe, en faisant attention à ce qu'il n'y ait pas de dérives sur les libertés individuelles, que le cahier des charges soit bien respecté etc.
La peur en France, c'est l'arrivée d'une sorte de Big Brother ou d'une société à la Minority Report…
Oui mais cela n'arrivera pas car il n'y a pas en France la volonté de surveiller la population comme ce que fait actuellement la Chine. Notre but est de protéger, pas de surveiller. C'est d'ailleurs pour cela que nous développons des partenariats avec des think tanks comme le Hub France IA, l'Institut Europe IA et des laboratoires comme le 3IA côte d'Azur ou encore l'ANITI à Toulouse. La sécurité intérieure ne peut travailler seule, elle doit s'enrichir des expériences des autres. Nous menons aussi des actions de valorisation pour expliquer ce que nous faisons, les pistes sur lesquelles nous réfléchissons. Ce qui explique notre présence par exemple au sein d'entreprises privées pour communiquer comme Thales ou Le groupe La Poste, sur des salons tels qu'Eurosatory ou le Cybershow… Nous sommes redevables aux citoyens. Nous publions nos travaux également.
Qui développe vos applications ?
Nous travaillons sur nos propres applications. J'ai une trentaine de personnes, dispatchées entre le centre d'IA du Pôle Judiciaire de la Gendarmerie nationale (PJGN), situé à Pontoise, le datalab de l'agence du numérique des forces de sécurité intérieure (ANFSI) d'Issy-les-Moulineaux et le COMCYBER MI, au Cyber Campus. Mon souhait serait de regrouper sur un même site toute cette ressource scientifique, juridique en y ajoutant une dimension internationale, le temps de donner l'élan, l'impulsion à cette stratégie. Après l'unification, on pourra de nouveau décentraliser. Je regarde ce qu'a fait le ministère des Armées, avec la création récente de l'Agence ministérielle de l'intelligence artificielle de défense (AMIAD), sous la tutelle du ministre.
Une de vos applications a été doublement primée en juin, OPID, en recevant le Datacraft Awards 2024. A quoi sert-elle ?
OPID a été développé en interne. Cette application permet d'aider les enquêteurs à repérer les images pédopornographiques pendant l'analyse d'un disque dur, d'un ordinateur ou d'un téléphone. Pour protéger l'analyste des images difficiles, OPID transforme les images en vecteurs, une représentation numérique, les classe et donne un chemin à suivre à l'enquêteur. Elle est actuellement en expérimentation au Centre nationale d'analyse des images pédopornographique. L'avantage de développer soi-même est que nous pouvons calibrer nos faux positifs et nos faux négatifs. La décision finale revient de toute façon à l'homme.
Nous avons aussi une application de transcription automatique des données, utile lors d'auditions. Et une autre qui analyse des vidéos de masse : elle permet de détecter rapidement, parmi des heures de prises de vue, une voiture rouge par exemple. Les outils sont là, à la disposition des enquêteurs. Ils ont servi notamment dans l'affaire du réseau chiffré EncroChat, tombé en 2020 (interception de plus de 120 millions de messages et images, plus de 1 000 arrestations dans plusieurs pays, ndlr) ou plus récemment sur un vol de données dans des hôpitaux. Là, notre IA a identifié 70 000 victimes via une lecture automatisée de certificats médicaux.
Vous coordonnez-vous avec vos homologues européens ?
Je co-préside un groupe européen sur la stratégie en IA. Seize nations se sont rassemblées en octobre 2023 pour la première fois. Nous avons travaillé à une stratégie commune au profit de l'ensemble des forces de sécurité européennes : je ne connais pas d'autres domaines où cela se fait à l'échelle européenne. Le prochain sommet se tiendra en Italie, fin octobre sans doute. La France est considérée comme un des pays les plus avancés en la matière. Nous travaillons avec Europol, en étant le meilleur contributeur des outils IA au service des forces européennes. C'est d'ailleurs paradoxal car nos gendarmes enquêteurs doivent passer par Europol pour les utiliser.