Défense : Thales doit mettre au pas l'IA générative avant de l'enrôler
L'industriel français compte déployer la GenAI au sein de ses systèmes de centre de commandement en vue d'améliorer le pilotage des forces armées sur le terrain.
Spécialiste de la défense, de l'aérospatiale et de la sécurité numérique, Thales planche sur l'intégration de l'IA générative au cœur de ses produits touchant au domaine militaire. Parmi ses principaux objectifs affichés dans ce domaine, le groupe entend notamment étudier comment un large language model (LLM) peut répondre à des questions portant sur l'identification d'objets d'intérêt sur les théâtres d'opération : troupes, véhicules, avions, drones, bâtiments navals...
La méthode visée ? Orienter les prompts pour que les LLM jouent le rôle d'agents conversationnels proposant un échange intuitif avec l'opérateur humain. En amont, ils iront glaner des données dans plusieurs systèmes. Des environnements critiques de localisation d'objets ou de trajectoires, voire des sources ouvertes dans le domaine météo par exemple pour anticiper les mouvements.
Détecter les cibles ennemies
Classiquement, l'IA générative recueillera en amont les demandes en langage naturel puis fabriquera les réponses correspondantes dans le même format en misant sur ses capacités de génération de contenu. L'approche du Rag (pour retrieval augmented generation), qui permet d'interroger une base de documents, est naturellement envisagée. Autre piste : la prise en charge de sources de données structurées pouvant contenir des informations géographiques. Utile pour supporter la cartographie et les photos prises sur le terrain ou par drones, l'image entrera également dans la danse pour alimenter les modèles dans une logique multimodale.
Thales envisage de déployer ce type d'application au sein de systèmes dédiés à des centres de commandement et de contrôle conçus pour coordonner différents équipements : terrestres, navals, aériens... Le but étant de proposer au personnel militaire un support d'aide à la décision.
"Tout l'enjeu est de faire en sorte que le LLM trace les données pour permettre de savoir précisément d'où elles viennent"
La question de la mise en œuvre de l'IA générative au sein de ces systèmes critiques se pose notamment pour le projet Anticipe. Un système déployé pour le compte de l'Otan qui analyse d'énormes volumes d'informations multisources et multicanaux, envoyées en continu par les satellites, les acteurs du champ de bataille, mais aussi les réseaux sociaux publics et cryptés. Il recourt à des algorithmes d'IA pour fusionner des masses géantes de données afin de proposer des actions à mener pour planifier des opérations. Dans ce cadre, l'IA générative pourrait être déployée pour en moderniser l'interface homme-machine, et la faire évoluer vers un environnement d'interaction en langage naturel.
Avant de parvenir à mettre en œuvre ces cas d'usage, Thales doit d'abord plancher sur une IA générative qu'elle qualifie de True (pour TRustable, Understandable and Ethical). Cette notion recouvre la validité, la sécurité et l'explicabilité qui doivent prévaloir au déploiement de la GenAI au sein des systèmes critiques de Thales. Autre critère : l'exigence de responsabilité, qui comprend la mise en conformité avec les cadres légaux et éthiques. Des éléments qui recouvrent aussi bien le respect de la confidentialité des données que la réduction des biais, sans oublier le défi de la réduction de l'empreinte carbone via une stratégie dite de frugal learning. "Dans certains cas de figure, le système doit pouvoir fonctionner avec quelques watts seulement. Nous avons par exemple intégré un système de reconnaissance d'images au Rafale qui utilise un Thales neural processor répondant à des exigences très strictes de frugalité en énergie", explique David Sadek, vice president research, technology & innovation en charge de l'IA et de l'information processing chez Thales
Pour l'heure, l'IA générative ne coche aucune de ces cases. "Mais nous y travaillons. Il s'agit de la condition sine qua non pour déployer nos futurs systèmes de centre de commandement", prévient David Sadek. "Tout l'enjeu est en outre de faire en sorte que le LLM trace les données pour permettre de savoir précisément d'où elles proviennent."
ChatGPT déployé en interne
Comment faire en sorte que l'IA générative devienne une IA de confiance ? Chez Thales, cet objectif passe par des tests massifs, mais aussi par les méthodes formelles pour s'assurer que l'IA générative ne va pas produire des résultats aberrants susceptibles de porter atteinte à la sureté de fonctionnement des systèmes. "Il faut par ailleurs avoir en tête que l'IA générative intervient, in fine, avant tout comme une aide à la décision. Il y aura toujours un humain en bout de course qui interviendra pour statuer sur l'action à mettre en œuvre en fonction des résultats qui lui sont soumis", insiste David Sadek.
En parallèle, Thales a déployé ChatGPT en interne, et ce pour toutes les fonctions du groupe. Un type de déploiement qui n'est en théorie pas permis par son éditeur OpenAI. Mais pour ce projet Thales a signé un accord spécifique avec le fournisseur. La finalité de ce ChatGPT interne ? Elle est d'accroître la productivité et réduire les coûts en positionnant l'IA générative comme un levier pour augmenter la capacité des collaborateurs et leur permettre de se concentrer sur des tâches à valeur ajoutée. Ce ChatGPT interne est utilisé pour interroger les contenus du groupe, en posant par exemple des questions sur les missions menées pour tel ou tel projet. Il est aussi couramment utilisé pour réaliser des présentations, des comptes-rendus… L'internalisation du système permet à Thales de s'assurer que ses informations resteront sur ses environnements IT de façon entièrement sécurisée.
Pour le reste, Thales expérimente la génération de contenu dans des domaines très divers : génération de code, mais aussi de contenu pour l'analyse de données, que ce soit dans la finance, la gestion de projet, les achats (pour répondre à des appels d'offres notamment) ou encore pour la communication et le marketing.