L’IA continue de prendre du galon au sein des forces militaires françaises. Ce jeudi 16 mai 2024 à Paris, le ministère des Armées a présenté un projet qui convoque cette technologie pour assister les « oreilles d’or ». Ainsi surnomme-t-on les officiers marins analystes qui traquent les signaux acoustiques ennemis à terre et en mer, auxquels le film « Le chant du loup » a rendu hommage en 2019.
L’appel à l’intelligence artificielle pour bonifier cette technique de surveillance s’inscrit dans le contexte de l’importance croissante de la « guerre acoustique passive » pour la conduite des opérations aéromaritimes, selon l'expression de Vincent Magnan, capitaine de frégate et directeur du Centre d’interprétation et de reconnaissance acoustique (Cira), basé à Toulon.
« On peut détecter grâce à un sous-marin ou à une frégate des éléments acoustiques techniques dont on peut déduire des informations tactiques, comme la vitesse d’un navire, permettant de choisir les manœuvres adéquates, explique-t-il. D’autre part, les frégates et aéronefs de la Marine nationale s’équipent de plus en plus de capteurs passifs dont les performances progressent, ce qui implique un flux de données croissant vers le Cira. »
Un volume de données multiplié par 100 en 10 ans
Le Cira estime que le volume de données à traiter par les analystes est passé de 1 téraoctet (To) en 2020 à 10 To aujourd’hui. Et un facteur 10 est encore envisagé en 2030. L’IA est donc attendue pour « soulager » les opérateurs dans leur tâche en triant de façon automatique et accélérée l’utile, digne d’une analyse humaine approfondie, et l’inutile.
Testé sur des capteurs acoustiques à terre au Cira, un démonstrateur fournirait déjà un gain de temps significatif. « Deux oreilles d’or prennent 40 jours ouvrables pour traiter une campagne de 12 jours successifs d’enregistrements acoustiques, alors que l’IA isole des signaux d’intérêt en 4 à 5 heures, suivies par 5 à 6 jours d’analyse humaine », compare Vincent Magnan. Le degré de fiabilité de l’algorithme n’est pas communiqué, cependant.
Derrière ce démonstrateur livré en 2023 se trouve la société Preligens, spécialisée dans l’IA appliquée à l’analyse d’imagerie satellite (aujourd’hui mise en vente et dont le repreneur devrait être connu cet été) et contribuant déjà au renseignement militaire.
De l'image satellite à l'image sonore
C’est à la suite d’une rencontre, en octobre 2021, entre le Cira et Preligens que le projet d’IA à l’adresse des « oreilles d’or » s’est amorcé. « L’idée est venue que ce que Preligens réussissait à faire sur des images satellite, on pouvait le réaliser sur des images sonores, en tenant compte des particularités complexes de l’acoustique sous-marine », commente Vincent Magnan.
En cours de création, l’agence ministérielle de l’intelligence artificielle de défense (Amiad) a également pris part à la démarche, en vue de procéder à l’acculturation mutuelle des experts en IA et des analystes en guerre acoustique. Il s’agissait, pour l’Amiad, de « cerner les problématiques métiers », et pour le Cira, de « se sensibiliser aux spécificités de l’IA », selon les propos de Julian Le Deunf, de la Direction générale de l’armement (DGA).
Cet expert en IA précise que le modèle d’assistance à la détection acoustique est fondé sur « du deep learning, à l’état de l’art, qui permet d’analyser le flux audio pour remonter à l’analyste les événements acoustiques intéressants avec un maximum de métadonnées. »
Exploiter la riche banque de données du Cira pour l'apprentissage
Le démonstrateur actuel est suffisamment performant pour identifier le nombre de pales d’une hélice, selon Vincent Magnan, et effectuer une pré-classification : « Il différencie des petits bateaux de plaisance du trafic commercial. A terme ces modèles devront reconnaître d’autres signaux acoustiques caractéristiques - moteur électrique, bruits auxiliaires comme celui du démarrage d’une pompe, etc - pour devenir efficaces sur tout le spectre. »
Le perfectionnement des algorithmes est le premier objectif fixé, ce qui impliquera l’usage extensif de données pour leur apprentissage. L’entraînement a pour le moment été réalisé à partir de jeux de données limités et de capteurs fixes, non embarqués et non déployés en opération. « Depuis la création du Cira en 1983, nous avons accumulé plus de 40000 données et nous prévoyons de les mettre à disposition pour l’entraînement », informe Vincent Magnan.
Vers la détection d'émissions sonar actives
Les autres axes d’amélioration sont l’adaptation des modèles d’IA à tout type de capteur acoustique (frégate, sous-marin, fixe…) et la corrélation à d’autres sources de renseignement (radar, images...), de façon à « fiabiliser les alertes », souligne Vincent Magnan.
Une volonté qui devra s’accompagner de ressources de calcul et de stockage supplémentaires, « une démarche capacitaire déjà engagée », selon le capitaine de frégate.
Les premiers tests en mer sont planifiés en 2025. Un modèle capable de détecter les émissions sonar actives des frégates, à la recherche de sous-marins, sera mis à l’épreuve. D’ici là, les visiteurs du salon Vivatech, qui se tient du 22 au 25 mai prochains, pourront jeter un coup d’oreille à cette technologie sur le stand du ministère des Armées.





