En moins de deux minutes, l’affaire était entendue.

L’avion de « Badger », un pilote de F-16 américain ayant une longue expérience des combats aériens, a été touché à quatre reprises par son adversaire sans qu’il réussisse à lui rendre la pareille une seule fois.

La plupart des tirs qui ont fait mouche sont survenus lors de manœuvres osées où les deux appareils fonçaient l’un vers l’autre, ce qui témoigne de la « précision surhumaine » du vainqueur… un système d’intelligence artificielle développé par une firme du Michigan.

L’exercice, mené en 2020 avec un simulateur de vol sous l’égide d’une division du ministère de la Défense américain, a convaincu nombre d’officiers de haut rang de l’intérêt de l’intelligence artificielle (IA) pour le domaine militaire.

Quatre ans plus tard, la même division expérimente l’idée d’intégrer à bord d’un véritable avion de chasse un « copilote IA » capable de prendre en charge le vol pendant que le pilote en chair et en os se consacre à d’autres tâches.

Paul Scharre note qu’il est aussi question de tester la possibilité qu’un pilote vole en formation avec des drones susceptibles, sur son ordre, de se lancer à l’attaque de cibles précises.

IMAGE FOURNIE PAR LA MAISON D’ÉDITION

Four Battlegrounds – Power in the Age of Artificial Intelligence, de Paul Scharre

« Ça avance lentement parce qu’ils veulent être certains de ne pas perdre d’avion », note cet analyste, qui a écrit en 2023 un livre fouillé détaillant comment l’IA est susceptible de changer la manière de faire la guerre.

Même si la nouvelle technologie est sur toutes les lèvres, les dirigeants militaires américains continuent trop souvent, dit-il, de penser en nombre d’avions, de vaisseaux ou de soldats.

Cet attachement reflète le fait qu’il est plus facile de quantifier la puissance militaire d’un pays par le nombre d’appareils et de soldats à sa disposition. Il ne reflète cependant pas l’importance du « changement de paradigme » en cours, aussi important que celui survenu à l’ère industrielle, note M. Scharre.

La Chine et la Russie, qui consacrent tout comme les États-Unis d’importantes ressources à la production d’armes traditionnelles, investissent également pour tirer profit des possibilités révolutionnaires de l’IA.

PHOTO MIKHAIL METZEL, ARCHIVES ASSOCIATED PRESS

Le président russe, Vladimir Poutine

Le président russe, Vladimir Poutine, affirmait il y a quelques années que le meneur dans ce domaine deviendrait « le maître du monde ».

Les transformations sont déjà en cours et sont susceptibles de modifier profondément, à terme, la balance du pouvoir international, les pays « les plus avancés sur le plan technologique » partant avec une longueur d’avance.

Dans une analyse parue il y a quelques années, Kenneth Payne, stratège militaire du King’s College de Londres, prévenait que l’efficacité des systèmes d’IA supplanterait en importance les capacités militaires classiques.

« Même un avantage technologique marginal en intelligence artificielle pourrait avoir un effet disproportionné sur le champ de bataille, puisqu’une capacité décisionnelle légèrement supérieure, notamment en matière de rapidité et de précision », peut mener à une forme de domination, relevait-il.

Quel rôle pour les machines ?

Les scénarios spéculatifs sur ce que sera l’avenir de la guerre doivent aussi prendre en considération la place que les humains joueront dans le processus.

Alors qu’apparaissent des systèmes militaires autonomes comme des drones capables de tirer sur une cible sans supervision directe, le débat s’intensifie sur la nécessité d’encadrer ce type de pratique.

Le débat va aller en s’intensifiant, relève M. Scharre, puisque l’intégration de l’IA dans le monde militaire va entraîner une accélération et une complexification des combats à un niveau tel que les humains risquent de devenir rapidement dépassés.

PHOTO TIRÉE DU SITE WEB DU CNAS

Paul Scharre, analyste

Les machines ne feraient pas que sélectionner des cibles individuelles, mais planifieraient aussi des campagnes complètes. Le rôle des humains serait alors d’activer les machines et de rester sur les lignes de côté avec peu de capacité pour arrêter les guerres résultantes.

Paul Scharre, analyste

Il dresse à ce sujet un parallèle avec les épisodes de krachs boursiers imputés à la programmation algorithmique qui sont survenus avant que les autorités puissent imposer un frein.

Jacquelyn Schneider, analyste de la Hoover Institution, spécialisée en simulations militaires, ne croit pas à ce scénario.

Les guerres, dit-elle, sont des processus itératifs dans lesquels les deux camps se répondent « coup pour coup » et s’ajustent à l’introduction de nouvelles technologies.

« On ne verra pas de guerre où il suffit de pousser un bouton », dit-elle.

Ces scénarios ne seront pas d’actualité avant des décennies, s’ils le sont un jour, note M. Scharre, qui insiste sur les difficultés d’intégration actuelles de l’IA dans le monde militaire.

Les systèmes basés sur l’apprentissage profond présentent des vulnérabilités qui peuvent avoir des conséquences dramatiques et inattendues, les rendant a priori peu compatibles avec la prise de décisions militaires lourdes de conséquences en pertes de vies humaines, dit-il.

Un système « entraîné » à partir de données correspondant à un environnement spécifique peut rapidement se trouver déstabilisé dans un cadre légèrement différent, passant de « super intelligent à super stupide en un instant ».

Le Pentagone, illustre M. Scharre, avait développé il y a quelques années un système d’IA devant aider à détecter des individus dans un milieu urbain complexe. Lors d’un test, plusieurs soldats ont pu l’approcher sans être détectés, l’un en se mettant une boîte de carton sur la tête, un autre en faisant des roulades.

Dans le domaine militaire, la problématique est amplifiée par le manque de données disponibles pour entraîner les systèmes, les forces adverses étant rarement coopératives sur ce plan, note M. Scharre.

L’IA, plus belliqueuse que l’homme ?

Le fait que le comportement de systèmes d’IA ne peut pas toujours être expliqué par leurs concepteurs est un autre enjeu important.

Mme Schneider, de concert avec un collègue de l’Université Stanford, Max Lamparth, a réalisé une série de simulations révélatrices à ce sujet en utilisant les systèmes d’intelligence artificielle développés notamment par Meta et OpenAI.

Dans un article publié récemment dans la revue Foreign Affairs, ils relèvent que les systèmes en question ont opté dans un contexte de confrontation pour l’escalade militaire et le conflit, l’un d’eux allant même jusqu’à préconiser le recours à l’arme atomique.

En entrevue, M. Lamparth note qu’il est impossible, en entraînant un système d’IA pour tenter d’éviter les dérapages sécuritaires, de garantir qu’il aura le comportement jugé souhaitable lorsqu’il sera mis à l’épreuve.

Il paraît inconcevable de confier à un tel système des décisions à haut risque, particulièrement dans des situations de combat, tant que les méthodes d’entraînement n’auront pas été profondément transformées, notent les deux chercheurs.

Cette approche prudente, ajoutent-ils, doit particulièrement s’appliquer dans le domaine nucléaire.

Les États-Unis ont déjà indiqué qu’ils n’entendaient pas placer d’IA dans la chaîne décisionnelle menant au tir de missiles nucléaires, mais la Russie demeure circonspecte sur le sujet et a déjà évoqué l’idée d’un sous-marin autonome portant un missile nucléaire.

Aucun officier ne va prendre une décision de cet ordre en se basant sur ce que lui dit un algorithme.

Zachary Davis, spécialiste en matière de dissuasion nucléaire rattaché au Lawrence Livermore National Laboratory,

On ne peut cependant exclure, dit Zachary Davis, que l’émergence de systèmes d’IA sophistiqués ait un effet déstabilisateur dans le domaine nucléaire en minant l’idée de destruction mutuelle assurée sur laquelle repose l’ordre international.

Un pays détenteur de l’arme nucléaire pourrait être tenté d’attaquer en premier s’il pense disposer, grâce à l’IA, de plus de précision et de rapidité pour frapper et ensuite neutraliser une potentielle contre-attaque, d’où qu’elle provienne.

Il faut par ailleurs que les militaires en question soient formés pour bien comprendre ce qu’il y a « sous le capot » de ces singuliers assistants, comme un soldat connaît les moindres pièces des armes qu’il utilise sur le terrain.

PHOTO TIRÉE DU SITE WEB DE LA HOOVER INSTITUTION

Jacquelyn Schneider, analyste de la Hoover Institution, spécialisée en simulations militaires

S’il y a un armageddon nucléaire un jour, ce sera parce que des humains ont commis des erreurs.

Jacquelyn Schneider, analyste de la Hoover Institution, spécialisée en simulations militaires

M. Scharre pense qu’il est primordial que les gouvernements veillent à assurer la fiabilité des systèmes avant de songer à les utiliser de quelque manière que ce soit dans le domaine militaire.

On ne peut cependant exclure, dit-il, qu’un pays se trouvant au pied du mur faute de ressources matérielles ou humaines soit tenté un jour d’utiliser l’IA en prenant des risques inconsidérés. Un évènement choc, comme les attaques du 11 septembre 2001, peut aussi favoriser un tel scénario.

« En temps de paix, il y a beaucoup de garde-fous en place » qui ne tiennent plus nécessairement lorsqu’un conflit éclate, prévient-il.