« Le recours à l’IA dans le cadre des opérations militaires marginalise la prise de décision humaine »
Dans une tribune au « Monde », la directrice du Centre géopolitique des technologies de l’Ifri estime que l’ampleur et la succession des actions menées par l’intelligence artificielle sur les terrains de guerre rendent les opérations trop rapides pour être appréhendées par un esprit humain.
« La guerre en Iran inaugure une ère de bombardements pilotés par l’intelligence artificielle [IA] plus rapides que la vitesse de la pensée », estimait un article du Guardian daté du 3 mars au sujet de l’opération « Fureur épique », lancée le 28 février par les Etats-Unis et Israël contre la République islamique d’Iran. Ne serait-ce qu’au cours des douze premières heures de l’offensive, Washington et Tel-Aviv ont mené 900 frappes contre des objectifs iraniens, provoquant notamment la mort du Guide suprême, Ali Khamenei. Ce déluge de feu à une cadence extrêmement élevée – plus d’une frappe par minute – n’est pas sans rappeler celui qui a déferlé sur Gaza après le début de l’opération « Epées de fer », en octobre 2023.
Or, le magazine d’investigation israélien +972 a depuis relaté la manière dont des programmes d’IA avaient servi de véritables « usines à cibles », permettant à l’armée israélienne de démultiplier ses capacités en la matière. Dans le cas iranien, le Wall Street Journal a révélé, dès les premières heures du conflit, que Claude, le modèle d’IA générative d’Anthropic, pourtant fraîchement banni du Pentagone, avait été utilisé par l’armée américaine pour planifier l’attaque lancée le 28 février.
Pour comprendre ce que le recours à des techniques d’IA apporte dans une opération comme celle-ci, il faut d’abord rappeler les étapes du ciblage. Avant d’être frappée, une cible doit être localisée et suivie, puis son importance évaluée, son environnement déterminé – pour estimer le risque de dommage collatéral – avant qu’un certain type d’arme et de vecteur ne soient sélectionnés et, finalement, employés. C’est pour accélérer ce processus – allant de l’identification de la cible à l’approbation légale et au lancement de la frappe, appelé « kill chain » – que Claude aurait été utilisé, aux côtés d’outils fournis par d’autres acteurs du secteur, Palantir en tête.
Les techniques d’IA réduisent ainsi considérablement le délai entre la collecte d’informations, l’analyse, la décision et l’action militaire permettant, concrètement, de frapper un plus grand nombre de cibles, plus vite, à moindres frais et avec l’apparence d’une justification rationnelle. Toutefois, comme le pressentait, dès 2009, le politiste Armin Krishnan, ces avancées technologiques risquent de rendre la guerre « inhumainement efficace ». La rapidité et l’ampleur du recours à l’IA dans la planification et la conduite des opérations font en effet craindre une marginalisation de la prise de décision humaine.
L’accélération du rythme de la guerre conjuguée au « déluge » de données généré par l’arsenalisation de l’IA altèrent la capacité de jugement humain, les opérations devenant trop rapides pour être pleinement comprises. Dans ces conditions, l’opérateur n’est plus en mesure de saisir et de maîtriser le fonctionnement du système, ni d’appréhender pleinement l’environnement dans lequel celui-ci est déployé. Les militaires chargés de décider d’une frappe peuvent donc se sentir éloignés et déresponsabilisés de ses conséquences, puisque l’analyse et la réflexion sont réalisées par la machine.
L’expérience israélienne est, de ce point de vue, édifiante. Selon Meron Rapoport, du média israélien Local Call – qui a enquêté avec +972 sur le recours à l’IA par l’armée israélienne –, la phase de vérification humaine des cibles se révèle extrêmement courte, parfois de l’ordre d’une vingtaine de secondes. Une telle pression temporelle incite à seulement entériner les propositions de la machine.
Titre Edito
Recours à l'arme nucléaire
Recours à l'arme nucléaire
À cela s’ajoute l’effet « boîte noire », qui désigne le fait que l’IA aboutit parfois à des résultats que les programmeurs ne savent pas expliquer. De plus, si les opérateurs ont connaissance du type de renseignement mobilisé pour recommander une frappe – images satellites ou de drones, écoutes téléphoniques, renseignement d’origine électromagnétique… –, ils n’ont aucune idée de ce qui est incriminant dans ces données, ce qui ne laisse pas de place à l’exercice d’un réel discernement.
Cette opacité s’accompagne enfin d’un biais d’automatisation, qui renvoie à la tendance naturelle à accorder une confiance excessive au système. Ne comprenant pas le raisonnement de la machine et supposant qu’elle effectue des calculs bien plus complexes qu’eux, le personnel militaire se limite souvent à approuver ses choix, réduisant « l’humain dans la boucle » à un simple droit de veto.
L’érosion du contrôle exercé sur la force militaire est d’autant plus préoccupante que, d’après une étude menée par Kenneth Payne au King’s College de Londres, les principaux modèles développés par OpenAI, Anthropic et Google choisissent de recourir à l’arme nucléaire dans 95 % des cas de conflits auxquels ils sont exposés. Ce pourcentage indique que le tabou nucléaire n’est pas aussi prégnant dans le raisonnement de programmes d’IA qu’il ne l’est dans l’imaginaire humain.
Le droit des conflits armés est fondé sur l’ambition d’« humaniser la guerre », en trouvant un équilibre entre l’efficacité militaire et le principe d’humanité. Pour ce qui est de ce dernier, les théâtres d’opérations contemporains montrent que, loin de favoriser une conduite de la guerre plus « propre » et conforme au droit international, les applications militaires de l’IA contribuent au contraire à une utilisation plus massive et plus rapide de la force.
En ce qui concerne l’efficacité militaire, il est sans doute utile de rappeler que l’indépassable théoricien Clausewitz (1780-1831) mettait en garde, dans son traité De la guerre, contre la perspective d’une « méthode qui fournirait des plans de guerre et de campagne fixes et comme sortant tout prêts d’une machine », ajoutant que celle-ci « devrait être rejetée sans condition ».
Le bombardement de Minab (sud de l’Iran), qui aurait fait 168 victimes, le 28 février, dans une école de filles près du détroit d’Ormuz, pose une question vertigineuse : comment une telle frappe a-t-elle pu être approuvée ? L’erreur de ciblage est si flagrante qu’il est difficile d’y voir une décision humaine pleinement assumée, sauf à supposer un cynisme absolu.
Tout suggère plutôt une recommandation algorithmique faussée par une mauvaise analyse d’images satellitaires et la proximité de l’école avec une base des gardiens de la révolution. Qu’un programme d’IA soit ou non à l’origine de cette frappe importe presque moins que ce constat : à un moment crucial, le discernement humain a manqué. Et si, au nom de l’efficacité militaire, nous avions déjà commencé à déléguer à la machine des choix qui engagent notre humanité ?
>> Retrouvez la Tribune complète sur le site de Le Monde
Média
Format
Partager