Modifié

La prolifération des robots tueurs dans les conflits en Ukraine et au Moyen-Orient

Un nouveau drone Sea Baby « Avdiivka » navigue sur l'eau lors de sa présentation par le service de sécurité ukrainien dans la région de Kiev, en Ukraine, le mardi 5 mars 2024. « Il s'agit d'un drone dont la navigabilité et les capacités ont été considérablement améliorées et qui sera certainement capable de transporter une charge utile de plus d'une tonne à une distance de plus de 1 100 kilomètres », a déclaré un général de brigade du service de contre-espionnage militaire ukrainien, qui dirigeait l'équipe d'ingénieurs qui a créé le nouveau drone. United24, une organisation gouvernementale de crowdfunding qui recueille les dons d'entreprises et de particuliers du monde entier, s'occupe de la collecte des fonds. (AP Photo/Evgeniy Maloletka) [AP PHOTO via KEYSTONE - Evgeniy Maloletka]
Un nouveau drone Sea Baby « Avdiivka » navigue sur l'eau lors de sa présentation par le service de sécurité ukrainien dans la région de Kiev, en Ukraine, le mardi 5 mars 2024. - [AP PHOTO via KEYSTONE - Evgeniy Maloletka]
Sur les champs de bataille du Moyen-Orient et d'Ukraine, l’usage de l’intelligence artificielle est devenu courant, causant des milliers de victimes additionnelles, y compris parmi les civils. Pouvons-nous encore ralentir cette course à l'automatisation des massacres? Tentative de réponse avec le professeur de géopolitique Maurizio Simoncelli.

Ils sont parfois appelés "systèmes d'armes létales autonomes (SALA)". Ce sont les robots tueurs. Loin des images de cyborgs de type Terminator, il s'agit plutôt d'un armement moderne amélioré via l'intelligence artificielle (IA): des drones, des avions ou des bateaux autonomes, des tourelles, des dispositifs de surveillance et d'analyse, des systèmes de protection anti-missiles ou encore des munitions "intelligentes". Un marché à 12 milliards de dollars pour le secteur militaire, avec des projections à 30 milliards de dollars d'ici 4 à 5 ans.

Une statue représentant le personnage du film Terminator, fabriquée à partir de pièces de transmission automobile, est placée près d'un poste de contrôle à Kiev, en Ukraine, le vendredi 25 mars 2022. [Keystone - Vadim Ghirda]
Une statue représentant le personnage du film Terminator, fabriquée à partir de pièces de transmission automobile, est placée près d'un poste de contrôle à Kiev, en Ukraine, le vendredi 25 mars 2022. [Keystone - Vadim Ghirda]

Bien que ces robots tueurs possèdent une certaine "autonomie" technique (comme le repérage et l'acquisition des cibles, l'évaluation de leur pertinence et l'ajustement de la visée), la décision de tirer reste, dans la majorité des cas, sous le contrôle humain.

Au Moyen-Orient et en Ukraine, des milliers de victimes, y compris des civils, sont cependant déjà imputables à ces armes optimisées, qui permettent de massacrer avec toujours plus d'efficacité.

Une multiplication des cibles par 10, voire 100

Une capacité d’extermination qui devient chaque jour plus effrayante et qui, par conséquent, nécessite des interventions urgentes de contrôle. C'est la position défendue dans une interview pour RSI par Maurizio Simoncelli, vice-président et cofondateur de l'Institut de recherches internationales des archives en termes de désarmement (IRIAD) et professeur à l'Université du Latran à Rome.

Le professeur rapporte que l'armée israélienne a déployé dans la bande de Gaza le système IA Lavender, qui a recensé jusqu'à 37'000 Palestiniens comme "militants", une appellation vague qui laisse place à de larges interprétations. Par ailleurs, Tsahal utilise le système Gospel pour identifier et cibler les structures à frapper, tandis que le Dôme de fer (Iron Dome), un système antimissiles autonome, défend Israël contre les projectiles ennemis.

Le système de défense aérienne israélien Iron Dome tire pour intercepter une attaque du Liban au-dessus de la région de Galilée, vue depuis le plateau du Golan annexé par Israël, le 4 août 2024. [KEYSTONE - LEO CORREA]
Le système de défense aérienne israélien Iron Dome tire pour intercepter une attaque du Liban au-dessus de la région de Galilée, vue depuis le plateau du Golan annexé par Israël, le 4 août 2024. [KEYSTONE - LEO CORREA]

Grâce à ces outils, l'armée israélienne parvient "à frapper beaucoup plus rapidement", constate Maurizio Simoncelli. "Autrefois, il y avait un ratio de 10 objectifs par jour, maintenant, nous en avons 100 ou 1000, car ces IA sont capables de traiter les données d'une manière incroyable", note-t-il.

Une identification systématique et des "dommages collatéraux" numérisés

Maurizio Simoncelli s'en inquiète tout particulièrement, insistant sur le fait que le système Lavender "identifie (même en temps de paix) les cibles et prépare des listes qui peuvent être fournies aux forces armées pour les attaquer". Pour lui, "le manque de surveillance des principes selon lesquels ces listes d’objectifs humains sont créées est notable".

Il exprime également son inquiétude quant à la gestion numérique des "dommages collatéraux", c'est-à-dire des cibles non militaires. "La cible peut être à l'intérieur d'un bâtiment habité par vingt autres familles. Quand Tsahal atteint ses cibles, le bâtiment tout entier est démoli, alors qu'il héberge d'autres personnes totalement innocentes."

Une poupée gît parmi des débris de plastique et des vêtements à la suite d'une frappe aérienne israélienne au camp de Muwassi près de Khan Younès, dans le sud de la bande de Gaza, le jeudi 5 décembre 2024. [KEYSTONE - ABDEL KAREEM HANA]
Une poupée gît parmi des débris de plastique et des vêtements à la suite d'une frappe aérienne israélienne au camp de Muwassi près de Khan Younès, dans le sud de la bande de Gaza, le jeudi 5 décembre 2024. [KEYSTONE - ABDEL KAREEM HANA]

"Nous avons appris de sources israéliennes [...] qu'il existe même un tableau avec un certain nombre de victimes collatérales tolérables pour le type de niveau de cible: pour un militant de base, c'est 10 dommages collatéraux, pour un commandant de niveau moyen ou plus, jusqu'à 100 ou 200".

Sur le terrain, le soldat israélien prend l'habitude de se fier à ces systèmes. "Aujourd'hui, ils n'obéissent plus au commandant, ils obéissent à Lavander ou à Gospel", conclut Maurizio Simoncelli.

Une évolution inquiétante

Pour le professeur, les dérives potentielles de ces technologies sont nombreuses et vont au-delà des pratiques israéliennes, russes ou ukrainiennes actuelles. Le développement des outils d'IA à usage militaire conduit les différents corps d'armée du globe vers une course à l'armement intelligent. Un engrenage inévitable pour les soldats qui souhaitent rester en vie.

Comme l'explique Maurizio Simoncelli, nous disposons aujourd'hui de "missiles qui se déplacent très vite, à basse altitude, et ne sont détectables que lorsqu'ils sont très proches de la cible. Les temps de réaction humaine sont beaucoup plus lents. Il faut donc s'appuyer de plus en plus sur les machines, de plus en plus sur l'IA, pour identifier un missile, une éventuelle attaque et réagir par une contre-attaque".

Le problème central de cette course en avant vers la "guerre autonome", c'est que l'IA "ne peut pas prendre en compte les questions éthiques", explique le professeur. "Si l'adversaire est blessé, un soldat peut décider de s'arrêter et de ne pas le frapper [...] L’IA peut-elle comprendre cela? Peut-elle comprendre que dans ce bâtiment il y a 10 autres familles avec des enfants innocents? Nous devons agir en respectant les droits et prérogatives qui respectent la vie des civils. Et l'IA ne peut pas nous le garantir", assène-t-il.

Il est également préoccupé par le potentiel détournement de l'IA à des fins sécuritaires et autoritaires, à l'instar des pratiques de surveillance massive de la population civile observées sous le régime communiste chinois. Surtout, il s'inquiète des implications de la rencontre entre les technologies d'IA et l'arsenal nucléaire actuel.

La possibilité d'une guerre atomique autonome

Ce qui effraie le plus Maurizio Simoncelli, c'est cette expérience de pensée: imaginer une IA dans une situation similaire à celle de Stanislav Petrov. Le 26 septembre 1983, un peu après minuit, en pleine Russie, cet officier de la défense anti-aérienne soviétique a remarqué le tir de cinq missiles balistiques intercontinentaux américains en direction de l'URSS.

Une telle manœuvre aurait dû déclencher la procédure de riposte de Moscou, qui aurait pu conduire les deux blocs dans une guerre nucléaire mondiale. Mais le militaire russe a douté, avec raison, de la véracité de l'offensive américaine et n'a pas engagé la force de frappe russe dans une contre-attaque.

"Il a pris cette décision parce qu'il a pensé: ils nous attaquent avec 5 missiles! C'est impossible pour eux de nous attaquer avec 5 missiles seulement, alors qu'ils en ont 20'000 ou 30'000." Et il a assumé la responsabilité de ne pas avoir répondu à l’attaque, raconte Maurizio Simoncelli. "Cet être humain a raisonné et a réalisé qu'il pouvait déclencher une guerre nucléaire mondiale", note-t-il.

Le professeur se demande donc si l’algorithme derrière une IA pourrait faire cette même évaluation. "Lorsqu’il faut décider d'une riposte ou non en quelques minutes, ou quelques secondes, comment l’IA va-t-elle réagir? Nous ne savons pas. Les experts nous disent que les algorithmes produisent parfois des résultats différents de ceux imaginés par leurs concepteurs. Nous pourrions donc nous retrouver dans une guerre nucléaire mondiale déclenchée par une IA."

Une régulation encore faible

Le 5 novembre dernier, l'ONU a adopté une résolution sur les systèmes d'armes autonomes. Elle demande que l'autonomie ne soit pas totale. Il faut qu'il y ait une intervention humaine systématique. La campagne internationale "Stop aux robots tueurs", qui regroupe 70 pays et 160 organisations, va dans le même sens.

Des scientifiques se sont aussi opposés à l'utilisation de l'IA en temps de guerre, plaidant pour que l'humain garde toujours le contrôle. Pour Maurizio Simoncelli, ce point est fondamental. "Ce doit toujours être l'être humain, au dernier moment, qui intervient, qui décide, qui assume la responsabilité politique, militaire et morale d'une attaque. On ne peut pas dire: ce n'est pas ma faute, c'était l'appareil."

Article original: Massimiliano Angeli (RSI)

Adaptation française: Julien Furrer (RTS)

Publié Modifié