Modifié

Les robots tueurs se rapprochent des champs de bataille

Des soldats ukrainiens utilisent un drone. [EPA/Keystone - Sergey Kozlov]
Les robots tueurs se rapprochent du champ de bataille / Tout un monde / 9 min. / le 8 novembre 2022
Les "robots tueurs", des systèmes qui trouvent leur cible et déclenchent le tir sans intervention humaine, font leurs premières apparitions dans des combats. Toujours pas réglementées dans leur usage, ces armes autonomes soulèvent également de nombreuses questions sur les plans juridique et éthique.

Les recours à des drones armés se sont multipliés dans les conflits récents, notamment dans le Haut-Karabakh ou en Libye. L'étape supplémentaire pourrait être l'Ukraine où, selon le New Scientist, Kiev aurait développé des drones capables de trouver leur cible tout seuls.

Beaucoup de questions se posent sur ces "robots tueurs", sur leur degré d'autonomie, leur utilisation concrète, leur éventuelle interdiction, ou en tout cas sur leur réglementation d'usage.

D'abord, il n'y a pas encore pour le moment de cas absolument confirmés d'utilisation de Systèmes d'armes létales autonomes (SALA). Jean-Marc Rickli, directeur des risques globaux et de la résilience au Centre de politique de sécurité évoque un cas en Libye en 2020. "Il y a eu un rapport de l'ONU l'année passée par rapport à un drone turc, un Kargu 2. Et ce rapport est relativement ambigu: il dit que les troupes du maréchal Haftar (qui a échoué à conquérir Tripoli par les armes, ndlr.), lorsqu'elles se sont retirées, auraient été poursuivies par des drones. Mais il reste ambigu: est-ce que ces drones ont été engagés contre des cibles humaines et si oui, est-ce qu'il y a eu une reconnaissance faciale autonome?"

"Munitions rôdeuses" en Ukraine

En Ukraine, il y a ce qu'on appelle des "munitions rôdeuses", des drones kamikazes qui survolent une zone de conflit et plongent sur une cible. Ce sont par exemple les drones Shaed 136 de fabrication iranienne utilisés par la Russie, même si ces armes ne sont pas totalement autonomes.

Déléguer le choix de la cible à une intelligence artificielle reste problématique, car cela affranchit les parties en conflit de décisions fondamentales.

"Est-ce qu'on est d'accord d'un point de vue éthique de laisser à une intelligence artificielle la possibilité de décider quelle cible humaine on va engager?", interroge Jean-Marc Rickli. "Se faire tuer par une machine sans contrôle humain est problématique au niveau éthique, pour commencer. Et ensuite, on voit aussi qu'il y a énormément de biais dans les algorithmes de reconnaissance faciale: la couleur de peau, certains profils ou caractéristiques vont être sur- ou sous-représentés dans ces algorithmes", explique-t-il.

La démocratisation de cette technologie est potentiellement très destructive: je vous laisse imaginer l'utilisation que pourraient en faire certains groupes ou individus qui y auraient accès, avec une essaim de 10, 20, 100 drones armés...

Jean-Marc Rickli, directeur des risques globaux et de la résilience au Centre de politique de sécurité

Autre problème: les risques de prolifération. Certains drones comme le Shaed 136 iranien ne sont pas les plus sophistiqués, ils coûtent à peine 20'000 francs.

Un drone de conception iranienne aperçu près de Kiev le 17 octobre 2022. [Keystone/AP - Efrem Lukatsky]
Un drone de conception iranienne aperçu près de Kiev le 17 octobre 2022. [Keystone/AP - Efrem Lukatsky]

"Ces drones sont relativement bon marché et deviennent vite accessibles. Et une fois que vous avez développé ce type d'algorithme, il est quasiment impossible de stopper leur prolifération, les algorithmes étant juste des lignes de code. La diffusion, la démocratisation de cette technologie est potentiellement très destructive: je vous laisse imaginer l'utilisation que pourraient en faire certains groupes ou individus qui y auraient accès, avec un essaim de 10, 20, 100 drones armés...", illustre Jean-Marc Rickli.

Droit international humanitaire en vigueur

En terme de droit de la guerre, le Droit international humanitaire - des règles qui cherchent à limiter les effets des conflits armés - s'applique dans ce cas également. Pour Cordula Droege, directrice de la Division juridique du CICR, ce droit réglemente la manière dont les armes autonomes, présentes ou futures, peuvent être utilisées. Elle fait toutefois une distinction entre certains types d'armes.

"Il y a des systèmes d'armement autonomes qui existent déjà, et qui ne posent pas de problèmes graves, comme des systèmes anti-missiles pour lesquels les règles sont suffisantes. Mais il y a des nouveaux systèmes, ou qui pourraient être développés, qui posent des vrais problèmes éthiques, comme ceux qui utiliseraient de l'intelligence artificielle imprévisible pour l'humain, ou des systèmes anti-personnel pour lesquels on n'a pas toutes les réponses dans le droit existant", détaille-t-elle.

Si vous avez une arme autonome qui utilise la force sans l'intervention d'un humain, il y a mort par algorithme!

Cordula Droege, directrice de la Division juridique du CICR

Pour la responsable, une des limites serait les armes autonomes spécifiquement conçues pour cibler l'être humain. "Parce qu'il faudrait que l'arme, sans l'aide humaine, puisse distinguer entre des civils, des combattants, des combattants hors combat, des blessés, dans des environnements de guerre souvent urbaine et complexe."

A côté de ces questions juridiques, Cordula Droege souligne également l'aspect éthique. "Si vous avez une arme autonome qui utilise la force sans l'intervention d'un humain, il y a mort par algorithme! Ce qui pose des questions profondes sur nos valeurs humaines, nos principes d'humanité."

>> Lire aussi : Les robots tueurs sont-ils compatibles avec le droit humanitaire?

La Suisse pas pour l'interdiction totale

Comme de nombreux autres pays, la Suisse n'est pas en faveur d'une interdiction totale des armes autonomes, mais elle fait une distinction entre les armes offensives et défensives.

"Je pense que la Suisse ne veut pas s'interdire d'effectuer des développements dans ce domaine", explique Quentin Ladetto, directeur Foresight chez Armasuisse, l'Office fédéral de l'armement. Pour le responsable, le grand point d'interrogation est de savoir comment se défendre contre des armes autonomes d'attaque.

"Il est possible que la seule solution soit des armes autonomes également, par exemple un système à l'abord d'un aéroport qui, de manière autonome, décide d'abattre un missile. Mais sinon, avoir des systèmes laissés à eux-mêmes est non seulement irréalisable actuellement au niveau technologique, mais je pense également que ce n'est pas voulu, ni par l'armée, ni par le gouvernement, ni par le peuple", souligne-t-il.

Si on laisse cela se développer de manière autonome, on va se retrouver dans une situation où les conflits vont être réglés avec des machines qui vont elles-mêmes décider de qui va vivre et qui va mourir.

Michael Moeller, ancien directeur général de l'ONU

Des discussions sont en cours sur ces systèmes autonomes au sein de l'ONU depuis 2014. Michael Moeller, le directeur général de l'ONU à Genève à l'époque, avait exposé ses attentes dans une émission de Tout un Monde en 2015.

"Je suis convaincu qu'on devrait commencer à négocier des traités qui vont gérer l'utilisation de ce genre d'armes", avait-il confié. "Sinon, si on laisse cela se développer de manière autonome, on va se retrouver dans une situation où les conflits vont être réglés avec des machines qui vont elles-mêmes décider de qui va vivre et qui va mourir. Et moi franchement, je n'aimerais pas vivre dans un monde pareil."

Vers un traité en bonne et due forme?

Des années de discussion, mais toujours pas de traité. C'est le temps d'agir, pour Cordula Droege du CICR. "On a beaucoup avancé sur le fait qu'il y a une convergence de vue parmi les Etats, que l'humain doit rester au centre du jugement et du contrôle sur ces armes. Mais après toutes ces années de discussion, il s'agit pour nous de passer à l'action et de réglementer ces armements au niveau international pour avoir une clarté juridique et une protection des populations dans les situations de guerre."

La signature d'un traité en bonne et due forme, comme le souhaite le CICR, tombe-t-elle mal au vu du contexte géopolitique? "Les situations politiques et géopolitiques n'ont jamais été simples. En 1949, on a réussi à négocier les Conventions de Genève en pleine Guerre froide", rappelle Cordula Droege, qui exhorte à ne pas baisser les bras et essayer de trouver un consensus "sur des questions humanitaires fondamentales, même dans des environnements très polarisés."

Patrick Chaboudez/kkub

Publié Modifié