Certains éléments du court-métrage "Slaughterbots" ("Robots meurtriers") paraîtront familiers aux fans de la série dystopique britannique "Black Mirror".
En sept minutes, le film (en anglais) dépeint un avenir violent et effrayant, fictionnel mais plausible, dans lequel des essaims de micro-drones tueurs, conçus par une entreprise de haute technologie, prennent pour cibles des militants anti-corruption, des étudiants et des politiciens.
Depuis sa mise en ligne il y a une dizaine de jours, la vidéo a été visionnée près de deux millions de fois.
Traité international réclamé
A l'origine de ce court-métrage, un groupement de scientifiques et d'ONG qui redoutent les conséquences potentiellement catastrophiques pour l'homme du développement d'armes létales entièrement autonomes.
Leur organisation fait campagne pour réclamer un traité international interdisant les robots tueurs. "Slaughterbots" a d'ailleurs été présenté à Genève la semaine passée dans le cadre de la convention sur certaines armes classiques de l'ONU.
Les militants considèrent que l'utilisation d'armes dotées d'intelligence artificielle, capables de sélectionner par elles-mêmes et d'attaquer des cibles sans supervision humaine, présente de nombreux problèmes légaux, politiques et moraux.
Permettre à des machines de choisir de tuer des humains serait un désastre pour notre sécurité et notre liberté.
La vidéo s'achève ainsi sur quelques mots du scientifique britannique Stuart Russell, expert en intelligence artificielle et professeur de sciences informatiques à la prestigieuse université californienne de Berkeley (voir interview en encadré).
"Ce court-métrage n'est pas que de la spéculation. Il montre les conséquences d'une miniaturisation et d'une intégration de technologies dont nous disposons déjà. (...) Les avantages potentiels (de l'intelligence artificielle) pour l'humanité sont énormes, y compris dans la défense. Mais permettre à des machines de choisir de tuer des humains serait un désastre pour notre sécurité et notre liberté."
Pauline Turuban
"Les armes autonomes sont des armes de destruction massive", pour Stuart Russell
- RTSinfo: A quel stade se trouve-t-on dans le développement d'armes létales autonomes?
Stuart Russell: L'ONU et les Etats-Unis définissent une arme létale autonome comme une arme capable de localiser, sélectionner et attaquer des cibles humaines sans surveillance humaine. Selon cette définition, le missile Harpy/Harop israélien et le robot militaire sentinelle SGR-A1 de Samsung utilisé par la Corée du Sud dans la zone démilitarisée sont déjà des armes létales autonomes.
Si un programme intensif était lancé, des armes autonomes plus puissantes pourraient être produites, par exemple des armes antipersonnel capables de naviguer dans les villes et à l'intérieur des bâtiments. Toutes les technologies nécessaires existent. Construire une arme létale autonome est aujourd'hui plus facile que de construire une voiture autonome.
- Quels avantages les armes autonomes peuvent-elles présenter pour une armée?
- Les partisans des armes autonomes relèvent qu'elles peuvent mener des attaques sans risquer la vie de ses propres soldats, et qu'elles pourraient théoriquement réduire les pertes en éliminant des défenseurs, dans des situations fortifiées, sans recourir à l'artillerie ou aux bombardements.
A noter que cela est aussi vrai pour les drones pilotés à distance, mais les armes autonomes peuvent être beaucoup moins chères que les drones télécommandés, et peuvent être lancées en très grand nombre. Parmi les autres avantages, certains pointent le fait que les armes autonomes pourraient être beaucoup plus efficaces que les pilotes humains dans le combat aérien.
- Quels sont les principaux risques, préoccupations et enjeux liés au développement des armes autonomes?
- En premier lieu, le respect du droit international humanitaire est très important. Faire la distinction entre soldats et civils est possible dans la plupart des cas; en revanche, déterminer la proportionnalité et la nécessité n'est pas faisable pour les systèmes actuels d'intelligence artificielle. Un opérateur humain devrait le faire, ce qui limiterait la portée des missions pouvant être lancées "légalement". Mais il y a un risque que les armes soient utilisées indistinctement, tout comme des armes chimiques ont pu être utilisées contre des civils en Syrie.
Ensuite, l'autonomie implique qu'un (petit) nombre de personnes ont la capacité de déployer un nombre extrêmement élevé d'armes. En ce sens, les armes autonomes sont des armes de destruction massive - bon marché, efficaces, non attribuables et pouvant proliférer facilement une fois que les grandes puissances initient la production de masse et qu'elles deviennent disponibles sur le marché international des armes.
Avec la capacité de reconnaissance faciale, les armes autonomes offrent la possibilité d'un assassinat à distance et intraçable. Elles permettent par ailleurs l'extension de la cyber-guerre dans le domaine physique, car les systèmes de contrôle logiciel peuvent être infiltrés et modifiés. Par exemple, les armes autonomes d'une nation pourraient être dirigées contre sa propre population civile. Enfin, on ne peut pas écarter la possibilité d'une guerre accidentelle, un "crash éclair" militaire.
- Quels pourraient être, selon vous, des manières moins problématiques de tirer parti de l'intelligence artificielle dans le domaine de la défense?
- Il existe de nombreuses manières moins problématiques d'utiliser l'intelligence artificielle, par exemple pour de la reconnaissance, de la surveillance, l'analyse du renseignement, l'évaluation tactique et stratégique d'une situation, etc.