Industrie de l’armement

La prolifération des « robots tueurs » inquiète la communauté internationale

Industrie de l’armement

par Anne-Sophie Simpere

C’est la troisième grande rupture technologique dans le domaine militaire : après la poudre puis la bombe nucléaire, voici le temps des robots armés et autonomes. Cette « innovation » fait l’objet de vifs débat. Des centaines de scientifiques et des ONG de défense des droits sonnent l’alerte.

Eurosatory, l’un des plus grands salons internationaux de l’armement, s’est ouvert ce 11 juin à Paris. C’est l’occasion d’y découvrir comment l’industrie militaire renouvelle à sa manière la biodiversité planétaire... Le concept d’une raie en titane et aluminium dotée de caméras de surveillance et bourrée d’explosifs est développé en Turquie. Un drone chauve-souris est conçu par des scientifiques nord-américains. Des essaims de nano-drones, pas plus grands que des insectes et capables d’évoluer en groupe et de façon autonomes, sont testés par l’armée états-unienne. Côté chinois, ce sont des bancs de robots similaires à des bancs de poissons qui sont lâchés en pleine mer.

« Chien robot », tank piloté à distance ou robot sentinelle autonome

Ces programmes de recherche peuvent paraître anecdotiques. Ils sont pourtant le reflet d’une rupture technologique en cours qui bouleverse le monde militaire : la révolution robotique, ou "robolution" selon Gérard de Boisboissel, secrétaire général de la chaire de cyberdéfense et de cybersécurité de Saint-Cyr. « Depuis les années 2000, il y a des recherches sur la miniaturisation, les processeurs, la Direction générale de l’armement travaille avec des start-ups. Nous nous dirigeons vers des systèmes de plus en plus autonomes », estime Tony Fortin, de l’Observatoire des armements.

Spot, le « chien robot » qui accompagne les marines américains

Exemple emblématique de la tendance : les drones armés, nouveaux accessoires indispensables sur les champs de bataille et dont les assassinats ciblés à distance font controverse depuis plusieurs années (voir notre article Drones : comment des milliers de personnes sont exécutées en dehors de tout cadre légal). À leur côté, on retrouve une myriade de robots de guerre, tel Dogo, petit engin israélien monté sur chenilles et armée d’un pistolet 9 mm, Spot, le « chien robot » qui accompagne les marines américains, ou Uran-9, un tank russe armé piloté à distance et déjà déployé en Syrie. Sans oublier le soldat SGR-A1, un robot militaire sentinelle développé par Samsung, qui surveille la frontière entre la Corée du Sud et la Corée du Nord. Il est capable de détecter des cibles et de tirer automatiquement.

Donner le pouvoir de tuer à un algorithme ?

« Beaucoup de soldats sont revenus traumatisés d’expériences de combat au corps à corps, notamment au Kosovo. Pour les États et les états majors, la robotisation permet de garder les combattants à distance et d’éviter les morts et les traumatismes qui font polémique », analyse Tony Fortin. Pour l’entreprise de défense Thales, l’intelligence artificielle permet de « retirer l’humain des tâches monotones, sales ou dangereuses ». Au robot le sale boulot ! Autre argument des défenseurs de la « robolution » : les machines seraient plus rapides, prévisibles et dépourvues de sentiments comme le stress, la nervosité, la colère… Bref, dépouillées de tout affect pouvant influencer les décisions, elles seraient plus fiables qu’un humain.

Uran-9, un tank russe armé, piloté à distance et déjà déployé en Syrie

« Sauf qu’un algorithme ne peut pas avoir la capacité d’analyse d’un cerveau humain, la faculté à évaluer une situation spécifique », insiste Tony Fortin. « Au rang des limites de ces machines il faut relever leur inaptitude à agir en dehors du domaine d’application prévu », reconnait-on dans "Chocs futurs", une Étude prospective du Secrétariat général de la défense et de la sécurité (SGDSN) qui consacre une partie de ses analyses aux robots militaires. En d’autres termes, une machine ne peut réagir que dans les limites de sa programmation, ce qui restreint ses facultés de jugement et d’adaptation au contexte. Inquiétant, puisque l’idée est ici de lui permettre de tirer sur des gens.

Les experts de l’intelligence artificielle sonnent l’alerte

Il y a trois ans, plus de 100 experts et scientifiques du monde entier, parmi lesquels Elon Musk (patron du constructeur automobile Tesla, qui a créé en 2015 le centre de recherche OpenAI sur l’intelligence artificielle), le physicien Stephen Hawking, décédé en mars dernier, ou encore l’informaticien Stuart Russell, pionnier de l’intelligence artificielle, avaient écrit une lettre ouverte aux Nations Unies pour alerter sur les risques liés à la prolifération des « robots tueurs », qu’ils qualifiaient de danger pour l’humanité. Selon eux, moins couteux et plus faciles à obtenir que l’arme nucléaire, les armes autonomes pourraient tomber entre de mauvaises mains et permettre des meurtres massifs, visant par exemple des groupes ethniques spécifiques.

Cette crainte est illustrée de manière très réaliste par une vidéo choc présentée l’année dernière à la convention des Nations Unies sur les armes conventionnelles dans le cadre de la campagne contre les robots tueurs. Cette vidéo montrait des centaines de mini-drones armés et équipés de détecteurs à reconnaissance faciale lâchés en milieu urbain, avec pour mission d’abattre des élus dérangeants ou des étudiants trop remuants.

Lancée en 2013 et coordonnée par l’organisation Human Rights Watch, la campagne internationale contre les robots tueurs regroupe aujourd’hui plus de 70 ONG dans 30 pays, dont Amnesty international, Handicap international ou l’association Sciences citoyennes en France. « Pour nous, le principe de permettre à une machine de choisir de donner la mort à un humain est une ligne rouge. C’est inacceptable », explique Mary Wareham, coordinatrice de la campagne. Au delà des arguments éthiques, l’enjeu est aussi légal. Comment faire respecter le droit international humanitaire quand des machines prennent la décision de tuer ? Comment s’assurer que la machine distingue la les civils des combattants ? Et qui tenir responsable en cas de violation du droit ?

Où s’arrête le contrôle "significatif" de l’humain ?

La France a lancé le débat au niveau des Nations Unies en 2013. Après des réunions informelles de groupes d’experts, des sessions périodiques se tiennent aujourd’hui pour débattre du sujet. Alors que les ONG espèrent un traité interdisant les armes autonomes, les débats butent sur la définition de ce qu’est un « système d’arme létale autonome ». Pour Alice Guitton, ambassadrice représentante permanente de la France auprès de la Conférence du désarmement, il est difficile d’obtenir une définition consensuelle des systèmes létaux autonomes, notamment en raison de leur nature duale : beaucoup de technologies sont en effet utilisées dans le domaine civil comme dans le domaine militaire. « Le mélange des genres est total : on trouve des drones dans des grands magasins. C’est un problème : le matériel de demain est développé dans le civil, sans contrôle, et il est plus difficile de le règlementer », souligne Tony Fortin.

Le robot militaire sentinelle SGR-A1, développé par Samsung, surveille la frontière entre les deux Corées

La définition du degré de contrôle humain nécessaire est aussi très sensible. « En gros, il y a deux fonctions critiques en matière de combat : identifier des cibles et recourir à la force. Pour ces deux fonctions on pense qu’il faut toujours un contrôle humain. Les États font beaucoup d’efforts pour dire que leurs armements sont encore semi-autonomes, et pas autonomes. Nous commençons à nous demander si c’est toujours le cas », souligne Mary Wareham. Selon la diplomatie française, les robots tueurs n’existent pas encore. Mais où s’arrête le contrôle « significatif » de l’humain ? Le soldat contrôle-t-il encore l’intégralité du processus de décision quand la machine lui soumet une quantité gigantesque d’informations traitées automatiquement, à des vitesses inatteignables pour le cerveau ? Et que penser du robot de Samsung, capable de tirer automatiquement à la frontière coréenne ?

La tentation de la course aux armements

Plutôt qu’un traité contraignant, la France et l’Allemagne proposent une déclaration politique. « On y rappelle les principes du droit international humanitaire, et notre attachement à un contrôle humain "significatif" sur la machine, explique Alice Guitton. C’est un moyen d’avancer avec tout le monde. Cela n’exclut pas qu’il y ait d’autres étapes, mais il ne faut pas tarder. Une déclaration politique est une solution intermédiaire pour ceux qui refusent toute réglementation. » Les États-Unis seraient les principaux bloqueurs, le Royaume-Uni ne voudrait pas d’interdiction, la Chine et la Russie seraient très prudentes. La France semble plus engagée : Emmanuel Macron s’est même déclaré « catégoriquement opposé » aux armes létales autonomes.

Face aux moyens mis en œuvre par les grandes puissances dans la recherche robotique, le gouvernement français s’est quand même lancé dans la course. La ministre des armées Florence Parly affirme que la France ne développe pas de robot tueur et, en même temps, alloue 100 millions d’euros à la recherche sur les technologies d’intelligence artificielle pour les avions de combat. « Tous les pays producteurs d’armement (États-Unis, Russie, Chine, France, Grande- Bretagne, Israël...) proposent aujourd’hui des systèmes d’armes, y compris létaux, intégrant des robots ou des systèmes autonomes », note le Secrétariat général de la Défense et de la Sécurité nationale (SGDSN).

Alors que les députés européens ont exclu les armes autonomes des projets éligibles au nouveau fonds européen pour la recherche militaire, ils ont dû les réintégrer sous la pression du Conseil et de la Commission européenne. Selon le SGDSN, « la robotisation associée aux capacités d’intelligence artificielle s’imposera inéluctablement sur le champ de bataille en raison de ses nombreux atouts. La fonction létale de ces robots ne sera qu’une option additionnelle à des objets relevant de technologies duales. » Tout comme l’armement des drones n’était qu’une option, pour laquelle la France a aussi fini par pencher après des réticences initiales et un long débat. Au Niger, nos drones Reaper peuvent maintenant être équipés de missiles.

Un traité pour interdire les "robots-tueurs" comme les mines anti-personnelles ?

Mary Wareham, de la campagne contre les robots tueurs, reste optimiste : « Nous avons un fort soutien, une majorité de pays est pour un texte juridiquement contraignant, 26 États soutiennent l’interdiction totale, la communauté scientifique est mobilisée... Même les militaires sont divisés, une partie estimant qu’il y a une certaine éthique de la guerre, à laquelle une machine ne peut pas répondre. Ce n’est pas impossible d’interdire un type d’armes : nous avons réussi pour les mines anti-personnelles, alors qu’elles étaient largement utilisées. » Pour la campagne contre les robots tueurs, une simple déclaration politique ne serait qu’une demi-mesure inefficace là où un texte juridique international est nécessaire.

« Avec la robotisation, on éloigne les militaires du champ de bataille, mais des civils continuent d’être tués », rappelle Tony Fortin. Bien adaptées aux milieux urbains, plus faciles d’accès que les armes nucléaires, sans doute efficaces pour la gestion de foules et la surveillance, les armes robotisées ont de quoi inquiéter les défenseurs des droits. Dès 2015 le rapporteur spécial des Nations Unies sur les exécutions extra-judiciaires appelait à un moratoire. « Ce qui est compliqué, c’est le rapport de force avec le gouvernement : c’est très difficile pour la société civile de peser », déplore Tony Fortin. Dans le domaine militaire, les civils continuent d’être tués, mais ils sont souvent éloignés des débats. Les représentants de la société civile internationale vont tenter de faire entendre voix en août, à la prochaine session des Nations Unies sur le sujet.

Anne-Sophie Simpere

En photo : « RoboCop 2 Cain » conçu par l’artiste Piitas