SMART TECH du 6 juillet 2021
Et demain, réglementer les robots tueurs
Les robots investissent le secteur de la défense depuis déjà un moment. Mais avec eux les questions d’éthique et de réglementation peinent à prendre forme à la hauteur de l’enjeu. Un événement récent est d’ailleurs venu rappeler les dangers qui accompagnent et accompagneront demain ces technologies ?
Un événement est venu remettre en question le rôle des robots dans l’armée et leur encadrement.
Pour la première fois, un drone autonome aurait tué une cible en ouvrant le feu de son propre chef. C’est un rapport de l’ONU qui a révélé les faits, alertant au passage sur l’utilisation d’armes autonomes létales.
Les faits auraient eu lieu en Libye en mars 2020. Un drone d’attaque aurait ciblé et visé un combattant qui faisait partie des rebelles dans le cadre d’une opération de l'armée turque. Le drone est un Kargu 2, un drone à quatres hélices conçu par l’entreprise turque STM.
Il est capable de mener une attaque suicide, avec une charge explosive et des munitions.
Globalement les robots drones existants aujourd’hui sont capables de se déplacer à très basse altitude, de façon quasiment indétectable, équipé de matériel de tirs. Des algorithmes se reposent sur les caméras et capteurs installés. Et un opérateur suit le tout en direct parfois depuis des milliers de kilomètres.
Lors de l’opération qui nous intéresse ici, le drone a engagé tout seul plusieurs cibles dont des véhicules et des militaires. Il était alors réglé en mode autonome. Le problème c’est que pendant son repérage, la liaison aurait été totalement coupée avec son opérateur.
Alors au moment où le drone a identifié comme ennemi un rebelle qui se repliait, il a engagé seul et de façon autonome le tir, sans attendre la confirmation de son opérateur. Il a tué sa cible. Ce qui est inquiétant dans ce récit, c’est qu’ à ce moment précis personne ne semblait en capacité de stopper le drone.
Si les robots tueurs existent depuis déjà un moment, c’est la première fois que l’on recense médiatiquement un tel événement. Il s'agirait d'un dysfonctionnement plutôt qu'une volonté des militaires.
C’est en tout cas la version officielle. Techniquement, la fonction autonome peut être stoppée à n’importe quel moment par l’opérateur.
Mais de toute évidence, en l’absence de signal, le drone n’aurait pas attendu la confirmation.
Peu importe finalement les détails de cette révélation. Car le document de l’ONU manque cruellement de précision.
Mais cette nouvelle et sa médiatisation viennent appuyer un débat de taille sur la réglementation des armes autonomes.
Peut-importe le pays, on distingue deux catégories.
DEUX CATÉGORIES DE ROBOTS TUEURS
Deux catégories distinguent ces technologies.
Les «Sala», acronymes de «systèmes d’armes létaux autonomes». Ils sont capables de trouver seuls leur cible et de l’éliminer sans laisser le commandement apprécier la situation. Les SALA ne sont pas interdits par la Convention pour l’armement de Genève. Mais en septembre dernier, le Parlement européen a adopté une résolution pour interdire ces systèmes de robots tueurs.
Alors il y a une alternative, les SALIA. Les systèmes d’armes létaux intégrant de l'autonomie. La nuance est bien là. À la différence des Sala, les Salia autorisent l’homme en ultime recours à reprendre le contrôle, même si la machine acquiert une autonomie décisionnelle.
Pour prévenir des événements comme ceux de turquis, la France a requis l’avis du Comité d’éthique de la défense, composé d’une vingtaine de membres civils et militaires. Et la conclusion du comité est très claire, l’usage des SALA, les armes 100 % autonomes, est contraire à l’éthique militaire.
D’abord parce qu'elle romprait la chaîne de commandement, ensuite car elle va à l’encontre du principe constitutionnel de la libre disposition de la force armée et enfin car cette technologie n’apporte aucune assurance quant au respect des principes du droit humain international.
Mais vous l’aurez compris, les technologies SALIA, intégrant de l’autonomie, elles, ne sont pas mises au placard.
Du côté des forces armées françaises en tout cas, la réflexion est bien là.
Mais les technologies aussi sont déjà là, déjà utilisées par les armées, alors pour le comité le principal enjeux aujourd’hui c’est la formation !
En fait, le comité a émis 25 recommandations en insistant lourdement sur l’éducation à ces enjeux éthiques.
Entraîner, éduquer, et responsabiliser les militaires, les scientifiques, et les responsables gouvernementaux pour garantir une meilleure application de ces technologies.
Malheureusement, si la France semble trouver une voie plus éthique, d’autres pays sont moins regardant.
Les États-Unis ont prévenu qu’ils ne renonceraient pas aux SALA.
La Russie ou la Chine sont sur le même positionnement.
Sans oublier que ces technologies pourront être utilisées aussi par des entités terroristes.
C’est pourquoi le comité ne fait pas explicitement une croix sur cette technologie...
Cécilia Severi