Robots tueurs autonomes : malgré une mise en garde de l'ONU, leur développement continue
Les robots tueurs autonomes, animés par des intelligences artificielles ne sont plus des cauchemars de films de science-fiction mais une réalité. Une conférence de l'ONU a eu lieu ce printemps pour tirer la sonnette d'alarme. Contre toute attente, des départements de Défense persistent à développer ces matériels futuristes et semblent vouloir les envoyer sur le terrain rapidement, Russie et États-Unis en tête. Bilan provisoire sur l'émergence des "Terminators".
> Lire notre article : Robots tueurs : le problème reste entier et alarme les spécialistes
Au delà du barrage russe, le groupe d'experts ne semble pas parvenir à se mettre parfaitement d'accord sur la définition exacte d'une "arme mortelle autonome" et a visiblement longuement tergiversé sur les problématiques liées à l'intelligence artificielle (IA) : la crainte de freiner le développement de cette technologie en interdisant les systèmes d'armement autonomes occupe visiblement les esprits. La réunion a tout de même accouché d'un communiqué signé par 26 États appelant à bannir les armes "entièrement autonomes" tout en réaffirmant l'importance du contrôle humain. Pour autant, la capacité de cette interdiction à entrer en actes concrets semble plus qu'incertaine, pour ne pas dire nulle… Il y a deux ans, le forum mondial de Davos avait déjà posé la question de cette "rupture dans l'art de la guerre" encore peu médiatisée à l'époque :
> Lire notre article : Robots tueurs : un problème mondial méconnu
Course entre grandes puissances
Selon les spécialistes du domaine, la Chine, les États-Unis et la Russie — les 3 nations les plus dépensières dans les domaines de la recherche et du développement de technologies d'armement — sont entrées dans une compétition intense sur la programmation d'IA militaires. Israël, l'Inde, le Japon, la Corée du Sud, la France, l'Australie, le Royaume-Uni — et certainement d'autres encore qui ne se manifestent pas — explorent actuellement les potentiels de telles technologies. La grande course aux robots et autres drones de combat autonomes est donc en cours et les réunions du groupe d'experts de l'ONU, avec ses communiqués, semblent un peu vaines face à la réalité : des "robots tueurs autonomes" existent déjà et les grandes puissances comptent bien en faire usage à court terme. Malgré le danger que représentent ces tueurs de métal capables de choisir eux-mêmes des cibles et de les détruire — qui est présent dans tous les esprits — rien ne semble donc pouvoir empêcher leur émergence : Vladimir Poutine n'a-t-il pas déjà expliqué que "celui qui deviendra leader dans le domaine de l'IA sera le maître du monde" ?Budgets et développements énormes
Le Département de recherche militaire américain (Darpa) a un budget de 15 milliards d'euros pour le seul développement des robots militaires. Selon le New York Times, ce département a déjà testé des drones autonomes pouvant décider quelle cible attaquer "sans aucune aide humaine". Côté russe, un robot humanoïde a été dévoilé en 2016, censé aider les cosmonautes sur la station spatiale internationale, mais cette vidéo le montrant en train de tirer sur des cibles avec deux armes à feu semble plutôt indiquer que Fedor (Final Experimental Demonstration Object Research) n'a pas vocation à se cantonner seulement à de la maintenance dans l'espace :Les réseaux de neurones au service de la sélection de cibles à éliminer
L'agence de presse russe TASS rapportait en juillet 2017 que l'entreprise russe Kalashnikov entamerait en 2018 la production en série de nouveaux modules de combats utilisant la technologie NeuroNet. NeuroNet est une technologie logicielle d'apprentissage automatique — basée sur des algorithmes de réseaux de neurones artificiels — permettant "d'identifier des cibles, de s'améliorer par l'expérience et de décider par 'lui même' des tirs à effectuer". Kalashnikov — célèbre pour ses fusils semi-automatiques et ses millions de morts depuis des décennies — fait la publicité de son nouveau module de combat à réseau de neurones avec des dessins enfantins, sur son site :
Ces nouvelles armes entièrement autonomes — que le groupe d'experts de l'ONU "appelle à bannir" — font malheureusement partie intégrante de la nouvelle doctrine militaire russe, énoncée en 2015, et qui doit "exclure l’homme de la zone de confrontation immédiate". L’armée russe a d'aileurs déclaré vouloir robotiser plus du tiers de ses armements pour 2025. La transformation d'une partie des matériels militaires de la Russie a déjà commencé, avec par exemple le développement de chars de combat "dronisés" à "équipage déporté". Le site spécialisé www.strategic-bureau.com se fait l'écho de ce nouveau système : "Le cœur du système électronique du drone est sa centrale inertielle qui lui permet de suivre les déplacements du char d’une manière autonome (…) Outre sa mission principale d’observation et de détection grâce aux moyens optroniques, le drone sera capable de désigner les objectifs et de guider les armes de précision."
Face à cette volonté de rendre autonomes des armements militaires en Russie, en Chine et aux États-Unis, certains pays, pourtant en pointe dans les technologies militaires, se sont malgré tout positionnés contre les armes 100% autonomes. C'est le cas du Royaume-Uni qui possède pourtant l'un des programmes de drones militaires les plus avancés et qui, dans un communiqué du gouvernement, a affirmé le 30 septembre 2017 : "La politique du Royaume-Uni est que le fonctionnement des armes sera toujours placé sous contrôle, comme une garantie absolue de la surveillance, de l’autorité et de la responsabilité humaine. Le Royaume-Uni ne possède pas de systèmes d’armes entièrement autonomes et n’a pas l’intention d’en développer".
Face à l'émergence possible d'une "guerre des machines", l'île qui a engendré Shakespeare semble plus sage dans ses positions que la plupart des grandes puissances. Mais qui parmi ses concurrents sérieux sur le champ militaire moderne est prêt à abandonner les promesses des machines autonomes ?
> A lire en complément : "Intelligence artificielle : les robots tueurs peuvent-ils échapper à notre contrôle ?"
Aucun commentaire:
Enregistrer un commentaire