En 2022, VAB, robots terrestres et drones aériens avaient la mission de reconnaissance. © Arnaud Woldanski/armée de Terre/Défense
Pour l'auteur, l’« autonomie » militaire des « robots-tueurs » est un mythe : les robots agissent par programmation humaine. L’enjeu est d’automatiser des fonctions précises (navigation, détection) tout en gardant le contrôle humain, pour une efficacité maîtrisée.
Debunking the Myth of Autonomy: Rethinking Military Robotics Armed with Levels of Automation
For the author, the military "autonomy" of "killer robots" is a myth: the robots act through human programming. The challenge is to automate specific functions (navigation, detection) while maintaining human control, for controlled efficiency.
Le concept d’autonomie militaire, incarné par les « robots tueurs » ou machines dites « autonomes », suscite autant de fascination que d’inquiétude. Depuis la campagne Stop Killer Robots en 2013, le terme « autonome » s’est largement répandu, alimentant de nombreuses confusions. Pourtant, l’autonomie totale demeure une illusion : aucun système robotisé ne possède d’autonomie au sens philosophique, tous agissent selon une programmation humaine précise. La réalité réside plutôt dans l’automatisation ciblée de fonctions spécifiques : navigation, visée, communication, etc. Il est donc plus pertinent d’analyser les systèmes selon leur degré d’automatisation fonctionnelle plutôt que par la simple opposition téléopéré, semi-autonome ou autonome. L’enjeu n’est pas de courir après une autonomie absolue, mais de renforcer la maîtrise humaine par l’automatisation – pour des forces plus efficaces et contrôlées.
Le mirage de l’autonomie : un concept flou et trompeur
Le terme autonomie appliqué aux systèmes militaires sans équipage est source d’ambiguïtés. Dans son sens philosophique, être autonome signifie agir selon ses propres règles – définition qu’aucune machine n’atteint. En tant qu’arme ou outil, cela n’a donc guère de sens : les machines programmées par l’homme sont par nature hétéronomes, exécutant des instructions prédéfinies sans volonté propre. Parler de « robot autonome » relève davantage de la métaphore ou du slogan, qui confère un vernis quasi magique à des systèmes en réalité très déterministes. La différence entre un système automatique (qui suit un enchaînement d’actions programmées) et un système dit autonome (capable d’adapter ses actions à la situation) tient uniquement à la complexité de sa programmation, non à une prise de décision libre. Concrètement, tout dépend de la qualité des données, de la méthode d’apprentissage, des capteurs et de la puissance de calcul. L’« autonomie » revendiquée relève ainsi surtout d’un récit technologique, utile pour séduire, obtenir des financements ou intimider l’adversaire.
Dans les faits, les doctrines militaires ont longtemps classé les systèmes en téléopérés, semi-autonomes et autonomes ; ces catégories sont pourtant incomplètes. Que recouvre réellement le « semi-autonome » ? Cela peut désigner aussi bien un simple pilote automatique (par exemple, un drone suivant un plan de vol) qu’un engin capable de sélectionner une cible et d’attendre une confirmation humaine avant de tirer. Regrouper des capacités si disparates entretient la confusion. De même, qualifier un système de « pleinement autonome » est discutable : aucune armée ne déploie aujourd’hui de robot sans supervision humaine totale. Cela impliquerait d’avoir créé un agent artificiel doté d’une autonomie absolue – un concept par essence subjectif et relatif. Le cadre conceptuel actuel de l’autonomie suggère une rupture technologique souvent exagérée, masquant le véritable continuum des capacités. Plutôt que d’opposer téléopéré et autonome, il faut adopter une approche plus fine, centrée sur les différentes fonctions et leur niveau d’automatisation. C’est dans cette gradation que se situe le progrès réel des robots militaires.
Il reste 85 % de l'article à lire