Les robots militaires existent et sont de plus en plus utilisés, sur différents théâtres d’opérations et dans les différents milieux : air (drones), mer, terre, et peut-être bientôt espace. Leur marché est en forte croissance.
Employés pour l’observation, la reconnaissance, le déminage, voire le tir (par exemple : drones armés), ils présentent en effet l’avantage d’éloigner le servant du champ de bataille, de réduire ainsi les pertes amies et d’être généralement récupérables. De plus, des réductions de coûts du matériel peuvent être espérées du fait de ne pas avoir à satisfaire aux contraintes liées à la présence humaine à bord. Les drones permettent une permanence sur site qu’un pilote ne pourrait pas assurer.
Ces robots posent cependant des problèmes d’éthique importants et originaux par rapport aux autres armements, surtout lorsqu’ils sont dotés d’une grande autonomie (d’action), y compris pour l’ouverture du feu. Leur complexité peut conduire à une certaine imprévisibilité, responsable d’inadmissibles « bavures ». Leur facilité d’emploi, associée à une certaine « invulnérabilité » du servant liée à l’éloignement, peut entraîner des excès de violence : on parle de « joy-stick war » pour une guerre assimilable à un jeu vidéo !
Aussi est-il essentiel de bien maîtriser la mise en œuvre de ces robots, à tous les niveaux, depuis la décision politique de développement de l’arme jusqu’à l’utilisation opérationnelle. Il y va de la responsabilité des différents acteurs, et les aspects juridiques sont importants. Pour l’instant, la « responsabilité » du robot lui-même est considérée comme inexistante, mais l’idée que l’on s’en fait pourrait être amenée à évoluer.
En effet, ce robot militaire n’est-il pas déjà doté, en apparence, d’une certaine « conscience » ? Des fonctionnalités de la conscience humaine sont bien déjà présentes chez lui. Certaines méritent d’être développées, par exemple celle de la représentation précise de l’environnement (matériel et humain), notamment de l’identification rigoureuse des cibles, afin d’éviter au maximum les « bavures ». D’autres pourraient être introduites ou au contraire évitées : un robot dépourvu d’« émotions » ou de « sentiments » pourrait, dans certains cas, se montrer plus objectif et respectueux de l’éthique que l’homme. Des méthodes commencent à voir le jour pour améliorer, notamment par apprentissage, la « conscience » (y compris « morale » ?) du robot.
Commander « Réflexions sur la robotique militaire »
Lire l’interview de Jean-Pierre Marec dans la revue Robot Magazine
Lire aussi : Vers une technologie de la conscience ? Communication de l’Académie des technologies, EDP Sciences, 2013, 115 p.
Lire aussi les publications de Jean-Pierre Marec sur le site de l’Onera