International
Technologie

Robot militaire: «Ce n'est pas le drone qui tue, c'est l'humain»

Drone, robot, tueur
Un drone militaire s'est attaqué à des combattants libyens de manière totalement autonome. Image: Shutterstock

«Ce n'est pas le drone qui tue, c'est toujours l'humain»

Selon un rapport de l'ONU, un drone militaire a attaqué des combattants libyens sans en avoir reçu l'ordre. Une machine peut-elle décider par elle-même de tirer sur des humains? Souhaite-t-on vraiment leur confier un tel pouvoir? Doit-on s'inquiéter? Entretien.
02.06.2021, 06:08
Suivez-moi
Plus de «International»

Un drone militaire a pourchassé des humains en leur tirant dessus, de manière totalement autonome. Voilà ce que dévoile un rapport de l'ONU. Si la nouvelle, digne d'un film de science-fiction, fait froid dans le dos, elle soulève aussi un certain nombre de questions. Pour y voir plus clair, nous avons fait appel à Nicolas Capt, avocat spécialisé dans les nouvelles technologies.

Alors, ça y est, les machines prennent le pouvoir?
Je ne pense pas qu'elles prennent le pouvoir comme on l'imagine dans la science-fiction. Ce drone ne s'est pas rebellé, il n'a pas été au-delà de ses attributions. C'est l'humain qui lui a laissé cette autonomie.

Mais un drone qui attaque des humains de manière autonome, ça vous inquiète?
Bien sûr, c'est préoccupant. Il y a une crainte de la déshumanisation des décisions militaires. Déjà aujourd'hui, on voit qu'il n'y a plus de champs de batailles comme Austerlitz. L'opérateur est à des centaines ou des milliers de kilomètres. On perd la portée de ce qu'on est en train de faire. Sans compter les risques d'erreurs. Les bugs informatiques sont la preuve que les machines ne sont pas infaillibles.

«C'est inquiétant qu'il n'y ait pas une validation humaine finale de l'attaque»

Justement, est-ce qu'on peut vraiment leur confier le pouvoir de vie ou de mort sur des humains?
C'est une réflexion qui est aussi philosophique que juridique. Au-delà des risques d'erreurs, il y a aussi la question de la dépossession de la décision humaine. Tout cela doit nous faire réfléchir. Il faut réexaminer à intervalles réguliers ce qu'on peut leur confier ou non. Pour le moment, la machine, quel qu’en soit le niveau de perfectionnement, reste un instrument humain. Même les poches d'autonomie qu'on lui laisse ont été configurées au moment de la programmation. On ne peut donc pas dire que c'est le drone qui tue, c'est toujours l'humain qui tue.

«On ne va pas faire comparaître un drone, c'est une baïonnette améliorée»

«Ce n'est pas moi, c'est la machine»: c'est une excuse qui pourrait devenir recevable?
C'est une ligne de défense qui pourrait être utilisée par un opérateur de drone, à tort ou à raison. Elle ne serait toutefois légitime que si la machine n'avait pas exécuté correctement la tâche qui lui était confiée. Cela pourrait alors rejaillir sur la responsabilité du constructeur du drone ou du concepteur de l'intelligence artificielle qui le fait fonctionner. Aujourd'hui, le drone n'est qu'un intermédiaire. Cela changera peut-être un jour mais, pour le moment, il ne faut pas se leurrer: la véritable intelligence artificielle – celle qui prend des décisions réellement autonomes en toute connaissance de cause – n'existe pas.


Dame Nature est une coquine
1 / 17
Dame Nature est une coquine
source: twitter
partager sur Facebookpartager sur X
Paniqué par le changement climatique, ce Romand fait la révolution
Video: watson
1 Commentaire
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
1
Zelensky accuse Moscou de vouloir empêcher le sommet du Bürgenstock
Suivez en direct les dernières infos sur la guerre de la Russie contre l'Ukraine et ses implications en Suisse ainsi que dans le monde.
L’article