Un drone militaire a pourchassé des humains en leur tirant dessus, de manière totalement autonome. Voilà ce que dévoile un rapport de l'ONU. Si la nouvelle, digne d'un film de science-fiction, fait froid dans le dos, elle soulève aussi un certain nombre de questions. Pour y voir plus clair, nous avons fait appel à Nicolas Capt, avocat spécialisé dans les nouvelles technologies.
Alors, ça y est, les machines prennent le pouvoir?
Je ne pense pas qu'elles prennent le pouvoir comme on l'imagine dans la science-fiction. Ce drone ne s'est pas rebellé, il n'a pas été au-delà de ses attributions. C'est l'humain qui lui a laissé cette autonomie.
Mais un drone qui attaque des humains de manière autonome, ça vous inquiète?
Bien sûr, c'est préoccupant. Il y a une crainte de la déshumanisation des décisions militaires. Déjà aujourd'hui, on voit qu'il n'y a plus de champs de batailles comme Austerlitz. L'opérateur est à des centaines ou des milliers de kilomètres. On perd la portée de ce qu'on est en train de faire. Sans compter les risques d'erreurs. Les bugs informatiques sont la preuve que les machines ne sont pas infaillibles.
Justement, est-ce qu'on peut vraiment leur confier le pouvoir de vie ou de mort sur des humains?
C'est une réflexion qui est aussi philosophique que juridique. Au-delà des risques d'erreurs, il y a aussi la question de la dépossession de la décision humaine. Tout cela doit nous faire réfléchir. Il faut réexaminer à intervalles réguliers ce qu'on peut leur confier ou non. Pour le moment, la machine, quel qu’en soit le niveau de perfectionnement, reste un instrument humain. Même les poches d'autonomie qu'on lui laisse ont été configurées au moment de la programmation. On ne peut donc pas dire que c'est le drone qui tue, c'est toujours l'humain qui tue.
«Ce n'est pas moi, c'est la machine»: c'est une excuse qui pourrait devenir recevable?
C'est une ligne de défense qui pourrait être utilisée par un opérateur de drone, à tort ou à raison. Elle ne serait toutefois légitime que si la machine n'avait pas exécuté correctement la tâche qui lui était confiée. Cela pourrait alors rejaillir sur la responsabilité du constructeur du drone ou du concepteur de l'intelligence artificielle qui le fait fonctionner. Aujourd'hui, le drone n'est qu'un intermédiaire. Cela changera peut-être un jour mais, pour le moment, il ne faut pas se leurrer: la véritable intelligence artificielle – celle qui prend des décisions réellement autonomes en toute connaissance de cause – n'existe pas.