Des robots et des drones capables de tuer de manière autonome en temps de guerre, une perspective longtemps restée inimaginable. Du moins jusqu'à récemment. Dans un monde où les limites de la technologie sont repoussées presque quotidiennement, l'utilisation de l'intelligence artificielle dans la guerre a pris une tournure inquiétante.
Selon un article du Süddeutsche Zeitung, la recherche et le développement de l'Intelligence artificielle (IA) ont longtemps respecté une barrière qui semble désormais avoir été franchie: l'utilisation de la technologie à des fins militaires. Une course à l'armement, dans laquelle des pays comme la Chine et les Etats-Unis sont en tête, aurait lieu en ce moment. Israël aurait déjà utilisé des systèmes d'armes pilotés par IA dans la bande de Gaza en 2021.
L'armée allemande finance également des projets de recherche pour le développement de ce que l'on appelle des essaims de drones, considérés comme des armes IA particulièrement efficaces, peut-on lire dans le rapport. Ceux-ci sont autonomes et peuvent agir sans intervention humaine. Ces systèmes d'armes pilotés par IA, souvent appelés «slaughterbots» («robots tueurs»), représentent une nouvelle génération de systèmes d'armes autonomes. Ils ont le pouvoir de modifier fondamentalement le cours de la guerre.
Le court-métrage de science-fiction suivant montre comment de tels essaims de drones pourraient fonctionner. Si au début, à la manière d'une keynote d'Apple, on y voit comment des armes ultramodernes peuvent contribuer à éliminer efficacement et à moindre coût les «méchants» à l'aide de caméras, de capteurs et de la reconnaissance faciale, les frontières entre le bien et le mal sont rapidement brouillées.
Lorsque le film est sorti en 2019, il s'agissait peut-être encore d'un scénario d'horreur. Aujourd'hui – cinq ans plus tard seulement – la réalité décrite ne semble pas si fictionnelle.
Il convient, toutefois, de bien distinguer l'utilisation militaire de l'IA, car elle peut être très variée. L'analyste et ex-soldat Patrick Bolder a expliqué à la Deutschlandradio ce qu'on en sait aujourd'hui:
Il est presque impossible de saisir autant d'informations en tant qu'être humain, estime Patrick Bolder. Pour cela, il faut un traitement automatique. Et c'est là qu'intervient l'IA, capable de saisir et d'analyser toutes ces informations en quelques secondes.
L'IA peut brouiller les signaux et empêcher l'espionnage d'autres drones. Elle enregistre les activités ennemies, peut immédiatement concevoir la stratégie appropriée et manœuvrer les unités correspondantes sur le chemin le plus rapide. C'est l'homme qui décide si et jusqu'à quel point la solution proposée sera suivie, du moins jusqu'à présent.
Prendre une décision uniquement sur la base des données collectées et sans aucune réserve ou «intuition» peut paraître avantageux, mais ce n'est pas forcément le cas. En effet, tout comme les humains, une IA n'est pas parfaite, elle peut être manipulée ou piratée.
Selon la Süddeutsche Zeitung, les critiques mettent en garde contre le caractère dégradant de la mort, le risque de traumatisme et l'imprévisibilité des conséquences. Les partisans, en revanche, argumentent que les armes IA sont plus précises et peuvent réduire considérablement les dommages collatéraux. En outre, elles donneraient un avantage tactique aux belligérants conventionnellement inférieurs.
Le meilleur exemple est la guerre en Ukraine, où l'on se réjouit de tout avantage face à la supériorité russe. Ce n'est pas pour rien que le conflit est considéré comme une sorte de test pratique des dernières technologies. Le Washington Post rapporte, par exemple, que le gouvernement ukrainien a lancé le programme «Army of Drones». L'objectif serait de former des milliers de pilotes de drones.
«L'avantage, c'est la rapidité, explique Frank Sauer, politologue à l'université de la Bundeswehr à Munich, dans un entretien avec t-online. Tout système d'armes qui effectue la sélection et la lutte contre les cibles sans intervention humaine sera toujours plus rapide que celui qui est soumis à un contrôle à distance pour ces décisions.»
Frank Sauer a étudié les sciences politiques, la sociologie, la philosophie et le droit à l'Université Goethe de Francfort, où il a obtenu son doctorat. Il a passé son habilitation à l'Université de la Bundeswehr de Munich et a obtenu la venia legendi en sciences politiques. Frank Sauer effectue des recherches et publie des articles sur les questions de politique internationale, en particulier sur la sécurité internationale. Ses travaux comprennent des contributions sur les armes nucléaires, le terrorisme, la cybersécurité ainsi que l'utilisation de la robotique et de l'intelligence artificielle (IA) dans le domaine militaire.
Tant dans l'industrie que dans les pays occidentaux, on est absolument conscient des risques. Ce n'est pas pour rien que les milieux spécialisés et les Nations unies en discutent intensivement depuis plus de dix ans. De nombreux pays de l'Otan et de l'UE ont développé, depuis longtemps, des doctrines visant à exploiter les opportunités et à minimiser les risques.
La communauté internationale a déjà tenté de mettre certains types d'armes hors-la-loi par le biais de conventions - comme les mines terrestres par exemple. Mais les négociations sur un traité similaire pour les armes IA aux Nations unies s'avèrent difficiles. En décembre, il y a eu une résolution, une déclaration de volonté. Mais un accord semble encore bien loin.
«L'IA changera durablement notre mode de vie et affectera définitivement le cours de toute guerre. Il est donc important d'apprendre à l'utiliser de manière responsable. C'est-à-dire de manière à ce que son utilisation soit en accord avec nos valeurs et notre cadre juridique. Si nous y parvenons, les effets positifs pourraient même l'emporter», conclut Frank Sauer.