International
guerre

IA: Les «robots tueurs» ne sont plus de la science-fiction

L'IA jouera un rôle crucial dans les guerres futures.
Image: IMAGO/Ilya Pitalev

Les essaims de «robots tueurs» ne sont plus de la science-fiction

L'intelligence artificielle a conquis presque tous les domaines de notre vie quotidienne. La guerre n'y échappe pas: ce qui augure les pires scénarios d'horreur.
08.03.2024, 14:2508.03.2024, 14:26
Marcel Horzenek / t-online
Plus de «International»
Un article de
t-online

Des robots et des drones capables de tuer de manière autonome en temps de guerre, une perspective longtemps restée inimaginable. Du moins jusqu'à récemment. Dans un monde où les limites de la technologie sont repoussées presque quotidiennement, l'utilisation de l'intelligence artificielle dans la guerre a pris une tournure inquiétante.

Selon un article du Süddeutsche Zeitung, la recherche et le développement de l'Intelligence artificielle (IA) ont longtemps respecté une barrière qui semble désormais avoir été franchie: l'utilisation de la technologie à des fins militaires. Une course à l'armement, dans laquelle des pays comme la Chine et les Etats-Unis sont en tête, aurait lieu en ce moment. Israël aurait déjà utilisé des systèmes d'armes pilotés par IA dans la bande de Gaza en 2021.

Les «robots tueurs» peuvent modifier le cours de la guerre

L'armée allemande finance également des projets de recherche pour le développement de ce que l'on appelle des essaims de drones, considérés comme des armes IA particulièrement efficaces, peut-on lire dans le rapport. Ceux-ci sont autonomes et peuvent agir sans intervention humaine. Ces systèmes d'armes pilotés par IA, souvent appelés «slaughterbots» («robots tueurs»), représentent une nouvelle génération de systèmes d'armes autonomes. Ils ont le pouvoir de modifier fondamentalement le cours de la guerre.

Le court-métrage de science-fiction suivant montre comment de tels essaims de drones pourraient fonctionner. Si au début, à la manière d'une keynote d'Apple, on y voit comment des armes ultramodernes peuvent contribuer à éliminer efficacement et à moindre coût les «méchants» à l'aide de caméras, de capteurs et de la reconnaissance faciale, les frontières entre le bien et le mal sont rapidement brouillées.

Vidéo: YouTube/DUST

Lorsque le film est sorti en 2019, il s'agissait peut-être encore d'un scénario d'horreur. Aujourd'hui – cinq ans plus tard seulement – la réalité décrite ne semble pas si fictionnelle.

L'IA peut accélérer les processus et les rendre plus efficaces

Il convient, toutefois, de bien distinguer l'utilisation militaire de l'IA, car elle peut être très variée. L'analyste et ex-soldat Patrick Bolder a expliqué à la Deutschlandradio ce qu'on en sait aujourd'hui:

«Il y a de plus en plus de capteurs qui surveillent l'ensemble du champ de bataille, pas seulement au sol, mais aussi sur l'eau, sous l'eau, dans l'air, dans l'espace et dans le cyberespace.»

Il est presque impossible de saisir autant d'informations en tant qu'être humain, estime Patrick Bolder. Pour cela, il faut un traitement automatique. Et c'est là qu'intervient l'IA, capable de saisir et d'analyser toutes ces informations en quelques secondes.

La décision revient à l'humain

L'IA peut brouiller les signaux et empêcher l'espionnage d'autres drones. Elle enregistre les activités ennemies, peut immédiatement concevoir la stratégie appropriée et manœuvrer les unités correspondantes sur le chemin le plus rapide. C'est l'homme qui décide si et jusqu'à quel point la solution proposée sera suivie, du moins jusqu'à présent.

Prendre une décision uniquement sur la base des données collectées et sans aucune réserve ou «intuition» peut paraître avantageux, mais ce n'est pas forcément le cas. En effet, tout comme les humains, une IA n'est pas parfaite, elle peut être manipulée ou piratée.

Des drones d'IA actifs en Ukraine

Selon la Süddeutsche Zeitung, les critiques mettent en garde contre le caractère dégradant de la mort, le risque de traumatisme et l'imprévisibilité des conséquences. Les partisans, en revanche, argumentent que les armes IA sont plus précises et peuvent réduire considérablement les dommages collatéraux. En outre, elles donneraient un avantage tactique aux belligérants conventionnellement inférieurs.

Le meilleur exemple est la guerre en Ukraine, où l'on se réjouit de tout avantage face à la supériorité russe. Ce n'est pas pour rien que le conflit est considéré comme une sorte de test pratique des dernières technologies. Le Washington Post rapporte, par exemple, que le gouvernement ukrainien a lancé le programme «Army of Drones». L'objectif serait de former des milliers de pilotes de drones.

«Saisir les opportunités et minimiser les risques»

«L'avantage, c'est la rapidité, explique Frank Sauer, politologue à l'université de la Bundeswehr à Munich, dans un entretien avec t-online. Tout système d'armes qui effectue la sélection et la lutte contre les cibles sans intervention humaine sera toujours plus rapide que celui qui est soumis à un contrôle à distance pour ces décisions.»

Frank Sauer a étudié les sciences politiques, la sociologie, la philosophie et le droit à l'Université Goethe de Francfort, où il a obtenu son doctorat. Il a passé son habilitation à l'Université de la Bundeswehr de Munich et a obtenu la venia legendi en sciences politiques. Frank Sauer effectue des recherches et publie des articles sur les questions de politique internationale, en particulier sur la sécurité internationale. Ses travaux comprennent des contributions sur les armes nucléaires, le terrorisme, la cybersécurité ainsi que l'utilisation de la robotique et de l'intelligence artificielle (IA) dans le domaine militaire.

Tant dans l'industrie que dans les pays occidentaux, on est absolument conscient des risques. Ce n'est pas pour rien que les milieux spécialisés et les Nations unies en discutent intensivement depuis plus de dix ans. De nombreux pays de l'Otan et de l'UE ont développé, depuis longtemps, des doctrines visant à exploiter les opportunités et à minimiser les risques.

«L'Allemagne ne dispose pas encore d'un tel document, ce qui commence à poser problème. D'un point de vue technique en tout cas, rien ou presque ne s'oppose à l'autonomisation dans les systèmes d'armes. Surtout pas si, comme la Russie en Ukraine, on se moque du respect du droit des conflits armés.»
Frank Sauer

Dossier compliqué au niveau de l'ONU

La communauté internationale a déjà tenté de mettre certains types d'armes hors-la-loi par le biais de conventions - comme les mines terrestres par exemple. Mais les négociations sur un traité similaire pour les armes IA aux Nations unies s'avèrent difficiles. En décembre, il y a eu une résolution, une déclaration de volonté. Mais un accord semble encore bien loin.

«L'IA changera durablement notre mode de vie et affectera définitivement le cours de toute guerre. Il est donc important d'apprendre à l'utiliser de manière responsable. C'est-à-dire de manière à ce que son utilisation soit en accord avec nos valeurs et notre cadre juridique. Si nous y parvenons, les effets positifs pourraient même l'emporter», conclut Frank Sauer.

Un potentiel «crime de guerre» filmé par un drone
Video: watson
Ceci pourrait également vous intéresser:
0 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
Ce que la Confédération sait des Suisses en Inde et au Pakistan
La Suisse s’inquiète de l’escalade entre l’Inde et le Pakistan et appelle à la retenue. Le gouvernement émet des recommandations pour les Helvètes sur place.

La Suisse s'inquiète de la montée des tensions entre l'Inde et le Pakistan. Elle se joint à la communauté internationale pour appeler les deux puissances nucléaires à faire preuve de «retenue».

L’article