#}

La course à l'armement en IA modifie la guerre en Ukraine

La course à l'armement en IA modifie la guerre en Ukraine
Selon Serhiy Beskrestnov, les drones russes à intelligence artificielle tels que celui-ci représentent un nouveau défi pour l'Ukraine.

"Cette technologie est notre future menace", prévient Serhiy Beskrestnov, qui vient de mettre la main sur un drone russe récemment intercepté.

Il a découvert qu'il ne s'agissait pas non plus d'un drone ordinaire. Assisté par l'intelligence artificielle, ce véhicule aérien sans pilote peut trouver et attaquer des cibles par lui-même.

M. Beskrestnov a examiné de nombreux drones en tant que consultant des forces de défense ukrainiennes.

Contrairement aux autres modèles, il n'émet ni ne reçoit aucun signal et ne peut donc pas être brouillé.

Les forces russes et ukrainiennes ont toutes deux testé l'IA dans le cadre de cette guerre et, dans certaines régions, elles l'utilisent déjà pour trouver des cibles, recueillir des renseignements et procéder au déminage.

Pour l'armée ukrainienne, l'IA est devenue indispensable.

"Notre armée reçoit chaque mois plus de 50 000 flux vidéo [provenant du front] qui sont analysés par l'intelligence artificielle", déclare le vice-ministre ukrainien de la défense, Yuriy Myronenko.

"Cela nous permet de traiter rapidement ces données massives, d'identifier les cibles et de les placer sur une carte".

L'IA traite les données provenant de la ligne de front ukrainienne, ici derrière le vice-ministre ukrainien de la défense, Yuriy Myronenko.
L'IA traite les données provenant de la ligne de front ukrainienne, ici derrière le vice-ministre ukrainien de la défense, Yuriy Myronenko.

Les technologies basées sur l'IA sont considérées comme un outil permettant d'améliorer la planification stratégique, de tirer le meilleur parti des ressources et, en fin de compte, de sauver des vies.

Mais en ce qui concerne les systèmes d'armes sans pilote, ils transforment également le champ de bataille.

Les troupes ukrainiennes utilisent déjà des logiciels basés sur l'IA pour que les drones verrouillent une cible et volent ensuite de manière autonome sur les quelques centaines de mètres restants jusqu'à la fin de la mission.

Le brouillage est impossible et il n'est pas facile d'abattre un si petit objet volant.

À terme, ces systèmes devraient évoluer vers des armes entièrement autonomes, capables de trouver et de détruire des cibles par elles-mêmes.

Il suffira au soldat d'appuyer sur un bouton d'une application pour smartphone, explique Yaroslav Azhnyuk, directeur général du développeur ukrainien The Fourth Law.

Le drone fera le reste, dit-il, en trouvant la cible, en larguant des explosifs, en évaluant les dégâts et en retournant à la base.

"Et cela ne nécessiterait même pas de compétences de pilotage de la part du soldat", ajoute-t-il.

DevDroid, l'entreprise de Vadym, produit des mitrailleuses télécommandées capables de repérer des cibles à l'aide de l'intelligence artificielle.
DevDroid, l'entreprise de Vadym, produit des mitrailleuses télécommandées capables de repérer des cibles à l'aide de l'intelligence artificielle.

Les drones d'interception dotés de ce type d'automatisation pourraient renforcer considérablement les défenses aériennes contre les drones d'attaque russes à longue portée, tels que les fameux Shaheds.

"Un système autonome guidé par ordinateur peut être meilleur qu'un être humain à bien des égards", explique M. Azhnyuk. "Il peut être plus perspicace. Il peut voir la cible plus tôt que l'homme. Il peut être plus agile.

Yuriy Myronenko affirme que ce type de système n'existe pas encore, mais il laisse entendre que l'Ukraine est sur le point d'en achever le développement. "Nous l'avons partiellement mis en œuvre dans certains appareils", déclare le vice-ministre de la défense.

Selon M. Azhnyuk, des milliers de systèmes de ce type pourraient même être mis en place d'ici à la fin de 2026.

Mais les développeurs ukrainiens sont prudents quant à l'utilisation de systèmes de défense qui reposent entièrement sur l'IA, sans aucune intervention humaine. Le risque est que l'IA ne parvienne pas à distinguer un soldat ukrainien d'un Russe, car ils peuvent porter le même uniforme, explique Vadym, qui a refusé de donner son nom de famille.

Son entreprise, DevDroid, fabrique des mitrailleuses télécommandées qui utilisent l'IA pour détecter automatiquement les personnes et les suivre. En raison des craintes liées aux tirs amis, il explique qu'il n'y a pas d'option de tir automatique.

"Nous pouvons l'activer, mais nous avons besoin de plus d'expérience et d'un meilleur retour d'information de la part des forces terrestres afin de comprendre quand il est possible d'utiliser cette fonction en toute sécurité.

Des drones intercepteurs d'IA pourraient défendre l'Ukraine contre les Shaheds, des drones de fabrication iranienne utilisés par la Russie
Des drones intercepteurs d'IA pourraient défendre l'Ukraine contre les Shaheds, des drones de fabrication iranienne utilisés par la Russie

On craint également que les systèmes automatisés ne violent les règles de la guerre. Comment éviteront-ils de blesser les civils ou de distinguer les soldats qui veulent se rendre ?

Pour le vice-ministre de la défense, la décision finale dans de telles circonstances devrait revenir à un être humain, même si l'IA rendrait la décision "plus facile à prendre". Mais rien ne garantit que les États ou les groupes armés respecteront les normes humanitaires internationales.

Il est donc d'autant plus important de contrecarrer ces systèmes.

Comment arrêter un "essaim de drones" lorsque le brouillage ou l'utilisation de jets, de chars ou de missiles sont inefficaces ?

L'opération "Spider Web" menée avec succès par l'Ukraine, au cours de laquelle 100 drones ont ciblé des bases aériennes russes en juin dernier, a probablement été assistée par des outils d'intelligence artificielle.

Nombreux sont ceux qui, en Ukraine, craignent que Moscou ne copie cette tactique, non seulement sur la ligne de front, mais aussi au-delà.

Le mois dernier, l'Ukrainien Volodymyr Zelensky a averti les Nations unies que l'IA contribuait à "la course aux armements la plus destructrice de l'histoire de l'humanité".

Il a appelé à l'adoption de règles mondiales pour l'utilisation de l'IA dans les armes et a déclaré que cette question était "tout aussi urgente que celle de la prévention de la prolifération des armes nucléaires".