Une nouvelle vague de technologies de défense émerge, dans laquelle l’intelligence artificielle n’est plus une fonction de support mais un élément essentiel des opérations meurtrières. Scout AI, une startup de la Silicon Valley, a récemment démontré un système capable d’identifier et de détruire de manière autonome des cibles – dans ce cas, un camion – à l’aide de drones et de véhicules terrestres contrôlés par l’IA. Cela marque une évolution significative vers des capacités militaires plus autonomes, soulevant à la fois des opportunités et de sérieuses inquiétudes.

La démonstration : l’IA en action

Lors d’un test à huis clos dans une base militaire californienne, le système d’IA « Fury Orchestrator » de Scout AI a reçu une commande simple : localiser et détruire un camion bleu à 500 mètres à l’est d’un aérodrome. Le système, construit sur un modèle d’IA open source modifié avec plus de 100 milliards de paramètres, a pris le contrôle d’un véhicule autonome et de deux drones armés. En quelques minutes, les drones ont localisé la cible et ont fait exploser une charge explosive, confirmant le succès de la mission. Ce n’était pas une simulation ; c’était une démonstration en direct de la létalité provoquée par l’IA.

Le point clé à retenir est que l’IA est désormais capable de prendre des décisions sur le champ de bataille sans intervention humaine. Cela inclut la sélection des cibles, la navigation et l’exécution d’une force meurtrière.

La course à la domination de l’IA militaire

Le développement rapide de l’IA dans le domaine de la défense est motivé par la conviction qu’elle sera décisive dans les conflits futurs. Les décideurs politiques et les stratèges militaires considèrent l’IA comme un moyen de prendre l’avantage. C’est pourquoi le gouvernement américain a restreint la vente de puces d’IA avancées à des concurrents comme la Chine. Toutefois, les experts préviennent que si le potentiel est élevé, les risques le sont aussi.

Michael Horowitz, ancien responsable du Pentagone, reconnaît l’importance de repousser les limites de l’IA, mais prévient que sa mise en œuvre pratique est difficile. Les grands modèles de langage sont imprévisibles, et même les tâches d’IA de base peuvent entraîner un comportement inattendu. Les vulnérabilités en matière de cybersécurité de ces systèmes constituent également une préoccupation majeure.

La pile IA : comment ça marche

Le système de Scout AI repose sur une structure hiérarchique d’IA. Un modèle de base à grande échelle interprète les commandes de haut niveau et délègue des tâches à des agents d’IA plus petits et spécialisés exécutant des véhicules terrestres et des drones. Ces agents contrôlent ensuite les systèmes de niveau inférieur responsables du mouvement, du ciblage et de la détonation. Cette autonomie en cascade permet au système de s’adapter aux conditions changeantes, mais elle introduit également un risque d’erreurs ou de conséquences imprévues.

“C’est ce qui nous différencie de l’autonomie traditionnelle. Ces systèmes ne peuvent pas replanifier à la périphérie en fonction des informations qu’ils voient et de l’intention du commandant ; ils exécutent simplement des actions aveuglément.” – Colby Adcock, PDG de Scout AI.

Préoccupations éthiques et pratiques

Le déploiement de systèmes d’armes contrôlés par l’IA soulève d’importantes questions éthiques. Les experts en contrôle des armements et les éthiciens de l’IA préviennent que l’IA pourrait avoir du mal à faire la distinction entre combattants et non-combattants, ce qui entraînerait des pertes civiles. La guerre en Ukraine a déjà démontré à quel point les drones grand public peuvent être facilement transformés en armes, brouillant ainsi les frontières entre technologies militaires et civiles.

Malgré ces préoccupations, Scout AI insiste sur le fait que sa technologie adhère aux règles d’engagement de l’armée américaine et aux normes internationales. La société a obtenu quatre contrats avec le ministère de la Défense et recherche des financements supplémentaires pour développer des systèmes de contrôle des essaims.

Le plus grand défi sera de traduire ces démonstrations en systèmes de qualité militaire fiables, sécurisés et prévisibles. Comme le note Horowitz, « nous ne devrions pas confondre leurs démonstrations avec des capacités déployées dotées d’une fiabilité et d’une cybersécurité de niveau militaire ».

L’avenir de la guerre évolue rapidement et l’IA est à l’avant-garde. Même si les avantages potentiels sont clairs, les risques – tant éthiques que pratiques – ne peuvent être ignorés.