LA SECURITE COLLECTIVE A L’EPREUVE DE L’INTELLIGENCE ARTIFICIELLE (IA)

Depuis quelques décennies, le monde est en profonde mutation au gré de l’émergence fulgurante des nouvelles technologies, notamment de l’Intelligence Artificielle (IA). Considérée comme le domaine scientifique qui traite de l’étude, la conception et la mise en œuvre de « machines intelligentes », l’IA permet l’exécution automatisée d’une opération ou d’une tâche dans bien des domaines ordinairement réservés aux humains. Ainsi, s’ouvrent des opportunités et horizons nouveaux qui s’offrent aux Etats dans plusieurs secteurs, notamment en matière de sécurité civile et de défense militaire.
Dans les domaines sus visés, on assiste à la mise en place de programmes sophistiqués de recherche et de développement de technologies appliquées au secteur de l’armement en l’occurrence, avec pour but de renforcer la puissance militaire des Etats et leur capacité à intervenir dans les crises internationales. Cette nouvelle donne transparait dans l’utilisation sans cesse croissante des armements de nouvelle génération par les grandes puissances, comme les Etats Unis d’Amérique (USA), la Chine et la Russie, dans les conflits armés internationaux et non internationaux, dans le renseignement et la surveillance internationale. Le recours à la force, les actes d’agression, les attaques armées, les attentats, la criminalité internationale prennent de nouvelles formes avec l’utilisation malveillante de l’IA par les Etats mais aussi par des groupes non étatiques.
Cela impacte, de toute évidence, les paradigmes des relations internationales, en particulier la sécurité collective des Etats qui doit alors se réinventer ou du moins s’adapter aux nouvelles menaces induites par l’émergence des nouvelles technologies appliquées au domaine sécuritaire. La sécurité des Etats, dans le contexte de l’IA, constitue dès lors une problématique actuelle à laquelle s’intéresse précisément la présente réflexion. Il s’agit de relever un double enjeu : le développement de l’IA contribue certes au renforcement de la sécurité des Etats, mais cette IA présente également des risques pour leur sécurité individuelle et collective. Avant d’appréhender la diversité croissante des menaces sécuritaires liées à l’utilisation militaire de l’IA, il est intéressant au préalable de rendre compte du recours multiforme à l’IA, en matière de paix et de sécurité internationales.
Les atouts liés au recours multiforme à l’Intelligence Artificielle (IA)
On ne compte plus les usages des nouvelles technologies en matière de sécurité des Etats, surtout en ce qui concerne leur sécurité collective dans le cadre des Nations Unies ou des interventions armées des coalitions internationales. Plusieurs dimensions des opérations militaires sont fortement impactées et on peut s’intéresser ici aux opérations de maintien de la paix et de la sécurité internationales qui intègrent de plus en plus l’IA dans leur dispositif opérationnel. Ces technologies incluent les systèmes de surveillance aérienne, de géolocalisation, les radars, les systèmes de vision nocturne, entre autres. Aussi, l’utilisation des véhicules aériens sans pilote (UAV), en l’occurrence les drones, permet-elle d’avoir une meilleure cartographie du terrain, de repérer des dépôts d’armes ou les repères terroristes, de localiser les cibles, les combattants armés, les terroristes, les civils ou les victimes, de suivre l’acheminement du matériel, de l’aide humanitaire, le mouvement des troupes, le contrôle des dépôts d’armes et l’assistance en matière de recherche et de sauvetage.
Dans plusieurs missions des Nations Unies, il y a eu le recours à ces technologies. C’est le cas des caméras-vidéo à distance utilisées au Népal pour surveiller des caches d’armes et à Chypre pour observer la ligne verte de la Force des Nations Unies chargée du maintien de la paix à Chypre (UNFICYP). Aussi en mars 2013, la résolution 2098 du Conseil de Sécurité a autorisé la Mission de l’Organisation des Nations Unies pour la Stabilisation en République Démocratique du Congo (MONUSCO), à faire usage de « moyens de surveillance tels que les systèmes aériens sans pilote », à savoir les drones. Cela devrait « permettre d’améliorer les capacités de la Mission à surveiller la mise en œuvre de l’embargo sur les armes et en particulier à observer et à signaler les mouvements de personnel militaire ». En Éthiopie et en Érythrée, les véhicules sophistiqués multi senseurs de reconnaissance canadiens ont été mis en service dans le cadre de la Mission des Nations Unies dans ces deux pays (MINUEE), de juin 2000 à juin 2008. En dehors des missions sus visées, les drones militaires ont été utilisés à l’occasion des interventions armées internationales, notamment par la coalition internationale antijihadiste pour lutter contre les groupes terroristes notamment l’Etat Islamique et Al-Qaeda en Irak et en Syrie.
Aujourd’hui, l’utilité et l’efficacité de ces innovations technologiques dans la conduite des opérations internationales n’est plus à démontrer. Cependant, si l’on doit s’en réjouir, on ne peut s’empêcher de s’inquiéter de leur utilisation malveillante qui représente des menaces à bien d’égards.
La diversité croissante des menaces
Derrière les différentes opportunités qu’offrent les nouvelles technologies autonomes, se cachent bien des risques et menaces réelles. Comme on a eu à le relever pour les armes nucléaires, ce n’est pas tant les innovations qui sont remises en cause mais c’est plutôt leur emploi malveillant. Et cela peut être non seulement le fait des Etats eux-mêmes mais aussi des groupes non étatiques à l’instar des groupes armés, criminels ou terroristes. En effet, avec l’évolution de l’IA, les États ont développé de nouvelles formes de recours à la force à l’encontre d’autres États et de nouvelles formes de transgressions du droit international, en matière de sécurité, qui se réalisent essentiellement de manière dématérialisée. On entend de plus en plus parler des cyber-attaques étatiques considérées comme des « offensives attribuables à un État et menées contre les réseaux informatiques d’un autre pays afin d’occasionner des perturbations dans le fonctionnement des activités et services publics ou privés de l’Etat cible ». On se rappelle de la cyber-attaque ayant visé en avril 2015 aux USA l’Office of Personnel Management (OPM), perpétrée selon le Washington Post par la Chine qui a contesté cela. Plus récemment, en septembre 2019, les USA ont mené une cyber-attaque contre l’Iran en réponse à l’attaque de drones par ce pays contre les installations pétrolières saoudiennes. C’est dans ce contexte de tension en lien avec l’IA, que les USA ont mené une frappe qui a tué en janvier 2020 à Bagdad le général iranien Qassem Soleimani, Commandant de la Force Al-Qods du Corps des gardiens de la Révolution Islamique Iranienne. Tout récemment, le 19 juin 2020, l’Australie a été victime d’une cyber-attaque massive. Selon le premier ministre Scott Morrison, « il s’agit d’un piratage émanant d’un acteur étatique sophistiqué au vu de l’ampleur et la nature des cibles-institutions gouvernementales, fournisseurs de services essentiels et opérateurs d’infrastructures essentielles ».
Par ailleurs, s’agissant de menaces de la part d’acteurs non étatiques et, plus précisément des groupes terroristes, des experts alertent la communauté internationale sur la cybercriminalité internationale, le renforcement de l’action des groupes terroristes qui peuvent recourir à l’IA pour déstabiliser les systèmes de défense et de sécurité des Etats en vue de commettre des attentats à grande échelle. Sont ainsi évoqués plusieurs scénarios parmi lesquels certains pouvant voir des terroristes « modifier des systèmes d’IA disponibles dans le commerce (drones, véhicules autonomes) pour provoquer des crashs, des collisions ou des explosions ».
En droit international humanitaire aussi, les dangers sont réels. Plusieurs organisations internationales et des acteurs non gouvernementaux dont des organisations de la société civile manifestent déjà leur crainte quant au déploiement éventuel des armes autonomes dans les conflits armés internationaux ou non. Il s’agit plus précisément des Systèmes d’Armes Létales Autonomes (SALA) insusceptibles, selon le Comité International de la Croix-Rouge (CICR), de se conformer aux principes fondamentaux du droit international humanitaire, en l’occurrence les principes de proportionnalité, de discrimination et de responsabilité. Les experts s’interrogent dès lors : « Quelle décision prendrait un robot tueur face à un enfant pointant une arme factice en direction de soldats ? ». Pour l’heure, ces préoccupations des experts restent sans réponse.
A ces différents égards, il s’avère donc indispensable de rester attentif et de recadrer voire renforcer la gouvernance internationale qui se met en place sous l’impulsion des Nations Unies pour réguler le développement des nouvelles technologies et contrôler leur utilisation militaire.
Par Kodjo Délali KEGNAVO,
Assistant de Recherche/
Chargé de Programme Gouvernance Démocratique
CRESED
10 juillet 2020