Les nouveaux moyens de faire la guerre. L’intelligence artificielle dans le domaine du droit international humanitaire (The new means of waging war. Artificial intelligence in the field of international humanitarian law)

Ioana-Alexandra SMARANDESCU*

Nina-Maria VARZARU**

Université de Bucarest, Faculté de Droit

Résumé:  L’intelligence artificielle est de plus en plus présente dans nos vies. Au niveau international, les États ont commencé à utiliser les algorithmes pour accomplir des objectifs politiques et militaires, en confiant aux technologies des tâches qui n’étaient auparavant accomplies que par des êtres humains. Les éléments de tactique ou de prise de décision stratégique, activités qui nécessitent un temps de réflexion ou une analyse exhaustive de la situation factuelle, sont devenus de simples intrants pour les nouvelles technologies qui promettent de rationaliser les opérations militaires. Ainsi, le développement de l’IA soulève de questions dans le domaine du droit international humanitaire. La question de la compatibilité des règles actuelles du droit international avec le développement de l’IA et la création d’une responsabilité pour les actes illicites produits par l’IA sont soulevées de manière récurrente.

Mots-clé: intelligence artificielle, droit international humanitaire, conflit armé.

Abstract: Artificial intelligence is increasingly present in our lives. Internationally, states have begun to use algorithms to achieve political and military objectives, entrusting technologies with tasks that were previously performed only by human beings. Elements of tactics or strategic decision-making, activities that require time for reflection or exhaustive analysis of the factual situation have become mere inputs for new technologies that promise to streamline military operations. For example, the development of AI raises questions in the field of international humanitarian law. Thus, the questions of the compatibility of current rules of international law with the development of AI, and the creation of responsibility for unlawful acts produced by AI, are recurrently raised.

Keywords: artificial intelligence, international humanitarian law, armed conflict.

1.  Introduction

Lors du sommet sur la sécurité de l’intelligence artificielle organisé à Bletchley Park le 2 novembre 2023, Ursula von der Leyen, présidente de la Commission européenne, a déclaré : « Nous entrons dans une ère totalement différente. Nous sommes au début d’une ère où les machines peuvent agir intelligemment. Mon souhait pour les cinq prochaines années est de tirer les leçons du passé et d’agir rapidement. Compte tenu de la complexité de ces machines intelligentes, la sécurité de l’IA est d’autant plus complexe. C’est pourquoi l’expérience passée peut servir de guide. Prenons l’exemple de l’histoire de l’énergie atomique et de la bombe nucléaire. Les scientifiques ont découvert la physique quantique, ce qui a conduit […] à des risques sociétaux, mais aussi à la bombe atomique. Nous avons besoin d’un système de contrôle et de contrepoids »[1].  À cet égard, récemment, le 21 mars 2024, l’AG de l’ONU a adopté un projet de résolution[2], dirigé par les États-Unis, soulignant la nécessité de respecter, de protéger et de promouvoir les droits de l’homme dans la conception, le développement, le déploiement et l’utilisation de l’IA. C’est la première fois que l’Assemblée adopte une résolution sur la réglementation de ce domaine émergent, soutenue par 120 États.

Cette citation est l’occasion de réfléchir à la manière dont l’évolution de l’intelligence artificielle (IA) influence la sphère normative du droit humanitaire.

Le développement et l’amélioration continus de la technologie militaire signifient que de nouveaux types d’armes sont constamment utilisés dans les conflits armés[3].  Dans ce contexte de progrès technologique rapide, il convient d’examiner l’attitude des États à l’égard de la réglementation de ces nouveaux types d’armes.

Avant d’entamer l’analyse proprement dite du cadre législatif actuel au niveau international, il est nécessaire de commencer par définir les concepts qui font l’objet du présent document. Dans un premier temps, il convient d’analyser la notion d’Intelligence Artificielle (IA), qui est l’objet même de l’étude, la source du débat sur les nouveaux types de guerre fonctionnant sur sa base.

2.   Le concept. Définition des termes pertinents

2.1. Définition de l’intelligence artificielle (IA)

Selon la Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d’intelligence artificielle[4], un système d’intelligence artificielle (IA) est un logiciel développé à l’aide d’une ou plusieurs des techniques et approches énumérées à l’annexe I et qui, pour un ensemble donné d’objectifs définis par l’homme, peut générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions qui influencent les environnements avec lesquels il interagit[5]

En y regardant de plus près, l’annexe I énumère les techniques utilisées dans l’IA : les approches d’apprentissage automatique, y compris l’apprentissage supervisé, non supervisé et par renforcement, utilisant un large éventail de méthodes, y compris l’apprentissage profond ; les approches logiques et fondées sur les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs inductifs et déductifs, le raisonnement (symbolique) et les systèmes d’expertise ; les approches statistiques, les méthodes de recherche et d’optimisation[6].

On peut donc considérer que l’IA fonctionne de la même manière que le cerveau humain. L’apprentissage automatique est un sous-domaine de l’intelligence artificielle, tel que défini par Harry Surden: « algorithmes informatiques qui ont la capacité d’apprendre ou d’améliorer leurs performances au fil du temps pour une tâche donnée »[7]. Il s’agit essentiellement d’une machine qui apprend à partir de données au fil du temps. Cet apprentissage se fait par le biais d’un « processus statistique qui part d’un ensemble de données et tente de dériver une règle ou une procédure qui explique les données ou prédit les données futures »[8].

Si nous avons défini l’IA, nous devons également préciser ce que nous entendons par nouvelles façons de traiter les conflits internationaux et pourquoi nous considérons que leur présentation est pertinente dans le contexte international actuel.

2.2. Définir les nouveaux moyens de traiter les conflits internationaux

Les nouveaux moyens de lutte contre les conflits armés désignent donc les armes, les systèmes d’armes et les munitions qui sont utilisés dans le cadre d’un conflit armé[9] et qui, contrairement aux moyens traditionnels (balles, etc.) qui nécessitent une intervention humaine, sont dotés de l’IA en tant qu’élément intégral, nécessitent une intervention humaine minimale et peuvent être contrôlés à distance.

La portée de l’analyse sera limitée à l’étude des armes qui ne font l’objet d’aucune réglementation internationale établie, ce qui reflète la tradition de pratique cohérente au sein de la communauté internationale. Bien entendu, en raison de l’évolution rapide de l’IA, une pratique des États dans ce sens ne s’est pas encore cristallisée. On constate donc que la tendance à l’évolution du droit est plus lente que la vitesse de développement de l’IA, qui progresse d’une année à l’autre.

L’étude vise également à refléter le cadre réglementaire actuel et les tentatives de la communauté internationale de réglementer les limites de leur utilisation. À titre d’exemple, et afin de mieux cerner le champ d’application de l’étude, il convient de mentionner les drones télécommandés, les opérations de cybersurveillance, le stockage, l’enregistrement et la systématisation de données dans des bases de données informatiques, et les systèmes d’armes létales autonomes.  L’analyse de ces nouveaux moyens de guerre est d’autant plus pertinente que des drones russes ont été capturés près des frontières de l’Union européenne, à savoir près des frontières avec la Pologne et la République de Moldavie[10].

Le concept de nouveaux moyens de guerre doit être analysé en relation avec les notions de moyens de guerre conventionnels et de principe de double usage. Ce dernier englobe tous les biens et technologies logicielles qui peuvent être utilisés à des fins civiles et militaires. C’est pourquoi on peut discuter de l’intégration de l’IA dans les moyens de guerre[11]. Par exemple, on peut parler d’un réaménagement des moyens traditionnels de mener des conflits armés (utilisation de matières nucléaires, systèmes de navigation pour le guidage, systèmes de propulsion d’avions, télécommunications, reconnaissance faciale, sécurité de l’information, capteurs et lasers, traitement informatisé de l’information, etc.). D’autre part, les moyens conventionnels de mener un conflit armé impliquent l’utilisation de tactiques de combat communes et traditionnelles, principalement utilisées au cours des siècles passés. Par exemple, l’affrontement direct d’armées sur le champ de bataille par : l’utilisation de la force, d’armes qui peuvent être portées directement par les militaires – munitions, armement classique (fusils, pistolets, balles, etc.)[12]. Ainsi, les nouveaux moyens de mener des conflits armés représentent la nouvelle génération d’armes modernes qui se concentrent sur des objectifs autres que la simple déstabilisation des armées, comme la cyber déstabilisation, l’automatisation des armes conventionnelles (l’intervention humaine est limitée).

Outre les moyens traditionnels de faire la guerre, de nouvelles armes sont de plus en plus développées et sont extrêmement précieuses pour les États qui recherchent la suprématie cybernétique.  Les techniques de « deep fake » consistent à manipuler l’information et à déformer les événements à des fins de propagande. Un exemple bien connu est la vidéo dans laquelle le président de l’Ukraine exhorte la population à abandonner le combat, qui est d’un réalisme effrayant et a autant d’impact qu’une arme conventionnelle. Il est clair que cette nouvelle façon de faire la guerre peut donner un avantage considérable à l’une des parties, ce qui est le but ultime de tout belligérant. Les nouveaux moyens de guerre doivent être considérés en relation étroite avec la notion de conflit armé. Par conséquent, afin de répondre aux questions soulevées par le sujet du document lui-même, la notion de conflit armé doit également être définie, de sorte que l’on puisse analyser s’ils peuvent être considérés comme faisant partie intégrante de la notion de conflit armé dans le contexte actuel.

2.3. Définition du conflit armé international

Le terme de conflit armé remplace le terme traditionnel de guerre[13]Les Conventions de La Haye de 1907 et de Genève de 1949 sont pertinentes à cet égard. Ainsi, le terme de guerre a été défini dans la Convention de La Haye comme une situation juridique entre deux ou plusieurs groupes hostiles appelés à régler leur conflit par l’emploi de la force armée ou comme une lutte sanglante entre groupes organisés[14]. Bien entendu, cette définition plutôt étroite reflétait les réalités sociales du début du XIXe siècle, lorsque les guerres étaient menées par des moyens traditionnels, principalement avec des armes conventionnelles (balles, munitions explosives, etc.) impliquant un degré rudimentaire de violence physique.

Toutefois, depuis la Seconde Guerre mondiale, compte tenu des souffrances et des pertes causées par la guerre, la communauté internationale a manifesté une volonté croissante de sanctionner un éventail plus large d’actes commis dans le cadre de conflits militaires, afin de prévenir de telles catastrophes à l’avenir. En conséquence, les Conventions de Genève de 1949 ont remplacé le terme « guerre » par le terme « conflit armé », qui comprend lui-même l’ancien concept de guerre. En ce qui concerne le champ d’application des Conventions[15], on entend par attaque armée une guerre déclarée ou tout autre conflit armé entre deux ou plusieurs Hautes Parties contractantes, même si l’état de guerre n’est pas reconnu par l’une d’entre elles[16].

Si nous examinons l’article d’un point de vue grammatical, nous pouvons remarquer l’utilisation du mot « tout », qui a favorisé l’inclusion de presque tous les actes militaires impliquant l’utilisation de la force dans son contenu. D’un point de vue pratique, on peut dire que cet article a constitué la base des solutions jurisprudentielles ultérieures[17] qui ont continué à réaffirmer une logique beaucoup plus large pour la classification et, par conséquent, la sanction des comportements et pratiques belligérants causant des souffrances supplémentaires. A fortiori, sur la base du même raisonnement, il convient d’examiner si l’utilisation de méthodes modernes de guerre impliquant l’utilisation de l’IA peut être incluse dans le champ d’application large de la notion de tout autre conflit armé.

En outre, il convient de mentionner le travail de l’ONU dans ce domaine, qui, au fil du temps, avec le développement de l’IA, tente de refléter le plus fidèlement possible les nouvelles réalités de la gestion des conflits. Ainsi, la Convention des Nations unies sur certaines armes classiques, entrée en vigueur en 1983, vise à interdire ou à restreindre l’utilisation d’armes produisant des effets traumatiques excessifs[18], c’est-à-dire affectant à la fois les populations militaires et civiles pendant les conflits armés.  En pratique, dans le cadre de la Convention, la portée de la définition et de la compréhension de la communauté internationale en matière d’armements peut changer constamment, en fonction des négociations entre les États et de l’évolution du climat politique et militaire international.

Plus important encore, la Convention offre un espace pour négocier des protocoles supplémentaires visant à interdire ou à restreindre des systèmes d’armes spécifiques. À l’heure actuelle, il existe cinq protocoles de la Convention, notamment des protocoles restreignant ou interdisant l’utilisation de fragments indétectables, de mines terrestres, d’armes incendiaires, d’armes à laser aveuglantes et de restes explosifs de guerre. Les réunions de 2017 et 2018, au cours desquelles il y a eu une structure plus formelle appelée Groupe d’experts gouvernementaux, sont pertinentes pour le sujet du présent document. Les réunions sont chargées d’examiner la définition des systèmes d’armes autonomes, le rôle de l’homme dans l’utilisation de la force létale et les options possibles pour relever les défis humanitaires et sécuritaires[19]. Bien entendu, on peut légitimement se demander pourquoi une discussion sur les réunions des groupes d’experts serait pertinente. Elles doivent être ajoutées à l’analyse car, même si elles ne sont pas juridiquement contraignantes, elles sont une indication directe de la volonté des États et de leur pratique dans ce domaine, les participants étant des représentants des gouvernements des États qui composent la communauté internationale.

Par conséquent, il convient de se poser la question suivante : « Dans quelles limites l’utilisation des moyens modernes de faire la guerre est-elle compatible avec le droit humanitaire? Compte tenu du vide juridique actuel, les États sont-ils autorisés à justifier leurs éventuelles actions belliqueuses? Le droit international humanitaire classique est-il suffisant pour sanctionner l’utilisation de l’IA comme moyen de guerre? Pour répondre à ces questions, il est nécessaire de les replacer dans leur contexte. Après avoir défini les termes autour desquels s’articule le document, il convient de les mettre en relation avec des données historiques sur la pratique des États dans les conflits armés internationaux.

3. Le contexte historique

3.1. Premières tentatives des États pour limiter l’utilisation des moyens de résolution des conflits internationaux

Depuis le Moyen Âge, les États se sont rendu compte que la guerre, en tant que moyen de résolution des conflits, entraîne inévitablement des souffrances supplémentaires, souvent inutiles, et la consommation d’importantes ressources[20]. Ils ont donc cherché à conclure des traités pour tenter d’atténuer ces souffrances. On peut affirmer que le développement du droit humanitaire et l’évolution des moyens de faire la guerre sont directement proportionnels. Parce que la simple conclusion de traités et de conventions ne suffisait pas, et dans le contexte des pertes massives causées par les Première et Seconde Guerres mondiales, les États ont pris conscience de la nécessité de créer des organismes internationaux visant à maintenir la paix à long terme. C’est ainsi qu’ils ont créé la Cour permanente de justice en 1920 et l’Organisation des Nations unies (ONU) en 1945[21].

 Toutefois, compte tenu de l’évolution constante de la technologie, la littérature et les articles internationaux signalent que la communauté internationale est confrontée à une troisième vague d’attaques armées basées sur des systèmes d’IA automatisés. Par exemple, l’Iran a annoncé le développement d’une série de chars miniatures automatisés contenant des armes de qualité militaire[22]. Cet exemple a été utilisé pour mettre en évidence les tendances évolutives et les défis actuels du droit humanitaire, qui semble contraint de s’adapter à ces nouveaux moyens automatisés. Au cours de l’analyse, d’autres exemples de ce type seront longuement étudiés, mais dans le strict but de mettre en évidence l’évolution historique du droit humanitaire, nous nous sommes limités à l’énumération de cette situation. Il reste que le contexte international actuel doit être analysé par rapport à l’état actuel du droit dans ce domaine.

3.2. Adapter le droit humanitaire au contexte actuel. La grande marge d’appréciation des États sur la notion de conflit armé

Tout au long de cette étude, et plus particulièrement dans sa première partie, il a été possible de constater la souplesse et le manque de rigidité que les États, par le biais du droit international humanitaire, ont donné à la définition du conflit armé au niveau international. Il convient d’ajouter à l’analyse du sujet que cette ligne de conduite est encore maintenue aujourd’hui au sein de la communauté internationale, comme le permettent les dispositions du Protocole additionnel I aux Conventions de Genève[23]. L’article 36 de ce protocole prévoit expressément que, lors de la recherche, de la mise au point, de l’acquisition ou de l’adoption d’une nouvelle arme, d’un nouveau moyen ou d’une nouvelle méthode de guerre, une Haute Partie contractante a l’obligation de s’assurer que son emploi n’est pas interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du présent protocole ou par toute autre règle de droit international applicable à cette Haute Partie contractante[24].

Si le texte est analysé de manière téléologique, il est facile de conclure, sur la base des données analysées tout au long du document, que le droit humanitaire ne restreint pas la liberté des États de sanctionner de nouveaux moyens de faire la guerre, mais, au contraire, leur donne une grande latitude pour inclure ou non l’utilisation de nouveaux dispositifs techniques militaires dans le concept d’attaque armée. Par conséquent, ils disposent d’une liberté suffisante pour sanctionner toute utilisation de ces armes qui contreviendrait aux principes fondamentaux du droit humanitaire.

En outre, sur la base du protocole, il est possible de déduire un certain nombre de critères permettant de classer une pratique particulière dans la catégorie des conflits armés[25].

Premièrement, conformément à l’article 35 du protocole, il convient d’examiner si les armes basées sur l’intelligence artificielle sont susceptibles de causer des blessures ou des souffrances inutiles, des dommages graves durables et étendus à l’environnement naturel[26]. Deuxièmement, il faut examiner, comme le prévoit l’article 51 du protocole, si ces armes sont susceptibles de nuire à la population civile et aux individus[27]. Enfin, il faut déterminer si leur utilisation est conforme aux principes du droit humanitaire et si elles respectent la clause de Martens[28], prévue à l’article 1 du protocole, qui sera détaillée au cours de ce document.

La combinaison de ces critères dérivés des dispositions du Protocole permet d’affirmer que le droit international humanitaire peut, même dans le contexte législatif actuel, relever les défis posés par l’intégration de l’IA dans le domaine militaire. Certes, il serait souhaitable de disposer d’une réglementation actualisée qui régisse de manière exhaustive les hypothèses dans lesquelles l’utilisation d’appareils militaires fondés sur l’IA y contrevient, mais on peut conclure que, même en l’absence de tels textes internationaux, le droit international humanitaire présente des principes et des méthodes autonomes pour déterminer l’existence de conflits armés internationaux, sur la base desquels toute pratique éventuelle contraire au droit international humanitaire peut être sanctionnée. Dans ce contexte, on peut affirmer que le droit international humanitaire se caractérise par sa propre autonomie.

Cependant, lorsque ses principes fondamentaux sont analysés par rapport à la dynamique législative actuelle, ils peuvent conduire à une plus grande protection.

3.3. Contexte législatif actuel

Le débat sur la réglementation de l’utilisation des armes basées sur l’IA se fait de plus en plus pressant. Ainsi, récemment, le Parlement de l’Union européenne a adopté la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d’intelligence artificielle, qui doit encore être formellement adoptée par le Conseil de l’Union européenne pour entrer en vigueur. Parallèlement, l’administration Biden a publié en octobre 2022 un projet de principes qui devraient guider la conception, l’utilisation et le déploiement de systèmes automatisés pour protéger le public américain à l’ère de l’intelligence artificielle, le Blueprint for an AI Bill of Rights (projet de charte des droits de l’IA).

Si nous avons démontré l’autosuffisance du droit international humanitaire, la communauté internationale s’oriente vers un détail des droits et des sanctions qui découlent de l’utilisation de l’IA, ce qui ne fait que renforcer la protection contre les pratiques qui y contreviennent. A la modernisation des moyens s’ajoute une mise à jour du droit international, une intégration croissante de l’IA et des conséquences de son utilisation dans le droit international, reflétant l’évolution de la société et non l’inverse.

4. Pratique des États en matière d’utilisation de l’intelligence artificielle dans les conflits armés

4.1. La Chine et la politique de « guerre cognitive »

La communauté internationale a déjà exprimé sa préoccupation ou, au contraire, son intérêt pour l’évolution de l’utilisation de l’IA dans les conflits armés. Au niveau international, la Commission du désarmement et de la sécurité internationale a approuvé l’adoption d’un projet de future résolution sur l’utilisation de l’intelligence artificielle dans les conflits armés. Par ailleurs, la commission a décidé qu’un algorithme ne devrait pas avoir le pouvoir de décider de lancer ou non une attaque armée[29]. Toutefois, on peut constater qu’il existe une pratique distincte au niveau des États. L’utilisation de l’IA dans les conflits armés a été initiée par la République populaire de Chine, qui a promu, dans le contexte du conflit sur le statut de Taïwan, une nouvelle politique militaire, appelée « guerre cognitive »[30]. La communauté internationale a donc été mise devant le fait accompli : l’avenir technologique avait déjà atteint la sphère des conflits armés. La Chine a annoncé publiquement[31] qu’elle allait soutenir le développement de l’intelligence artificielle pour l’utiliser dans des attaques, considérant l’utilisation d’algorithmes comme une mesure impérative pour la sécurité de l’État[32]. Les mesures que l’on cherche à prendre lors d’un conflit armé sont liées à l’accumulation de renseignements sur les positions militaires et les effectifs de l’ennemi, à la manipulation d’armes sans intervention humaine et à la création d’algorithmes capables de déterminer des décisions stratégiques, là encore, sans intervention humaine[33]. Fondamentalement, ce qui est en jeu, c’est l’utilisation de techniques innovantes qui permettent la conquête de points militaires stratégiques par des algorithmes, avec leur propre raisonnement, non soumis à la volonté et à la raison humaines[34].

La Chine n’est pas non plus étrangère à l’utilisation de techniques de guerre moins « orthodoxes ». Au fil des ans, la République populaire de Chine a eu recours à la collecte d’informations, dites données personnelles, en utilisant des techniques telles que les deep fakes ou la diffusion de fausses informations sur les politiques d’autres États. Ce qui est certain, c’est que ces incidents disparates sont appelés à s’intensifier à mesure que l’IA se répand dans les conflits armés.

D’un point de vue juridique, les actes unilatéraux (déclarations du président chinois Xi Jinping) produisent des effets juridiques et engendrent des obligations à l’égard de la communauté internationale. Cependant, la question de la compatibilité de ce nouveau type de guerre avec le droit international humanitaire reste d’actualité. Du point de vue de l’article 36 du protocole additionnel à la convention de Genève, l’utilisation de l’intelligence artificielle dans la guerre est une arme nouvelle au sens de cette norme. L’objectif de l’adoption de cette règle était de donner aux Hautes Parties contractantes un pouvoir d’appréciation pour déterminer si une arme au sens de la Convention, à savoir être utilisée dans un conflit armé, qu’elle soit ou non conforme aux obligations auxquelles les parties se sont engagées. En d’autres termes, tout au long du développement et de l’examen de l’utilisation possible d’une technologie particulière, l’État est tenu de s’assurer que la technologie en question ne contrevient pas aux articles des conventions et des protocoles additionnels au moment où l’analyse est effectuée[35]. L’article 36 doit être interprété en liaison avec l’article 35, qui stipule que les armes pouvant être utilisées en temps de guerre ne sont pas illimitées, afin de décourager les États d’ajouter de nouvelles armes à la liste de celles qui sont déjà utilisées. D’autre part, l’article 51 du Protocole stipule qu’il est interdit de soumettre les civils à des attaques et, à plus forte raison, de diriger ces attaques dans le but d’infliger la terreur à la population civile. Dans le contexte de l’émergence de nouveaux types de guerre, il est difficile de dire dans quelle mesure ces nouvelles techniques sont ou non compatibles avec le droit international humanitaire et les dispositions du droit de Genève.

Il convient de noter que, par principe, le Comité international de la Croix-Rouge, autorité importante dans le domaine du droit international humanitaire, n’est pas opposé à l’ajout de nouvelles armes à la liste existante[36], comme le montre le libellé des articles susmentionnés. Toutefois, le Comité se garde d’être trop tolérant à l’égard des pratiques de la Chine et d’autres États en la matière.

4.2. Les États-Unis d’Amérique et la proposition de règles sur la responsabilité

Outre les actions nationales de la Chine, il existe également un souci de donner une forme juridique aux nouvelles réalités de la guerre. Les États-Unis ont rédigé un document novateur sur l’élaboration de règles relatives à l’utilisation de l’IA dans les conflits armés. La Déclaration politique sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie a été adoptée à la Haye en 2023 lors du Sommet sur l’utilisation responsable de l’IA dans les conflits armés[37]. Le document a la valeur d’une loi non contraignante (soft law), contenant des règles qui ne sont pas juridiquement contraignantes, mais qui représentent un pas en avant important dans la réglementation de l’utilisation de l’IA. À ce jour, 49 pays ont exprimé leur soutien à cette initiative, dont la Roumanie[38]. Comme on pouvait s’y attendre, la Chine n’a pas soutenu la proposition américaine. La déclaration réitère l’importance du respect des règles du droit international humanitaire dans les conflits où des armes dirigées par l’IA sont utilisées. En outre, le paragraphe B souligne la nécessité pour les États d’accroître le degré de protection des civils dans de tels conflits[39]. Par ailleurs, le paragraphe H de la déclaration insiste sur le fait que les États doivent définir clairement le but de ces armes afin d’en limiter l’utilisation arbitraire[40].

Il reste à voir si les États reprendront ces règles non contraignantes et les transformeront en droit coutumier international, devenant ainsi des règles contraignantes dotées d’une force juridique plus importante qu’aujourd’hui.

5. L’éthique et l’humanité « artificielles » dans le domaine du droit international humanitaire

5.1. La clause Martens dans le contexte de l’utilisation de l’IA dans les conflits armés

L’un des principes les plus importants du droit international humanitaire est le principe d’humanité, qui stipule que les personnes en situation difficile, comme les civils, qui ne sont pas en mesure de se défendre contre l’ennemi comme le font les combattants, doivent être traitées avec humanité, dans le respect de leur droit à la vie et à l’intégrité physique et mentale[41]. Cette idée se retrouve dans la Convention de La Haye de 1899 sur la guerre en mer et est connue sous le nom de clause Martens[42]. L’objectif de cette règle est précisément d’éviter les situations de vide réglementaire par rapport à une situation juridique particulière. Dans ce contexte, le recours à la clause de Martens peut apporter la protection nécessaire aux catégories qui en ont besoin, sans qu’il soit nécessaire d’obtenir une réponse des États, qui arriverait souvent trop tard pour être considérée comme efficace. La clause incite donc les États et les individus à prendre des mesures proportionnées et humaines au moment où elles sont le plus nécessaires[43].

Cependant, malgré son noble objectif, la clause Martens peut poser de nouveaux problèmes dans l’utilisation de l’intelligence artificielle dans les conflits armés. Le processus consistant à peser les valeurs et à imaginer les résultats qui seront produits était, jusqu’à récemment, une opération exclusivement humaine. Mais le progrès technique a montré qu’il est possible de créer des algorithmes capables de faire beaucoup de choses qui ne semblaient possibles qu’à l’échelle humaine. Mais l’IA peut-elle respecter le principe d’humanité, comme l’exigent les conventions du droit international humanitaire?

L’un des arguments en faveur de l’utilisation de l’intelligence artificielle dans ce cadre serait que la grande précision de ces algorithmes peut réduire de manière exponentielle les erreurs tactiques que les humains commettraient inévitablement[44]. Cette idée s’inscrit dans le contexte de la nécessité de rationaliser les opérations militaires. En théorie, il s’agit d’un objectif noble, mais dans la pratique, les choses sont quelque peu différentes. Les algorithmes créés par des humains peuvent, comme les humains, se tromper. Logiquement, une entité imparfaite ne peut pas créer quelque chose de parfait. Dans les conflits armés, cependant, les erreurs de système sont encore plus graves que dans d’autres domaines. Il semble que la pensée basée strictement sur des règles mathématiques soit incompatible avec la prise de décision tactique. Récemment, il y a eu de nombreux exemples d’algorithmes qui n’ont pas fonctionné. Un exemple frappant est le dysfonctionnement des voitures Tesla, qui a provoqué pas moins de 736 accidents, dont certains ont entraîné la mort des victimes[45]. Les algorithmes ne sont donc pas parfaits et il est peu probable qu’ils réagissent de manière cohérente dans les situations de crise. La situation est encore pire dans les conflits armés, où les décisions de frapper ou non une cible militaire sont prises en quelques secondes.

D’un point de vue juridique, la clause de Martens a pour spécificité un raisonnement humain, qui met en balance deux situations potentielles et choisit la plus appropriée. La rapidité est-elle souhaitable dans de telles situations? Il semble plus important de trouver des alternatives que d’adopter une réponse mathématique. Les experts soulignent que c’est précisément ce temps, que l’utilisation de l’IA éliminerait, qui permet de trouver des alternatives, ce qui peut sauver de nombreuses vies[46]. La population civile peut ainsi s’abriter ou observer un cycle dans les opérations militaires menées[47], ce qui est évidemment à encourager selon les règles du droit international humanitaire. Certes, la guerre implique par nature la perte de vies humaines, mais leur nombre doit être aussi réduit que possible et la souffrance doit être évitée à tout prix.

5.2. La responsabilité de l’AI dans le domaine du droit international humanitaire

Les récents conflits militaires ont montré à quel point la notion de guerre a évolué aujourd’hui. Par exemple, dans la guerre entre la Russie et l’Ukraine, les deux parties utilisent des serveurs capables de détecter les cibles à atteindre, ainsi que des algorithmes qui permettent d’atteindre plus efficacement les objectifs militaires[48]. En quelques secondes, les drones, nouvelle présence sur le champ de bataille, sont capables de détruire des moyens militaires qu’il faudrait autrement beaucoup plus de temps pour éliminer. Mais ces machines sont contrôlées par des humains. L’avenir veut que les technologies basées sur l’IA prennent des décisions par elles-mêmes. Une autre dimension de ce désir est la dimension éthique, une dimension importante pour le droit humanitaire international. Mais il est peut-être tout aussi important de savoir qui est responsable des actes commis par l’intelligence artificielle.

Est-il éthique de laisser un ordinateur décider si une personne doit être tuée ou non? Les Nations unies ont répondu fermement par la négative, dans la résolution adoptée par la Première Commission, organe du système des Nations unies[49]. La réponse de la communauté internationale est conforme aux principes du droit humanitaire et fortement en faveur de son respect. Mais, pour l’instant, la question de la responsabilité n’a pas été abordée en termes très clairs.

La réponse est similaire à celle donnée dans d’autres branches du droit : l’intelligence artificielle n’est pas une personne, au sens juridique du terme, et ne peut être tenue pour responsable. C’est peut-être sur ce vide normatif que certains États s’appuient pour décider d’utiliser ces algorithmes. De timides tentatives ont été faites sur la scène internationale pour donner une forme juridique à ces situations. Par exemple, le Haut-Commissaire des Nations Unies aux droits de l’homme a réaffirmé la nécessité que l’IA continue à se développer et à être utilisée dans le respect des droits de l’homme[50], une idée qui fait de plus en plus son chemin au sein de la communauté internationale. Ce signal d’alarme intervient dans un contexte d’inquiétude généralisée quant à la manière dont l’intelligence artificielle pourrait être détournée de ses objectifs initiaux et causer plus de souffrances que nécessaire[51]. Face à de telles manifestations, il a été présumé que les personnes qui utilisent ces algorithmes sont également celles qui doivent répondre de la manière dont ils fonctionnent. En interprétant l’article 35, paragraphe 1, du protocole additionnel à la convention de Genève, qui stipule que le choix des armes dans les conflits militaires n’est pas illimité, on est arrivé à l’idée que le choix d’une telle arme est néanmoins une décision prise par les responsables d’un État, qui prévoient comment elle fonctionnera et quels types d’effets elle produira[52]. Ainsi, les commandants et les civils en charge de la technologie militaire seraient les premiers visés[53].  Tout au long de la fabrication et de l’utilisation de ces armes, certaines personnes peuvent jouer un rôle important dans la création de ces algorithmes. Il est fort probable que ces personnes soient responsables de l’utilisation qui en est faite. Toutefois, les discussions sur la responsabilité n’ont pas encore été abordées comme elles devraient l’être, en raison du fait que cette question juridique a été soulevée relativement récemment. Mais il est certain que les États devront s’asseoir à la table des négociations dès que possible et trouver une réponse cohérente à cette question. L’organe le plus important qui pourrait répondre à ces évolutions est probablement la Commission du droit international, qui a pour rôle de codifier les coutumes du droit international et d’encourager le développement progressif du droit international dans des domaines où il n’existe pas encore de règles de droit contraignantes, comme le domaine de l’intelligence artificielle. Jusqu’à présent, la CDI n’a pas entamé de discussions sur cette question[54]. Il reste à voir quand un rapporteur spécial sera nommé sur cette question.

6. Conclusions

Chaque jour, il devient de plus en plus évident que l’humanité subit des transformations sans précédent et que l’intelligence artificielle devient un défi croissant dans de nombreux domaines. Naturellement, le droit international est également appelé à répondre à ces nouveaux défis. Jusqu’à présent, il n’y a eu que des réponses timides, que ce soit au niveau national ou international, mais sans force juridique contraignante pour garantir leur efficacité. En outre, les discussions sur la responsabilisation des agents de l’État pour les actes commis par des algorithmes ne semblent pas être une priorité absolue pour la plupart des représentants de l’État. Le besoin d’équilibre est plus grand que jamais et le droit international, en particulier le droit humanitaire, doit rapidement répondre aux questions posées : quelle confiance pouvons-nous accorder à ces algorithmes et dans quelle mesure peuvent-ils remplacer le jugement humain? Il reste à voir comment le droit international humanitaire abordera ces questions cruciales.


* Fourth year bachelor student, Faculty of Law, University of Bucharest, Romania.
The opinions expressed in this paper are solely the author’s and do not engage the institution she belongs to.

** Fourth year bachelor student, Faculty of Law, University of Bucharest, Romania.
The opinions expressed in this paper are solely the author’s and do not engage the institution she belongs to.

[1] Proposition de Règlement du Parlement Européen et du Conseil établissant des Règles Harmonisées Concernant l’Intelligence Artificielle (Législation sur l’Intelligence Artificielle) et Modifiant Certains Actes Législatifs de l’Union, COM/2021/206 finalhttps://eur-lex.europa.eu/legal-content/RO/TXT/?uri=CELEX:52021PC0206, visité le 18.03.2024.

[2] Edith M. Lederer, “The UN adopts a resolution backing efforts to ensure AI is safe”, AP News,https://apnews.com/article/united-nations-artificial-intelligence-safety-resolution-vote-8079fe83111cced0f0717fdecefffb4d, visité le 22.03.2024.

[3] Anca-Daniela Deteseanu, Droit international humanitaire et droit des réfugiés, 1ère édition. Ed. Hamangiu, 2024, Bucarest, p. 149.

[4] Proposition de Règlement du Parlement Européen et du Conseil établissant des Règles Harmonisées Concernant l’Intelligence Artificielle (Législation sur l’Intelligence Artificielle) et Modifiant Certains Actes Législatifs de l’Union, COM/2021/206 final, https://eur-lex.europa.eu/legal-content/RO/TXT/?uri=CELEX:52021PC0206, visité le 18.03.2024.

[5] Ibid.

[6] Ibid.

[7] Harry Surden, “Machine Learning and Law”, Washington Law Review, Vol. 89, No. 1, 2014.

[8] Ibid.

[9] Anca-Daniela Deteseanu, Droit international humanitaire et droit des réfugiés, 1ère édition. Ed. Hamangiu, 2024, Bucarest, p. 126.

[10] Adam Easton, “Poland says Russian missile entered airspace then went into Ukraine”, BBC News, https://www.bbc.com/news/world-europe-67839340, visité le 18.03.2024.

[11] Guidance, Export controls: dual-use items, software and technology, goods for torture and radioactive sources, https://www.gov.uk/guidance/export-controls-dual-use-items-software-and-technology-goods-for-torture-and-radioactive-sources, visité le 21.03.2024.

[12] Ibid.

[13] Anca-Daniela Deteseanu, Droit international humanitaire et droit des réfugiés, 1ère édition. Ed. Hamangiu, 2024, Bucarest, p. 45.

[14] Ibid., p. 47.

[15] Ibid. 47.

[16] Art. 2, Convention de Genève relative à la protection des personnes civiles en temps de guerre du 12.08.1949.

[17] Par exemple, dans l’affaire Tadić du 15 juillet 1999, le Tribunal international pour l’ex-Yougoslavie a établi qu’un conflit armé existait dès lors que des États avaient recours à la force.

[18] The Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects as amended on 21 December 2001, https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/, visité le 21.03.2024.

[19] Ibid.

[20] Anca-Daniela Deteseanu, Droit international humanitaire et droit des réfugiés, 1ère édition. Ed. Hamangiu, 2024, Bucarest, p. 45.

[21] Philip Alexander, “Reconciling Automated Weapon Systems with Algorithmic Accountability: An International Proposal for AI Governance”, https://journals.law.harvard.edu/ilj/2023/10/reconciling-automated-weapon-systems-with-algorithmic-accountability-an-international-proposal-for-ai-governance/, visité le 19.03.2024.

[22] Ibid.

[23] Protocole additionnel aux Conventions de Genève du 12 août 1949 relatif à la protection des victimes des conflits armés internationaux (Protocole I).

[24] Ibid., art. 36.

[25]Qiang Li, Dan Xie, “Legal Regulation of AI weapons under International Humanitarian Law: a Chinese perspective”, https://blogs.icrc.org/law-and-policy/2019/05/02/ai-weapon-ihl-legal-regulation-chinese-perspective/, visité le 19.03.2024.

[26] Ibid.

[27] Ibid.

[28]Ted Piccone, “How can international law regulate autonomous weapons?”, https://www.brookings.edu/articles/how-can-international-law-regulate-autonomous-weapons/, visité le 19.03.2024.

[29] Site internet des Nations Unies, Déclaration sur l’adoption de la résolution: https://press.un.org/en/2023/gadis3731.doc.htm#:~:text=Turning%20to%20the%20draft%20as,T%C3%BCrkiye%2C%20United%20Arab%20Emirates, visité le 16.03.2024.

[30] Ruben Steward, Georgia  Hinds, “Algorithms of war: The use of artificial intelligence in decision making in armed conflict”,https://blogs.icrc.org/law-and-policy/2023/10/24/algorithms-of-war-use-of-artificial-intelligence-decision-making-armed-conflict/, 24 octobre 2023, visté le 16.03.2024.

[31] Gabriel Dominguez, “China takes ‘stunning lead’ in key technological research, think tank says”, https://www.japantimes.co.jp/news/2023/03/03/world/china-lead-tech/, visité  le 16.03.2024.

[32] Gabriel Dominguez, “Winning without fighting? Why China is exploring ‘cognitive warfare‘”,https://www.japantimes.co.jp/news/2023/05/26/asia-pacific/china-pla-ai-cognitive-warfare/,  visité le 16.03.2024.

[33] Ibid.

[34] Ibid.

[35] Commentaire de l’article 36 du Protocole additionnel à la Convention de Genève du 12 août 1949.

[36] ICRC No. 913, ICRC Position Paper: Artificial intelligence and machine learning in armed conflict: A human-centered approach, https://international-review.icrc.org/articles/ai-and-machine-learning-in-armed-conflict-a-human-centred-approach-913, visté le 17.03.2024.

[37] Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy, Bureau of Arms Control, Deterrence and Stability,https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/), visité  le 16.03.2024.

[38] Lauren Kahn, “How the United States Can Set International Norms for Military Use of AI”,https://www.lawfaremedia.org/article/how-the-united-states-can-set-international-norms-for-military-use-of-ai, 21janvier 2024, visité le 16.03.2024.

[39] Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy, Bureau of Arms Control, Deterrence and Stability, https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/, visité le 16.03.2024.

[40] Ibid.

[41] Anca-Daniela Deteseanu, Droit international humanitaire et droit des réfugiés, 1ère édition. Ed. Hamangiu, 2024, Bucarest, p. 27.

[42] Ibid.

[43] Elena Lazar, Dreptul inteligentei artificiale-o scurta introducere, Ed.  Hamangiu, Bucarest, 2024.

[44] Ruben Steward, Georgia Hinds, “Algorithms of war: The use of artificial intelligence in decision making in armed conflict”, https://blogs.icrc.org/law-and-policy/2023/10/24/algorithms-of-war-use-of-artificial-intelligence-decision-making-armed-conflict/), visté le 17.03.2024.

[45] Faiz Siddiqui, Jerem Merril, “17 fatalities, 736 crashes: The shocking toll of Tesla’s Autopilot”, The Washington Post, https://www.washingtonpost.com/technology/2023/06/10/tesla-autopilot-crashes-elon-musk/, visité le 17.03.2024.

[46] Ruben Steward, Georgia Hinds, “Algorithms of war: The use of artificial intelligence in decision making in armed conflict”, (https://blogs.icrc.org/law-and-policy/2023/10/24/algorithms-of-war-use-of-artificial-intelligence-decision-making-armed-conflict/), visité  le 17.03.2024.

[47] Ibid.

[48] Lauren Kahn, “How the United States Can Set International Norms for Military Use of AI”,https://www.lawfaremedia.org/article/how-the-united-states-can-set-international-norms-for-military-use-of-ai), 21 janvier 2024,visité le 16.03.2023.

[49] Le premier comité des Nations unies a adopté le document A/C.1/78/L.56.

[50] Discours du Haut Commissaire aux droits de l’homme, 12 juillet 2023, https://www.ohchr.org/fr/statements/2023/07/artificial-intelligence-must-be-grounded-human-rights-says-high-commissioner, visité le 20.03.2024.

[51] Ibid.

[52] Li Qiang, Dan Xie, “Legal regulation of AI weapons under international humanitarian law: A Chinese perspective, https://blogs.icrc.org/law-and-policy/2019/05/02/ai-weapon-ihl-legal-regulation-chinese-perspective/, 2 mai 2019,visité le 17.03.2024.

[53] Ibid.

[54] Le site web de la Commission du droit international indique que l’intelligence artificielle n’est pas actuellement un sujet de discussion au sein de la Commission. https://legal.un.org/ilc/status.shtml, visité le 20.03.2024.

Share the Post:

Related Posts

Skip to content