Au temps de la guerre à distance

– par Philippe Ryfman

Les nouvelles formes de conflictualités qui se multiplient sur la planète depuis le début du XXIe siècle (de l’Irak au Soudan du Nord et du Sud, de la Syrie à l’Afghanistan, du Sahel au Myanmar) impactent directement les organisations humanitaires. La violence de guerre se caractérise aujourd’hui par une « extrêmisation » marquée, une radicalisation et une réidéologisation des belligérants, le brouillage de la distinction front/arrière (le champ de bataille étant partout et, désormais, non spécifiquement délimité) ou encore la disparition de la différenciation civils/combattants. La multiplication d’atrocités, de massacres de masses et de stratégies de terreur ciblant délibérément les civils s’est banalisée. Les actes de terrorisme visant intentionnellement des rassemblements festifs, des espaces artistiques, des moyens de transport ou des lieux de culte s’emploient eux aussi à favoriser ces montées aux extrêmes. Ce retour à une totalisation de la guerre engendre déjà des retombées majeures sur le système international de l’aide humanitaire. Mais la probabilité de la généralisation à court ou moyen terme d’armements issus de la « robolution » et s’affranchissant de plus en plus du facteur humain y ajoute une dimension – voire une béance – supplémentaire.

            En soi, que des systèmes d’armes s’avèrent meurtriers pour les combattants et encore plus pour les civils n’est pas une nouveauté, le XXe siècle l’a largement montré. Cependant, la disruption(1)Terme issu de la Silicon Valley et synonyme de bouleversements primordiaux. que ces engins robotisés sont susceptibles d’introduire tient d’abord en ce qu’ils disposent de capacités énormes que la révolution techno-scientifique ne cesse d’affiner. Ensuite, que ceux actuellement existants demeurent encore actionnés par des opérateurs humains, mais souvent situés à plusieurs milliers de kilomètres du champ de bataille avec comme unique vision de celui-ci celle que leur donnent l’électronique et les capteurs embarqués. D’où une perception de l’affrontement guerrier radicalement différente de celle qui prévalait jusqu’alors. Enfin, que le risque – à échéance plus ou moins rapprochée – d’une irruption de robots tueurs disposant de capacités d’autonomie et de fonctions décisionnelles propres (sur lesquels l’être humain n’aurait plus qu’un rôle limité, voire potentiellement aucun) n’est pas négligeable. Il suscite l’effroi chez beaucoup.

            Or les humanitaires prennent encore insuffisamment la mesure de ces évolutions fulgurantes. Le développement de l’intelligence artificielle, la puissance et la capacité des algorithmes souvent célébrés par les médias ou au sein de la génération y croissent de façon vertigineuse dans le domaine militaire aussi. Pourtant, l’information circule relativement peu sur le sujet. D’autant plus que les aspects techniques priment souvent, que la majorité des publications – généralement en anglais – les privilégient et que le débat a tendance à rester confiné à l’intérieur de cercles spécialisés, militaires ou juridiques. Il faut donc saluer la parution d’un ouvrage majeur en langue française et l’un des premiers véritablement consacré à cette problématique et à l’analyse en profondeur des tendances et ruptures que la robotique avancée va produire dans la conduite et le déroulement des hostilités(2)Le livre consacre aussi des développements très pertinents à celui de la sécurité intérieure. Toutefois, cet aspect n’est pas directement en lien avec les problématiques humanitaires, du moins à l’international. Il ne sera donc pas évoqué ici. en tant que nouvel outil de coercition, spécialement à travers ce que l’on nomme les Systèmes d’armes létaux autonomes (SALA).

            Ce travail collectif comble, par conséquent, un vide et devrait faire date. Sorti en 2015, il est trop passé inaperçu alors qu’il demeure pleinement d’actualité. Il mérite donc d’être signalé, d’autant qu’il est remarquablement piloté par un trio de chercheurs et enseignants (Ronan Doaré, Didier Danet et Gérard de Boisboissel), tous trois rattachés au Centre de recherche des écoles de Saint-Cyr Coëtquidan, où sont formés les futurs officiers de l’armée de terre française. Publié par les Presses universitaires de Rennes, il a reçu aussi le soutien de la Fondation Saint-Cyr. Ses 260 pages – en dépit des différences, classiques, dans la rédaction et le style, entre la vingtaine de contributeurs (mais qui ici sont limitées) – s’avèrent d’une lecture aisée, agréable et facilitant la compréhension d’une thématique pourtant complexe. L’approche transversale qu’il privilégie mixant experts militaires et experts civils sur une base pluridisciplinaire (p. 17) y est certainement pour beaucoup. De même, la diversité et la richesse de presque toutes les contributions sont à souligner.

Une de ses qualités essentielles réside dans sa construction qui obéit à un découpage cohérent, sans être didactique. Presque toute la première partie est ainsi consacrée à un travail de mise en perspective des robots militaires et policiers. Ce qui présente l’avantage de croiser la réflexion sur la robotisation du champ de bataille, sur les usages en matière de sécurité intérieure et sur l’utilisation de drones armés. Le grand public a découvert ces derniers à travers l’application systématique qu’en a faite l’administration Obama ces dernières années contre Al Qaida et ses affiliés. Pour Stéphane Taillat qui l’analyse, elle doit cependant « être relativisée dans la mesure où il s’agit d’un outil inscrit dans une tactique particulière au service d’une stratégie » (p. 62). Elle ne changerait pas la conduite de la guerre, mais en modifierait la perception. Reste que l’utilisation de ces robots s’est systématisée, y compris au sein de groupes armés non étatiques, tel l’État islamique (EI) qui les fabrique artisanalement et les utilise en nombre en Irak et en Syrie. D’autres auteurs – tels Jean-Baptiste Jeangène-Vilmer, Catherine Tessier ou Gérard de Boisboissel – s’attachent à bien expliciter la distinction entre drones et SALA, les enjeux et choix d’emploi des uns et des autres leur paraissant relever de deux registres sensiblement différents.

            Une deuxième et copieuse partie dresse un état du droit positif aussi bien sur le plan intérieur (français particulièrement) qu’international du contrôle des robots militaires et policiers. Les humanitaires retiendront évidemment l’article de Caroline Brandao qui étudie les défis que la robotique militaire pose au droit international humanitaire (DIH). Selon elle, il n’existerait pas en réalité « de vide juridique dans l’utilisation des armes autonomes et semi-autonomes » (p. 132). Elle ajoute, en conclusion, que les nouvelles technologies ne changent pas le droit existant mais doivent plutôt s’y conformer, quitte – face à certains défis – à élaborer des normes complémentaires. Si cette approche est compréhensible de la part d’une juriste de la mouvance Croix-Rouge et Croissant-Rouge, il est permis de la questionner et de la trouver exagérément optimiste, car avant tout institutionnelle. On mentionnera que de manière pionnière le Comité international de la Croix-Rouge (CICR) a mis le thème à son ordre du jour dorénavant(3)Voir par exemple la livraison d’International Review of the Red Cross (IRRC), n° 886, été 2012, “New technologies and Warfare”, Cambridge University Press, www.icrc.org/eng/resources/international-review/review-886-new-technologies-warfare/review-886-all.pdf. Dominik Gerhold et Marion Vironda-Dubray, qui tous deux appartiennent à la direction des affaires juridiques du ministère français de la Défense, mènent quant à eux une analyse approfondie des obligations et responsabilités militaires face à la robotisation du champ de bataille.

            Enfin, la troisième et dernière partie élargit la question du contrôle des robots en s’interrogeant sur une réforme (qualifiée par les auteurs de « nécessaire ») de celle-ci. Jean-Marie Fardeau, en sa qualité (au moment de la rédaction) de directeur de Human Rights Watch-France (HRW), plaide ainsi pour l’interdiction préventive des armes complètement autonomes. Il explique que HRW a pris la tête d’une campagne internationale à cette fin. Pour lui, elle serait légitime et justifiée pour quatre raisons : l’impossible respect du DIH ; l’absence d’émotions humaines ; la facilitation de l’entrée en guerre et le problème de la responsabilité pour les dommages causés spécialement aux civils (p. 198-200). Si cette initiative, lancée en 2013, a rencontré un assez large écho public, force est de constater qu’elle peine néanmoins à mobiliser dans la durée les sociétés civiles et, surtout, qu’elle ne semble en rien avoir ralenti le développement des SALA… Didier Danet, dans un article très fouillé, critique avec force cette proposition et estime que vouloir interdire les robots tueurs relève d’un « enfer pavé de bonnes intentions » (p. 203). Selon cet auteur, un régime normatif ad hoc serait d’autant moins nécessaire que son objet – le killer robot – n’existe pas en réalité, et qu’il ne faut pas confondre droit et science-fiction. La démonstration est rigoureuse, mais semble parfois péremptoire car elle tient pour acquis que les systèmes existants n’évolueront jamais, et qu’il est donc inutile d’anticiper.

            Le livre se conclut avec pas moins de trois chapitres consacrés aux questions d’éthique que pose la robotisation. Le croisement des points de vue d’un philosophe et physicien (Dominique Lambert), d’un ingénieur en chef de l’armement (Thierry Pichevin) et d’un vice-amiral américain professeur d’éthique et de politique publique à l’académie navale des États-Unis (George Lucas), est particulièrement stimulant sur ce plan.

            La brève conclusion signée, à nouveau, de Didier Danet montre combien ce travail s’insère dans une actualité brûlante puisque, alors qu’il était presque achevé, plusieurs acteurs éminents de la Silicon Valley en Californie – cœur et moteur (avec le Japon) de la « robolution » – ont publiquement mis en garde quant à la potentialité de voir des machines de guerre dotées d’une intelligence artificielle prendre leur autonomie et se retourner contre leurs créateurs. Fin 2014-début 2015, des déclarations publiques d’Elon Musk (le patron de Tesla et de Space X) ou de Bill Gates (le fondateur de Microsoft) ont frappé les esprits. Le célèbre physicien et cosmologiste britannique Stephen Hawking était encore plus radical en déclarant à la BBC en décembre 2014 qu’« une fois que les humains auront développé une intelligence artificielle, elle va prendre son envol et se reconstruire elle-même à un rythme toujours plus rapide » (p. 257)… Si Danet tempère ces propos inquiétants en considérant que nous sommes « très loin d’une intelligence artificielle véritablement autonome et [que] le risque de voir un robot militaire s’affranchir de ceux qui le mettent en œuvre est nul(4)C’est sa position constamment réaffirmée dans le livre, on l’a vu. Voir aussi sa tribune, « Terminator est déjà encadré par les lois », Libération, 2 novembre 2015. » (p. 258), il pointe à juste titre néanmoins l’impératif d’en discuter contradictoirement. Pour lui, la question centrale est la suivante : comment tirer parti du progrès scientifique sans que le développement d’une intelligence artificielle en matière de coercition armée provoque à terme la dilution des responsabilités opérationnelles et politiques (p. 259) ?

            Du fait du positionnement professionnel des trois coordinateurs et de certains auteurs, l’équilibre entre expertise militaire et civile donne parfois le sentiment de pencher plutôt au profit de la première. Reste que le débat qu’ils s’emploient à susciter est d’importance et prendra incontestablement de l’ampleur dans les années à venir. Dès lors, il serait souhaitable que le milieu humanitaire y assume une place éminente dans les diverses dimensions qu’il revêt. Pas uniquement donc celle du droit, mais aussi celle des potentialités et des risques de la robotique, de l’intelligence artificielle voire du transhumanisme. Dans leurs pratiques quotidiennes, plusieurs agences humanitaires ont déjà intégré la robolution, le big data et l’usage des drones. Mais à terme, probablement rapproché, la fabrication de matériels sur les théâtres de crise au moyen d’imprimantes 3D, l’utilisation de véhicules intégralement automatisés ou même de robots humanoïdes(5)Des entreprises japonaises cherchent à mettre au point des « robots humanitaires ». dans des opérations de distribution d’aide, enfin le recours à des capacités humaines augmentées ou au transhumanisme recèlent des impacts incalculables et insuffisamment pensés et discutés. Cependant il serait absurde et même dangereux de ne considérer précisément que ces aspects technologiques, sans – en parallèle – les croiser avec les questionnements sur les systèmes d’armes autonomes.

            Ce n’est certes pas son objectif, mais si la lecture de cet ouvrage permettait un enrichissement réciproque de la réflexion entre le monde humanitaire et celui de la sécurité et de la défense, voire des initiatives de recherches communes – au bénéfice de la protection de populations civiles en situation de conflit – cela ajouterait une strate supplémentaire à une palette déjà riche.

Philippe Ryfman

chercheur associé à l’Observatoire canadien sur les crises et l’action humanitaires (OCCAH)
à l’Université du Québec à Montréal (UQÀM),
avocat et chercheur sur les questions non gouvernementales et humanitaires.

Pour lire l’article en PDF cliquez ici.

ISBN de l’article (HTML): 978-2-37704-254-8 

email

   [ + ]

1. Terme issu de la Silicon Valley et synonyme de bouleversements primordiaux.
2. Le livre consacre aussi des développements très pertinents à celui de la sécurité intérieure. Toutefois, cet aspect n’est pas directement en lien avec les problématiques humanitaires, du moins à l’international. Il ne sera donc pas évoqué ici.
3. Voir par exemple la livraison d’International Review of the Red Cross (IRRC), n° 886, été 2012, “New technologies and Warfare”, Cambridge University Press, www.icrc.org/eng/resources/international-review/review-886-new-technologies-warfare/review-886-all.pdf
4. C’est sa position constamment réaffirmée dans le livre, on l’a vu. Voir aussi sa tribune, « Terminator est déjà encadré par les lois », Libération, 2 novembre 2015.
5. Des entreprises japonaises cherchent à mettre au point des « robots humanitaires ».