un champ de bataille en 2050

Dans un monde en proie à la résurgence des conflits et qui connaît des innovations majeures dans le domaine du numérique et de la digitalisation, l’usage de dernières technologies pour développer le rendement militaire des états soulève de nombreuses questions auxquelles des réponses surgissent des fronts ukrainiens et gazaouis. On fait le point ici.

Les robots-tueurs, les avions de chasse pilotés par l’IA , l’identification des zones sensibles et des individus à cibler… La fiction finit-t-elle par croiser la réalité ? 

Une chose est sur : l’industrie militaire regorge de possibilités sur le terrain technologiques pour pousser l’efficience de ses forces sur le champ de bataille. Autre atout non négligeable pour l’industrie ; un appui financier sans précédent avec l’augmentation des dépenses militaires. 51 % d’augmentation pour l’Ukraine qui consacrent 64,8 milliards de dollars à sa défense, la France a vu son budget augmenter de 6,5 % avec  61,3 milliards de dollars investis et les Etats-Unis, pays le plus dépensier en la matière, ont posé 916 milliards de dollars en 2023 pour son armée. 

Dans cette frénésie demeure une question centrale. Au-delà du renouvellement des équipements et des charges financières courantes d’une armée, la part consacrée à l’innovation et à l’introduction de l’IA permet d’étudier les premières avancées et prévoir les éventuelles retombées liées à l’usage de ces nouvelles technologies.

Sur le front, L’IA impose son rythme 

Dans le contexte du conflit israélo-palestinien, l’intelligence artificielle est devenue un outil essentiel pour optimiser les frappes militaires et intensifier le rythme des opérations. Israël s’appuie sur des systèmes d’IA pour traiter des masses de données en temps réel, permettant ainsi de dresser des « profils de risque » basés sur les comportements individuels et collectifs. Grâce à cette technologie, l’armée peut identifier des cibles potentielles en fonction de données comportementales : fréquentation de lieux stratégiques, participation à des discussions en ligne ou appartenance à des groupes sociaux liés au Hamas ou au Jihad islamique.

Des rapports d’ONG et de médias ont établi que cette automatisation a conduit à une intensification des frappes. Les chiffres avancés par l’armée israélienne montrent qu’au cours de l’opération « Glaives de fer », débutée en octobre 2023, plus de 15 000 cibles auraient été frappées dans les 35 premiers jours, un chiffre bien supérieur à celui de l’opération « Bordure protectrice » en 2014, qui comptabilisent environ 5 000 à 6 000 frappes sur l’ensemble de l’intervention. Cette augmentation vertigineuse démontre comment l’IA accélère le rythme de la guerre et rend le champ de bataille plus réactif et meurtrier.

L’IA permet non seulement d’identifier des cibles plus rapidement mais aussi de coordonner et d’exécuter les frappes avec une précision accrue. Dans une guerre conventionnelle, l’identification de cibles et le suivi des mouvements ennemis nécessitent souvent des équipes humaines importantes et des délais de traitement, ce qui, de fait, limite la capacité d’agir immédiatement.

L’efficacité des frappes devient quasi instantanée, mais cette rapidité pose des questions éthiques et légales majeures, notamment vis-à-vis des principes du droit international humanitaire. Des ONG telles qu’Amnesty International et Human Rights Watch ont dénoncé l’usage de l’IA pour identifier et frapper des cibles, invoquant les principes de proportionnalité et de distinction, qui imposent de différencier les civils des combattants et de veiller à ce que les dommages collatéraux ne soient pas excessifs par rapport à l’avantage militaire obtenu. En raison de l’interprétation variable de ces principes, le recours à des algorithmes dans les processus décisionnels pourrait, selon les ONG, augmenter le nombre de victimes civiles, comme en témoignent les récents chiffres élevés de pertes humaines à Gaza.

Les experts alertent sur les dérives et les risques de l’IA dans la guerre

Plusieurs organisations et juristes ont mis en garde contre la dépendance croissante à l’IA pour justifier l’usage de la force militaire. Les risques évoqués sont nombreux : l’IA, aussi sophistiquée soit-elle, repose sur des données et des modèles qui peuvent contenir des biais ou des erreurs d’analyse, conduisant potentiellement à des identifications erronées de cibles. Dans un article du magazine 972+, des rapports ont fait état de l’utilisation d’un programme nommé « Where’s Daddy », un système de surveillance qui attribue une « note de sécurité » à chaque individu à Gaza en fonction de schémas comportementaux analysés par l’IA. Ce système permettrait, par exemple, d’identifier des membres présumés du Hamas dans des contextes où des civils sont également présents, ce qui augmente le risque de frappes sur des zones densément peuplées et la probabilité de victimes collatérales.

Juristes et experts en droit international humanitaire craignent que l’IA devienne un « juge » dans le contexte de conflits armés, posant des questions fondamentales : une IA peut-elle évaluer la nécessité d’une frappe ou juger de sa proportionnalité avec la même sensibilité qu’un opérateur humain ? De plus, la rapidité des décisions encouragée par l’IA limite la capacité des militaires à prendre du recul et augmente le risque de surenchère militaire. Le Comité international de la Croix-Rouge (CICR) a d’ailleurs souligné qu’une guerre où les décisions de vie ou de mort reposent sur des algorithmes pourrait éroder les garde-fous moraux qui encadrent l’usage de la force.

L’humain dans l’automatisation : une place en sursis ? 

Face à ces inquiétudes, de nombreux responsables militaires affirment que l’IA reste sous contrôle humain, garantissant une supervision humaine systématique pour la prise de décision finale, notamment lorsqu’il s’agit d’exécuter une frappe. Dans les faits, des facteurs comme la vitesse des décisions, la pression opérationnelle et la confiance dans la technologie pourraient réduire la présence humaine à une approbation automatique. Ce phénomène, qualifié de « biais d’automatisation », se traduit par une confiance excessive envers les recommandations de l’IA, le personnel humain ayant tendance à s’en remettre aux calculs d’un algorithme qu’il considère plus précis et impartial, à tort. 

La rapidité avec laquelle l’IA peut analyser et trier des données massives tend à transformer le rôle humain en une simple formalité, reléguant les opérateurs à un droit de veto rarement exercé. Cela soulève des questions de responsabilité et de transparence, les décisions de l’IA étant souvent opaques et difficilement traçables, même pour les ingénieurs qui conçoivent ces systèmes.

Les géants de la tech en position de force

L’influence croissante des géants de la technologie, principalement américains, sur les opérations militaires pose également des défis pour la souveraineté et l’éthique des armées. Des entreprises comme Palantir, Google, et Amazon, expertes en IA et en gestion de données massives, ont développé des liens étroits avec les gouvernements et les institutions militaires, notamment en fournissant des outils d’analyse pour des opérations de renseignement et de ciblage. Ce partenariat, qualifié de « liaisons dangereuses » par certains analystes, confère aux entreprises privées un rôle stratégique majeur qui leur permettra, sans l’ombre d’un doute, de contrôler une part non négligeable des infrastructures nécessaires au traitement des données militaires. 

Note méthodologique : Article sur l’IA et la guerre

Outil : ChatGPT 4

ChatGPT a été utilisé comme un outil d’assistance à certains moments du processus de création de l’article. Son rôle a consisté à fournir des exemples de formulations pour les sous-titres et suggérer des mots-clés optimisés pour le référencement SEO, comme « IA et guerre », « innovations militaires » ou « enjeux éthiques ».

L’outil a fonctionné comme un complément à mon travail, en proposant des suggestions qui ont été triées et ajustées pour s’aligner sur les objectifs finaux, principalement éditoriaux. Le générateur d’images de Chat GPT a permis de réaliser la couverture de l’article. 

Exploration, développement d’idées et créativité

L’élaboration de cet article a nécessité une réflexion approfondie sur les thématiques en lien à l’intelligence artificielle et aux conflits modernes. ChatGPT a été sollicité au cours de cette phase pour répondre à des questions ouvertes sur les tendances actuelles en matière de technologie militaire, les enjeux éthiques et les implications géopolitiques et proposer des angles d’analyse (par exemple, le rôle de l’IA dans le conflit israélo-palestinien ou l’impact sur les droits humains).

Les suggestions ont été utilisées comme un point de départ pour alimenter la réflexion, mais j’ai sélectionné les idées pertinentes et les ai enrichies à partir de recherches complémentaires et de l’expertise universitaire et militaire de sources externes. Les idées écartées concernaient notamment des généralités ou des angles trop éloignés du sujet central.

Planification et organisation

La structuration de l’article a été réalisée par mes soins en tenant compte des éléments de rédaction élémentaire avec une introduction engageante, un développement divisé en sections thématiques, comprenant les innovations technologiques, les enjeux éthiques, et l’impact sur le droit humanitaire et une conclusion ouvrant sur des perspectives et des interrogations liées à l’avenir de l’IA dans les conflits.

ChatGPT a été utile pour valider cette structure et fournir des suggestions pour fluidifier les transitions entre les sections. Par exemple, des formulations ont été proposées pour relier les données sur les budgets militaires aux enjeux de souveraineté technologique.

Rédaction et articulation

La rédaction a été effectuée hors intelligence artificielle, ChatGPT a tout de même contribué à proposer des formulations pour clarifier les idées complexes, comme l’impact des algorithmes sur la prise de décision militaire dans l’objectif de simplifier des concepts techniques pour les rendre accessibles à un public large.

Éthique, sources et limitations

ChatGPT a été utilisé comme un outil d’assistance, les principes éthiques ont été respectés. Toutes les données et affirmations suggérées ont été vérifiées à l’aide de recherches externes. Le contenu généré par l’IA a été intégré uniquement après validation et ajustement. L’utilisation de l’IA a été limitée aux aspects techniques (structure).

Limites rencontrées :

Le contenu généré par ChatGPT nécessite un contrôle constant pour éviter les erreurs factuelles ou les interprétations simplistes. Les nuances nécessaires pour aborder des sujets complexes comme le droit humanitaire ou les biais algorithmiques doivent être apporter par l’humain. 

J’ai gagné du temps dans certaines étapes. Cette collaboration a été utile en ce sens.