L’intelligence artificielle au service de la guerre
NUEVA SOCIEDAD 316 / MARS – AVRIL 2025
L’utilisation de l’intelligence artificielle dans la guerre n’est plus seulement une dystopie, mais une réalité qui détruit des milliers de vies. L’armée israélienne utilise beaucoup ces technologies qui ont redéfini la guerre et le rôle des êtres humains dans celle-ci, en tant que victimes et bourreaux, dans un cadre réglementaire plutôt symbolique.
par Pablo Elorduy

Le 18 février, une enquête publiée par l’Associated Press a montré comment l’armée israélienne a beaucoup augmenté son utilisation de la technologie de Microsoft et Openai3. Cette enquête, qui se base sur « des documents internes, des données et des interviews exclusives avec des fonctionnaires israéliens actuels et anciens et des employés de l’entreprise », est la première preuve de ce qui est dénoncé depuis des mois : l’utilisation par l’armée israélienne de modèles d’IA commerciaux, comme le GPT, pour commettre un massacre. Les noms de ces logiciels capables de tuer des dizaines de personnes après une simple opération auraient pu être ceux d’autres productions cinématographiques : Hasbora, Replicator, Hivemind. Ceux des entreprises qui les créent et les vendent sur le marché de la fumée qu’est aujourd’hui l’IA sont un peu plus connus : Palantir, Anduril ou Shield ai4. Et ils ne fonctionneraient pas, du moins pas à leur pleine capacité, sans les données fournies par les géants de la technologie, Google, Amazon, Microsoft, Meta ou Openai, de plus en plus séduits par le bruit des sabres numériques et par le projet culturel, économique et politique incarné par le nouveau César américain, Donald Trump.
La chercheuse Jessica Dorsey ne laisse planer aucun doute : « La guerre est et restera une initiative humaine, même avec l’avancée de la technologie ». Dorsey est professeure à la faculté de droit de l’université d’Utrecht et codirige le projet Realities of Algorithmic Warfare [Réalités de la guerre algorithmique], qui étudie les utilisations théoriques de la technologie et la pratique de la sélection automatique des cibles militaires5.
Cette utilisation des machines est un facteur de plus en plus déterminant dans les conflits armés, à travers des algorithmes meurtriers, les redoutables essaims de drones, les systèmes de renseignement et de cybersécurité, la reconnaissance faciale ou les menaces de guerre hybride comme les cyberattaques ou l’utilisation de deepfakes, des méthodes d’usurpation d’identité numérique. La question n’est donc pas de savoir si les machines se soulèveront un jour pour écraser l’humanité, mais comment elles sont déjà utilisées pour faire la guerre, violer les libertés civiles et faire taire les populations dissidentes. Leur utilisation intensive par les Forces de défense israéliennes (FDI), qui parlent depuis des années de l’IA comme d’un « multiplicateur de force », envoie un message clair au monde : la machine à tuer en masse n’est pas une hypothèse, mais une réalité capable de changer la guerre et d’accélérer le génocide.
L’avantage des États-Unis et l’utilisation massive par Israël
Comme toujours en matière de guerre, le complexe militaro-industriel américain a une longueur d’avance tant dans l’utilisation – les exécutions extrajudiciaires par drones remontent au mandat de Barack Obama, dans la première décennie du siècle – que dans les débats sur la fonctionnalité de l’IA dans les conflits6. Le pas entre ce qu’ils font déjà et ce qu’ils feront à l’avenir est petit ; c’est ce qui rend difficile, dans la pratique, de faire la différence entre la guerre algorithmique et la guerre par l’IA. Certains disent que la différence, c’est comme appuyer sur un bouton, comme le résume l’ancien directeur de la CIA, David Petraeus : « À un moment donné, un humain dira : « OK, machine. Tu es libre d’agir selon le programme informatique qu’on t’a donné », au lieu de la piloter à distance ».
Cependant, comme le souligne un rapport de la Now Institute qui étudie les implications sociales et politiques de cette technologie, les discussions au sein du Pentagone se sont concentrées sur les hypothèses d’une utilisation malveillante via les systèmes dits CBRN, acronyme anglais qui désigne l’ensemble des armes à potentiel de destruction massive telles que les armes chimiques, biologiques, radiologiques et nucléaires7. Ces visions, souvent techno-fétichistes, qui mettent en avant les aspects les plus sombres et fantaisistes de l’IA, prennent le pas sur l’étude de ses utilisations actuelles, appelées ISTAR : intelligence, surveillance, sélection des cibles et reconnaissance, dont le fonctionnement n’est pas vraiment examiné par le public, surtout parce qu’il y a toujours, presque toujours, un humain « dans le circuit » de la prise de décision. Cependant, les machines offrent de plus en plus aux humains la possibilité de prendre plus de décisions et plus rapidement grâce à l’utilisation militaire de systèmes d’aide à la décision basés sur l’IA et les DSS (systèmes d’aide à la décision).
L’utilisation de drones a été massive tant en Ukraine qu’au Moyen-Orient. Non seulement à Gaza, où l’unité 8200 de cyberguerre des FDI a reconnu le filtrage des cibles par l’IA, mais aussi en Syrie ou en Libye, les technologies autonomes ou semi-autonomes sont capables de sélectionner et de tuer, apportant une valeur ajoutée, celle de la « rapidité » dans la prise de décision, qui est l’un des principaux problèmes que les experts civils et militaires identifient comme déterminants dans l’utilisation et l’abus de ces machines de guerre pensantes. Cette vitesse signifie également un plus grand nombre d’erreurs. En novembre 2024, le think tank Public Citizen a mis en garde : « La guerre autonome augmente le nombre de victimes humaines, augmente considérablement le risque d’attaquer les mauvaises cibles, met davantage les civils en danger et augmente la probabilité que le personnel militaire qui s’appuie sur des algorithmes pour générer des listes de cibles éprouve un sentiment de déconnexion émotionnelle et morale par rapport à l’attaque qu’il approuve »8.
Un an plus tôt, en novembre 2023, une enquête des médias palestiniens-israéliens +972 Mag et Local Call révélait l’utilisation du logiciel Hasbora – littéralement « l’Évangile » – par les FDI pour sélectionner des cibles à Gaza9. Le saut quantitatif est important : avant l’arrivée des algorithmes, les FDI pouvaient établir une liste de 50 cibles par an, alors que dans la campagne de génocide lancée en octobre 2024, le volume est de 100 cibles par jour.
« Le grand nombre de cibles augmente la probabilité de nouvelles attaques, en grande partie à cause du biais cognitif », disent Marta Bo et Jessica Dorsey, de l’Institut international de recherche sur la paix de Stockholm (sipri)10. Ce biais, expliquent-elles, « fait référence à la tendance humaine à agir, même quand l’inaction donnerait, logiquement, un meilleur résultat ». Ce n’est pas le seul biais signalé par les experts. Un autre est la tendance à accepter les recommandations de la machine, surtout dans des situations stressantes et avec des contraintes de temps : c’est ce qu’on appelle le biais d’automatisation.
Le rôle des entreprises de la Silicon Valley
La complicité d’entreprises comme Google, Amazon ou Microsoft dans cette opération d’extermination via les logiciels Hasbora, Lavender ou Where’s Daddy ? a été dénoncée par la campagne No Tech for Apartheid11. La raison : sans les infos fournies par les réseaux sociaux et le big data, grâce à des accords comme le projet Nimbus, signé en 2021 par Google et Amazon avec les autorités israéliennes, les forces de défense israéliennes n’auraient pas eu les moyens de mener un massacre de cette ampleur.
Début février de cette année, Google a modifié ses directives, supprimant une clause introduite en 2018 qui lui interdisait de développer l’IA à des fins militaires, en particulier pour les armes et la surveillance, sous prétexte que les démocraties « ne peuvent pas rester à la traîne » dans ce domaine d’innovation. La boîte fondée par Larry Page a donc retiré de ses engagements éthiques les sections qui disaient qu’elle ne fournirait pas de logiciels pour « des armes ou d’autres technologies dont le but principal ou l’utilisation est de causer directement des dommages aux personnes », ni de « technologies qui collectent ou utilisent des infos à des fins de surveillance en violation des normes internationalement acceptées ».
Cependant, il ne s’agissait pas d’un changement de politique. À peine deux semaines auparavant, The Washington Post publiait une enquête sur la façon dont Israël avait demandé à Google d’étendre d’urgence l’utilisation d’un service appelé Vertex, pour l’application d’algorithmes d’IA à ses propres données12. Même si on ne sait pas comment ces services sont utilisés directement, le même article mentionne que le directeur général de la Direction nationale de la cybersécurité du gouvernement israélien a dit lors d’une conférence que « grâce au cloud public Nimbus, des choses incroyables se passent pendant les combats, des choses qui jouent un rôle important dans la victoire ; je n’entrerai pas dans les détails ».
Openai a aussi fait un pas vers l’intégration dans la nouvelle ère de la puissance dure. En 2024, l’entreprise a annoncé une révision de ses politiques éthiques et est devenue membre du circuit des sous-traitants de l’armée américaine, participant via son logiciel à des missions du Commandement des États-Unis pour l’Afrique (AFRICOM). En janvier, la société de Sam Altman, la plus connue parmi celles qui se concentrent sur l’IA, a annoncé un accord avec Anduril, fabricant de missiles, de drones et de logiciels pour l’armée américaine. Le PDG de cette entreprise, financée par Founders Fund, un fonds dans lequel participe Peter Thiel, a souligné que la collaboration avec Openai apportera « des solutions responsables qui permettront aux opérateurs militaires de prendre des décisions rapides et précises dans des situations de forte pression ».
Selon Wired, Anduril travaille sur l’une des armes considérées comme les plus avancées de tout le catalogue de l’IA militaire : les essaims de drones. Les drones sont une réalité dans la guerre depuis la première décennie du XXIe siècle, mais leur avenir passe par leur multiplication et leur coordination via un modèle de langage étendu (LLM, pour « large language model »), qui relègue de plus en plus l’opérateur humain à un rôle secondaire.
En novembre 2024, Palantir et la start-up Anthropic ont annoncé un accord avec Amazon Web Services (AWS), le cloud d’Amazon, sa branche la plus lucrative, pour y rendre disponibles les services de Claude, le concurrent des modèles GPT13. On retrouve le même refrain : mettre à disposition des outils complexes pour accélérer la prise de décision dans le cadre d’« opérations gouvernementales vitales », comme le décrit Palantir sur son site web.
Toujours en novembre, Meta a annoncé son entrée dans le secteur de la guerre via Llama, son modèle llm, et son partenariat avec Scale ia, un prospère sous-traitant de la défense, selon les infos de The Intercept qui soulignaient aussi les défauts du produit de la boîte de Mark Zuckerberg14. Une enquête de Roberto J. González pour le Watson Institute a estimé à 53 milliards de dollars le montant total des contrats signés par le Pentagone avec des entreprises technologiques15. On a l’impression que ce n’est que le début.
Le taux d’erreur de l’IA ne sera jamais nul
Dans un article publié en octobre 2024, les chercheuses Heidy Khlaaf, Sarah Myers West et Meredith Whittaker recommandaient « que pour limiter la prolifération des armes basées sur l’IA, il pourrait être nécessaire d’isoler les systèmes d’IA militaires » des « données personnelles commerciales » fournies aux principales plateformes sociales16. « Il faudrait remettre en question le rôle des entreprises technologiques, car une grande partie du discours est mené par elles et il n’y a pas de véritable responsabilité démocratique de leur part », défend Jessica Dorsey, qui ajoute qu’il faudrait faire plus « pour garantir une transparence et une responsabilité significatives des entreprises technologiques lorsque leurs systèmes sont utilisés à des fins militaires »17.
Pere Brunet, professeur de langages et systèmes informatiques à l’Université polytechnique de Catalogne, pense qu’il faut repenser le concept du cloud et des réseaux sociaux : « Les administrations doivent prendre soin de la population et, donc, on ne peut pas laisser nos données entre les mains du secteur privé. Et il faut avoir la garantie qu’elles sont utilisables pour le bien des gens et pas pour d’autres fins », résume ce chercheur18.
Brunet utilise le néologisme « tecnotraficantes » (technotrafiquants) pour définir les fanatiques de l’IA qui prolifèrent dans toutes sortes de textes universitaires et journalistiques. Les louanges acritiques à l’égard de ces technologies ont imprégné la vision médiatique dominante de l’IA dans son ensemble, présentant comme une solution ce qui n’est aujourd’hui qu’un balbutiement technologique. Dans une large mesure, l’IA actuelle ne pense pas. Elle n’est donc pas intelligente, mais prédit et crée des modèles à partir de statistiques et d’informations déjà codifiées. Pour Brunet, l’IA est aujourd’hui dans une phase préliminaire et n’a pas résolu trois problèmes déterminants, sans solution à court ou moyen terme, ni un quatrième élément tout aussi problématique, qui n’est pas lié aux solutions apportées par l’IA mais aux conditions requises pour son fonctionnement.
Le premier problème, souligne Brunet, est l’inexactitude inhérente aux intelligences artificielles, en particulier celles basées sur le llm. « Il y a un pourcentage d’erreur qui ne sera jamais nul », explique Brunet, qui mène actuellement des recherches pour le Centre Delàs d’études pour la paix. Le deuxième facteur, plus connu, est celui des biais. Cette critique est plus fréquente dans les études et les publications qui traitent du racisme, du sexisme et d’autres types de discrimination dans l’utilisation apparemment neutre du langage algorithmique. Troisièmement, il y a le fait qu’on ne peut pas expliquer les processus par lesquels l’IA propose une solution, ce qui n’a pas de réponse à court terme. « Le quatrième problème, c’est l’empreinte écologique, dont on parle de plus en plus », souligne Brunet.
Comme il le souligne dans un article publié par le Forum Transitions, la consommation énergétique de l’IA augmente de 26 % à 36 % chaque année et les émissions de CO2 équivalentes croissent également de manière exponentielle19. Amazon et Microsoft ont déjà conclu des accords pour avoir accès à l’énergie des réacteurs nucléaires pour alimenter leurs centres de données, et on estime que les besoins générés par l’IA vont nécessiter de nouveaux centres avec une consommation équivalente à celle de cinq réacteurs nucléaires.
Les quatre facteurs mentionnés par Brunet, qui s’appliquent à l’IA dans son ensemble, ont une importance particulière dans son application militaire. Le fait qu’elle ne soit pas encore perfectionnée ne la rend pas moins dangereuse. Voyons ça par étapes. D’abord, la question environnementale est déterminée par un fait : selon l’Accord de Paris sur le climat (COP21), les États ne sont pas obligés de quantifier les émissions de gaz à effet de serre provenant du secteur militaire. Ainsi, à mesure que la demande de produits autonomes basés sur des algorithmes et l’IA à usage militaire – ou à double usage – augmentera, les émissions responsables de la crise climatique augmenteront, même si les autres secteurs parviennent à atteindre zéro émission.
Les trois autres éléments qui définissent l’IA ont aussi un poids crucial dans l’application militaire de ces technologies. D’abord, la faillibilité est devenue un sujet de plaisanterie pour les experts en défense. Une question posée aux systèmes actuels sur le type d’armement lourd à utiliser pour détruire des bâtiments donne des résultats médiocres, comme le soulignent les forums d’amateurs de missiles. Mais le principal facteur de risque dans ce domaine est la sélection des cibles, qui est déjà effectuée à l’aide de systèmes algorithmiques, ce qui augmente à la fois le risque d’erreurs d’identification et celui que personne ne soit jamais tenu responsable de ces erreurs. L’une des failles signalées par l’article de l’Associated Press est de nature linguistique, en raison d’une traduction automatique incorrecte de l’arabe vers l’hébreu qui a conduit à une sélection erronée des cibles20.
En fait, les infos fournies par les fdi elles-mêmes admettent une précision de 90 % dans la reconnaissance des cibles, ce qui revient à admettre qu’un assassinat extrajudiciaire sur dix coûte la vie à un innocent. L’application militaire de l’IA entraîne donc un plus grand nombre d’erreurs causées soit par une identification déficiente, avec des biais racistes et sexistes, soit par le fait qu’il n’y a pas de responsable ultime, ce qui favorise les comportements irresponsables.
Dorsey démystifie un peu le discours de ces techno-trafiquants sur l’application de l’IA :
Même si on promet souvent que ces systèmes sont plus « efficaces » ou « précis », la réalité sur le terrain montre une autre histoire : si ces systèmes étaient plus précis ou efficaces pour éradiquer la menace du Hamas, par exemple, la guerre ne durerait pas aussi longtemps et les dégâts à Gaza, par exemple, ne seraient pas aussi importants. Les dégâts causés aux civils sont catastrophiques et, comme l’a conclu Amnesty International en décembre, génocidaires21. Ces systèmes exacerbent les conceptions erronées des obligations et des interprétations juridiques et permettent une destruction rapide et à grande échelle.22
Le troisième facteur, l’inexplicabilité des décisions, prend une importance sinistre lorsqu’il s’applique au domaine militaire. Les systèmes ne sont pas conçus pour expliquer les étapes de leurs décisions. Ça rend la responsabilité encore plus difficile à établir dans le domaine militaire.
L’état de la réglementation
Le deuxième mandat de Donald Trump à la Maison Blanche a commencé, comme prévu, par l’abrogation des mesures de protection et de sauvegarde contre les systèmes d’IA – le décret exécutif d’octobre 2023 approuvé par le gouvernement de Joe Biden – et la publication d’un nouveau décret exécutif visant à « lever les obstacles » à l’innovation dans le but, entre autres, de garantir la « sécurité nationale »23. Trump a aussi nommé David Sacks, un entrepreneur sud-africain-américain et membre du groupe informel de la « mafia Paypal » (dont sont issus Elon Musk et Peter Thiel), comme responsable des politiques en matière d’IA24.
En janvier dernier, Trump annonçait aux côtés des dirigeants d’Open IA, d’Oracle et de Soft Bank le lancement de Stargate, un projet de 500 milliards de dollars destiné à protéger la sécurité nationale des États-Unis et de leurs alliés25. Le site Tech Policy prédisait une utilisation « intensive » de ces systèmes par la nouvelle administration, notamment pour la surveillance et le contrôle de la population, ainsi que pour la « déportation massive » confiée au tsar anti-immigration, Tom Homan26.
Les fonds de capital-risque ont augmenté leurs investissements dans les technologies de défense ces dernières années et les entreprises technologiques elles-mêmes se sont tournées vers la « sécurité » pour augmenter leurs marges bénéficiaires. Avec les États-Unis en tête de cette nouvelle industrie de l’armement, il est peu probable que les autres puissances internationales choisissent la prudence. Malgré les utilisations de plus en plus fréquentes de l’IA, la loi sur l’intelligence artificielle de l’Union européenne, entrée en vigueur en 2024, ne prévoit pas les utilisations militaires ou de sécurité nationale de cette technologie. L’UE n’a rien fait de spécifique sur ce front, souligne la chercheuse Jessica Dorsey. « Il faut travailler beaucoup plus pour aborder l’IA militaire d’un point de vue européen », dit-elle.
En juillet 2023, le secrétaire général de l’Organisation des Nations unies (ONU), António Guterres, a demandé aux États d’adopter avant 2026 un « instrument juridiquement contraignant visant à interdire les systèmes d’armes autonomes létales qui fonctionnent sans contrôle ou supervision humaine et qui ne peuvent être utilisés dans le respect du droit international humanitaire ». Le Comité international de la Croix-Rouge a aussi demandé l’interdiction des systèmes trop complexes à comprendre ou à expliquer et qui ne sont pas contrôlés par des humains. Mais la volonté d’arriver à cet accord pourrait ne pas suffire face au potentiel destructeur de l’IA sur l’ordre international basé sur des règles, déjà bien mal en point.
Comme on l’a souligné, les risques liés à l’utilisation de l’IA menacent directement le droit international humanitaire et l’ordre international des droits de l’homme. Dans le cas du droit international humanitaire, on craint que les niveaux de protection les plus bas soient appliqués par défaut, comme le dénonce Brianna Rosen27. Parmi les propositions des organisations qui alertent sur l’avancée incontrôlée de cette technologie, il y a celle de doter les drones et les robots suicidaires d’une étiquette indiquant un humain responsable de leur utilisation, afin d’éviter le libre-service meurtrier que semble favoriser l’utilisation de ces systèmes.
Just Security recommande aussi de s’assurer que les opérations avec des drones soient supervisées et approuvées par deux personnes, comme pour les protocoles d’utilisation des armes nucléaires, et de renforcer les systèmes d’audit et de vérification. La transparence et la responsabilité semblent être les seules solutions pour réduire les risques liés à l’utilisation de l’IA militaire. Dorsey conclut :
Le défi auquel nous sommes confrontés aujourd’hui est que les progrès technologiques de l’IA poussent les humains à la marge de la prise de décision, ce qui soulève des questions sur leur place dans la guerre. Ces questions existentielles méritent beaucoup plus de recherche et de débat, mais le rythme auquel la technologie évolue et l’obsession apparente pour la « nécessité de la vitesse » empêchent ou défavorisent un dialogue aussi crucial28
Comme le rappelle Pere Brunet, la déshumanisation qui conduit à l’utilisation de machines pour anéantir est le fait des êtres humains, et non de l’IA ou des algorithmes, et il appartient à l’humanité de coopérer face aux menaces qui pèsent aujourd’hui sur tous les peuples. « Ni le changement climatique, ni les pandémies, ni les inondations ne connaissent de frontières. Il faut donc peut-être changer de paradigme et consacrer à tout ça l’argent qui est actuellement consacré à l’armée »29, conclut ce chercheur.
Remarque : une première version de cet article a été publiée dans El Salto, le 20/2/2025.
- 1. Francisco Louçã : « Le capitalisme tardif comme déchiffrement de la modernité » dans Viento Sur, 23/9/2023.
- 2. « L’IA dans la guerre : une avancée fulgurante et un contrôle humain douteux » dans swissinfo.ch, 11/4/2024.
- 3. Sam Mednick, Garance Burken et Michael Biesecker : « Les entreprises technologiques aident Israël à utiliser l’intelligence artificielle dans les guerres » dans AP, 18/2/2025.
- 4. Aitor Jiménez et Ada Valdivia : « Palantir et l’intelligence artificielle militaire espagnole : une histoire de privatisation, de racisme et de crimes » dans El Salto, 23/1/2024.
- 5. Voir leur site web : www.uu.nl/en/research/institutions-for-open-societies/contesting-governance/projects/realities-of-algorithmic-warfare.
- 6. Ángel Ferrero : « Le drone est-il le kalachnikov du XXIe siècle ? » dans El Salto, 23/10/2023.
- 7. « New ai Now Paper Highlights Risks of Commercial ai Used in Military Contexts » dans AI Now, 22/10/2024.
- 8. Savannah Wooten : « Deadly and Imminent : The Pentagon’s Mad Dash for Silicon Valley’s ai Weapons » dans Public Citizen, 11/2024.
- 9. Yuval Abraham : « Une usine d’assassinats de masse : dans les coulisses du bombardement calculé de Gaza par Israël » dans +972 Mag, 30/11/2023.
- 10. M. Bo et J. Dorsey : « Symposium on Military AI and the Law of Armed Conflict : The ‘Need’ for Speed – The Cost of Unregulated AI Decision-Support Systems to Civilians » dans Opinio Juris, 4/4/2024.
- 11.P. Elorduy : « Amazon, Google et Microsoft sont la colonne vertébrale technologique de ce génocide » dans El Salto, 7/8/2024.
- 12. « Google s’est empressé de vendre des outils d’IA à l’armée israélienne après l’attaque du Hamas » dansThe Washington Post, 21/6/2025.
- 13.P. Elorduy : « Amazon a mis la planète Terre en vente » dans El Salto, 29/11/2019.
- 14.Sam Biddle : « Un chatbot militaire alimenté par Meta fait la promo de conseils « sans valeur » sur les frappes aériennes » dans The Intercept, 24/11/2024.
- 15. R.J. González : « Comment les géants de la tech et la Silicon Valley transforment le complexe militaro-industriel », Watson Institute, 17/4/2024.
- 16. H. Khlaaf, S. Myers West et M. Whittaker : « Mind the Gap : Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting » dans ARXIV, 18/10/2024.
- 17. Entretien avec l’auteur.
- 18. Entretien avec l’auteur.
- 19. P. Brunet : « Intelligence artificielle et changement mondial », Forum Transitions, 10/1/2025.
- 20. S. Mednick, G. Burke et M. Biesecker : op. cit.
- 21. Amnesty International : « C’est comme si nous étions des sous-humains ». Le génocide d’Israël contre la population palestinienne de Gaza. Résumé », 5/12/2024.
- 22. Entretien avec l’auteur.
- 23. « Supprimer les obstacles au leadership américain dans le domaine de l’intelligence artificielle », décret exécutif, 23/1/2025, disponible sur www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/.
- 24. « Qué es la ‘mafia Paypal’, un grupo del que salieron algunos de los hombres más ricos de Silicon Valley » (Qu’est-ce que la « mafia Paypal », un groupe dont sont issus certains des hommes les plus riches de la Silicon Valley) dans BBC Mundo, 2/1/2018.
- 25. « Announcing The Stargate Project » (Annonce du projet Stargate) dans Openai, 21/1/2025.
- 26. Stephanie Haven : « Navigating Trump’s ai Strategy: A Roadmap for International ai Safety Institutes » dans Tech Policy Press, 20/11/202 ; P. Elorduy : « La liga de los deleznables : Trump lanza el no va más para su segundo mandato » dans El Salto, 17/11/2024.
- 27. B. Rosen : « How to Make Military AI Governance More Robust » dans War on the Rocks, 6/8/2024.
- 28. Entretien avec l’auteur.
- 29. Entretien avec l’auteur.
Traduction Deepl revue ML