Première publication sur LSE China Dialogues, le 25/8/2025
La sortie de DeepSeek, un puissant modèle de grand langage (LLM) open source en provenance de Chine, a suscité le chœur désormais familier des inquiétudes concernant les préjugés politiques et la censure. Bien que valable, cette réaction passe à côté d’une histoire plus profonde : le biais de production n’est pas une exception, mais le symptôme le plus visible d’un processus profondément politisé derrière le développement de l’IA.
Début 2025, la société chinoise DeepSeek a lancé un puissant chatbot basé sur LLM qui a rapidement attiré l’attention internationale. Au début, l’excitation était centrée sur celle de DeepSeek ( réclamation) pour avoir développé le modèle à une fraction du coût généralement associé aux modèles d’IA de pointe. Mais le plus grand émoi est survenu peu de temps après, les
plateformes en ligne et (nouvelles) les articles ont été inondés d’exemples des réponses de DeepSeek, comme le fait de prétendre que Taiwan fait partie de la Chine, de refuser de discuter d’événements comme le massacre de la place Tiananmen, ou éviter réponses aux questions sur Xi Jinping.
L’une des principales sources de préoccupation était les mécanismes uniques de filtrage de l’information du modèle, qui censuraient les réponses en temps réel et remplaçaient les résultats politiquement sensibles par des résultats alignés sur le Parti. Plus tard, c’était révélé que cette censure a également été intégrée au modèle lui-même, et pas seulement au niveau de l’application, ce qui rend son contournement plus difficile. Cela a soulevé des alarmes ,ce DeepSeek sert d’outil de propagande du Parti communiste chinois (PCC). En réponse, plusieurs gouvernements, dont ceux des États-Unis, de Taiwan, de Corée du Sud et d’Australie, ont interdit le modèle qui est utilisé sur des appareils officiels, invoquant des préoccupations concernant la sécurité nationale et l’intégrité de l’information.
Cependant, plutôt que de simplement considérer DeepSeek comme “une fenêtre sur la censure chinoise” Nous soutenons que le cas DeepSeek devrait servir de fenêtre sur la politisation des modèles d’IA de manière plus large, d’une manière qui va au-delà du filtrage et du contrôle du contenu et qui n’est pas propre aux modèles chinois.
Bien sûr, c’est censuré
Le fait que DeepSeek filtre les réponses politiquement sensibles n’est guère surprenant. L’infrastructure réglementaire et technique de la Chine traite depuis longtemps internet comme un “champ de bataille idéologique” (yishixingtai zhendi ⁇ ⁇ ⁇ ), et cette approche est enracinée dans une tradition beaucoup plus longue de contrôle de l’information. Dès ses premières décennies, le marché des médias chinois était dominé par les systèmes médiatiques d’État, guidés par le Département central de propagande et conçus pour garantir la cohésion et la limitation idéologiques récits critiques‘. Lorsque Internet est arrivé, ces principes ont été adaptés plutôt qu’abandonnés : le Grand Pare-feu a bloqué les sites Web étrangers et a permis une surveillance à grande échelle des plateformes nationales. D’une part, internet a ouvert des espaces publics limités où les utilisateurs pourraient faire circuler des comptes alternatifs; d’autre part, les niveaux successifs de directives nationales et d’application locale ont rapidement créé un système de gouvernance dans lequel les entreprises technologiques étaient chargées de filtrer le matériel sensible‘. Sous Xi Jinping, ce modèle s’est intensifié grâce aux politiques de “cyber-souveraineté,” produisant un environnement d’information dans lequel la censure est une caractéristique courante des plateformes médiatiques – et maintenant des LLM.
Par règlement, tous les produits d’IA déployés au niveau national doivent “défendre les valeurs socialistes fondamentales” et subir un examen du contenu avant sa sortie. Les développeurs opèrent donc dans un environnement d’information déjà façonné par des contrôles approfondis. Les censeurs chinois servent de barrière réglementaire, filtrant les éléments jugés incompatibles avec les priorités du Parti. En pratique, cela signifie que (1) les données de formation locales disponibles pour les développeurs sont déjà censurées, car certains contenus sont largement absents des informations nationales, des moteurs de recherche et des médias sociaux ; (2) le processus de création de modèles lui-même est mené conformément aux exigences de conformité ; et (3) des mécanismes en temps réel sont intégrés, garantissant que certaines invites déclenchent des scripts d’évitement ou des réponses en conserve.
Alors voilà le truc : bien sûr DeepSeek se censure. Ce n’est pas une exception – c’est ce qui est attendu.
Alors que le cas chinois a attiré l’attention du monde entier en raison de l’implication bien connue du PCC dans Internet et les technologies numériques, ce serait une erreur de supposer que le biais d’information dans les chatbots est propre à la Chine ou à d’autres non-démocraties. Une récente mise à jour de Grok – motivée par Elon Musk a déclaré but le fait de rendre le chatbot “plus politiquement incorrect” – a déclenché une vague de critiques, avec beaucoup commentateurs accusant le modèle de promotion des contenus racistes et antisémites. Pendant ce temps, le chatbot de Google, Gemini, faisait face contrecoup pour avoir généré des images des pères fondateurs des États-Unis en tant qu’hommes noirs, largement considérées comme le résultat de la surcorrection de l’entreprise dans sa politique de diversité et de représentation. Si tel est le cas, ces modèles sont également biaisés. Cependant, un tel parti pris dans des contextes démocratiques n’est pas le résultat d’un contrôle idéologique descendant, et les sociétés démocratiques fournissent des mécanismes tels qu’un journalisme indépendant et un plus grand pluralisme, y compris la coexistence d’idées et de cadres de valeurs concurrents dans différents systèmes d’IA.
Cela souligne que les modèles d’IA générative reflètent essentiellement leur environnement politique et que les forces politiques et idéologiques façonnent intrinsèquement la création de contenu. Tout en se concentrant sur les sorties –, ce qu’un modèle dit ou refuse de dire – rend exemples qui font la une des journaux, il manque l’image plus large du fonctionnement de l’énergie à toutes les étapes du développement du modèle d’IA.
La censure n’est que la pointe de l’iceberg
La censure au niveau de la production n’est que la solution symptôme le plus visible d’un enchevêtrement politique beaucoup plus profond, de la conception et du développement à la formation et au déploiement. Le contrôle de ces différentes étapes de la chaîne de valeur de l’IA confère aux acteurs un pouvoir qui s’étend bien au-delà de l’élaboration d’agendas de contenu ou de discours ; il confère également un accès aux ressources économiques, au prestige, au statut et à la domination technologique, qui sont tous étroitement liés dans le domaine du LLM.
Au niveau le plus fondamental, les modèles d’IA générative reflètent le priorités, visions et valeurs de leurs créateurs. Par exemple, Elon Musk a décrit son chatbot, Grok 3, comme “recherchant au maximum la vérité,” contrairement à ce qu’il a référé comme des modèles “woke”, tels que ChatGPT, qui, selon lui, sont biaisés en faveur de points de vue progressistes et de gauche. Au niveau des États, ces priorités sont souvent intégrées dans les stratégies nationales d’IA et les décisions de financement. La semaine dernière, Donald Trump a publié un Plan d’action de l’IA visant à maintenir les efforts américains compétitifs par rapport à China—, encadrant l’initiative dans le cadre d’une nouvelle course “AI, d’une ampleur comparable à celle de la course à l’espace. Quelques jours plus tard, la Chine a introduit le sien Plan d’action sur la gouvernance mondiale de l’intelligence artificielle[traduction], qui mettait l’accent sur la coopération internationale en matière de développement technologique et de réglementation, et promis de soutenir l’adoption de l’IA dans les pays en développement, en particulier dans les pays du Sud.
À cet égard, l’IA est également en train de devenir un domaine d’échange diplomatique, comme on l’a vu récemment aux États-Unis avec les accords au Moyen-Orient, cela inclut des partenariats stratégiques dans la recherche et le développement de l’IA, notamment pour le développement de LLM.
Ces objectifs et priorités sont considérablement influencés par le fondation matérielle de l’IA, à savoir les semi-conducteurs, les GPU et les matériaux des terres rares, qui sont étroitement impliqués dans les luttes de pouvoir mondiales. La guerre commerciale entre les États-Unis et la Chine l’a rendu explicite. celui de Washington (contrôles à l’exportation) sur des puces hautes performances visaient à freiner la capacité de la Chine à former des modèles avancés, tels que DeepSeek. En réponse, les entreprises chinoises se sont efforcées de sécuriser des alternatives nationales ou de réutiliser du matériel plus ancien, révélant une nouvelle façade dans ce qui est devenu connu sous le nom de “guerre des puces.” Parallèlement, les chaînes d’approvisionnement en matériaux critiques tels que le lithium, le cobalt et le gallium se multiplient (encadré) comme préoccupations de sécurité nationale.
Le concours ne s’arrête pas au matériel – talent IA est devenu un autre site critique du contrôle de l’IA. La Chine Programme Mille Talents incite les chercheurs à rentrer chez eux, tandis que des pays comme les États-Unis, le Canada et l’Australie l’ont imposé( restrictions de visa) et une surveillance accrue des liens universitaires étrangers. Là où l’expertise en IA circule, les intérêts de l’État suivent de près. La récente guerre des talents entre Meta et OpenAI illustre comment cette dynamique se joue au niveau de l’entreprise, Meta aurait offert jusqu’à 100 millions de dollars pour éloigner les ingénieurs et scientifiques seniors des concurrents. De telles guerres d’enchères ne consistent pas seulement à doter une équipe. Elles reflètent plutôt des luttes plus larges pour la propriété intellectuelle et le savoir-faire stratégique.
Et bien sûr, les données‘.
Les données n’apparaissent pas simplement –, elles sont collectées, nettoyées et filtrées, ce qui les rend très vulnérables aux biais et aux manipulations. Considérez l’essor de l’IA ciblée fermes de contenu et les réseaux de robots qui ensemencent Internet avec des récits synthétiques – fausses nouvelles écrites non pas pour tromper les gens directement, mais pour influencer les données mêmes sur lesquelles les futurs modèles sont formés. Les biais proviennent également d’asymétries dans la disponibilité des données entre les langues. Étant donné que la plupart des données sur la formation sont tirées de l’Internet ouvert, dominé par des sources anglophones, des études montrent que ces modèles sont fortement orientés vers les visions du monde anglaises et occidentales et les autres modèles fonctionnent avec moins de précision langues à faibles ressources‘.
Une fois le modèle formé, les décisions concernant son déploiement –, en particulier s’il faut le publier en open source –, est profondément politique. Même si la publication ouverte de certains modèles peut risquer de diffuser les capacités de leurs concurrents, elle peut également servir à construire des écosystèmes autour de leur technologie, à établir des normes et à gagner du leadership au sein de la communauté mondiale de recherche en IA. Alors que les initiatives open source émergent souvent des communautés de base (telles que Visage câlinant), il existe une tendance croissante parmi les grandes entreprises à publier leurs modèles en open source, de DeepSeek à LLaMA de Meta. Cependant, certains ont interrogé si beaucoup de ces modèles dits “open” reflètent vraiment véritable ouverture ou servir principalement d’outils de marque.
Ces questions sont souvent discutées isolément, plutôt que comprises comme faisant partie d’un processus plus large et interconnecté dans lequel les agendas politiques et les intérêts stratégiques façonnent chaque couche des systèmes d’IA. Si bon nombre de ces dynamiques ne sont pas nécessairement visibles dans le produit final rencontré par les utilisateurs, elles s’inscrivent dans une tentative progressive de gagner en influence en contrôlant l’une des technologies les plus puissantes de notre époque.
Conclusion
Se concentrer étroitement sur la censure de la production passe par prendre l’arbre pour la forêt. Nous devons prêter attention à la politisation plus large qui sous-tend les modèles d’IA, depuis les ressources utilisées pour les former jusqu’aux valeurs qui définissent leur développement. Dans un système où des principes tels que la responsabilité, le pluralisme et la réflexion critique sont étroitement contrôlés, il s’ensuit que le modèle évite les sujets sensibles et reflète les récits officiels. DeepSeek illustre comment les modèles linguistiques internalisent et reproduisent la logique politique des systèmes qui les produisent. Pourtant, le cas de DeepSeek n’est pas simplement une histoire de censure autoritaire ; il révèle comment les cadres de gouvernance, les asymétries de ressources et les programmes idéologiques sont intégrés dans l’ensemble de la chaîne de valeur de l’IA générative. Alors que la concurrence géopolitique mondiale façonne la trajectoire de l’IA, le défi n’est pas simplement de détecter les biais ou de filtrer la désinformation. Il s’agit de confronter le pouvoir, qu’il s’agisse d’un État ou d’une entreprise , il façonne la technologie elle-même et, en fin de compte, influence son fonctionnement et les informations qu’elle produit.
Au niveau systémique, cette perspective holistique a des implications importantes pour la gouvernance de l’IA, englobant à la fois la réglementation du développement de l’IA et la supervision de son déploiement. Au niveau individuel, comprendre comment les modèles d’IA populaires reflètent des luttes politiques plus profondes permet aux gens de devenir des consommateurs plus critiques de contenu généré par l’IA. Lorsque nous discutons des préjugés dans l’IA, nous devons déplacer notre attention de la pointe de l’iceberg vers les structures politiques sous-jacentes et profondément ancrées en dessous.
______
Cet article donne le point de vue des auteurs, et non la position de China Foresight, LSE IDEAS, ni de la London School of Economics and Political Science.
À propos de l’auteur
Roni Berkowitz
Roni Berkowitz est titulaire d’un doctorat. candidat au programme d’études supérieures Davis (TELEM) et au programme de flux transculturels de la sphère asiatique à l’Université hébraïque de Jérusalem. Dans son doctorat. recherche, Roni explore les significations locales de l’essor économique de la Chine et le rôle des sociétés multinationales chinoises dans l’élaboration du récit économique de “China Threat”.
Yael Ram
Yael Ram est titulaire d’un doctorat. candidat au Davis Graduate Program (TELEM) au Département des relations internationales de l’Université hébraïque de Jérusalem et membre de l’Institut d’études sur la sécurité nationale (INSS). Ses recherches examinent la géopolitique de l’IA générative, explorant en particulier les notions émergentes de “AI sovereign” à la lumière des capacités de production de connaissances de la technologie en tant que source de signification politique et d’identité.
Traduction Deepl revue ML