Lorsque DeepSeek, Alibaba et d’autres entreprises chinoises ont publié leurs modèles d’IA, les chercheurs occidentaux ont rapidement remarqué qu’ils évitaient les questions critiques concernant le Parti communiste chinois. Les responsables américains ont ensuite confirmé que ces outils sont conçus pour refléter les points de vue de Pékin, suscitant des inquiétudes concernant la censure et les biais.
Les leaders américains de l’IA comme OpenAI ont souligné cela comme justification pour faire avancer rapidement leur technologie, sans trop de réglementation ou de surveillance. Comme l’a écrit Chris Lehane, responsable des affaires mondiales chez OpenAI, dans un post LinkedIn le mois dernier, il y a un concours entre « l’IA démocratique dirigée par les États-Unis et l’IA autocratique dirigée par la Chine communiste ».
Un décret signé mercredi par le président Donald Trump interdisant l’IA « woke » et les modèles d’IA qui ne sont pas « idéologiquement neutres » des contrats gouvernementaux pourrait perturber cet équilibre.
Le décret pointe du doigt la diversité, l’équité et l’inclusion (DEI), la qualifiant d’idéologie « pervasive et destructrice » capable de « déformer la qualité et l’exactitude des résultats ». Plus précisément, le décret fait référence à des informations sur la race ou le sexe, à la manipulation de la représentation raciale ou sexuelle, à la théorie critique de la race, au transgenrisme, aux biais inconscients, à l’intersectionnalité et au racisme systémique.
Les experts mettent en garde contre un effet dissuasif sur les développeurs qui pourraient ressentir la pression d’aligner les résultats des modèles et des ensembles de données sur la rhétorique de la Maison Blanche pour obtenir des fonds fédéraux pour leurs entreprises en difficulté.
Le décret intervient le même jour où la Maison Blanche a publié le « Plan d’action AI de Trump », qui déplace les priorités nationales loin des risques sociaux pour se concentrer plutôt sur le développement de l’infrastructure de l’IA, la réduction des obstacles pour les entreprises technologiques, le renforcement de la sécurité nationale et la concurrence avec la Chine.
Le décret demande au directeur du Bureau de la gestion et du budget ainsi qu’à l’administrateur de la politique d’approvisionnement fédéral, à l’administrateur des Services généraux et au directeur du Bureau de la politique scientifique et technologique de fournir des orientations aux autres agences sur la manière de se conformer.
« Une fois pour toutes, nous en avons fini avec le woke », a déclaré Trump mercredi lors d’un événement sur l’IA organisé par le podcast All-In et le Forum Hill & Valley. « Je vais signer un décret interdisant au gouvernement fédéral d’acquérir une technologie AI infusée de partialité partisane ou d’agendas idéologiques, comme la théorie critique de la race, ce qui est ridicule. Et dorénavant, le gouvernement américain ne traitera qu’avec une IA qui recherche la vérité, l’équité et une impartialité stricte. »
Déterminer ce qui est impartial ou objectif est l’un des nombreux défis du décret.
Philip Seargeant, maître de conférences en linguistique appliquée à l’Open University, a déclaré à TechCrunch que rien ne peut jamais être objectif.
« L’un des principes fondamentaux de la sociolinguistique est que le langage n’est jamais neutre », a déclaré Seargeant. « L’idée que l’on puisse obtenir une pure objectivité est une illusion. »
En plus de cela, l’idéologie de l’administration Trump ne reflète pas les croyances et valeurs de tous les Américains. Trump a cherché à plusieurs reprises à supprimer le financement des initiatives climatiques, de l’éducation, de la radiodiffusion publique, de la recherche, des subventions de services sociaux, des programmes de soutien communautaire et agricole, et des soins affirmant le genre, présentant souvent ces initiatives comme des exemples de dépenses gouvernementales « woke » ou politiquement biaisées.
Comme l’a dit Rumman Chowdhury, scientifique des données, PDG de l’organisation à but non lucratif Humane Intelligence et ancienne envoyée américaine pour l’IA, « Tout ce que [l’administration Trump n’aime pas] est immédiatement jeté dans cette pile péjorative de woke. »
Les définitions de « recherche de la vérité » et de « neutralité idéologique » dans le décret publié mercredi sont vagues dans certains cas et spécifiques dans d’autres. Alors que la « recherche de la vérité » est définie comme des LLM qui « priorisent l’exactitude historique, l’investigation scientifique et l’objectivité », la « neutralité idéologique » est définie comme des LLM qui sont des « outils neutres et non partisans ne manipulant pas les réponses en faveur de dogmes idéologiques tels que la DEI. »
Ces définitions laissent place à une interprétation large, ainsi qu’à une pression potentielle. Les entreprises d’IA ont plaidé pour moins de contraintes dans leur fonctionnement. Et bien qu’un décret présidentiel n’ait pas la force d’une législation, les entreprises pionnières en IA pourraient quand même se retrouver soumises aux priorités changeantes de l’agenda politique de l’administration.
La semaine dernière, OpenAI, Anthropic, Google et xAI ont signé des contrats avec le Département de la Défense pour recevoir jusqu’à 200 millions de dollars chacun afin de développer des flux de travail d’IA agentic qui répondent à des défis critiques en matière de sécurité nationale.
Il n’est pas clair quelle de ces entreprises est le mieux placée pour bénéficier de l’interdiction de l’IA woke, ou si elles vont se conformer.
TechCrunch les a contactées et mettra à jour cet article si nous recevons des réponses.
Malgré ses propres biais, xAI pourrait être le plus aligné avec le décret – du moins à ce stade précoce. Elon Musk a positionné Grok, le chatbot de xAI, comme l’ultime anti-woke, « moins biaisé », en quête de vérité. Les directives du système de Grok l’incitent à éviter de se référer aux autorités et aux médias traditionnels, à rechercher des informations contraires même si elles sont politiquement incorrectes, voire à faire référence aux propres opinions de Musk sur des sujets controversés. Ces derniers mois, Grok a même proféré des commentaires antisémites et loué Hitler sur X, entre autres publications haineuses, racistes et misogynes.
Mark Lemley, professeur de droit à l’Université de Stanford, a déclaré à TechCrunch que le décret est « clairement destiné à la discrimination de points de vue, puisque [le gouvernement] vient de signer un contrat avec Grok, alias ‘MechaHitler' ».
En plus du financement du DOD pour xAI, l’entreprise a annoncé que « Grok for Government » avait été ajouté au calendrier de l’Administration des services généraux, ce qui signifie que les produits de xAI sont désormais disponibles à l’achat dans tous les bureaux et agences gouvernementaux.
« La vraie question est la suivante : vont-ils interdire Grok, l’IA avec laquelle ils viennent de signer un gros contrat, parce qu’elle a été délibérément conçue pour donner des réponses politiquement chargées ? » a déclaré Lemley dans une interview par email. « Si ce n’est pas le cas, il est clairement conçu pour discriminer un point de vue particulier. »
Comme l’ont montré les directives du propre système de Grok, les résultats des modèles peuvent être le reflet des personnes qui construisent la technologie et des données sur lesquelles l’IA est formée. Dans certains cas, un excès de prudence parmi les développeurs et l’IA formée sur des contenus Internet promouvant des valeurs comme l’inclusivité ont conduit à des résultats de modèles faussés. L’année dernière, Google a été critiqué après que son chatbot Gemini ait montré un George Washington noir et des nazis d’origines diverses, ce que l’ordre de Trump cite comme un exemple de modèles d’IA infectés par la DEI.
Selon Chowdhury, sa plus grande crainte avec cet ordre exécutif est que les entreprises d’IA restructurent activement les données d’entraînement pour suivre la ligne du parti. Elle a pointé du doigt des déclarations de Musk quelques semaines avant le lancement de Grok 4, disant que xAI utiliserait le nouveau modèle et ses capacités de raisonnement avancées pour « réécrire l’ensemble du corpus des connaissances humaines, ajouter des informations manquantes et supprimer les erreurs. Puis se réentraîner dessus. »
Cela placerait en théorie Musk dans la position de juger de ce qui est vrai, ce qui pourrait avoir d’énormes implications en aval sur la manière dont l’information est consultée.
Bien sûr, les entreprises ont pris des décisions sur ce qui est vu et non vu depuis les débuts d’internet.
David Sacks, conservateur et entrepreneur, nommé par Trump comme czar de l’IA, s’est exprimé sur ses préoccupations concernant l' »IA éveillée » sur le podcast All-In, co-animé par Trump lors de sa journée d’annonces sur l’IA. Sacks a accusé les créateurs de produits d’IA renommés de les avoir imprégnés de valeurs de gauche, présentant ses arguments comme une défense de la liberté d’expression et un avertissement contre une tendance vers un contrôle idéologique centralisé dans les plateformes numériques.
Le problème, selon les experts, est qu’il n’y a pas de vérité unique. Obtenir des résultats impartiaux ou neutres est impossible, surtout dans le monde d’aujourd’hui où même les faits sont politisés.
« S’il en ressort que la science du climat est correcte, est-ce un biais de gauche ? » a déclaré Seargeant. « Certains disent que vous devez présenter les deux côtés de l’argument pour être objectif, même si un des côtés de l’argument n’a aucun fondement. »


