Octobre 2025 — Une polémique enflammée oppose cette semaine les géants de la tech et les militants de la sécurité de l’IA, après que des figures influentes comme David Sacks (conseiller IA et crypto à la Maison Blanche) et Jason Kwon (directeur stratégique d’OpenAI) ont accusé publiquement certains groupes de sécurité d’agir pour des intérêts cachés — voire sous l’influence de milliardaires comme Elon Musk ou Mark Zuckerberg. Ces attaques, relayées sur les réseaux sociaux, ont déclenché une vague de réactions et révélé les tensions croissantes entre la course effrénée à la commercialisation de l’IA et les appels à une régulation responsable.
Des accusations d’hypocrisie et de « capture réglementaire »
- David Sacks cible Anthropic : Dans un thread viral sur X, Sacks a accusé Anthropic — l’un des rares grands laboratoires d’IA à soutenir le projet de loi californien SB 53 (qui impose des rapports de sécurité aux entreprises) — de « semer la peur » pour avantager ses propres intérêts et étouffer les start-ups sous des contraintes administratives.
- « Anthropic mène une stratégie sophistiquée de capture réglementaire », a-t-il écrit, sous-entendant que le laboratoire utilise les craintes sur l’IA (chômage, cyberattaques, risques catastrophiques) pour façonner des lois à son avantage.
- Ironie : Sacks omet de mentionner qu’Anthropic a aussi critiqué l’administration Trump, ce qui complique la thèse d’une manipulation purement économique.
- OpenAI en guerre contre les ONG : Jason Kwon a justifié l’envoi d’assignations à comparaître à des organisations comme Encode, une ONG militante pour une IA responsable. Motif ? Leur soutien à la plainte d’Elon Musk contre OpenAI (accusée d’avoir abandonné sa mission non lucrative) et leur rôle dans l’adoption du SB 53.
- « Cela soulève des questions sur leur financement et une possible coordination », a déclaré Kwon, suggérant un complot orchestré par Musk et Zuckerberg.
- NBC News révèle que OpenAI exige aussi les communications d’Encode sur le SB 53, confirmant une stratégie agressive pour museler ses détracteurs.
| Acteur | Position | Accusation/Réaction |
|---|---|---|
| David Sacks (Maison Blanche) | Pro-industrie | Anthropic « instrumentalise la peur » pour dominer le marché. |
| Jason Kwon (OpenAI) | Défenseur d’OpenAI | Les ONG seraient manipulées par Musk/Zuckerberg. |
| Anthropic | Soutien du SB 53 | Dénonce les risques de l’IA (emploi, sécurité). |
| Encode (ONG) | Critique d’OpenAI | Assignée à comparaître pour ses liens avec Musk. |
| Joshua Achiam (OpenAI) | Chercheur en sécurité | « Cela ne semble pas génial » (critique interne rare). |
Une communauté de la sécurité de l’IA sous pression
- Climat de peur : Plusieurs dirigeants d’ONG ont demandé l’anonymat à TechCrunch, craignant des représailles (désinvestissements, campagnes de discrédit).
- Brendan Steinhauser (Alliance for Secure AI) : « OpenAI veut faire taire les critiques. Sacks craint que le mouvement pour la sécurité ne gagne trop d’influence. »
- Sriram Krishnan (ex-a16z, conseiller à la Maison Blanche) : A qualifié les défenseurs de la sécurité de « déconnectés », minimisant leurs alertes.
Paradoxe : Alors qu’OpenAI publie des rapports sur les risques de l’IA, son équipe lobbyiste combat les régulations (comme le SB 53), préférant des règles fédérales moins contraignantes.
Pourquoi cette escalade maintenant ?
- L’IA devient un enjeu électoral :
- Une étude Pew Research montre que les Américains s’inquiètent davantage des pertes d’emplois et des deepfakes que des scénarios catastrophiques.
- Pourtant, la Silicon Valley redoute une surréglementation qui freinerait sa croissance.
- Le mouvement pour la sécurité gagne du terrain :
- En 2024, des rumeurs infondées (comme l’idée que le SB 1047 enverrait des fondateurs en prison) avaient déjà été utilisées pour torpiller des lois.
- En 2025, le SB 53 est adopté en Californie, malgré l’opposition d’OpenAI.
- « Après des années sans régulation, les lanceurs d’alerte sont enfin entendus », note un expert.
- L’argent et le pouvoir en jeu :
- Les investissements dans l’IA soutiennent l’économie américaine, mais les excès (licenciements, biais algorithmiques) alimentent la défiance.
- « La Silicon Valley attaque parce que la sécurité de l’IA devient un vrai contre-pouvoir », analyse un chercheur.
Ce que révèlent ces tensions
- Un fossé grandissant entre :
- Les géants de la tech (OpenAI, a16z), qui veulent éviter les freins à l’innovation.
- Les militants et chercheurs, qui exigent des gardes-fous (transparence, évaluations indépendantes).
- Une méthode rodée : Discréditer les critiques en les présentant comme naïfs, corrompus ou manipulés.
Exemple frappant : En 2024, des capital-risqueurs avaient propagé de fausses informations sur le SB 1047 pour le faire rejeter. Aujourd’hui, la tactique se répète, mais avec des moyens juridiques (assignations) et politiques (influence à la Maison Blanche).
Et maintenant ?
- Les ONG ripostent : « Nous ne sommes pas des marionnettes de Musk », répond Encode.
- Les régulateurs observent : La Californie et Washington DC pourraient durcir leur approche face à ces tentatives d’intimidation.
- Le public reste sceptique : 50 % des Américains sont plus inquiets qu’enthousiastes face à l’IA (Pew Research).
Pour aller plus loin :
- Écouter le podcast Equity (TechCrunch) sur la guerre de l’IA
- Lire l’essai de Jack Clark (Anthropic) sur les risques de l’IA
Débat : Faut-il réguler l’IA malgré les risques de ralentir l’innovation, ou laisser la Silicon Valley s’autoréguler — au prix de dérives sociales et économiques ?
Pourquoi cette version est plus percutante ?
- Titre choc : Résume le conflit (Silicon Valley vs. sécurité) et les méthodes (intimidation).
- Structure claire : Sous-titres thématiques, tableau synthétique, citations percutantes.
- Contexte historique : Rappelle les précédents (SB 1047, lobbying en 2024).
- Neutralité apparente : Donne la parole aux deux camps, mais souligne les asymétries de pouvoir.
- Ouverture engagée : Interroge le lecteur sur l’équilibre entre innovation et éthique.


