mar 3 février 2026
AccueilTechnologieSB 53 : Une nouvelle tentative pour encadrer l’IA en Californie

SB 53 : Une nouvelle tentative pour encadrer l’IA en Californie

Date:

Ceci pourrait vous plaire




Arcane Visions - Thème astral

Le sénateur Scott Wiener, représentant de l’État de Californie, n’a pas abandonné sa quête pour réglementer les risques liés à l’intelligence artificielle. Après l’échec de son projet de loi SB 1047 en 2024, qui visait à rendre les entreprises technologiques responsables des dommages causés par leurs systèmes d’IA, il revient avec une nouvelle proposition : le SB 53. Ce texte, actuellement sur le bureau du gouverneur Gavin Newsom, attend une signature ou un veto dans les prochaines semaines.

Contrairement au SB 1047, qui avait suscité une opposition farouche de la part de la Silicon Valley, le SB 53 semble moins controversé. Les géants de la tech, comme Anthropic et Meta, ont même exprimé leur soutien, bien que de manière nuancée. « Le SB 53 va dans la bonne direction en équilibrant innovation et garde-fous », a déclaré Jim Cullinan, porte-parole de Meta, tout en reconnaissant qu’il reste des améliorations possibles.

Un projet de loi axé sur la transparence et la sécurité

Si le SB 53 est adopté, il imposera aux grands laboratoires d’IA (comme OpenAI, Anthropic, xAI et Google) des obligations de reporting inédites aux États-Unis. Aujourd’hui, ces entreprises ne sont pas tenues de révéler comment elles testent leurs modèles d’IA, bien que certaines publient volontairement des rapports de sécurité.

Le SB 53 exige que les laboratoires réalisant plus de 500 millions de dollars de revenus publient des rapports de sécurité pour leurs modèles les plus avancés. Ces rapports devront évaluer les risques catastrophiques, tels que :

  • La capacité à causer des décès humains.
  • Les cyberattaques massives.
  • Le développement d’armes chimiques ou biologiques.

Le projet de loi crée également :

  • Des canaux protégés pour que les employés des laboratoires d’IA signalent leurs préoccupations aux autorités.
  • Un cluster de cloud computing public, CalCompute, pour soutenir la recherche en IA en dehors des grandes entreprises.

Pourquoi le SB 53 est-il mieux accueilli que le SB 1047 ?

Le SB 1047, rejeté par le gouverneur Newsom en 2024, aurait rendu les entreprises responsables des dommages causés par leurs modèles d’IA, une mesure jugée trop sévère par l’industrie. Le SB 53, en revanche, se concentre sur la transparence et la prévention des risques, sans imposer de responsabilité juridique rétroactive.

« Le SB 53 est une victoire pour les voix raisonnables », estime Dean Ball, ancien conseiller en politique d’IA de la Maison Blanche. « Il y a de fortes chances que le gouverneur Newsom le signe. »

Une opposition persistante de la Silicon Valley

Malgré un accueil plus favorable, certains acteurs de la tech estiment que la réglementation de l’IA devrait relever du gouvernement fédéral, et non des États. OpenAI a récemment écrit au gouverneur Newsom pour plaider en faveur d’une harmonisation fédérale, tandis que la société de capital-risque Andreessen Horowitz a suggéré que certaines lois californiennes pourraient enfreindre la clause de commerce dormant de la Constitution.

Scott Wiener répond à ces critiques en soulignant l’inaction du gouvernement fédéral : « Je n’ai pas confiance dans le gouvernement fédéral pour adopter une réglementation significative. Les États doivent prendre le relais. » Il craint que l’administration actuelle, sous l’influence de l’industrie, ne privilégie la croissance économique au détriment de la sécurité.

Un contexte politique marqué par un virage pro-innovation

Sous l’administration Trump, la priorité a clairement basculé de la sécurité de l’IA vers la croissance économique. « Je ne suis pas ici pour parler de la sécurité de l’IA, mais de l’opportunité qu’elle représente », a déclaré le vice-président J.D. Vance lors d’une conférence à Paris. Cette position a été saluée par la Silicon Valley, où les PDG des Big Tech entretiennent des liens étroits avec la Maison Blanche.

Un équilibre entre innovation et sécurité

Pour Scott Wiener, l’enjeu est de protéger l’innovation tout en garantissant la sécurité publique : « Nous devons trouver le juste équilibre. L’IA est une technologie puissante, mais elle comporte des risques réels. » Il insiste sur la nécessité de rendre plus difficile l’utilisation malveillante des modèles d’IA, tout en permettant aux entreprises de continuer à innover.

Prochaines étapes : vers une signature du gouverneur Newsom ?

Le sénateur Wiener espère que le gouverneur Newsom, qui avait vetoé le SB 1047 tout en reconnaissant la nécessité d’un cadre réglementaire, soutiendra cette fois le SB 53. « Nous avons écouté vos recommandations et ajusté le projet de loi en conséquence », a-t-il déclaré.

Si le SB 53 est adopté, il pourrait marquer un tournant dans la régulation de l’IA aux États-Unis, en imposant pour la première fois des obligations de transparence aux géants de la tech. Une décision est attendue dans les prochaines semaines.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici