ven 20 septembre 2024
AccueilNewsTechnologySigner ou veto : quelle est la prochaine étape pour le projet de...

Signer ou veto : quelle est la prochaine étape pour le projet de loi californien sur les catastrophes liées à l’IA, SB 1047 ?

Date:

Autres billets

Android 15 : 5 nouveautés qui changent la donne

Android a lancé cinq nouvelles mises à jour dans...

TechCrunch Fintech : l’essentiel de la semaine en un clin d’œil

Bienvenue sur TechCrunch Fintech ! Cette semaine, découvrez une...

Les dirigeants de VC parlent de la mise à l’échelle de la cryptographie à Disrupt 2024

Découvrez les perspectives des principaux investisseurs en capital-risque sur...

L’ordre du jour final de la Builders Stage à Disrupt 2024

Préparez-vous pour l'événement phare de TechCrunch perturbe 2024 qui...
spot_img

Le projet de loi californien controversé SB 1047, visant à prévenir les catastrophes liées à l’intelligence artificielle, a franchi les étapes finales au Sénat de l’État et est actuellement entre les mains du gouverneur Gavin Newsom pour décision. Ce projet de loi vise à anticiper les risques les plus extrêmes liés aux systèmes d’IA, tels que leur potentiel dans des situations mettant en jeu des vies humaines, et à contrer l’essor de l’IA en Californie. Le gouverneur a jusqu’au 30 septembre pour soit promulguer le SB 1047, soit y opposer son veto.

Présenté par le sénateur Scott Wiener, le SB 1047 a pour objectif d’empêcher les éventuelles conséquences catastrophiques des grands modèles d’IA, notamment des pertes humaines ou des cyberattaques entraînant plus de 500 millions de dollars de dommages. Bien qu’il y ait actuellement peu de modèles d’IA concernés par ce projet de loi, son champ d’application se projette vers l’avenir et vise à responsabiliser les développeurs en cas de dommages causés par leurs technologies. Le procureur général de Californie serait ainsi habilité à engager des poursuites et à imposer des sanctions sévères en cas d’utilisation néfaste de l’IA.

L’industrie de l’IA aux États-Unis pourrait donc être profondément impactée par ce projet de loi, qui pourrait bientôt devenir une loi à part entière. Les motivations qui pourraient inciter le gouverneur Newsom à le signer reposent sur la nécessité d’imposer davantage de responsabilités à la Silicon Valley et de tirer des leçons des échecs passés en matière de réglementation technologique. Certains acteurs de l’IA, comme Elon Musk, se montrent prudemment optimistes quant au SB 1047, considérant qu’il s’agit d’un compromis nécessaire pour encadrer le développement de l’IA.

Cependant, l’industrie technologique, notamment la Silicon Valley, exprime une forte opposition au projet de loi. Des acteurs majeurs tels que Nancy Pelosi, OpenAI et des groupes commerciaux influents mettent en garde contre les possibles effets dissuasifs sur l’innovation et l’économie californienne. Ils craignent que le SB 1047 ne freine le dynamisme de l’IA, qui a largement contribué à la croissance économique du pays.

Si le SB 1047 est promulgué, des mesures de sécurité devront être mises en place par les entreprises technologiques d’ici 2025, avec la possibilité pour le procureur général de demander l’arrêt de l’utilisation de modèles jugés dangereux. En 2026, un conseil de modération des modèles serait créé pour superviser la conformité des entreprises et recommander des actions au procureur général. Ce projet de loi entraînerait également l’embauche d’auditeurs pour évaluer les pratiques de sécurité des développeurs d’IA, ouvrant ainsi de nouvelles perspectives dans le domaine de la conformité en matière de sécurité de l’IA. Le procureur général de Californie pourrait engager des poursuites contre les développeurs de modèles d’intelligence artificielle si leurs outils sont impliqués dans des événements catastrophiques. D’ici 2027, le Board of Frontier Models pourrait commencer à conseiller les développeurs sur la formation et l’utilisation sécurisée des modèles d’IA.

En cas de veto du SB 1047 par Newsom, OpenAI verrait ses souhaits exaucés et les régulateurs fédéraux prendraient probablement des mesures pour réglementer les modèles d’IA à long terme. OpenAI et Anthropic ont esquissé les contours de la réglementation fédérale sur l’IA, en accordant un accès anticipé à leurs modèles avancés à l’AI Safety Institute. OpenAI a également soutenu un projet de loi laissant à l’Institut le pouvoir d’établir des normes pour les modèles d’IA.

Selon Sam Altman, PDG d’OpenAI, il est crucial que cette réglementation se fasse au niveau national. Les agences fédérales ont tendance à produire une réglementation technologique moins contraignante que la Californie et prennent plus de temps pour le faire. La Silicon Valley a toujours été un partenaire stratégique pour le gouvernement américain, avec une histoire de collaboration dans le domaine des technologies de pointe.

Les développeurs de modèles d’IA doivent donc se préparer à une éventuelle réglementation fédérale et s’assurer de la sécurité et de l’éthique de leurs outils. La collaboration avec des organismes comme l’AI Safety Institute peut être une étape importante pour garantir une utilisation responsable de l’intelligence artificielle.

Dernières nouvelles


LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici