Le comité des crédits de Californie a récemment adopté le SB 1047 avec des amendements significatifs le 15 août dernier. Ce projet de loi vise à prévenir les catastrophes causées par les systèmes d’intelligence artificielle avant qu’elles ne se produisent. Il suscite cependant des controverses parmi les acteurs de la Silicon Valley, tels que les investisseurs en capital-risque, les grandes entreprises technologiques, les chercheurs et les fondateurs de startups.
Le SB 1047 vise à empêcher l’utilisation de grands modèles d’IA pour causer des dommages critiques à l’humanité. Les développeurs de ces modèles seraient tenus de mettre en place des protocoles de sécurité adéquats pour éviter de tels résultats. Les règles s’appliqueraient uniquement aux modèles d’IA les plus importants, coûtant au moins 100 millions de dollars et utilisant une quantité significative de calcul pendant la formation.
Une nouvelle agence californienne, le Board of Frontier Models, serait responsable de superviser ces règles et de certifier chaque nouveau modèle d’IA public répondant aux critères du SB 1047. Le conseil d’administration serait composé de neuf membres représentant l’industrie de l’IA, la communauté open source et le monde universitaire.
En cas de non-conformité des développeurs aux exigences du SB 1047, des sanctions pourraient être prononcées par le procureur général de Californie. Ces sanctions pourraient aller jusqu’à 30 millions de dollars pour les violations ultérieures, en fonction du coût de formation du modèle d’IA.
Les partisans du projet de loi, tels que le sénateur Scott Wiener et des chercheurs influents en IA, estiment qu’il est nécessaire de prendre des mesures préventives pour protéger la société des risques potentiels liés à l’IA. Cependant, les opposants, notamment des acteurs de la Silicon Valley tels que a16z et des universitaires en IA, craignent que le SB 1047 ne nuise à l’innovation et à l’écosystème de l’IA.
Le SB 1047 est actuellement entre les mains du gouverneur de Californie, Gavin Newsom, qui devra décider de le signer ou non avant la fin du mois d’août. Si le projet de loi est adopté, il pourrait faire l’objet de contestations judiciaires et son application ne serait pas immédiate, le Board of Frontier Models devant être formé en 2026.
En résumé, le SB 1047 vise à réguler l’utilisation des grands modèles d’IA pour éviter des dommages critiques à l’humanité, mais il suscite des débats intenses au sein de la communauté technologique. Son adoption et sa mise en œuvre soulèvent de nombreuses questions quant à leur impact sur l’innovation et la gouvernance de l’IA en Californie.