加州立法機構重啓人工智能監管立法進程,SB 53法案修正案提出全國首例AI透明度監管框架
加州州立法機構在州長加文·紐瑟姆去年否決要求科技企業爲技術損害擔責的法案後,再次啓動人工智能監管立法進程。舊金山民主黨州參議員斯科特·維納於本週二發佈了SB 53法案修正案,該修正案旨在建立全國首例AI透明度監管框架。根據提案,開發超過特定算力閾值的人工智能模型企業必須向社會公開安全評估協議,重點排查技術可能引發的災難性風險。
該提案還要求相關企業在發生敏感技術泄露等重大安全事故時,向州檢察長提交專項報告。涉及的企業包括OpenAI、谷歌母公司Alphabet(GOOGL.US)及Anthropic等行業頭部。
此次修正案在維納今年初提交的原始法案基礎上作出關鍵調整,既保留了內部舉報人保護條款和公共雲服務平臺建設方案,該平臺旨在爲初創企業和學術機構提供低成本算力支持,又刪除了此前引發爭議的責任追溯條款。維納在聲明中強調,立法需在鼓勵創新與防範風險間取得平衡,表示:“AI技術變革日新月異,政策制定必須與頂尖科研力量協同,既釋放技術潛能又築牢安全防線,最終構建信任、公平與問責並重的治理體系。”
此次立法嘗試的背景是聯邦層面監管鬆動:美國參議院近日否決了限制各州出臺AI法規的提案,爲地方立法騰出空間。值得注意的是,維納去年推動的SB 1047法案雖獲州議會通過,但因要求企業爲技術災難承擔法律責任,遭到硅谷風險投資機構及科技巨頭強烈反對,最終被紐瑟姆以“過度施壓創新”爲由否決。
此次SB 53修正案的條款設計,與紐瑟姆否決後成立的人工智能前沿模型工作組建議框架形成呼應,該工作組由知名學者李飛飛等專家組成,雖未提出具體立法方案,但其技術評估報告爲當前法案提供了專業支撐。
當前Meta(META.US)、谷歌等企業已形成定期發佈模型安全指南的行業慣例,SB 53法案旨在將此類實踐上升爲法定標準。修正案預計本月下旬進入議會委員會審議階段,維納表示將繼續與科技企業、學術機構等利益相關方磋商完善提案。這場持續多年的立法博弈,折射出人工智能技術快速發展與公共安全保障之間的深層張力,也預示着全球科技治理正在進入地方立法與聯邦政策協同演進的新階段。