近日,AI 公司 Anthropic 正式支持加州州长斯科特・维纳 (ScottWiener) 提出的 SB53 法案。该法案计划对全球
Anthropic 在一篇博客中指出:「尽管我们认为前沿 AI 安全问题应在联邦层面解决,而不是由各州自行规定,但强大的 AI 技术发展不会等待华盛顿的共识。」 该公司强调,制定 AI 治理标准是当务之急,而 SB53 提供了一条合理的路径。
如果 SB53 法案获得通过,像 Anthropic、OpenAI、谷歌和 xAI 等 AI 模型开发者将需要制定安全框架,并在部署强大 AI 模型前,发布公开的安全和安保报告。此外,该法案还将为举报安全问题的员工提供保护。
该法案特别关注于限制 AI 模型对 「灾难性风险」 的贡献,定义为导致至少 50 人死亡或造成超过 10 亿美元损失的事件。SB53 侧重于防范极端 AI 风险,例如防止 AI 模型被用于生物武器的开发或网络攻击,而不涉及更近一步的 AI 深度伪造或过度迎合等问题。
加州参议院已经通过了 SB53 的初步版本,但仍需进行最终投票,才能将其送交州长签署。尽管加州州长纽森尚未对该法案表态,但他曾否决过类似的 SB1047 法案。
反对声音主要来自硅谷及特朗普政府,认为此类法案可能限制美国在与中国竞争中的创新。安德森・霍洛维茨 (AndreessenHorowitz) 和 YCombinator 等投资者对此法案进行了强烈反对,认为州政府不应干预 AI 安全问题,应该将此事交给联邦政府。
尽管存在这些反对意见,政策专家认为 SB53 相较于之前的 AI 安全法案显得更为温和。加州立法者在该法案的制定过程中显示了对技术现实的尊重以及一定的立法克制。Anthropic 的联合创始人杰克・克拉克 (JackClark) 表示,尽管希望有联邦标准,但现有法案为 AI 治理提供了一份不可忽视的蓝图。
划重点:
📜Anthropic 支持 SB53 法案,强调 AI 治理的重要性。
⚖️法案要求大型 AI 开发者制定安全框架,发布安全报告并保护举报者。
🔍SB53 专注于防范极端 AI 风险,尚需最终投票才能生效。










