8 月 27 日马斯克于 X 上发文对颇具争议的加州人工智慧安全法案做出表态,他表示这是个艰难的选择且可能会造成部分人的不安,但综合考量后他认为加州应该通过 SB 1047 人工智慧安全法案。他补充:「20 多年来,我一直倡导人工智慧监管,就像我们监管任何对公众构成浅在风险的产品/技术一样。」
SB 1047 旨在防止 AI 造成重大伤亡,遭 AI 新创及党内反对
根据报导这位亿万富翁所支持的人工智慧法案全名叫做 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act 前沿人工智慧模型安全创新法案,又称 SB 1047 法案。
该法案由民主党籍参议员 Scott Wiener 于今年二月提出,该法案要求人工智慧开发人员实施安全协议,并为人工智慧模型安装强制停止按钮,以防止大规模伤亡或重大网路攻击案件。该法案受到一众美国新创 AI 公司反对,包括 OpenAI 。另外众议院院长 Nancy Pelosi丶众议院科学、太空和技术委员会的 Zoe Lofgren丶及矽谷选区的众议员 Ro Khanna 等一众民主党籍的加州众议员都反对该法案。
OpenAI 策略长 Jason Kwon 警告,该法案可能会扼杀创新并将人才赶出加州。作为新创聚集地,尤其是科技新创的圣地矽谷,加州众议员因此反对该法案可以理解。而 OpenAI 等公司也表示这类监管已超出地方自治范围,应由联邦负责,而非各州自行制定。AI 新创公司 Extropic 创办人丶前 Google 工程师 Guillaume Verdon 表示:「人工智慧可能很强大,但对强大人工智慧进行控制的独裁政府更可怕」他也将此事件与 Telegram 创办人 Pavel Durov 最近被捕的影响进行了比较,称这「对于人工智慧来说这就像 Telegram 的情况。」
Vitalik 赞同马斯克:应为人工智慧模型进行安全测试
以太坊创办人 Vitalik Buterin 回应马斯克意见,他表示善意解读的话,该法案目标为强制进行安全测试,如果你的人工智慧模型在安全测试中被发现具有威胁世界的功能/行为,将不被允许发布该模型。
他也表示责任不该是「如果衍生模型出了问题,开发人员将被罚款」而是开发人员没有合理的意识到模型的问题才会被处罚。他也补充他同意现阶段这个标准是非常模糊的,但这和无限制地承担后续模型使用风险不是同一回事。
他最后进一步补充喜欢这个法案的一个特点,他说:「我喜欢该法案的一件事是,我认为它没有得到足够的重视,那就是它引入了『严重伤害』类别,并明确地将其与其他不好的事情区分开来。 我认为这非常重要,尤其是在我们这个时代,很多人使用『言语暴力』之类的言词,并试图扩展原本表示重度伤害的术语,使它们涵盖一切造成伤害的事件(同时也扩张安全事件)。语言膨胀无法避免,因为它是基本博弈论的结果,但我们需要透过重新区分『常糟糕的东西』和『中等糟糕的东西』来进行补偿。」