Safe Superintelligence (SSI) 在前 OpenAI 首席科学家 Ilya Sutskever 的带领下,成功募得 10 亿美元资金,致力于发展超越人类能力且安全的人工智慧系统。
(OpenAI 共同创办人 Ilya Sutskever 离职,Sam Altman 宣布新任首席科学家)
SSI 募资 10 亿美元,专注于安全超人工智慧
据路透,Ilya Sutskever 曾是 OpenAI 的重要人物,但在离开该公司后,他将重心转向新的创业。Sutskever 的最新专案 Safe Superintelligence (SSI) 旨在解决 AI 安全问题,并通过顶级投资者筹集了 10 亿美元的资金。与 Sutskever 一同领导 SSI 的还有首席科学家 Daniel Levy 和执行长 Daniel Gross,他们的团队分别位于美国和以色列。
虽然 SSI 并未公开其估值,但据知情人士透露,公司估值已达 50 亿美元。尽管市场上对于基础 AI 研究的热情有所下降,但 SSI 的募资显示出投资者对于出色人才的信心依然高涨。
这类公司通常难以在短期内实现盈利,因此吸引资金并不容易,许多新创公司创办人纷纷选择跳槽至大型科技企业。
顶级投资机构加持:a16z、红衫等
SSI 的投资者名单包括 Andreessen Horowitz、Sequoia Capital、DST Global 和 SV Angel 等顶级风险投资公司,还有由 Nat Friedman 和 SSI 执行长 Daniel Gross 经营的投资合伙公司 NFDG 也参与其中。Gross 在接受采访时表示:「我们重视拥有理解并支持我们使命的投资者,我们的目标是直指安全超人工智慧,并在将产品推向市场前,花数年时间进行研发。」
尚未选边站,质疑 AI 扩展假说
SSI 计划与云端供应商和晶片公司合作,以确保其雄心勃勃的专案所需的计算能力。然而,公司尚未最终确定这些合作伙伴,目前正在考虑包括微软和 Nvidia 等潜在的基础设施合作伙伴。
作为 AI 扩展假说的倡导者,Sutskever 计划在 SSI 采取不同的扩展方法。虽然他没有透露具体细节,但他质疑当前的产业趋势:「大家都在说扩展假说,但却忽略了要问:我们究竟在扩展什么?」
聚焦 AI 安全:预防失控人工智慧
AI 安全问题一直是热门话题,特别是在担忧失控的人工智慧可能危害人类利益,甚至导致人类灭绝的情况下。一项在加州提出的法案试图对 AI 公司施加安全法规,但在业界引起分歧。OpenAI 和 Google 反对该法案,而 Anthropic 和 Elon Musk 创办的 xAI 则表示支持。
(微软大战亚马逊!OpenAI 共同创办人离开公司加入竞争对手 Anthropic,澄清离职原因)
37 岁的 Sutskever 是 AI 领域最具影响力的技术专家之一。今年六月,他与前 Apple AI 领导者 Daniel Gross 及前 OpenAI 研究员 Daniel Levy 共同创立 SSI。这家新创公司致力于打造一个高度信任的小型研究团队,专注于开发安全且能够推进人类社会的超人工智慧。
此次募资成功,代表 SSI 将成为 AI 安全领域的新兴力量,并预示著在全球 AI 技术迅速发展的背景下,对于安全和控制的需求只会日益增加。