Ilya Sutskever,前OpenAI的首席科学家,于6月20日宣布成立一家新公司“Safe Superintelligence”。这一举动引发关注,因为Sutskever在去年OpenAI内部冲突中被视为关键人物,据说与CEO Sam Altman存在分歧,并在事件中站在了Altman的对立面。在随后的几个月里,尽管Sutskever退出了OpenAI的董事会,但他保持低调,直到现在宣布新公司专注于安全AI,似乎是对OpenAI的公开挑战,同时也进一步证实了他与Altman不和的传言。
这不是第一次有OpenAI的核心成员另立门户。2021年,包括前研究副总裁Dario Amodei和安全政策副总裁Daniela Amodei在内的七名关键员工离开了OpenAI,创建了同样强调安全性的Anthropic。就在Sutskever宣布新公司的同一天,Anthropic推出了其新模型Claude 3.5 Sonnet,据称在多项性能测试中超越了OpenAI的旗舰产品GPT-4o。
OpenAI内部的“创业自由”文化促进了这种人才流动,形成了复杂的硅谷人际网络,被比喻为“OpenAI黑帮”。而“叛军”如Anthropic,不仅与OpenAI关系密切,且持有不同理念,尤其在安全AI的发展方向上。Sutskever的新公司SSI和Anthropic一样,直面安全性的挑战,显示出与OpenAI不同的路径选择。
追溯到去年那场戏剧化的OpenAI管理层变动,Anthropic间接成为了导火索。前董事会成员Helen Toner在发表的一篇论文中比较了OpenAI和Anthropic,暗示后者在安全性方面更胜一筹,这引发了后续一系列事件,最终导致CEO Altman短暂离职后戏剧性回归,而Sutskever则选择沉默退出董事会。
Sutskever的新动向,标志着“OpenAI叛军”队伍的扩大,也为AI领域的竞争增添了新的变数。尽管SSI的具体计划尚未明确,Sutskever对于资金问题显得信心满满,而他对于如何实现真正的安全超级智能的探索,无疑将为业界带来新的视角和挑战。随着AI领域的竞争愈发激烈,Sutskever、Altman及众多“出走英雄”各自秉持的信念和实践,将继续书写AI发展史上的新篇章。