OpenAI主要领导辞职 人工智能会不会陷入安全困境?

加拿大都市网

 

【星岛都市网】扬-莱克(Jan Leike)和伊利亚-苏茨基弗(Ilya Sutskever)离开 OpenAI 的原因是他们负责监督“超级智能”人工智能系统的团队在获取资源方面遇到了问题。尽管该团队已经解散,但他们的任务将由不同部门的研究人员继续执行,这引发了人们对 OpenAI 未来人工智能安全性的担忧。

在 OpenAI,负责开发和监督“超级智能”人工智能系统(被称为 Superalignment)的团队在获取承诺的资源方面遇到了重大问题。尽管他们本应获得公司五分之一的计算资源,但他们的请求经常遭到拒绝,从而阻碍了项目的实施。这些问题和其他问题导致几名团队成员于本周辞职。其中一位离职者是该团队的共同负责人、前 DeepMind 研究员扬-莱克(Jan Leike)。他透露,他离开公司的原因是对 OpenAI 的优先事项存在分歧,尤其是他认为在引入后续人工智能模型方面准备不足。

关键人物的离职

除了莱克,作为前董事会成员的联合创始人伊利亚-苏茨基弗(Ilya Sutskever)也因与首席执行官萨姆-奥特曼(Sam Altman)的矛盾离开了 OpenAI。董事会成员对奥特曼表示不满,但奥特曼最终还是回到了自己的岗位。针对这些事件,奥特曼在 X 平台上写道,公司未来仍有很多工作要做,但这些工作将全力推进。阿尔特曼的话得到了人工智能联合创始人格雷格-布罗克曼(Greg Brockman)的支持,他强调必须更加重视安全和流程效率。

虽然 Superalignment 团队实际上已不复存在,但来自公司各部门的一组研究人员将继续开展活动。这不禁让人担心,OpenAI 是否会继续同样关注人工智能开发中的安全问题。

人员变动是否预示着工作重点的转移?

据 TechCrunch 消息来源称,OpenAI 的情况反映出其工作重点已经从安全开发超级智能 AI 转移到更快地向市场发布产品上。Superalignment 团队的前成员批评了这种变化,强调了负责任的人工智能方法的重要性。在公司试图平衡创新与责任的过程中,OpenAI 人工智能安全的未来仍是一个悬而未决的问题。

莱克和苏茨基弗的离职以及 Superalignment 团队的解散是否会影响 OpenAI 的项目实施?

莱克和苏茨基弗的离职以及Superalignment团队在OpenAI的解散可能会影响公司的项目实施速度及其在人工智能安全方面的长期战略。这两位科学家都是监督超级智能人工智能系统开发的关键人物。莱克和苏茨基因工作重点不同而离职,这可能会导致人工智能安全研究的方向和步伐发生变化。

新任首席科学家雅各布-帕乔奇(Jakub Pachocki)将接管莱克和苏茨基弗的部分职责。他被认为是同代人中最聪明的人之一,这为 OpenAI 在人工智能领域取得更大成功带来了希望。然而,Superalignment 团队的任务在公司各部门之间的分工令人担忧未来安全相关活动的有效性。(都市网Rick编译,图片来源星岛资料图)

(ref:https://dailywrap.ca/openais-safety-flounders-as-key-leaders-resign-amid-resource-disputes,7029286137989249a)

share to wechat

延伸阅读