OpenAI内幕曝光,有关算力与AGI安全

发布于: 雪球转发:0回复:0喜欢:1
美东时间5月14日(周二),OpenAI首席科学家伊利亚·苏茨克沃(Ilya Sutskever)官宣离职。同日,OpenAI超级对齐团队负责人之一的简·雷克(Jan Leike)也宣布离职。本周五,OpenAI也证实,由苏茨克沃和简·雷克共同领导的“超级智能对齐团队”已经解散。5月18日凌晨,简·雷克在社交平台X上连发13条推文,爆料离职的真正原因及更多内幕。总结来看,一是算力资源不够用,二是OpenAI对安全不够重视。 简·雷克表示,应该将更多资源和精力投入到为新一代AI模型做准备的工作中,但目前的发展路径无法顺利达成目标。他的团队在过去几个月面临巨大挑战,有时难以获取足够的计算资源。简·雷克还强调,创造超越人类智能的机器充满风险,OpenAI正在承担这一责任,但安全文化和流程在追求产品开发过程中被边缘化。OpenAI必须转型为一家将安全放在首位的AGI公司。 针对简·雷克的爆料信息,5月18日奥尔特曼也紧急发文回应:“我非常感激简·雷克对OpenAI在AI超级对齐研究和安全文化方面的贡献,对他离开公司感到非常遗憾。他指出了我们还有很多工作需要完成,我们对此表示认同,并致力于推进这些工作。在接下来的几天里,我会撰写一篇更详细的文章来讨论这个问题。”