AI巨头OpenAI内部矛盾激化:高管指控被压制,公司面临困境

万万没想到,美国OpenAI公司的“宫斗大戏”竟然迎来了第二季。近期,OpenAI首席科学家伊利亚·苏茨克沃(Ilya Sutskever)官宣离职。同日,OpenAI超级对齐团队负责人之一的简·雷克(Jan Leike)也宣布离职。就在大家为离职事件进行讨论之时,5月18日凌晨,简·雷克直接在社交平台X 上连发13条推文,自述心路历程,并爆料对齐技术团队遭到OpenAI CEO奥尔特曼(Sam Altman)们的打压。简·雷克表示:“这是我担任OpenAI公司超级对齐部门负责人、高级领导以及执行层成员的最后一天。在过去的3年里,我们的团队取得了很多成果,但我在公司核心发展重点的问题上与领导层存在长期分歧,最终无法调和。我认为应该将更多资源和精力投入到为新一代AI模型做准备的工作中,但目前的发展路径无法顺利达成目标。我的团队在过去几个月面临巨大挑战,有时难以获取足够的计算资源。”简·雷克强调,创造超越人类智能的机器充满风险,OpenAI正在承担这一责任,但安全文化和流程在追求产品开发过程中被边缘化。“我们应该极其严肃地对待通用人工智能(AGI)可能带来的深远影响,尽最大努力优先做好应对AGI的准备,确保其惠及全人类。OpenAI必须转型为一家将安全放在首位的AGI公司。”针对简·雷克的爆料信息,5月18日奥尔特曼也紧急发文回应称:“我非常感激简·雷克对OpenAI在AI超级对齐研究和安全文化方面的贡献,对他离开公司感到非常遗憾。他指出了我们还有很多工作需要完成,我们对此表示认同,并致力于推进这些工作。在接下来的几天里,我会撰写一篇更详细的文章来讨论这个问题。”5月19日凌晨,OpenAI联合创始人、总裁格雷格·布罗克曼(Greg Brockman)发长文回应称,感谢简·雷克对OpenAI的贡献,并强调对AGI风险与机遇的认知,包括呼吁国际治理等,而且阐述为安全部署更强大系统所做的努力,如GPT-4的推出及后续改进,而未来更具挑战性,需提升安全工作以匹配新模型,但承认无法预知所有未来情况,强调需紧密反馈、严格测试等。今天早上5点,奥尔特曼再发推文承认,公司员工有签保密协议,退出条款包括撤销员工在公司的既得股权,如果他们贬低公司或承认这些条款的存在,但奥尔特曼认为这“不应该是”,并补充说他对这些条款“真的感到尴尬”。

发表回复