AI领域专家离职引关注,OpenAI安全疑虑升级

人工智能领域知名公司OpenAI近期出现了离职潮,其中AI策略研究员Gretchen Krueger也选择离职。Krueger在离职前向公司发出警示,认为OpenAI在安全决策流程方面存在问题,需要加强问责制、透明度和相关事务的基础建设。此次离职潮也让外界对OpenAI的安全决策机制产生了疑问。

据了解,Krueger于2019年加入OpenAI,参与了GPT-4和DALL·E 2等项目,并在2020年领导了OpenAI首次全公司范围内的“红队”测试。然而,在意识到OpenAI存在安全风险后,Krueger选择离职。此次离职潮已波及三位OpenAI安全团队成员,包括Ilya、Jan Leike和Krueger。

针对Krueger的离职,OpenAI已经解除了之前签署的保密协议。对于离职员工提出的担忧,OpenAI表示将认真对待并继续推进相关工作。此外,OpenAI正在领导一些重要的项目,包括研究如何控制潜在的超级智能以及防范现有模型的滥用。

值得一提的是,尽管Krueger已经离职,但她仍然对OpenAI保持着积极的态度。她表示将继续关注该公司的重要工作,并对未来发展保持期待。

总的来说,Krueger的离职以及她对OpenAI安全问题的担忧,再次引发了外界对这家公司在决策透明度和问责制等方面的讨论。面对这些挑战,OpenAI需要进一步加强内部管理和监管,以确保其技术的可持续和安全发展。

发表回复