OpenAI AGI 安全团队大洗牌:近半成员离职

OpenAI 近日披露了一份关于人工智能(AI)安全性研究的报告,揭示了该公司在超级智能 AI 领域所面临的挑战。据悉,OpenAI 原本专注于 AGI(通用人工智能)安全研究的团队成员中,有近一半已离职。这一现象引发外界对公司是否忽视了 AI 安全问题的担忧。

OpenAI 前治理研究员 Daniel Kokotajlo 透露,过去几个月里,OpenAI 的 AGI 安全团队成员减少了近一半。他表示,这种情况并非是有组织的离职,而是由于研究人员对自己的工作信心减弱所致。据了解,自 2024 年以来,OpenAI 的 AGI 安全团队人数已从约 30 人锐减至 16 人左右。

针对这一情况,OpenAI 发表了一份官方声明。该公司的发言人表示,OpenAI 对能够提供最具能力且最安全的人工智能系统充满自信,并坚信拥有应对风险的科学方法。同时,他们认为此次离职是个人选择,而非公司战略调整的结果。

值得注意的是,今年早些时候,OpenAI 联合创始人、首席科学家 Ilya Sutskever 宣布辞职,他领导的负责安全问题的“超级对齐”团队也随之解散。此事件再次引起人们对 OpenAI 在 AI 安全性方面的关注。

总之,尽管 OpenAI 在推动 AI 技术进步方面取得了显著成果,但在超级智能 AI 安全问题上,仍需关注和研究。我们期待 OpenAI 能在保持产品创新的同时,进一步加强 AGI 安全研究,以确保人工智能技术的可持续发展。

发表回复