AI领域专家离职,批评公司安全问题
OpenAI 高级管理人员离职,质疑公司过度关注盈利与计算资源,忽略人工智能安全性
近日,OpenAI 旗下 Superalignment 团队主管 Jan Leike 突然宣布离职,引发业界关注。据了解,Leike 曾是 OpenAI 公司的重要成员,负责确保具备“超级智能”的 AI 系统遵循人类意图。然而,他在近期公开批评 OpenAI 公司过于注重盈利和计算资源,忽视了人工智能的安全性问题。
在离职前,Leike 通过个人博客发表了一篇题为《再见,OpenAI》的文章,详细阐述了他的观点。他表示,近年来 OpenAI 公司内部文化发生了改变,为了追求快速推出“吸引眼球”的产品,公司不惜牺牲内部安全准则。此外,他还提到公司在 2023 年设立 Superalignment 团队的目的,即确保拥有“超级智能”的 AI 系统安全可靠。然而,在他看来,OpenAI 如今已不再重视这一目标,而是把重心放在了盈利和获取计算资源上。
关于 OpenAI 的立场,该公司联合创始人兼 CTO Greg Brockman 和 CEO Sam Altman 对此作出了回应。他们在博客文章中表示,尽管 Leike 离职令人遗憾,但 OpenAI 已意识到 AI 风险的重要性,并将持续提高安全工作水平,以确保每款新模型的安全性。同时,他们也强调,要在能力与安全之间取得平衡,努力实现二者的和谐统一。
作为全球顶级的人工智能研究机构,OpenAI 在 AI 技术研究和应用方面具有举足轻重的地位。然而,随着 AI 技术的快速发展,如何确保其在安全、可控的前提下造福人类,已成为行业亟待解决的课题。OpenAI 此次高管离职事件无疑给业内敲响了警钟,提醒各企业关注 AI 安全性问题,以免在未来遭受重大损失。