跳至正文

AI安全监督委员会成立:OpenAI 启动新模型训练

OpenAI 成立董事会委员会评估人工智能模型安全性

IT之家 5 月 28 日消息,近日,人工智能领域领军企业 OpenAI 宣布成立董事会委员会,以评估其技术的安全性。这是自 OpenAI 解散内部安全团队以及安全问题负责人离职以来的一个重要举措。据悉,该委员会将在 90 天内完成评估,并向公众公布相关建议。

在 OpenAI 治理问题上,近期已有多起事件引发关注。在今年初的一次董事会风波中,OpenAI 首席执行官萨姆・阿尔特曼与联合创始人兼首席科学家伊利亚・苏茨凯沃因在人工智能产品开发速度及限制危害方面的分歧而发生冲突,阿尔特曼一度被罢免。随后,苏茨凯沃及其得力助手 Jan Leike 离职,负责超智能体对齐团队的科学家们对此表示不满,认为在公司内部存在计算资源的竞争问题。

为了解决这些问题,OpenAI 决定成立董事会委员会。该委员会由三位董事会成员、一位 Quora 首席执行官亚当・德安杰洛(Adam D’Angelo)以及六名员工组成。此外,OpenAI 还将邀请外部专家参与讨论,其中包括唐纳德・特朗普时期国土安全部顾问罗布・乔伊斯(Rob Joyce)和乔・拜登总统任内司法部的前官员约翰・卡林(John Carlin)。

在新成立的委员会中,董事长布雷特・泰勒(Bret Taylor)、索尼娱乐公司前高管妮可・塞利格曼(Nicole Seligman)和包括舒尔曼和阿尔特曼在内的其他董事成员也将共同参与评估过程。OpenAI 强调,在委员会完成全面审查后,将确保公司以符合安全原则的方式公开分享所采纳的建议。

发表回复