AI研究员离OpenAI:AGI征途艰难
近日,OpenAI知名治理研究员Richard Ngo宣布离职,结束了他在该公司从事人工智能预测和治理工作的三年历程。Ngo在Slack上发布了这一消息,他坦言对于过去一年内发生的事件仍存有许多疑问,这让他难以坚信自己的工作能在未来长期为世界带来积极影响。
Ngo表示,他对实现OpenAI的使命——让通用人工智能(AGI)良好发展,感到挑战重重。自2021年加入OpenAI以来,Ngo曾任职于Google DeepMind,担任AI安全研究员。近期,OpenAI在AI安全领域的员工接连离职,Ngo成为其中的一员。
OpenAI的研究科学家、德扑之父Noam Brown为Ngo送上了祝福。一位今年8月离职的前OpenAI员工回忆道,自己是通过Ngo的“AGI安全基础”课程接触到AI安全的,并祝愿他未来一切顺利。
Ngo的离职信中提到,他对过去一年发生的事情仍有诸多未解之谜,这让他难以相信自己的工作能为世界带来长期正面影响。他提到,自己倾向于更加开放地进行迭代,并与更多合作者探讨多样化的研究方向。
在OpenAI的时光里,Ngo参与了众多引人入胜的议题,如预测、威胁建模、模型规格和AI治理,并与一群卓越的同事共同创造历史。尽管面临诸多挑战,他仍对OpenAI的初衷——设定让AGI良好发展的使命表示坚守。
Ngo在离职信中还提到,尽管AGI的发展似乎已在正确轨道上,但要为AGI的“良好发展”做出积极贡献,远比预期的更为困难,特别是在预防其可能对人类生存构成的威胁方面。
继Ngo之后,OpenAI在AI安全领域的员工出走潮愈演愈烈。去年8月,OpenAI七年元老、安全副总裁Lilian Weng宣布离职。此外,OpenAI的研究主管Miles Brundage(也是Ngo的上司)以及超级对齐共同负责人Ilya Sutskever和Jan Leike也相继离开公司。Leike曾指出,“OpenAI的安全文化和流程已被耀眼的产品所取代”。
其他专注于AI安全的员工,如William Saunders、Leopold Aschenbrenner、Pavel Izmailov、Collin Burns、Carroll Wainwright、Ryan Lowe、Daniel Kokotajlo和Cullen O’Keefe等,也都陆续离职。