AI巨头OpenAI高管指责内部压力与外部打压

OpenAI公司内部纷争再起:首席科学家伊利亚·苏茨克沃离职,首席对齐团队成员简·雷克揭露公司CEO Sam Altman等人压制对齐技术团队

近日,美国OpenAI公司陷入一场“宫斗”风波,首席科学家伊利亚·苏茨克沃(Ilya Sutskever)离职,同日,OpenAI超级对齐团队负责人之一的简·雷克(Jan Leike)也宣布离职。随后,简·雷克在社交平台X上发布13条推文,自述心路历程,并指责对齐技术团队遭到OpenAI CEO Sam Altman等人的打压。OpenAI CEO Sam Altman对此作出回应,并承诺公司将专注于确保AI的安全性。

OpenAI公司近年来备受瞩目,然而内部矛盾频发。2023年11月,OpenAI董事会突然解雇CEO奥尔特曼和总裁格雷格·布罗克曼(Greg Brockman),并任命公司CTO米拉(Mira Murati)为新任CEO。此举引发了业内外的广泛关注,微软等多家机构均发声支持奥尔特曼。然而,在此过程中,首席科学家伊利亚与奥尔特曼产生了严重的分歧。2023年12月,OpenAI特别委员会聘请WilmerHale律师事务所对奥尔特曼“罢免”事件进行审查,最终认定奥尔特曼并无不当行为。

随着ChatGPT的火爆,OpenAI在奥尔特曼的领导下加快了商业化进程。然而,这与伊利亚主张的安全性和可持续性发展理念产生了冲突。在经历了一系列内部人事变动后,伊利亚选择离职,并表示将致力于推动安全性更高的AI技术发展。此外,至少有五名安全团队成员因不满公司现状而离职。

尽管奥尔特曼最终回归OpenAI并重掌帅印,但双方的分歧仍在发酵。外界对OpenAI的关注度和压力也在增加。面对种种困境,OpenAI CEO Sam Altman表示,公司将致力于确保AI的安全性,并在未来的发展中采取谨慎措施。

展望未来,业内专家认为GPT大模型仍有很大的提升空间,例如增强长时记忆、社会智能和逻辑推理能力。随着模型规模的扩大,计算需求也将随之增加,从而有望实现更高效的AI应用。然而,如何确保AI的安全性和合理运用仍将是行业面临的挑战。

发表回复