AI安全热战:如何应对OpenAI带来的挑战

近日,OpenAI前首席科学家伊利亚宣布创立一家名为“安全超级智能公司”(简称SSI)的企业,旨在打造安全的超级智能。据伊利亚透露,该公司已经成立世界上第一个直接的安全的超级智能实验室,专注于开发一个安全可靠的超级智能产品。

在离开OpenAI后,伊利亚与科技企业家和投资者Daniel Gross、OpenAI前科学家Daniel Levy共同发起了这一项目。他们强调,构建安全的超级智能是当今最重要的问题之一。SSI的目标是确保安全始终处于领先地位,并尽快提高其能力。

尽管SSI尚未公布公司的股东、科研团队和盈利模式,但业内专家认为,伊利亚的新公司将为AI安全领域做出重要贡献。瑞莱智慧(RealAI)CEO田天表示,伊利亚和OpenAI管理层之间的分歧体现在对AI安全问题的“路线之争”,因此伊利亚创建了SSI以实现这一目标。

AI安全问题日益受到关注,特别是在ChatGPT等大模型发布之前。伊利亚曾警告,AGI(通用人工智能)对人类社会可能产生威胁。他认为,人类与通用人工智能之间的关系将与人类与动物之间的关系类似,人类需要关注AI安全问题以确保其健康发展。

此外,为了实现AGI目标,当前AI系统在设计上面临着五大安全挑战,包括软硬件安全、数据完整性、模型保密性、模型鲁棒性和数据隐私。北京智源人工智能研究院学术顾问委员会主任张宏江认为,AI安全问题的严重性与紧迫性不容忽视。他建议对AGI水平和能力进行分级,并加强国际合作以确保AI技术的可控性。

总之,伊利亚的SSI公司将致力于解决AI安全问题,有望推动AI技术朝着更安全、可靠的超级智能方向发展。

发表回复