谷歌DeepMind发布AI安全框架:确保大模型的安全性
DeepMind发布人工智能安全框架 旨在识别潜在风险
近日,谷歌旗下的深度学习研究实验室DeepMind推出了一款名为“Frontier Safety Framework”的人工智能安全框架。该框架的主要目标是检测AI模型的风险状况,帮助研究人员发现可能导致重大风险的AI能力,从而采取相应的措施提高模型安全性。
据悉,Frontier Safety Framework 1.0版本主要包括三个核心组件:首先,它能判断一个模型是否具有引发严重风险的能力;其次,预测模型将在何时产生安全隐患;最后,智能优化模型以避免产生风险。DeepMind表示,他们一直在努力突破AI技术的界限,并且他们开发的模型已经改变了他们对AI可行性的认识。尽管公司坚信未来的AI技术将为社会带来巨大的益处,但他们也意识到相关AI技术的风险性有可能对社会造成毁灭性的影响,因此他们正在逐步提高模型的安全性和可控性。目前,DeepMind仍在完善Frontier Safety Framework,计划通过产业、学术界以及相关部门的合作来改进这一框架。