“开源海外创新内卷,AI治理安全难题破解”

近日,阿里巴巴集团携手发布《大模型技术发展及治理实践报告》,再次强调了AI技术在治理和安全方面所面临的重大挑战。报告指出,在全球AI大模型热潮的推动下,截至2023年6月底,全球AI企业数量已突破3.6万家。其中,美国AI企业数量约1.3万家,占全球总量的33.6%,而中国AI企业数量为5734家,占比16%。目前,中国已备案并对外服务的AI大模型超过270个,总注册账户数超过13亿。北京作为国内大模型产业的领头羊,备案大模型数量达到105个,头部大模型企业数量占全国一半以上,已赋能超过1.4万家企业。

随着大模型技术的不断突破和性能的提升,对其安全风险和治理的研究也在持续深化。北京市互联网信息办公室副主任潘锋表示,让大模型始终处于人类控制之下,降低安全风险,更好地服务人类发展,已成为全球共识。

潘锋指出,尽管“国外一开源,国内就创新”的观点在AI行业流传,但我国国产模型在创新基础方面仍有待加强。许多国产模型采用国外开源架构进行训练,由于国外创新多基于其语料进行,导致与国际顶尖水平存在差距。在“百模大战”中,真正有竞争力的模型并不多,许多企业尚未找到可盈利的商业模式,面临较大生存压力。

面对内生安全不足、原生程度不足、重生能力不足等挑战,潘锋强调,政府部门应建立健全大模型研发、上线、运行等全生命周期管理体系,统筹推进算力、数据等基础要素供给,夯实AI发展基础。

作为全国80%科技企业和超过一半AI大模型公司的头部AI和云服务商,阿里巴巴不仅推出了通义大模型,还持续加强安全架构建设。阿里巴巴集团副总裁、阿里安全总裁钱磊透露,过去一年,阿里投入大量资源于AI算力基础设施建设,使得“通义千问”API调用价格一年内下降了97%。目前,中国一汽、联想、微博等30多万家企业已接入通义大模型。在开源层面,基于阿里自研“通义”开源模型二次开发的衍生模型已突破8万个,仅次于美国Meta的Llama系列;阿里AI模型社区“魔搭”(ModelScope)提供超过15000个优质AI模型,汇聚了600万AI开发者,累计下载量超过1亿次。

报告还指出,大模型安全问题一直是学术界和工业界关注的焦点。为提升大模型安全性,技术手段主要包括内生安全技术和外层护栏技术。内生安全技术包括安全微调(SFT)和基于人类反馈的安全对齐(RLHF)等;外层护栏技术则如Meta的LLama Guard等,用于识别和拦截暴力犯罪、隐私、色情等风险。

然而,这两种技术均存在缺陷。安全对齐技术依赖数据驱动,容易过拟合,且可能牺牲模型的通用能力;外层护栏技术则可能无差异化地拦截风险问题,影响用户体验。为此,报告提出了“宪法人工智能”概念,即通过人为设定宪法准则,对模型进行微调和强化学习,实现模型与宪法准则的对齐。

中国电子技术标准化研究院副院长范科峰表示,在AI时代,发展与安全并非对立,而是相辅相成。AI安全标准化工作既是安全治理的重要支撑,也是推动技术健康发展的基本保证。展望未来,AI技术的发展与治理需要更加广泛、紧密的协作与配合。

发表回复