面对AI诈骗,如何构筑安全防线?

AI诈骗为何防不胜防?

近日,包头警方发布一起利用AI实施电信诈骗的案件。不法分子利用AI技术合成人脸和声音,伪装成特定人物,与他人进行实时视频通话,在短短10分钟内就骗取了430万元。

随着近年来深度学习和机器学习的快速发展,普通人能以较低的成本应用各种先进的AI生产工具,AI诈骗也因此变得更加“炉火纯青”:

● 首先,通过AI分析公众发布在网上的各类信息,诈骗者可以了解人群的行为习惯、社会身份、经济实力、社交关系等,从而筛选目标人群,并根据不同情况定制诈骗脚本,实现精准诈骗;

● 其次,通过大规模打骚扰电话、盗取微信账号、获取社交平台真人发布的图片和视频,诈骗者可以获取大量素材,并借助深度学习、语音合成等AI技术制作出极为逼真的“换脸视频”、“合成音频”,伪装成受害者的家人好友,骗取其信任并实施诈骗;

● 最后,由于AI生成的内容很难被检测和辨认,受害者及其亲友往往难以在第一时间发现被骗,增加了后期破案和追缴资金的难度。

环环相扣之下,对于AI技术缺乏了解的普通人来说,AI诈骗变得更加防不胜防。

其实,AI诈骗由来已久。早在2019年,一名诈骗者就利用AI语音模仿软件,假扮公司高层,甚至模仿了对方带有德语口音的英语,成功骗取一家英国能源公司CEO的22万欧元(约合人民币170万元)。这起案件被认为是全球首例AI诈骗。

加强AI监管,防止技术滥用

如何更好地让AI、大数据等技术发挥正向价值,减少AI诈骗的风险隐患?法律法规是行业规范发展的必要前提和保障。当前,全球都在努力应对AI带来的挑战,制定法案加强监管。

2023年6月5日,为打击虚假信息,欧盟委员会副主席向谷歌、抖音国际版、微软、Facebook和Instagram母公司Meta等超过40家科技企业要求,检测人工智能(AI)生成的图片、视频和文本,并向用户提供明确的标记。同时,欧盟正在制定《人工智能法案》,以加强对AI的监管,这一草案已于6月中旬经欧洲议会表决通过,进入立法谈判阶段。

而从国内情况来看,近年来,我国在数据安全、个人信息保护、人工智能等领域相继发布多项政策法规,并在规范深度合成、生成式人工智能方面走在世界前列。

2023年1月10日,《互联网信息服务深度合成管理规定》施行,要求在提供智能对话、仿声、人脸生成/替换等可能会导致公众混淆或误认的深度合成服务时,应当在合适位置向公众提示深度合成情况。

2023年7月,国家互联网信息办公室等七部门联合公布《生成式人工智能服务管理暂行办法》,自今年8月15日起施行。其中提出,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管,明确了提供和使用生成式人工智能服务总体要求。这也是全球首个全面监管生成式人工智能的立法文件。

在政策法规的规范及引导之下,AI、大数据等技术也将得到高效和良性的发展,留给AI诈骗的空间也会越来越小。

以科技为力量 打造安全盾牌

技术是一柄双刃剑。在面对一项崭新的技术时,我们需要用新的法规来约束、指引其发展,也需要与时俱进,充分运用AI等技术打造更强大的防护盾牌来守卫数据安全。

一方面,我们需要增强识别AI生成内容的能力,从而为普通人提供更多提示和预警。目前对AI生成内容进行判断的途径主要有两种:一种是通过算法识别AI模型生成内容的特征,从而鉴别相应内容是否由人工智能生成;另一种是对AI生成内容添加特定标识,以此区分相关内容是否由人工智能生成,如采用数字水印等加密技术。

另一方面,我们需要运用科技力量来更高效地打击AI等网络诈骗。在这一领域,国内部分企业正在积极行动。

君联资本所投企业科大讯飞近日成立了“反诈AI研究所”。该研究所将依托智能语音和其他人工智能技术应用,助力公安机关打击和预防电信网络诈骗犯罪工作。通过构建“打防宣”三位一体的反诈新格局,科大讯飞致力于提供更有效的解决方案。

联想之星被投企业达观数据则以警务机器人为技术突破口,使用RPA模拟人的鼠标、键盘操作,代替人与业务系统进行交互,自动化执行业务流程中的一系列处理动作,提升办案效率。例如,达观数据RPA机器人助力某公安反诈中心,构建反诈新格局,大幅度缩减调证、止付、冻结、续冻、预警等流程时间,为阻断诈骗、追缴资金争取宝贵的时间窗口。

想要做大模型训练、AIGC落地应用、使用最新AI工具和学习AI课程的朋友,扫下方二维码加入我们人工智能交流群

发表回复