继“AI假拜登”打电话误导选民之后,OpenAI、Meta等纷纷拥抱大模型水印

最近,我很高兴看到人工智能世界出现一些令人鼓舞的消息。在令人沮丧的泰勒·斯威夫特(Taylor Swift)深度伪造色情丑闻和政治深度伪造内容泛滥之后,科技公司正在加紧行动,采取措施更好地检测人工智能生成的内容。
毕竟我们已经看到,有语音机器人正在伪装成美国总统拜登(的声音),告诉选民待在家里,不要投票。
当地时间 2 月 6 日,Meta 表示将在FacebookInstagram 和 Threads 三个社交媒体平台上标记人工智能生成的图像。
当有人使用 Meta 的人工智能工具创建图像时,该公司会在图像中添加可见的标记,以及“烙印”在图像文件中的肉眼不可见水印和元数据。
Meta 表示,其水印标准符合人工智能研究非营利组织Partnership on AI 制定的最佳实践。
大型科技公司也在大力支持一项有潜力的技术标准,该标准可以为图像、视频和音频添加一种“营养标签”。
它被称为 C2PA,是一种开源的互联网协议,依靠密码学来编码一段内容的来源(origins)细节,技术专家又将其称为“来源(provenance)”信息。
C2PA 的开发人员经常将该协议比作食品包装上的营养标签,但它会说明特定内容来自哪里,以及是由什么人或工具创建的。
当地时间 2 月 8 日,谷歌宣布将加入 C2PA 指导委员会,并将在其最新 Gemini 人工智能工具生成的所有图像中加入 SynthID 水印。该委员会的委员已包括微软Adobe 等其他科技巨头。
Meta 表示它也参加了 C2PA。拥有一个全行业统一的标准使公司更容易检测到人工智能生成的内容,无论它是用哪个系统创建的。
OpenAI上周也宣布了新的内容来源标注措施。该公司表示,将在其人工智能工具 ChatGPT 和 DALL-E 3 生成的图像元数据中添加水印。
OpenAI 表示,现在它将在图像中添加可见标识,以表明它们是用人工智能创建的。
这些举措是一个好的开始,给了我们希望,但并非万无一失。元数据中的水印很容易通过截图来规避,而图片上的标识可以被裁剪或编辑掉。
谷歌 SynthID 这样的隐形水印可能更有希望,它可以巧妙地改变图像中的像素,使计算机程序可以检测到水印,但人眼无法识别出来。这种水印更难篡改。
更重要的是,目前还没有可靠的方法来标记和检测人工智能生成的视频、音频和文本。
但创造这些“溯源”工具仍然有价值。几周前,当我采访生成式人工智能专家亨利·阿杰德(Henry Ajder)关于如何杜绝深度伪造色情内容时,他告诉我,重点是给别有用心的人创造一个“坎坷的过程”。
换句话说,给深度伪造内容的生成和传播途径增加障碍,以尽可能地减少这些有害内容的创建和分享。一些真正图谋不轨的人可能仍然会推翻这些障碍,但只要它变得稍微困难一点点,就会有所帮助。
科技公司还可以引入许多非技术性的修复措施,来预防深度伪造色情内容之类的问题。谷歌亚马逊微软苹果等主要云服务提供商和应用商店可以禁用那些与创建深度伪造色情内容有关的应用。
水印应该在所有人工智能生成的内容中全面普及,即使是开发该技术的小型初创公司,也应该参与其中。
让我感到欣慰的是,除了这些自愿措施,我们也开始看到具有约束力的法规出台,如欧盟的《人工智能法案》和《数字服务法案》。这些法案要求科技公司披露人工智能生成的内容,并更快地删除有害内容。
美国立法者也对通过法规来约束深度伪造技术和内容重新产生了兴趣。
在人工智能生成的“冒牌拜登总统”出现,并以机器人语音电话的方式告诉选民不要投票之后,美国联邦通信委员会近日宣布,禁止在类似的语音电话中使用人工智能。

总的来说,我对自愿的指导方针和规则持怀疑态度,因为它们不具备真正的问责机制,公司可以随心所欲地改变这些规则。
科技行业在自我监管方面一向表现非常糟糕。在残酷的、增长驱动的科技世界里,像“负责任的人工智能(responsible AI)”这样的项目往往是第一个面临削减的。
尽管如此,这些新的溯源和水印举措还是非常受欢迎的。它们比维持现状好得多,因为现状几乎是一片空白。

发表回复