PaliGemma 2引情绪识别风波,专家忧虑不已

近日,谷歌宣布推出新一代人工智能模型系列PaliGemma 2。该模型具备强大的图像分析能力,不仅能够识别物体,还能生成与上下文相关的详细图片描述,并回答有关照片中人物的问题。值得注意的是,PaliGemma 2在图像分析中的一项特殊功能——识别情绪,引起了业界的广泛关注。

谷歌在博客中介绍了PaliGemma 2的能力,该模型不仅能识别出图像中的物体,还能对动作、情感以及整体场景进行叙述。然而,这一情感识别功能并非现成可用,需要经过特定的微调。尽管如此,这一技术仍引发了不少争议。

长期以来,多家科技公司致力于开发能够识别情感的AI技术,尽管部分企业声称取得了一定的成果,但情感识别技术的基础仍存在较大争议。目前,大多数情感识别系统基于心理学家保罗·埃克曼提出的六种基本情绪理论,包括愤怒、惊讶、厌恶、喜悦、恐惧和悲伤。然而,后续研究显示,不同文化背景下的人们在表达情感时存在显著差异,这给情感识别的普遍性带来了质疑。

伦敦国王学院人工智能研究员迈克·库克表示,由于人类的情感体验非常复杂,因此在一般情况下,情感识别是不可行的。尽管人们可以通过观察他人来推断其情绪,但难以做到全面且完美地解决问题。

此外,情感识别系统还面临着可靠性和偏见的问题。有研究指出,面部分析模型可能会对某些表情(如微笑)产生偏好,而最近的研究则表明,情感分析模型对黑人面孔的负面情绪判断比白人面孔更多。

谷歌表示,PaliGemma 2在广泛测试后,评估了其在人群偏见方面的表现,结果显示其“毒性和粗俗内容的水平低于行业基准”。然而,该公司并未公开测试所依据的完整基准,也没有明确说明测试的类型。据悉,谷歌披露的唯一基准是包含数万张人像的FairFace面部数据集。虽然谷歌称PaliGemma 2在该数据集上表现良好,但一些研究者对FairFace的偏见问题表示担忧,认为该数据集仅代表少数几种族群。

AI Now研究所首席AI科学家海迪·卡拉夫指出,解读情绪是一件相当主观的事情,它超越了使用视觉辅助工具的范围,与个人和文化背景密切相关。据悉,欧盟的《人工智能法案》禁止学校和雇主部署情感识别系统,但允许执法机构使用。卡拉夫表示,如果这种所谓的情感识别建立在伪科学假设之上,那么它可能会被用来进一步歧视边缘化群体,例如在执法、人力资源、边境治理等领域。

对于PaliGemma 2,谷歌表示对其“表征危害”进行了信心满满的测试,并进行了广泛的伦理和安全评估。

发表回复