谷歌称其 PaliGemma 2 人工智能模型可识别情绪,引发专家担忧

人工智能
谷歌周四发布了其最新 AI 模型系列 PaliGemma 2,该模型具备图像分析能力,可以生成图像描述并回答有关照片中人物的问题。

12 月 8 日消息,谷歌表示,其新的人工智能模型系列有一个奇特的功能:能够“识别”情绪。

谷歌周四发布了其最新 AI 模型系列 PaliGemma 2,该模型具备图像分析能力,可以生成图像描述并回答有关照片中人物的问题。谷歌在其博客中介绍,PaliGemma 2 不仅能识别物体,还能生成详细且与上下文相关的图片说明,涵盖动作、情感以及整体场景的叙述。

PaliGemma 2 的情感识别功能并非开箱即用,需要进行专门的微调,但专家们仍然对此表示担忧。

多年来,许多科技公司一直在尝试开发能够识别情感的 AI,尽管一些公司声称已经取得突破,但这一技术的基础仍然存在争议。大多数情感识别系统都基于心理学家 Paul Ekman 的理论,即人类有六种基本情绪:愤怒、惊讶、厌恶、喜悦、恐惧和悲伤。然而后续的研究表明,来自不同文化背景的人们在表达情感时存在显著差异,这使得情感识别的普遍性受到质疑。

伦敦国王学院专门研究人工智能的研究员 Mike Cook 表示,情感识别在一般情况下是不可行的,因为人类的情感体验非常复杂。虽然人们可以通过观察他人来推断他们的情绪,但不能做到全面且完美地解决情绪检测问题。

情感识别系统的另一个问题是其可靠性和偏见。一些研究表明,面部分析模型可能会对某些表情(如微笑)产生偏好,而最近的研究则表明,情感分析模型对黑人面孔的负面情绪判断比白人面孔更多。

谷歌表示,PaliGemma 2 在进行“广泛测试”后,评估了其在人群偏见方面的表现,结果显示其“毒性和粗俗内容的水平低于行业基准”。但该公司并未公开测试所依据的完整基准,也没有明确表示所进行的测试类型。谷歌披露的唯一基准是 FairFace—— 一个包含数万张人像的面部数据集。谷歌声称,PaliGemma 2 在该数据集上的表现良好,但一些研究者批评 FairFace 存在偏见,认为该数据集仅代表少数几种族群。

AI Now 研究所首席 AI 科学家 Heidy Khlaaf 表示,解读情绪是一件相当主观的事情,它超越了使用视觉辅助工具的范围,深深地嵌入在个人和文化背景中。

据IT之家了解,欧盟的《人工智能法案》禁止学校和雇主部署情感识别系统,但允许执法机构使用。

Khlaaf 表示,如果这种所谓的情感识别是建立在伪科学假设的基础上的,那么这种能力可能会被用来进一步歧视边缘化群体,例如在执法、人力资源、边境治理等领域。

谷歌发言人表示,公司对 PaliGemma 2 的“表征危害”测试充满信心,并进行了广泛的伦理和安全评估。

责任编辑:庞桂玉 来源: IT之家
相关推荐

2021-04-19 22:55:45

人工智能人脸识别技术

2018-06-05 15:02:32

2019-07-30 14:58:52

人工智能AI

2023-08-25 16:18:09

人工智能

2021-04-19 11:22:24

人工智能人脸识别科学

2023-12-24 21:00:27

AI人工智能

2024-11-15 10:43:27

2023-05-11 07:45:28

谷歌人工智能

2020-11-27 09:00:00

人工智能

2018-04-14 08:15:32

2018-04-03 11:44:47

人工智能业务

2024-06-20 11:59:12

2023-08-14 11:07:55

2022-12-01 07:03:22

语音识别人工智能技术

2022-06-27 10:05:00

微软人工智能面部识别

2023-09-12 10:17:12

数据中心生成人工智能

2019-10-10 10:23:55

人工智能医疗技术

2022-12-13 07:19:00

声纹识别人工智能障碍

2024-08-15 13:16:07

2022-01-25 13:27:40

人工智能Al
点赞
收藏

51CTO技术栈公众号