IT之家 12 月 8 日报道,谷歌表示,其新系列人工智能模型具有独特功能:“识别”情绪的能力。
谷歌周四发布了最新的人工智能模型系列 PaliGemma 2,具有图像分析功能,可以生成图像描述并回答有关照片中人物的问题。谷歌在博客中表示,PaliGemma 2不仅可以识别物体,还可以生成详细的上下文图片描述,涵盖整个场景的动作、情感和叙述。
PaliGemma 2 的情绪识别功能并不是开箱即用,需要专门的微调,但专家们仍然担心。
多年来,许多科技公司一直在尝试开发能够识别情绪的人工智能,虽然一些公司声称已经取得了突破,但这项技术的基础仍然存在争议。大多数情绪识别系统都基于心理学家保罗·埃克曼的理论,即人类有六种基本情绪:愤怒、惊讶、厌恶、快乐、恐惧和悲伤。然而随后的研究表明,不同文化背景的人在表达情感方面存在显着差异,这让人们对情感识别的普遍性产生了质疑。
伦敦国王学院专门研究人工智能的研究员迈克·库克表示,情绪识别一般来说并不可行,因为人类的情绪体验非常复杂。虽然人们可以通过观察他人的情绪来推断他人的情绪,但情绪检测问题却无法全面、完美地解决。
情绪识别系统的另一个问题是它们的可靠性和偏见。一些研究表明,面部分析模型可能会对某些表情产生偏好,例如微笑,而最近的研究表明,情感分析模型对黑人面孔的判断比对白人面孔的判断更为负面。
谷歌表示,PaliGemma 2 在“广泛测试”后评估了其在人群偏见方面的表现,结果显示“有毒和粗俗内容的水平低于行业基准”。但该公司没有透露测试所依据的完整基准,也没有明确说明进行了什么类型的测试。谷歌披露的唯一基准是 FairFace——一个包含数万张人类图像的面部数据集。谷歌声称 PaliGemma 2 在这个数据集上表现良好,但一些研究人员批评 FairFace 存在偏见,认为该数据集仅代表少数种族群体。
AI Now Institute 首席人工智能科学家 Heidy Khlaaf 表示,解读情绪是一个相当主观的问题,它超出了视觉辅助工具的使用范围,并且深深植根于个人和文化背景中。
据 IT House 报道,欧盟的人工智能法案禁止学校和雇主部署情绪识别系统,但允许执法机构使用它们。
克拉夫表示,如果这种所谓的情绪识别是建立在伪科学假设的基础上,那么这种能力可能会被用来进一步歧视边缘群体,比如在执法、人力资源、边境治理等领域。
谷歌发言人表示,该公司对 PaliGemma 2 的“危险特征”测试充满信心,并进行了广泛的道德和安全评估。