- 设为首页 加入收藏
谷歌近日正式发布其最新的人工智能模型系列——PaliGemma 2。该模型不仅具备强大的图像分析能力,能够生成图像描述并回答与照片中人物相关的问题,还能够“识别”情绪。然而,这一功能的发布也引发了专家的广泛担忧。
据介绍,PaliGemma 2在图像识别方面取得了显著进步。它不仅能准确识别出照片中的物体,还能生成详细且与上下文紧密相关的图片说明,包括人物的动作、情感以及整体场景的叙述。这一功能使得PaliGemma 2在图像理解和描述方面达到了新的高度。
然而,PaliGemma 2的情绪识别功能引发了专家的担忧。尽管该功能并非开箱即用,需要进行专门的微调,但专家仍然对其潜在的风险表示关注。多年来,科技公司一直在努力开发能够识别情感的AI技术,但这一领域的基础研究仍然存在争议。
伦敦国王学院的人工智能研究员Mike Cook指出,人类的情感体验非常复杂,情感识别在一般情况下并不可行。虽然人们可以通过观察他人的表情和动作来推断他们的情绪,但这种方法并不能做到全面且准确。此外,情感识别系统的可靠性和偏见问题也是不容忽视的。一些研究表明,面部分析模型可能对某些表情产生偏好,而情感分析模型也可能对不同种族和文化背景的面孔产生偏见。
谷歌在发布PaliGemma 2时表示,该模型在进行广泛测试后,评估了其在人群偏见方面的表现,并声称其“生成有害内容的水平低于行业基准”。然而,谷歌并未公开测试所依据的完整基准,也没有明确说明所进行的测试类型。这一做法引发了研究者对测试结果的广泛质疑和深切担忧。
AI Now研究所首席AI科学家Heidy Khlaaf认为,解读情绪是一件相当主观的事情,它深深地嵌入个人和文化背景中。如果情感识别技术建立在伪科学假设的基础上,那么这种能力可能被用来进一步歧视边缘化群体,如在执法、人力资源、边境治理等领域。
面对专家的担忧,谷歌相关负责人表示,公司对PaliGemma 2的“表征危害”测试充满信心,并进行了广泛的伦理和安全评估。然而,如何在确保技术进步的同时,避免技术滥用和歧视,仍然是谷歌和整个科技行业需要面对的重要课题。
值得注意的是,欧盟的《人工智能法案》已经明确禁止学校和雇主部署情感识别系统,但允许执法机构在特定情况下使用。这一法规的制定,也在一定程度上反映了人们对情感识别技术潜在风险的担忧和警惕。
随着人工智能技术的不断发展,情感识别技术将面临更多的挑战和机遇。如何在确保技术准确性和可靠性的同时,保护个人隐私和避免歧视,将是未来科技行业需要不断探索和解决的问题。
(远洋)
新闻附件: