EmoNet:能将图片跟11种情绪配对起来

据外媒报道,人工智能(AI)也许有一天会比我们人类自己更好地沟通情感。由科罗拉多大学和杜克大学研究人员开发的神经网络模型EmoNet能够准确地将图像跟11种不同的情绪类别配对起来。神经网络是一种计算机模型,其通过一系列的过滤器来学习将输入信号映射到感兴趣的输出。

EmoNet则是通过一个由2185个视频组成的数据库开发而成,这些视频类似于27种不同的情绪类别,从焦虑、兴趣到悲伤、惊讶。虽然该模型能够在高置信区间区分跟“渴望(craving)”、“性欲(sexual desire)”和“恐惧(horror)”相关的图像,但它在识别“困惑(confusion)”、“敬畏(awe)”和“惊讶(surprise)”等被认为是更抽象的情感方面就没有那么强的能力了。该神经网络利用颜色、空间功率谱及图像中物体和人脸的存在对它们进行分类。

现在,科学家们可以利用AI来更好地理解参与者的感受,而不再只是依赖于主观反应而是专注于视觉皮质内的模式--不同的模式会“解码”出不同的情感体验。

研究人员之一Tor Wagner表示:“在衡量情绪方面,我们通常仍局限于问人们感觉如何。我们的成果可以帮助我们直接测量与情感相关的大脑处理。”

除了测量情绪,研究团队还称,AI可以帮助消除心理健康方面的标签。“从‘焦虑(anxiety)’和‘抑郁(depression)’等主观标签转向大脑处理可能会为治疗、处理和干预带来新的目标,”Kragel说道。

稿源:cnBeta.COM
原文链接:https://www.cnbeta.com/articles/tech/873095.htm

最新文章