你的位置:威尼斯会员登入 > 威尼斯国际网址 > > 你的位置:中国高校连合语音以及面部数据让人工智能“察言观色” 准确率高达62%

中国高校连合语音以及面部数据让人工智能“察言观色” 准确率高达62%

文章来源:威尼斯会员登入 更新时间:2019-01-24 08:04

一些人工智能钻研人员短暂以来的一个方针是,开发出一种体系,可以仅按照人的语音以及面部抽搐来对于人的情绪举办分类。像Affectiva这样的公司正在朝着这一方向发力。该公司比来推出了一款产品,可以经由过程扫描驾驶员的面部以及声响来监控他们的情绪。但因为语言以及肌肉流动的纤细不同,仍存在相称小年夜的应战。

无非,中国科学技巧小年夜学的钻研人员传播鼓吹已经取患上但愿。本周在预印本服务器Arxiv.org上颁发的一篇论文中,他们描写了一个人工智能体系,该体系可以或许在风靡基准上以最高水平的精度识别一个人的感情状态。

“自动感情识别(AER)是一项具备应战性的任务,因为它具备形象的不雅念以及多种感情表达编制。”他们写道, “遭到人类认知进程的启发,天但是然地在AER中同时操纵音频以及视觉信息......全副管道可以在神经网络中实现。”

该团队的AI体系的一局部包孕音频措置处分算法,经由过程语音频谱图(声响频率随时间改动的视觉揭示)作为输入,帮忙全副AI模型回归与感情最相关的区域。第二个组件经由过程两个计较层运转人脸视频帧:一个基本的人脸检测算法以及三个“开始辈的”人脸识别网络“微调”,使它们与“情绪相关”。这是一个比起听起来更毒手的事情 - 正如论文的作者所指出的,并非整体的框架都对于情绪状态有平等感召,是以他们不能不尝试一种可以或许突显紧张框架的留心计心境制。

在从整体四种面部识别算法中提取个性(即,可测量的个性)当前,它们与语音个性畅通意会以“深度捕捉”它们之间的联系关系,用于终极的情绪瞻望。这是着末一步。

为了“教会”人工智能模型对于情绪举办分类,该团队输入了AFEW8.0供给的653视频以及照应音频片段。AFEW8.0是一个电影以及电视节目数据库,用于EmotiW2018的音视频子应战。它对于立本人的不雅念,在383个样本的验证集中,告成地从7个选项中对于情绪举办分类——“愤怒”、“厌恶”、“恐惧”、“快活”、“中立”、“哀痛”以及“惊讶”——准确率约为62.48%。另外,钻研人员证明其视频帧阐明受音频旌旗灯号的影响;换句话说,人工智能体系在举办瞻望时斟酌了语音以及面部心境之间的瓜葛。

也就是说,当模型与“厌恶”、“惊讶”以及其余“弱”心境或者容易与其余情绪搅浑的情绪作奋斗时,模型偏向于示意出“明明”个性的情绪,如“愤怒”、“快活”以及“中立”。尽能够如此,它的性能几乎与以前使用五种视觉模型以及两种音频模型的方法相称。

“与开始辈的方法相比,”钻研人员写道,“[咱们]提出的方法可以用繁多模型患上到可较劲的成果,在多个模型上取患上新的里程碑。”


当前网址:http://www.selco3pl.com/wnsgjwz_76777/
tag:中国,高校,连合,语音,以及,面部,数据,让,一些,
浏览
相关文章