• 24小时机器人维修热线:020-82000787

子锐站内搜索 互联网
  • 广州子锐机器人技术有限公司
  • 服务热线:020-82000787(8:30-17:30)
  • 联系手机:15889988091(非工作时间)
  • 座机:020-82000787
  • 传真:020-32887675
  • 邮箱:gz@zr-robot.com
  • 广州市番禺区东环街金山谷创意八街1号109
  • 当前位置:首页 > 机器人资讯 > 人工智能与安防 安防AI之情感计算

人工智能与安防 安防AI之情感计算

时间:2020-06-08   点击:   来源:互联网   作者:匿名
简介:人工智能期望计算机系统能够履行人类智慧能够完成的任务,这里的人类智慧包括智力和情感。智力计算已经在多个领域获得了规模 应用 ,而情感计算却在很长一段时间内独立于AI领域之外。早在1997年Rosalind Picard就提出了情感计算的理论,2014年被应用于俄罗……

  人工智能期望计算机系统能够履行人类智慧能够完成的任务,这里的人类智慧包括智力和情感。智力计算已经在多个领域获得了规模应用,而情感计算却在很长一段时间内独立于AI领域之外。早在1997年Rosalind Picard就提出了“情感计算”的理论,2014年被应用于俄罗斯冬奥会之后,情感识别技术更是受到了国际组织的高度重视,被视为继指纹、声纹、人脸之后的公共安全高级应用。

 

  情感计算的原理与模型

 

  情感计算研究的重点在于通过各种传感器采集由人的情感所引起的生理及行为特征信号,建立“情感模型”,从而获得感知、识别和理解人类情感的能力,并进而做出针对性的智能、灵敏、友好的反应。情感计算可分为四个过程:情感信息采集、情感识别分析、情感理解认知、情感信息表达。
 

人工智能与安防 安防AI之情感计算


 

  情感虽是一种内部的主观体验,但总伴随着某些表现形式,包括面部表情(面部肌肉变化形成的模式)、语音表情(言语的声调、节奏和速度等方面的变化)、姿态表情(身体其他部分的表情动作)、生理情感和文本情感等。


  面部表情

 

  面部表情是鉴别人类情感的主要标志。通过研究人员面部的微小表情变化,AI系统可以识别其面容背后的情感活动。例如区分真笑和假笑:人在真笑时面颊上升,眼周围的肌肉堆起;而人在假笑时仅有嘴唇的肌肉活动,下颚下垂。通过脸部不同运动单元的组合,可以在脸部形成复杂的表情变化,譬如幸福、愤怒、悲伤等。

 

  语音表情

 

  语音是人际交往最直接的交流途径。语音表情是通过语音的高低、强弱、抑扬顿挫来表达说话人的情感。一句“你真行!”,既可以表示赞赏,也可能表示讽刺。语音中的情感特征往往通过语音韵律的变化表现出来,例如当人发怒时,讲话的速率可能变快、音量变大、音调变高等,也可以同时通过一些音素特征,例如共振峰、声道截面等表现出来。

 

  姿态表情

 

  姿态表情一般伴随着交互过程而发生变化,表达了潜在的情感信息。例如,一个手势的加强通常反映了一种强调的心态,而其身体某一部位不停地摆动则通常反映其情绪的紧张。人类姿态的变化使情感表述更加生动。相对于面部表情和语调表情,姿态表情会使情感表述更加生动,是当前情感计算的研究热点。


  生理情感

 

  生理表情是通过人类生理细微变化,观察多种情绪的特定波动变化的模式(如心电图、电皮肤活动等),识别人们思想情绪的变化。例如当人们感受到压力而紧张或有不良企图以致情绪亢奋时,身体交感神经就会启动相关必要的机能,例如心跳加速、血压上升、呼吸变快、体温增高,乃至于肌肉皮肤颤动等生理变化。


  文本情感

 

  文本情感分析是通过挖掘与分析文本中的观点、看法、情绪及好恶等主观信息,对文本中词、句和篇章的情感色彩做出判断。比如一个人说“桌子上有一层灰”,这没有任何情感词,但实际上已经表达了他的不满。再比如,“从下单到收货不到24小时”表明他称赞快递速度很快。

 

  情感状态的识别和理解,是赋予系统理解人类的情感,并做出合适预警的关键步骤。为了使计算机更好地完成情感识别任务,科学家已经对人类的情感状态进行了合理而清晰的分类。目前,在情感识别和理解的方法上运用了模式识别、人工智能、语音和图像技术的大量研究成果。例如,在情感语音的声学分析基础上,运用线性统计方法和神经网络模型,实现了基于语音的情感识别原型;通过对面部运动区域进行编码,采用HMM等模型,建立了面部情感特征的识别方法;通过对人姿态和运动的分析,探索肢体运动的情感类别等等。


  情感计算的研究现状与成果

 

  情感计算是一个高度综合化的技术领域。截至目前,有关研究已经在人脸表情、语音理解、姿态分析和多模态的情感识别方面获得了一定的进展。


  脸部表情

 

  国际著名心理学家Paul Ekman和研究伙伴W.V.Friesen对人脸面部表情作了深入的研究,通过观察和生物反馈,于1976年描绘出了不同的脸部肌肉动作和不同表情的对应关系,即面部表情编码系统FACS。FACS根据人脸的解剖学特点,将人脸划分成若干既相互独立又相互联系的运动单元,分析了这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情,并给出了大量的照片说明。FACS是如今面部表情的肌肉运动的权威参照标准,也被心理学家和动画片绘画者使用。

 

  为满足视频信息传输的需要,人们进一步将人脸识别和合成的工作融入到视频图像编解码之中。典型如MPEG4 V2视觉标准,其中定义了3个重要的参数集:人脸定义参数、人脸内插变换和人脸动画参数。

 

  当前人脸表情处理技术研究的热点多侧重于对三维图像的更加细致的描述和建模。通常采用复杂的纹理和较细致的图形变换算法,达到生动的情感表达效果。在此基础上,不同的算法形成了不同水平的应用系统。


  语音理解

 

  目前,国际上对情感语音的研究主要侧重于情感的声学特征的分析。中国科学院自动化研究所模式识别国家重点实验室的专家们针对语言中的焦点现象,首先提出了情感焦点生成模型。这为语音合成中情感状态的自动预测提供了依据,结合高质量的声学模型,使得情感语音合成和识别达到了实用水平。


  姿态变化

 

  针对肢体运动,科学家专门设计了一系列运动和身体信息捕获设备,例如运动捕获仪、数据手套、智能座椅等。国外一些著名的大学和跨国公司,例如麻省理工学院、IBM等则在这些设备的基础上构筑了智能空间。也有人将智能座椅应用于汽车的驾座上,用于动态监测驾驶人员的情绪状态,并提出适时警告。意大利的一些科学家还通过一系列的姿态分析,对办公室的工作人员进行情感自动分析,设计出更舒适的办公环境。

 

  生理识别

 

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。
扫二维码手机浏览
  • 广州子锐机器人技术有限公司
  • 地址:广州市番禺区东环街金山谷创意八街1号109
  • 电话:15889988091
  • 传真:

Copyright © 广州子锐机器人技术有限公司版权所有     网站备案ICP:粤ICP备15095857号

留电回访
  • 您的姓名
  • 联系电话
  • 需要维修或帮助的产品型号及说明
  •  
24小时工业机器人维修热线:020-82000787(首次维修半价优惠)