经过多年在人因工程技术创新领域的探索,津发科技自主研发的ErgoLAB人机环境同步平台于2016年12月再次迎来重大更新并正式发布面部表情分析系统Facial Emotion Coding System(FECS)!
FECS面部表情分析系统简介
面部表情分析系统 Facial Emotion Coding System(FECS)能够实现在人机交互过程中实时同步记录面部表情并进行数据分析。采用三维模型识别人脸并定位面部肌肉特征点的位置计算和分类面部表情,可以全自动分类和识别七种表情下的情绪:
快乐(Joy)
愤怒(Anger)
惊讶(Surprise)
恐惧(Fear)
轻蔑(Contempt)
悲伤(Sadness)
厌恶(Disgust)
面部表情分析系统 Facial Emotion Coding System(FECS)通过图像和视频可以自动识别人的面部表情,可以区分心理状态(积极,中性,消极),进行面部特征识别(内眼角、外眼角、鼻尖、嘴等),进行检测(挫败、困惑),评估头部动作(头部的三维转动度数,包括pitch, yaw, roll),测定注视方向(左面、前面、右面)等。
人脸表情识别技术
心理学家 Mehrabian的研究结果表明,感情表达=7%的言词+38%的声音+55%的面部表情(Mehrabian, 1968)。表情作为人类情感表达的主要方式,其中蕴含了大量有关内心情感变化的信息,通过面部表情人们可以推断内心微妙的情感状态。但是,让计算机读懂人类面部表情所蕴含的情感并非简单的事情。作为智能化人机交互的重要组成部分,人脸表情识别一直是备受关注的研究课题。人脸表情识别 (Facial Expression Recognition, FER)所研究的就是如何准确、地利用人脸表情所传达的信息进行内心情感分析,其研究涉及图像处理、机器视觉、情感计算及心理学等多个学科。
面部表情研究
研究表明,面部表情对于快乐、愤怒、惊讶、恐惧、轻蔑、悲伤、厌恶这七种情绪的表现具有普遍性。达尔文(1872)*个提出面部表情对于情绪表现的普遍性这一观点,他认为情绪和它们的表现具有生物内在性和进化适应性,情绪及其表现的相似性体现在不同的生物种系中。
Tomkins(1964)*次用实验证明了面部表情和情绪状态相关。20世纪60年代,心理学家Paul Ekman提出了一套广为接受的实验方法:他将带有不同面部表情的西方人照片展示给远居世外的土著,然后问他们照片中的人表达了怎样的情绪。随后众多研究人员通过大量研究发现,不同文化下的人都能够正确地识别出这七中情绪下的面部表情。同时,在这七种情绪产生时,不同文化下的人也会产生相同的面部表情。
到目前为止,科学研究的结果都有力地证明了面部表情对于快乐、愤怒、惊讶、恐惧、轻蔑、悲伤、厌恶这七种情绪表现的普遍性。因此对于人机交互或心理学研究人员来说,分析面部表情能够可靠有效地了解被试的情绪状态,对于优化人机交互过程具有重要意义。
表情分析技术应用
以产品设计领域为例,研究人员能够通过获取消费者使用产品过程中的面部表情,分析他们对于产品真正的感觉和喜好,而不是仅仅依靠主观测评或问卷来获取相关信息,减少了研究中的主观性和偏见。使用ErgoLAB人机环境同步平台,还能够在人机交互过程中同步采集和分析被试的脑电、眼动、生理、行为、肢体动作、生物力学、物理环境等数据,结合面部表情分析数据为产品的评估提供客观的数据支撑。
研究领域
人机交互与人工智能:人类情感计算可以基于面部表情数据形成数据库,并进行模式识别和机器学习,对于未来人机交互和人工智能研究具有重要意义。
人机界面设计与可用性测试:易用性和用户界面的效率都能够通过情感变化表达出来,面部表情在人机界面设计研究方面能够提供非常有价值的信息。如在测试新开发的时,了解测试者观看时会出现怎样的情绪,观察他们是否能很轻松地浏览。此外,人们更感兴趣的是当测试参与者观看的哪一个部分时,面部出现“喜悦”或“惊讶”的表情。
市场研究:对一个新型商业设计人们反应如何?例如,一个广告能否使人们在适当的时刻发笑,或者在目标人群间是否存在差异。
消费者行为:研究参与者在特定的感觉测定系统中对刺激如何响应,如研究儿童食用不同食物时的行为。
心理学:在恐惧研究中人们对特定的刺激如何反应?使用面部表情分析系统去分析这些传统刺激-反应实验中的情绪表达,了解人们的反应:惊讶,生气,喜悦等等。
医学:识别特定脑神经心理活动发生的时间。
面部表情分析与人机环境同步技术
津发科技自主研发ErgoLAB人机环境同步平台正式发布了面部表情分析系统模块Facial Emotion Coding System(FECS),可实现与多元数据同步,完成多通道多模态大数据的整合统计与分析。随着FECS面部表情分析功能模块的发布,ErgoLAB人机环境同步平台已经能够实现在四种不同的实验环境下进行定量的科学研究实验(VR虚拟现实环境、虚拟仿真环境、实验室和真实现场自然环境),实时同步采集脑电、眼动、生理、行为、面部表情、动作捕捉、生物力学和物理环境等多元数据,并进行综合分析。面部表情数据可与其他模块数据进行同步分析,例如观察被试在露出害怕表情时心率、皮电的变化等。zui终数据可以用表格、图表等可视化形式呈现并导出。
津发科技坚持自主研发与创新的发展道路,致力于人因工程与工效学技术创新与进步,为中国教育与科研事业的发展提供服务!
参考文献
Darwin, C. (1872). The expression of emotion in man and animals. New York: Oxford University Press.
Mehrabian, A. (1968). Communication without words. Psychology Today, 2(4):53-56.
Tomkins, S. S., & McCarter, R. (1964). What and where are the primary affects? Some evidence for a theory. Perceptual and Motor Skills, 18(1), 119-158.