展会信息港展会大全

话术分析、面部识别,AI“读心术”真的靠谱吗?
来源:互联网   发布日期:2020-02-05 17:29:06   浏览:15676次  

导读:出品/ 硅星闻作者/ 刘韵编辑/ SD如今“社恐”一词好像已经成为了90后身上最常见的标签,这类人群由于不擅长跟人交际,时常陷入“尬聊”的局面。尤其是当人们只凭文字进行交流时,很容易因为误判对方的意……...

出品/ 硅星闻

作者/ 刘韵

编辑/ SD

如今“社恐”一词好像已经成为了90后身上最常见的标签,这类人群由于不擅长跟人交际,时常陷入“尬聊”的局面。

尤其是当人们只凭文字进行交流时,很容易因为误判对方的意图和情绪从而做出错误回应。

但有这么一款AI聊天助手,它不仅能解决这个问题,还能手把手教你如何回复对方。

据36氪报道,这款叫Mei的手机应用在对大量的文本对话数据进行分析之后,可以得出交谈时对方的情绪、性格以及行为模式,并为用户和联系人建立完整的个性档案。

在对话中,它可以帮助你揣摩对方的情绪并做出合适的回应。

在Mei的官网上也可以看到它总结出的几个明显模式:如果你的朋友叫你“bub ”,她可能就是对你有意思,因为女生对感兴趣的对象用“bub”的频率会比对普通朋友高10倍;

另外,当两个人处于感情发展期,会更多地使用“night”和“dream”这两个词语。

36氪还在报道中提到,Mei的创始人Lee曾说过完整的文字信息很难掩饰用户的情绪和状态,因此利用人工智能和大数据分析,结合心理分析理论,就可以为用户的文本对话提供个性化分析和建议。

与文字识别相比,人工智能对面部表情的情感识别应用则更加广泛。

比如在面试中,招聘单位会通过求职者的表情判断她的情绪是无聊还是热情。在零售场所,这一技术也可以用于识别顾客的心情甚至年龄从而配合精准营销。

目前亚马逊、微软以及Affectiva等公司都在开发相似的情感检测产品,这些产品宣称能够通过对面部表情的识别判断出对方的感受。

以亚马逊的云服务Rekignition为例,在改进服务后,Rekignition可以对快乐,悲伤,愤怒,惊讶,厌恶,冷静、困惑和恐惧这八种情绪进行识别。

初创公司Affectiva的产品则是通过摄像头和麦克风检测车内乘坐人员的情感和认知状态,从而减少交通事故的发生。

据该公司称,这个软件能分析司机出是否处于生气或兴奋状态,并通过打哈欠、闭眼、眨眼频率等小动作的监测得出是否疲劳驾驶的结论。

但在去年7月,美国五名专家发表了一篇论文驳斥“根据表情识别情感”这一观点,并通过大量研究证明市面上的许多依托面部表情识别情感的算法缺乏充分的科学依据。

数据显示,当人们生气时,他们在平均不到30%的时间里会皱眉,因此皱眉不能等于愤怒,它只是‘愤怒’的众多表达方式之一。

这也就意味着在超过平均70%的时间里,人们生气时是不会皱眉的。另外,即使人们在不生气的时候,也会经常皱眉。

该研究还提到,亚马逊的Rekognition系统和其他情绪读取算法一样,是结合计算机视觉和机器学习算法,在识别面部特征后将与其相应的情绪关联起来。

因此目前人工智能对情绪的识别其实是基于刻板印象:例如开心时会大笑,难过的时候会大哭,生气的时候会皱眉。

不可否认我们的面部表情和真实情绪之间存在着直接联系,但心理学教授Barrett也在研究中指出,“情境会强烈影响人们通过面部表情推断出的情感含义。”而现在的情绪识别系统所分析的数据并不包含任何有关相关背景的重要信息。

另外,个体在表达情感方式上的不同也会造成面部表情的差异。

这也就意味着包括亚马逊、Affectiva在内的许多公司宣称的“情感识别算法”准确度无法得到有效保证。

尽管目前这项技术仍在不断改进,如Affectiva通过对驾驶员的跟进研究,收集了大量有关面部表情、手势和语调等自然行为和情感数据,不仅仅是局限于面部表情的分析。

但显然,如果在还没有得到完善的情况下就被应用到招聘、医疗、安检等场景中,错误的结果可能会造成人们被误解。

同样,即使前文所提到的文本对话识别基于对大量内容数据进行分析,能够在一定程度上达到理解的目的,但也受限于语气、语境甚至是文化差异,不可避免地会“表错情”。

毕竟就连我们人类自身都经常无法准确理解情感的传达,更何况是人工智能呢?

赞助本站

人工智能实验室

相关热词: 话术 人工智能

AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港