理智与情感:我们真的希望人工智能懂得情感吗?

我们研究了情绪识别技术的工作原理、它们的实用性以及它们所引发的隐私问题。

[emotional-ai-featured]

让我们想象一下这样情景:这一天你的心情非常糟糕,回到家之后,因为门开得不够快而冲着门大喊大叫,因为灯泡烧坏了而对着它怒吼,紧接着智能音箱很快就开始播放舒缓的音乐,咖啡机自动制作了一杯摩卡。又或者当你走进一家商店时,机器人靠近你之后发现你的表情不太高兴,于是后退一步转身服务其他的客人。听起来是不是像科幻小说的情节?

实际上,情绪识别技术已经引入了生活的各个领域。在不久的将来,我们的情绪很可能会被各种电子设备、家用电器、汽车等监控识别。通过这篇文章,我们将带你一起认识这种技术是如何运作,又将为我们的生活带来多少便利,乃至危险。

为什么AI要学习识别人类情绪

人工情商

现有的大多数情绪识别系统主要以分析个体的面部表情、声音、读写的词汇为主。比如说,在检测到一个人的嘴角上扬后,机器可能会判定他的心情不错,如果鼻子皱起则代表生气或厌恶,高扬颤抖的音调以及慌乱的话语暗示恐惧,若是有人大喊”干杯”就表明大家都很开心。

更复杂的系统会分析人体的肢体动作,并将周围环境与个体面部表情和语言结合一起纳入考虑范围。这种系统能够识别出个体在枪口之下被迫的微笑并不表示高兴。

情绪监测系统需要通过大量的标记数据才能学习某种情绪及其外在表现之间的关联。这些数据包括音频和视频,范围从电视节目、采访、涉及真人的实验、戏剧表演或电影片段到专业演员表演的对话等。

根据不同的目的,可以使用照片或文本语料库训练简单一些的系统。这个微软的项目试图从照片中读取人的情绪、性别以及大概的年龄范围。

情绪识别有什么用?

Gartner公司预测,到2022年,百分之十的电子产品都将配备情感识别技术。但其实现在已经有一些组织在使用这种技术了。当你走进办公室、银行或餐厅时,可能会有一个友善的机器人迎上前来欢迎你。这类系统可能在以下领域内被证实是有益的。

安全

情感识别可以用来防止家庭暴力和其他暴力。许多科研文章都提到了这个问题,已经有企业向学校和其他机构出售这样的系统

招聘

一些公司使用能够识别情绪的人工智能作为人力资源助理。系统会在筛选过程的初始阶段(也是最耗时的阶段)对求职者的关键词、语音语调和面部表情进行评估,为人力招聘人员编写一份报告,汇报求职者是否真的对该职位感兴趣、是否诚实等等问题。

关注用户

今年,迪拜道路和交通管理局在其客户服务中心推出了一个有趣的系统,使用配备AI的相机比较人们在进出大楼时的情绪以判断他们对服务的满意程度。如果最终得出的分数低于某一数值,系统就会建议中心的员工采取措施提升服务质量。(出于隐私考虑,不会保存来访者的照片。)

为有特殊需求的儿童提供社交帮助

另一个项目旨在帮助自闭症儿童理解周围人的感受。该系统以谷歌智能眼镜为载体运行,当孩子与其他人互动时,眼镜上会显示图像并通过一定的声音提示后者的情绪。测试表明,在眼镜的帮助下,儿童的社交速度变快了。

情绪检测有效吗?

情绪识别技术还有很长的路要走。美国校园内使用的攻击型检测技术就是一个非常好的例子,据结果显示,系统认为咳嗽声远比毛骨悚然的惊叫声更值得关注

南加州大学的研究人员发现,面部识别技术也很容易出错。机器能够自动地将特定的面部表情与情绪对应联系起来,但却无法区分带有恶意或幸灾乐祸的笑和真诚的微笑。

因此,考虑到特定语境的情绪识别系统的检测结果会更加准确,但也更加复杂和少见。

而机器检测的结果不仅与它所接受的信息有关,也与训练它的内容相关。如果有一台用表演出来的情绪训练的机器,那么它在处理现实生活中的情绪时就会出现问题。

情绪也是个人隐私数据

情绪识别技术的普及带来了另一个重要问题。不管它们多么有效,这些系统都会侵犯人们的个人空间。考虑一下这样一个场景:你在路上走着,突然被一个路人的着装惊艳到,在你意识到之前,同一品牌的服装广告就会开始轰炸你;又或者你在会议上皱着眉头,隐隐地表达自己不赞同的态度,结果就错过了被提拔的机会。

根据Gartner的数据,超过一半的美国和英国居民都不希望人工智能来解释他们的情感和情绪。与此同时,在某些地区,法律禁止了情绪识别技术和面部识别技术。去年10月,加州通过了一项立法,禁止执法人员使用随身携带的摄像头记录、收集和分析生物特征信息,包括面部表情和手势。

据该法案的起草者说,使用面部识别技术几乎等同于要求路人每秒钟出示护照。它严重侵犯了公民的权利,并可能会导致一些有轻微不当行为如未支付停车罚单之类的人群在向警方报告更严重的罪行时变得更加谨慎。

人工”去情绪化”

隐私的问题如此严重以至于怎么误导情绪检测成为了科学研究的主题。举个例子,伦敦帝国理工学院的科学家开发了一种隐私保护技术,能够消除人声音中隐含的情感信息。经过处理之后,载有情绪识别技术的语音助手能够理解话语表达的意思,但无法解读说话者的情绪。

对AI的限制肯定会影响人工智能系统中同理心的发展,让它变得更加复杂,即便是现在也很容易出错。但拥有一定的保护措施确保我们的世界不会发展成和《黑镜》一样让机器无法太过深入我们的潜意识窥探是一件好事。毕竟,考虑到情绪识别技术在某些领域的好处,我们不可能会放弃它。

提示