欢迎来到广州某某微型农机官方网站!

| |

栏目导航
宝尚配资
联系我们
服务热线
4008-668-998
地址:海南省海口市龙华区
今年七夕我的机器人女友梦实现了吗?
浏览: 发布日期:2019-08-13

  七夕节到了,小探作为单身汪已经在朋友圈吃狗粮吃到饱,没有男友、女友怎么办?大家要不要考虑找AI“谈个恋爱”呢,比如跟你的Siri谈谈心,让他(它)陪你看场电影?

  近年来,随着AI技术的成熟与深入,机器人的情感问题正逐渐成为人们关注的焦点。

  不知道你们是不是也跟小探一样,看《超能陆战队》的时候,好想拥有一个大白。看《钢铁侠》的时候,好想拥有一个贾维斯。看到《终结者》时又觉得,机器人好可怕啊。看到《西部世界》时又觉得,机器人们好惨啊。

  对待AI,一会充满期待一会有些惧怕一会心生怜悯,小探经常在内心问自己,如果人工智能真的有感情了,我将如何与他(它)共处?

  机器人真的能有情感吗,这些情感如何产生,又能应用在哪些方面呢?带着对人工智能情感技术(Emotional AI technology)的好奇,硅谷洞察(原硅谷密探)采访了一家在此领域的美国初创企业Emoshape,跟CEO Patrick Levy-Rosentha一起聊了聊关于情感智能的一些事。

  早在1997年,MIT媒体实验室的Rosalind Picard教授就提出了情感计算(Affective computing)概念,她认为,人类的许多决策是有大量情感因素介入的,所谓绝对理性的决策很多时候并不最优,也缺乏人性。随着AI在人类日常中应用的深入,如果我们希望计算机真正智能并与我们自然交互,我们必须让计算机能够识别、理解、甚至表达情感。

  对于情感计算,Patrick向小探表示,Picard教授的研究主要关注于人工智能如何通过人类的表情、肢体动作等来识别人类的情感,而Emoshape目前的关注重点是如何让机器对周边的环境进行判断从而产生自己的情感。

  意思是,除了识别人类的“喜怒哀乐”,机器人也要有自己的“喜怒哀乐”。这不仅仅只是情感计算,而是属于情感智能的范畴。

  关于情感智能,在2006年,MIT的Marvin Minsky教授曾出版了一本名为《The Emotion Machine(情感机器)》的专著,他认为,人的思维可以分解为一系列具体行动,从情绪状态到目标和依恋,再到意识和自我意识。而一旦我们理解了人的思维,我们就可以让机器遵循我们相同思维模式,并且可以像我们一样思考,进而来帮助我们思考。

  Patrick表示,未来人类的活动与AI的关系将越来越紧密,从语音助手到智能玩具再到智能家居,人们的衣食住行都将会与AI密不可分。“可能以后人们都更多的跟自己的机器人玩而不是跟人玩”,而一个能有自我情感的人工智能,将会满足人们更多个性化的需求,人类与机器将产生更紧密、更高效的互动。

  “比如未来你有只机器人小狗,以后你可能把它当成小狗而不只是机器了,因为你的机器宠物具有情感个性并且能了解你的感受。”

  Partick告诉我们,他们公司目前的两款芯片产品,EPU(Emotional processing unit)和aRadar将在一定程度上能够让机器实现感情化。EPU芯片可以安装在机器人或电子设备中,进而使人工智能能对事物实现独特的情绪反应,目前能够实现包括愤怒,恐惧,悲伤,厌恶,冷漠,后悔,惊讶,期待,信任,信心,欲望和喜悦在内的12种基本情绪。

  EPU 将允许人工智能体验64万亿个情绪状态,并将这些状态存储在EPU存储库中,随着你与人工智能互动的增多,通过其内置的情绪计算频率架构(ECFA)以及情绪轮廓图(EPG)计算功能,人工智能将自动创造出完全独特的个性,这意味着将来相同的设备可能具有完全不同的个性,而达到此效果,只需要6个月左右的人机互动时间。

  举个简单的例子,我和你都买了一部iPhone,同时开始使用Siri,6个月后,我们问Siri同样的问题,他将根据这六个月来对我们的了解做出不同的回答,你将拥有这个世界上属于你的、独一无二的Siri!想想小探还有些小期待。

  目前,Emoshape已经将EPU应用在了机器人身上并给她取名为Rachel, 芯片可以实时控制Rachel的不同面部微表情和肢体语言。

  人类表达情绪的方式有很多,其中最自然的表达方式是使用面部表情和肢体动作。著名心理学家Paul Ekman是研究情绪和面部表情的先驱,他曾开发了一套“面部动作组织系统”(FACS)来将每个人的表情分类,通过不同面部表情的特征组合,将其映射到不同的情绪类别之中。除了表情之外,研究表明,人类的语音语调以及文字表达也能传递出不同的情绪。

  Patrick表示,目前EPU芯片能够完成表情、语音和文本的检测,但与此同时他们也发现,这些检测在准确性方面也存在局限性,因为面部表情或是语音、文字可能具有欺骗性,比如微笑并不一定能反映一个人是否真的感到快乐。因此他们开发了一个基于心跳感知的产品aRadar来平衡现有情绪检测技术的缺点。

  aRadar通过一种名为频率调制载波的雷达技术,利用24 GHz无线信号从人体反射,同时消除静态物体和其他人影响,能够高精度地捕捉人们的呼吸和心跳,通过分析心跳间隔的微小变化,来确定其唤醒积极情绪的水平。

  Patrick说,通过比较研究表明,aRadar在检测快乐、悲伤和愤怒方面更为准确,因此他们将aRadar和EPU结合使用,以提高情感识别的准确度。

  接着, EPU通过模拟人脑对信息的反馈机制,将大量搜集来的数据进行长期、反复计算,通过情感合成让人工智能虚拟地“感受”诸如快乐和痛苦之类的感觉,并根据不同用户来“表达”这些情绪。Patrick说,EPU的学习曲线会随着时间的推移而减少,就像人类情感一样,情绪的早期体验是长期情绪发展的关键。

  Patrick认为,情感智能的市场应用将随着AI技术的普及而逐步扩大,它可以广泛的被应用于自动驾驶、机器人、虚拟现实、物联网、医疗、广告等各个消费电子领域,其主要作用包括人机交互、情感语音合成、情感推理、机器情感亲密、机器学习等。

  以自动驾驶为例,在未来无人驾驶的情景里,汽车不仅能识别你的情绪状态进而帮你调整行驶状态,还能够为车上的乘客营造不同的乘车氛围,跟乘客产生不同的互动。这也就是说,以后我们乘坐的车可能都会有不同的“个性”,那么,你会选择上一辆“温柔”的车还是上一辆“狂野”的车呢?

  而在游戏领域,不同于过去游戏里NPC(非玩家角色)的趋同性和固定性,情感智能的应用将让NPC更加的“类人”,让NPC根据不同的玩家产生不同的情绪和反馈,给玩家带来更多的游戏乐趣。

  而在当前在一些游戏中,这种情感智能已经开始在初步应用,在“模拟人生3”中,设计者就允许让NPC自己决定如何行动,并表现出具有情感、信念等行为,比如,当玩家侮辱他们的同伴时角色会变得愤怒,或者当同伴遭受侵犯的时会表现出同情。

  今年5月,中国首家专业游戏AI研究机构“伏羲实验室”也曾发布利用“虚拟人”技术制作的手游,“虚拟人”是一套可以通过语言,面部表情,动作,甚至眼神来和人类进行实时面对面交流的人工智能系统,它可以像人类一样表达意图和情感,也可以理解人类的语言,行为和情感。虽然虚拟人技术依然处在早期探索中,但除了游戏之外也有无限的可能和落地方式,比如虚拟偶像、虚拟主播、虚拟导购等等。

  据了解,Emoshape也将在9月发布一款针对游戏行业的新消费产品EEE(ExoLife Emotion Engine)以及两个适用于游戏行业的智能情感感知的新插件,游戏开发人员通过使用新插件将可以创造出具有情商和个性发展的自我动画角色,使游戏变得有感情并且能够在情感上给以回应。

  除此之外,Patrick表示,情感智能还将深化或改变我们与人工智能之间的关系。因为机器人在与人相处的过程之中,将发展出自己独特的个性、学习与人类互动,这或将改变人们对待机器的方式,进而给机器人行业带来新的商机。目前Emoshape也正在与专门研究机器人宠物的亚洲制造商接洽,在不久的未来,可能会出现真的如同宠物一般给予我们爱与陪伴的机器人。

  但是,Patrick也告诉小探,目前他们的研究只是希望让机器人具有情感(emotion)而不是让他们有人格(personality),他们在开发过程中实施了一项“人工智能希望体验更多的快乐避免痛苦”的准则,让人工智能能够主要产生积极的情绪。

  说起人机交互,小探不由想起了以前看的一部科幻电影《她》,讲述了一场“宅男与人工智能的虐恋”。随着科技的发展,越来越多的人却变得越来越孤独,人们越来越多的希望能在虚拟世界里找到“共鸣”、甚至找到关怀与爱。

  如果技术的进步真的能让机器懂得思考,拥有“共情”的能力,那么,你会把他(它)当作机器,还是当作“人”呢?想跟AI“谈个恋爱”吗?欢迎大家留言讨论。

  • 上一篇:传小米实测华为鸿蒙OS系统 测试机数量已达百万
  • 下一篇:院线电影《我的机器人女友》在重庆举行开机仪
  • 广州某某微型机械设备有限公司

    集研发、生产、销售于一体的专业微耕机生产企业。

    公司地址:海南省海口市龙华区

    咨询电话:4008-668-998

    备案号:粤ICP65985475-1

    技术支持: 织梦58