人机交互技术研究的最新趋势
发布时间:2019-05-19 02:44


剑桥该大学的计算机科学家正在开发能够理解人类意识和表达情感的机器人。

当人类彼此交谈时,他们比简单的语言对话更频繁地进行交流。他们说话的方式很重要 - 面部表情,语调和肢体语言。如果没有这些额外的提示,很难用文字或文字进行交流,因为任何经历过像电子邮件这样的文本通信的误解的人都非常清楚。

您可以想象与计算机或计算机正确通信的难度。这种人机交互被广泛认为是21世纪的基础,预计将改变我们的家庭和车辆,教育,制造,养老院和核反应堆控制室的技术前景。

Peter罗宾逊教授解释说,为了使机器交互达到预期,智能机器需要了解人类的环境及其沟通,然后以有意义的方式对它们作出反应。他在计算机实验室的团队正在构建一个系统,分析面部表情,分析语气和语气,并结合肢体语言和态度来推断人类的感受。该团队还在构建能够识别和表达情感的计算机虚拟角色和物理机器人。

心灵阅读机

大多数计算机都是“盲目的”。他们不知道用户在想什么,他们也不能对用户情绪状态的变化作出反应 - 车辆导航系统经常坚持要求掉头,完全无视驾驶员的愤怒和困惑。

虽然人类可以注意到他人的心理状态并使用这些提示来改变他们的行为,但这个过程被称为“意识理论”,但并不是每个人都能获得这种能力。事实上,自闭症谱系疾病的一个标志是很难从面部表情等非语言线索中理解其他人的意识和情绪。

罗宾逊教授的团队将设计一台可以读取大脑来提取,分析和理解面部信息的计算机。该团队使用了来自剑桥自闭症研究中心的主要任西蒙·巴隆·科恩的最新研究,他们设计了详细的分类,分类了412种不同的心理状态,并由演员制作了2500场表演。视频剪辑库。该数据库是基于计算机的研究的一部分,旨在帮助自闭症患者,计算机实验室团队已经用它来训练他们的计算机系统。

在数据库的帮助下,计算机使用数码摄像机跟踪脸部的24个特征点,并实时分析面部表情,头部动作,形状和色调。为了推断这意味着什么,系统使用贝叶斯算法和机器学习来计算概率。例如,头部点头,微笑和眉毛抬起的组合可能意味着兴趣。令人惊讶的是,在分析演员时,计算机的整体准确度超过75%,非演员的整体准确度超过60%,足以排在人类的前5%。

复杂的情绪

罗宾逊教授解释说,人机交互是一个不断发展的研究领域。 “我们的创新超越了简单基本情绪的识别,目前旨在识别复杂的心理状态。”

面部表情清楚地表达了诸如恐惧,愤怒,厌恶和惊讶之类的基本情绪,因此可以在静态照片中识别它们。其他心理状态,例如缺乏理解和混淆,太复杂,无法在照片中捕捉,因为它们会在几秒钟内发生,或者作为运动变化的组合。

正是这些复杂的情绪,伊恩·戴维斯,团队中的六名研究生之一,通过生理测量和眼动追踪捕获了他正在研究的应用类型:指挥和控制系统,如紧急服务或发电站使用的系统。在这种情况下,能够识别人员何时疲劳或困惑可能有助于提高安全性和效率。他解释说,驾驶等更常见的场景还有其他好处:“如果汽车的系统能够识别驾驶员感到困惑,可以避免增加额外信息 - 可能会关闭收音机或简化导航指令。” / P>

面部分析系统的一个常见问题是人的手在脸上移动的轨迹。这种系统通常将手势视为不必要的“干扰源”。事实上,手势是一个重要的信息来源 - 例如,当人们集中注意力时,他们可能会在受到惊吓时咬紧下巴或捂住嘴巴。 。 Ma瓦·马哈茂德正在研究如何映射这些手势的含义并将此信息添加到面部表情的多模态分析中。与此同时,Ntombi Banda正在构建一个多模式系统,该系统结合了面部分析,声音和身体动作,以提高识别准确性。

机器人和头像

在最近的一次会议上,微软的主席比尔盖茨预测下一个主要技术将是机器人技术。例如,想象一下,如果机器人足够强大以在家中执行繁重的任务(例如解除患者并需要在家中进行辅助护理),同时了解人类的感受,那将是多么有用。或者想象一下基于化身的教具,当学生无法及时吸收知识时,其灵敏度足以相应调整。

教授罗宾逊说:“重要的是机器人或头像在正确的时间表达正确的东西。”他们不仅需要通过准确地识别人类表达的东西来识别非言语行为,而且他们还需要自己产生这样的表达。

Alyx是ValveSoftware游戏Half-Life2中的一个计算机生成的虚拟角色,可识别并回应快乐,惊喜,困惑,兴趣和无聊。她接受了塔达斯的“训练”,并使用人类面部表情的模型使机器人化身的情绪立即被识别。他解释说Alyx的情绪是专门选择的:“这个系列非常适合电信应用,如呼叫中心,网上购物或在线教学,需要适应用户的情绪。”

查尔斯是由汉森 Robotics专门为团队设计的机器人头。在他的眼里,有一个监控面部表情的相机。头骨中有24个马达可以将他灵活的硅基“皮肤”拉到他的表情,他可以表达一系列表达。劳雷尔·里克一直在测试查尔斯如何用于训练年轻医生:“使用从真实患者收集的数据,查尔斯可以逼真地模拟面部运动障碍,如脑瘫和肌张力障碍。我们希望这样一个真实的模拟临床医学专业的学生练习他们的沟通和诊断技巧。“她预测,有一天像查尔斯这样的机器人也可以用于患者康复,例如帮助中风患者重新控制面部肌肉。

查尔斯接受了自闭症研究中心的面部表情数据培训,现在安德拉·亚当斯正准备用它作为导师帮助患有自闭症谱系疾病的患者。 “患有这种疾病的儿童很难理解社交互动的细微差别。查尔斯可以帮助他们练习轮流,让他们的眼睛凝视并从面部表情中识别情绪。

Peter罗宾逊的团队处于人机交互研究的最前沿,将心理学,计算机视觉分析,信号处理和机器学习以及构建和评估复杂程序系统的专业知识相结合。正如他解释的那样:“人机交互中许多最有趣的挑战是学科之间的交叉。” 免责声明:本文由OFweek维科的作者发表,并不代表OFweek维科的位置。如果您有任何侵权或其他问题,请及时与我们联系报告。