Pepper能够识别非语言暗示,这是实验室研究人员正在开发的增强视觉的结果。它利用了的计算机视觉和人工智能技术,该团队正在努力提高这种机器人与人类自然互动的能力。
机器人
伦斯勒理工的JI教授表示,到目前为止,他们一直研究的都是机器人视觉理解能力,所以它能感知人类行为。它可以通过这些非语言行为自然地与人类相互作用,如肢体语言、面部表情、身体姿势。
除此之外,Pepper还可以计算房间里有多少人,它可以扫描一个区域并寻找特定的人。JI教授认为,计算机视觉是人机交互技术开发的下一步内容。目前,大多数支持人工智能的虚拟助理几乎完全依赖于语音交互。