宠物机器人的情绪表达方法及宠物机器人与流程

文档序号:11576836阅读:153来源:国知局

本发明属于机器人技术领域,尤其涉及宠物机器人的情绪表达方法及宠物机器人。



背景技术:

机器人是自动执行工作的机器装置,它既可以接受人类指挥,也可以运行预先编排的程序,还可以根据以人工智能技术制定的原则纲领行动。宠物机器人最重要的娱乐功能在于能够与人类交互。然而,现有的宠物机器人一般只能通过显示屏来表达情绪,趣味性较低,且情绪表达的效果较差,不能给用户带来较好的体验。同时,现有的宠物机器人只能被动接受外部的情绪输入,并不能主动感受外部用户的情绪变化来进行相应的情绪互动。



技术实现要素:

鉴于此,本发明实施例提供了一种宠物机器人的情绪表达方法及宠物机器人,以解决现有的宠物机器人的情绪表达方式单一、情绪表达的效果较差的问题,及解决现有的宠物机器人只能被动接受外部的情绪输入并不能主动感受外部用户的情绪变化来进行相应情绪互动的问题。

第一方面,本发明实施例提供了一种宠物机器人的情绪表达方法,包括:

获取用户的情绪信息,并根据所述用户的情绪信息确定所述宠物机器人的情绪类型;

根据预先存储的映射列表确定与所述情绪类型对应的所述宠物机器人的 情绪表达部位以及情绪表达指令;

控制所述情绪表达部位执行所述情绪表达指令。

第二方面,本发明实施例提供了一种具有情绪表达功能的宠物机器人,包括宠物机器人本体,所述宠物机器人本体上设置有:

情绪类型确定单元,用于获取用户的情绪信息,并根据所述用户的情绪信息确定所述宠物机器人的情绪类型;

情绪表达部位及情绪表达指令确定单元,用于根据预先存储的映射列表确定与所述情绪类型对应的所述宠物机器人的情绪表达部位以及情绪表达指令;

控制单元,用于控制所述情绪表达部位执行所述情绪表达指令。

本发明实施例与现有技术相比存在的有益效果是:本发明实施例通过宠物机器人主动获取用户的情绪信息,根据用户的情绪信息确定宠物机器人的情绪类型,根据预先存储的映射列表确定与宠物机器人的情绪类型对应的宠物机器人的情绪表达部位以及情绪表达指令,再控制确定的情绪表达部位执行情绪表达指令,由此主动感受外部用户的情绪变化并通过用户的情绪信息来确定宠物机器人的情绪类型,并通过宠物机器人的肢体动作来表达宠物机器人的情绪,从而提高了宠物机器人与用户之间的交互度,提高了宠物机器人的情绪表达效果,增强了趣味性,并提高了用户体验。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例提供的宠物机器人的情绪表达方法的实现流程图;

图2是本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为喜时,宠物机器人的动作示意图;

图3是本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为怒时,宠物机器人的动作示意图;

图4是本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为哀时,宠物机器人的动作示意图;

图5是本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为乐时,宠物机器人的动作示意图;

图6是本发明另一实施例提供的宠物机器人的情绪表达方法的实现流程图;

图7是本发明实施例提供的宠物机器人的结构框图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

图1示出了本发明实施例提供的宠物机器人的情绪表达方法的实现流程图,详述如下:

在步骤s101中,获取用户的情绪信息,并根据所述用户的情绪信息确定所述宠物机器人的情绪类型。

需要说明的是,本发明实施例中的宠物机器人可以根据用户的喜好设计外形,例如设计为企鹅机器人、狗型机器人、猫型机器人或松鼠机器人等。

优选地,所述获取用户的情绪信息包括:

通过摄像头、麦克风和/或压力传感器获取用户的情绪信息。

作为本发明的一个实施例,通过摄像头获取用户的面部图像,根据用户的面部图像确定用户的面部表情,根据用户的面部表情确定用户的情绪信息。例如,当用户的面部表情为微笑时,用户的情绪信息为开心,根据用户的情绪信息确定的宠物机器人的情绪类型为喜。

作为本发明的另一个实施例,通过麦克风获取用户的音量和声音频率,根据用户的音量和声音频率确定用户的情绪信息。例如,当用户的音量小于第一预设值,且用户的声音频率小于第二预设值时,确定用户的情绪信息为伤心,根据用户的情绪信息确定的宠物机器而的情绪类型为哀。

作为本发明的另一个实施例,通过压力传感器和/或加速度传感器获取用户的情绪信息,并根据用户的情绪信息确定宠物机器人的情绪类型。例如,通过压力传感器检测到用户拥抱宠物机器人时,确定宠物机器人的情绪类型为喜;再例如,通过压力传感器和加速度传感器检测到用户用力摇晃宠物机器人时,确定宠物机器人的情绪类型为怒。

优选地,所述情绪类型包括喜、怒、哀和/或乐。

在步骤s102中,根据预先存储的映射列表确定与所述情绪类型对应的所述宠物机器人的情绪表达部位以及情绪表达指令。

优选地,一种情绪类型至少与一个情绪表达部位相对应。在本发明实施例中,情绪表达指令与情绪表达部位是相对应的;所述情绪表达指令为动作指令和/或面部表情指令。

在步骤s103中,控制所述情绪表达部位执行所述情绪表达指令。

优选地,所述情绪表达部位包括前肢、后肢、躯干、头部和/或面部;所 述后肢包括腿和脚。

作为本发明的一个实施例,当宠物机器人为企鹅机器人时,前肢可以为双翅。

优选地,当所述情绪类型为喜时,所述情绪类型对应的所述情绪表达部位为双翅,所述情绪类型对应的所述情绪表达指令为所述双翅上下扇动。图2示出了本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为喜时,宠物机器人的动作示意图。参照图2,当宠物机器人的情绪类型为喜时,对应的情绪表达部位为双翅,控制情绪表达部位执行情绪表达指令具体为控制双翅上下扇动,还可以同时进行面部表情表达,如面部呈现喜悦的表情。

优选地,当所述情绪类型为怒时,所述情绪类型对应的所述情绪表达部位为双翅、躯干、右腿和右脚,所述情绪类型对应的所述情绪表达指令为所述双翅展开不动,所述躯干稍向左倾,所述右腿前后摆动,以及所述右脚跺脚。图3示出了本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为怒时,宠物机器人的动作示意图。参照图3,当宠物机器人的情绪类型为怒时,对应的情绪表达部位包括双翅、躯干、右腿和右脚,控制情绪表达部位执行情绪表达指令具体为控制双翅展开不动,控制躯干稍向左倾,控制右腿前后摆动,并控制右脚跺脚,还可以同时进行面部表情表达,如面部呈现发怒的表情。

优选地,当所述情绪类型为哀时,所述情绪类型对应的所述情绪表达部位为头部,所述情绪类型对应的所述情绪表达指令为所述头部转到肩部位置,以及低下所述头部。图4示出了本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为哀时,宠物机器人的动作示意图。参照图4,当 宠物机器人的情绪类型为哀时,对应的情绪表达部位包括头部,控制情绪表达部位执行情绪表达指令具体为控制头部转到肩部位置,并微微低下头部,还可以同时进行面部表情表达,如面部呈现伤心的表情。

优选地,当所述情绪类型为乐时,所述情绪类型对应的所述情绪表达部位为双翅和躯干,所述情绪类型对应的所述情绪表达指令为所述双翅上下扇动以及所述躯干左右摆动。图5示出了本发明实施例提供的宠物机器人的情绪表达方法中当宠物机器人的情绪类型为乐时,宠物机器人的动作示意图。参照图5,当宠物机器人的情绪类型为乐时,对应的情绪表达部位包括双翅和躯干,控制情绪表达部位执行情绪表达指令具体为控制双翅上下扇动,并控制躯干左右摆动,还可以同时进行面部表情表达,如面部呈现欢乐的表情。

优选地,所述动作指令包括所述情绪表达部位对应的动作类型信息、动作幅度信息、动作频率信息和/或动作时长信息。

例如,当宠物机器人的情绪类型为喜时对应的情绪表达部位为双翅,对应的动作类型信息为上下扇动;动作幅度信息指的是双翅上下扇动的幅度;动作频率信息指的是双翅上下扇动的频率,例如每秒一次;动作时长信息指的是控制双翅上下扇动的总时长。

图6示出了本发明另一实施例提供的宠物机器人的情绪表达方法的实现流程图,参照图6:

在步骤s601中,获取用户的情绪信息,并根据所述用户的情绪信息确定所述宠物机器人的情绪类型;

在步骤s602中,根据预先存储的映射列表确定与所述情绪类型对应的所述宠物机器人的情绪表达部位以及情绪表达指令,并获取与所述情绪类型对应的音频信息;

在步骤s603中,控制所述情绪表达部位执行所述情绪表达指令,并播放所述音频信息。

例如,情绪类型为喜对应的音频信息为欢乐的叫声;情绪类型为怒对应的音频信息为发怒的叫声;情绪类型为哀对应的音频信息为悲哀的叫声;情绪类型为乐对应的音频信息为欢乐的叫声。

应理解,在本发明实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

本发明实施例通过宠物机器人主动获取用户的情绪信息,根据用户的情绪信息确定宠物机器人的情绪类型,根据预先存储的映射列表确定与宠物机器人的情绪类型对应的宠物机器人的情绪表达部位以及情绪表达指令,再控制确定的情绪表达部位执行情绪表达指令,由此主动感受外部用户的情绪变化并通过用户的情绪信息来确定宠物机器人的情绪类型,并通过宠物机器人的肢体动作来表达宠物机器人的情绪,从而提高了宠物机器人与用户之间的交互度,提高了宠物机器人的情绪表达效果,增强了趣味性,并提高了用户体验。

图7示出了本发明实施例提供的具有情绪表达功能的宠物机器人的结构框图,该宠物机器人可以用于运行图1至图6所示的宠物机器人的情绪表达方法。该宠物机器人包括宠物机器人本体,参照图7,该宠物机器人本体上设置有:

情绪类型确定单元71,用于获取用户的情绪信息,并根据所述用户的情绪信息确定所述宠物机器人的情绪类型;

情绪表达部位及情绪表达指令确定单元72,用于根据预先存储的映射列表确定与所述情绪类型对应的所述宠物机器人的情绪表达部位以及情绪表达指令;

控制单元73,用于控制所述情绪表达部位执行所述情绪表达指令。

该宠物机器人本体还包括与控制单元73连接的情绪表达部位74。

优选地,所述情绪类型确定单元71具体用于:

通过摄像头、麦克风和/或压力传感器获取用户的情绪信息。

优选地,所述宠物机器人本体上还设置有:

与所述情绪类型确定单元71连接的音频信息获取单元75,用于获取与所述情绪类型对应的音频信息;

播放单元76,用于播放所述音频信息。

优选地,所述宠物机器人本体上还设置有:

与所述音频信息获取单元75连接的音频数据存储单元77,所述音频信息获取单元75从所述音频数据存储单元77中获取与所述情绪类型对应的音频信息。

优选地,所述动作指令包括所述情绪表达部位对应的动作类型信息、动作幅度信息、动作频率信息和/或动作时长信息。

优选地,所述情绪类型包括喜、怒、哀和/或乐。

优选地,所述情绪表达部位74包括前肢、腿、脚、躯干、头部和/或面部。

本发明实施例通过宠物机器人主动获取用户的情绪信息,根据用户的情绪信息确定宠物机器人的情绪类型,根据预先存储的映射列表确定与宠物机器人的情绪类型对应的宠物机器人的情绪表达部位以及情绪表达指令,再控制确定的情绪表达部位执行情绪表达指令,由此主动感受外部用户的情绪变化并通过用户的情绪信息来确定宠物机器人的情绪类型,并通过宠物机器人的肢体动作来表达宠物机器人的情绪,从而提高了宠物机器人与用户之间的交互度,提高了宠物机器人的情绪表达效果,增强了趣味性,并提高了用户体验。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的宠物机器人和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的几个实施例中,应该理解到,所揭露的宠物机器人和方法,可以通过其它的方式实现。例如,以上所描述的宠物机器人实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用 时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1