基于用户情绪产生动作的制作方法
【专利摘要】本公开内容涉及基于用户情绪产生动作。系统确定相关联的用户的情绪.基于所确定的情绪,确定要由该系统执行的动作。该系统接着通过向另一系统发送与确定的情绪对应的对象来发起所确定的动作。
【专利说明】
基于用户情绪产生动作
[0001] 相关申请的交叉引用
[0002] 本申请要求申请日为2015年2月27日、申请序列号为62/126,185的临时专利申请 的优先权,其内容通过引用合并于此.
技术领域
[0003] -个实施例一般地涉及设备之间的通信,并且特别地涉及设备之间用户感知的参 数的通信。
【背景技术】
[0004] 移动设备(包括手提电子设备,如智能电话、平板电脑等,以及可佩戴设备,如智能 手表、健身带等)的使用扩展了人们彼此实时通信的方式.例如,发短信已经成为了向另一 个移动设备用户发送简短通信的流行方式,而不用必须给这个人打电话或发送邮件。发短 信和通过邮件通信的一个缺点是在这种书面通信中缺少情绪的传达.添加表情符号 (如 :)、:(、:0、=)等)、动画表情、绘文字(6111〇」1)、颜文字(1?1 〇111〇」1)等允许在书面通信中包 括一些类型的表情,并且添加从预定义的电子标签栈和库中选择的电子标签(如@、?> 等)提供了传达感情以及允许在通信时节省时间的快捷方式的更多方式。然而,即使使用表 情符号、动画表情、绘文字、颜文字、电子标签等,也未提供例如文本消息中的文字后面用户 的真实情绪和意图的任何指不?
[0005] 另外,移动设备的免提(hands-free)操作正在变得更加普遍。例如,语音命令可被 用于指示移动设备触发动作,如拨打电话号码或搜索信息.期望有其它免提方式以触发这 种动作。
【发明内容】
[0006] -个实施例是确定相关用户的情绪的系统。基于所确定的情绪,确定由系统执行 的动作.该系统随后通过向另一个系统发送与所确定的情绪相关的对象来发起所确定的动 作。
【附图说明】
[0007] 下述附图的组件被示出以强调本公开的一般原理,并且不一定按比例绘制.为了 一致性和清晰性,指示相应组件的参考符号根据需要在附图中始终重复.
[0008] 图1是根据本发明实施例的系统的框图。
[0009] 图2是根据一个实施例的第一电子设备和/或第二电子设备的框图.
[0010] 图3是根据一个实施例的图2的处理器的框图.
[0011 ]图4A和4B示出根据本发明实施例的系统的实现方式.
[0012]图5是根据本发明实施例的当基于用户的情绪产生动作时图2的处理器的流程图。
【具体实施方式】
[0013] -个实施例确定与电子设备(如智能电话)相关联的用户的情绪.基于所确定的情 绪,实施例产生将发送到另一电子设备的消息,其中该消息包括基于该情绪的自动选择的 视觉或触觉组件(component)。在其它实施例中,基于所确定的情绪可以自动发起其它类型 的动作.
[0014] 图1是根据本发明实施例的系统100的框图。如图所不,系统100包括第一电子设备 110和第二电子设备120。第一电子设备110和第二电子设备120被配置为经由一个或多个通 信网络130彼此通信。通信网络130可以包括无线通信网络、因特网、个人域网、局域网、城域 网、广域网等中的一个或多个。通信网络130可以包括本地射频、蓝牙、蜂窝(GPRS、CDMA、 GSM、CDPD、2.5G、3G、4G LTE等)、超宽带("UWB")、WiMax、ZigBee和/或其它ad-hoc/网状 (mesh)无线网络技术。
[0015]第一电子设备110和第二电子设备120可以是任何电子设备,如台式计算机、膝上 计算机、电子工作薄、电子手持设备(如移动电话、智能电话、平板游戏设备、个人数字助理 ("roA")、便携电子邮件设备、便携因特网接入设备、计算器等)、销售点设备、游戏控制器、 可佩戴设备(如智能手表、健身带等)或其它电子设备。在一个实施例中,第一电子设备110 和第二电子设备120中的每一个都是移动设备,如智能电话或平板电脑。在一个实施例中, 第一电子设备110和第二电子设备120其中一个是移动设备,另一个是可佩戴设备。就下文 所描述的本发明的一些实施例涉及笫一电子设备110和第二电子设备120都是移动设备而 言,应该理解的是本发明的实施例并不受限于此并且第一电子设备110和第二电子设备120 可以是很多不同类型的设备,如上面所列出的.
[0016] 图2是根据一个实施例的第一电子设备110和/或第二电子设备120的框图。以下的 描述可能仅涉及笫一电子设备110,要理解这里所描述的组件也可以包括在第二电子设备 120中.当然,第一电子设备110和第二电子设备120可以包括更多或更少的组件。所示出的 实施例不意图进行任何限制。
[0017] 如图所示,第一电子设备110包括经由总线240相互连接的处理器210、存储器设备 220以及输入/输出设备230。在一个实施例中,输入/输出设备230可以包括触摸屏设备250、 触觉输出设备260、一个或多个传感器270,其中可以包括相机280、和/或从第一电子设备 110的用户接收输入的其它输入设备以及向第一电子设备110的用户输出信息的输出设备, 如扬声器290形式的音频输出设备。输入设备还可以包括如键盘、小键盘、光标控制设备(例 如计算机鼠标)、手写笔或其它数据输入设备的设备,或者音频接收器(如麦克风).
[0018] 触摸屏设备250可以被配置为任何适合的用户界面或触摸/接触表面组装件.触摸 屏设备250可以是任何触摸屏、触控板、触敏结构、计算机监视器、膝上显示设备、工作簿显 示设备、便携电子设备屏幕、或其它适合的触敏设备.触摸屏设备250可以被配置用于与用 户控制的设备(如手写笔、手指等)进行物理交互.在一些实施例中,触摸屏设备250可以包 括至少一个输出设备和至少一个输入设备。例如,触摸屏设备250可以包括被配置为显示图 像的视觉显示器252和触敏屏幕,该触敏屏幕包括叠加其上的至少一个传感器以接收来自 用户手指或由用户控制的手写笔的输入。视觉显示器252可以包括高清晰度显示屏.在一个 实施例中,视觉显示器252可以从触摸屏设备250分离。
[0019] 在各种实施例中,触觉输出设备260被配置为当用户接触第一电子设备110的至少 一部分时,向第一电子设备110的用户提供触觉反馈。例如,当用户接触触摸屏设备250和/ 或第一电子设备110的另一部分(如包含至少输入/输出设备230的壳体)时,触觉输出设备 260可以向触摸屏设备250本身提供触觉反馈以施加触觉效果.
[0020] 触觉输出设备260所提供的触觉反馈可以通过产生触觉效果的任何方法来产生, 这些方法如振动、变形、动觉、静电或超声摩擦等。在一个实施例中,触觉输出设备260可以 包括致动器,例如电磁致动器,如其中偏心质量由电动机移动的偏心旋转质量("ERM")、其 中附接于弹簧的质量被来回驱动的线性谐振致动器("LRA")、或"智能材料"(如压电材料、 电活性聚合物或形状记忆合金)、宏复合纤维致动器、静电致动器、电触觉致动器、和/或提 供物理反馈(如振动触觉反馈)的其它类型的致动器。触觉输出设备260可以包括非机械或 非振动设备,如利用静电摩擦("ESF"),超声摩擦("USF")的设备,或通过超声触觉换能器引 起声辐射压力的设备,或利用触觉基板和柔性或可变形表面的设备,或提供热效果的设备, 或提供突出(projected)的触觉输出(如利用空气喷嘴喷出空气)的设备,等等.
[0021] 传感器270可以包括被配置为感测并收集与第一电子设备110的用户有关的情绪 信息的单个感测设备或多个感测设备。例如,传感器270可以被配置为通过各种形态或用户 的情绪状态一一包括但不限于用户的身体属性,如面部表情、语音音调和/或生物测定一一 来检测和/或收集情绪信息.在一个实施例中,如下文进一步详细描述的,相机280可用于捕 获用户的面部图像且该图像可由处理器210处理以确定用户的情绪。生物测定传感器可用 于感测生物指标,如身体温度、身体湿度或排汗、心脉或心率、呼吸节奏、脑电波、身体姿势、 手势或运动等.在一个实施例中,生物测定传感器可以设置在可佩戴设备中,如腕带或项 链,并可以被配置为感测用户的脉搏,以及预测用户随着时间的情绪.
[0022] 传感器270还可以包括可用于确定用户的情绪的压力感测机制.例如,可以感测并 分析电话呼叫期间智能电话被握的多紧,以确定用户处于生气的情绪中.进一步,对于键 盘,可以感测并且也分析用户有多重地敲击按键以确定用户的情绪.实施例可以检测用户 输入的压力,并将用户的压力与输入简档相比较,以确定与"正常"压力量的偏差。基于差 另IJ,可以确定用户的情绪,并且所确定的情绪可用于产生动作,如基于所确定的情绪修改将 要输出的触觉效果。
[0023] 在一个实施例中,传感器270使用的感测技术还可以采用各种声音或音频传感器 以记录和/或便于进行语音分析。例如,用户说话时(如当讲电话时)的语音频率和语音强度 可用于推断用户的情绪.进一步,可以确定用户可能在笑、生气地发出"晦哮(grring)"的声 音、发出嘘声、打呼噜等事实并使用该事实来确定用户的情绪。
[0024] 传感器270还可以包括被配置为检测环境条件的传感器。例如,一个或多个传感器 270可以收集与周围有关的环境信息,如温度、湿度、光线、大气压力等.环境传感器的数据 输出可用于帮助估计用户的情绪。在一个实施例中,一个或多个传感器270可用于感测用户 的位置和运动,因此可以确定用户是处于敌意还是友好的环境中,或者该用户是否遇到交 通堵塞等。还可以检测周围环境以建议自动产生的基于位置的表情符号。例如,检测到生日 蛋糕和气球的传感器/相机可以建议产生/选择基于生日聚会的表情符号。
[0025] 处理器210可以是用于管理或控制第一电子设备110的操作和功能的通用或专用 处理器或微控制器.例如,处理器210可以专门设计为专用集成电路("ASIC")以控制到触觉 输出设备260的输出信号以提供触觉效果.处理器210可以被配置为基于预定义的因素决 定:基于处理器210所接收或确定的触觉信号产生什么触觉效果,产生触觉效果的顺序,以 及触觉效果的幅度、频率、持续时间和/或其它参数.处理器210还可以被配置为提供可用于 驱动触觉输出设备260的流处理命令以提供特定的触觉效果。如下所述,处理器210还可以 被配置为向其它输出设备提供流处理命令以发起其它动作.在一些实施例中,处理器210可 以实际上是多个处理器,每个被配置为在第一电子设备110内执行某些功能。下文将对处理 器210进行进一步描述。
[0026]存储器设备220可以包括一个或多个内部固定的存储单元、可移动存储单元和/或 远程访问存储单元。各种存储单元可包括易失存储器和非易失存储器的任何组合。存储单 元可被配置为存储信息、数据、指令、软件代码等的任何组合.更具体地,存储单元可以包括 触觉效果简档、如何驱动触觉输出设备260的指令、或用于产生触觉效果的其它信息.其它 简档,如身体属性和情绪简档,也可以存储在存储器设备220中。
[0027] 每个触觉电子设备110、120可以包括任何数量的触觉输出设备260和传感器270。 进一步,每个触觉电子设备110、120可以包括不同类型的触觉输出设备260和传感器270,并 且触觉电子设备110可以包括与第二电子设备120不同数量和不同类型的触觉输出设备260 和传感器270的组合。
[0028]图3是根据一个实施例的图2的处理器210的框图.处理器210可以被配置为执行一 个或多个计算机程序模块。这一个或多个计算机程序模块可以包括传感器模块212、情绪确 定模块214、动作确定模块216、输出设备控制模块218和/或其它模块中的一个或多个.处理 器210还可以包括电子存储219,其可以与存储器设备220相同或是存储器设备220之外的存 储.处理器210可以被配置为通过软件,硬件,固件,软件、硬件和/或固件的某种组合,和/或 用于配置处理器210上的处理能力的其它机制来执行模块212、214、216和/或218.
[0029] 应该理解,虽然模块212、214、216和218在图3中示出为共同位于单个处理单元内, 然而在存在多个处理单元的实施例中,一个或多个模块212、214、216和/或218可位于远离 其它模块的位置。下文所描述的不同模块212、214、216和/或218所提供的功能性是出于说 明性的目的,并不意图限制,因此任一模块212、214、216和/或218可以提供比所描述的更多 或更少的功能性。例如,可以去掉一个或多个模块212、214、216和/或218,其一些或全部的 功能性可以由其它模块212、214、216和/或218提供。作为另一个例子,处理器210可以被配 置为执行一个或多个额外的模块,这些模块可以执行下文归由模块212、214、216和/或218 之一执行的一些或全部功能性。
[0030]传感器模块212被配置为从传感器270接收输入信号,该输入信号在传感器270检 测到与第一电子设备110的用户的情绪相关联的身体属性时产生,这些身体属性如用户的 面部表情、用户的心跳、用户的脑电波等。在存在多个传感器270的实施例中,传感器模块 212被配置为接收并处理来自多个传感器270的输入信号.传感器模块212还被配置为发送 信号到情绪确定模块214以进行进一步处理.
[0031]情绪确定模块214被配置为基于从传感器模块212接收到的信号来确定笫一电子 设备110的用户的情绪,并且可以确定所确定的情绪的"情绪简档".例如,如果相机280用于 捕获带着微笑的用户的图像,则情绪确定模块214可以分析该图像以确定用户处于良好的 情绪并且是快乐的.如果生物测定传感器用于感测用户的心跳并且该传感器感测到快速的 心跳,则情绪确定模块214可以用于确定用户是不安且有压力的。情绪确定模块214可以用 身体属性和相关联的情绪的库来编程,以便当传感器270感测到身体属性之一时,情绪确定 模块214可以确定第一电子设备110的用户的情绪。情绪确定模块214可以利用用户的位置, 该位置可以是位置传感器(如GPS)感测到的地理位置,或场所位置,如参加重要会议,该场 所位置可以从用户的日历中获取,该日历可在第一电子设备110上存储存储器设备220中。 情绪确定模块214还可以输出信号到动作确定模块216以进行进一步处理。
[0032] 动作确定模块216被配置为从情绪确定模块214接收输出信号并且基于所确定的 第一电子设备110的用户的情绪来确定要发起的动作。在一个实施例中,所确定的要发起的 动作可以包括在由第二用户操作的第二电子设备120上产生视觉、音频和/或触觉效果.视 觉效果可以是反映笫一电子设备110的用户情绪的预先确定的文本消息,其可以包括表情 符号和/或预先确定的图像,如反映第一电子设备110的用户情绪的电子标签。音频效果可 以包括反映第一电子设备110的用户情绪的预先确定的声音或铃声。触觉效果可以包括反 映笫一电子设备110的用户情绪的预先确定的振动模式。在一个实施例中,动作确定模块 216可以确定触觉效果的一个或多个参数,如触觉效果的幅度、频率、持续时间等。
[0033] 在一个实施例中,动作确定模块216可利用来自传感器270之一的输入,该传感器 被配置为感测第一电子设备110的用户位置来调整(modulate)在第二电子设备120上产生 的效果,以或者加强或者减小效果,并且由此向第二电子设备120的第二用户提供关于第一 电子设备110的用户情绪的额外信息。
[0034] 在一个实施例中,动作确定模块216可利用来自传感器270之一的输入,该传感器 被配置为感测与第二电子设备120的第二用户的情绪相关联的身体属性,并且基于所感测 的与第二用户的情绪相关联的身体属性来调整更发起的动作,以便加强、减小、或以其它方 式改变在第二电子设备120上产生的效果.
[0035] 在一个实施例中,情绪简档可以调整伴随的音频或触觉反馈效果.在实时或近似 实时合成触觉反馈效果的实施例中,可以改变合成参数使得其反映发送者的情绪.例如,在 较低音调与"较低落的"情绪相关联的系统中,音频和触觉效果的频率可以通过变得较低来 反映这些情绪。
[0036] 在一个实施例中,动作确定模块216可确定要发起的动作可以包括发起通过第一 电子设备110的拨打电话号码。这种实施例可以允许使用由相机280捕获的面部线索来代替 语音命令或"快速拨号"号码或与拨打特定电话号码对应的按键。在一个实施例中,确定要 发起的动作可以包括发起通过第一电子设备110的书面通信.这种实施例可以允许使用由 相机280捕获的面部线索来指示消息,该消息作为文本消息或电子邮件由第一电子设备110 发送。动作确定模块216可以输出信号到输出设备控制模块218以进行进一步处理。
[0037] 输出设备控制模块218被配置为接收来自动作确定模块216的输出信号,并且向要 发起所确定的动作的输出设备发送控制信号。例如,如果要发起的动作包括在第二电子设 备120上产生视觉、音频和/或触觉效果,则输出设备控制模块218可以输出可传递到第二电 子设备120并发送至适当的输出设备(如显示器252、扬声器290和/或触觉输出设备260)的 信号。在一个实施例中,输出设备控制模块218可以代替动作确定模块216来确定触觉效果 的一个或多个参数,如触觉效果的幅度、频率、持续时间等。相似地,如果要发起的动作包括 拨打电话号码,则输出设备控制模块218可以输出信号使得第一电子设备110的电话拨号器 打开电信线路并拨打该电话号码。如果要发起的动作包括发起书面通信,则输出设备控制 模块218可以输出信号,该信号模拟由键盘或小键盘输出的信号。
[0038]取决于应用,可以利用不同的形态来产生目标的基于情绪的触觉反馈.例如,为了 在通过电话交谈时与朋友分享心情的快乐状态,可以通过从一个用户的电话向另一个用户 的电话发送表示快乐情绪或心情的愉快状态的触觉线索来加强通信。为了在拨打移动电话 或在移动电话上交谈时捕获用户的情绪状态,可以使用移动电话上的数字相机或摄像机来 捕获并随后向被叫用户发送所捕获的情绪信息或面部表情。
[0039]图4A和4B示出根据本发明实施例的上文描述的实现系统100。图4A和4B所示的系 统400包括第一电子设备410,其可以是移动电话,如智能电话,以及包括第二电子设备420, 其也可以是移动电话,如智能电话。如图4A所示,第一电子设备410的第一用户可以使用第 一电子设备410上的前置相机480来捕获第一用户的图像412。处理器(如上文描述的处理器 210)可以接收相机480所输出的信号并利用情绪确定模块214来确定笫一用户的情绪,在图 4A所示的实施例中为快乐情绪。处理器210接着可以利用动作确定模块214来确定基于快乐 情绪要发起的动作.基于所确定的要发起的动作,输出设备控制模块218接着可以输出可经 由上文描述的通信网络130传递到第二电子设备420的信号.在图示的实施例中,快乐的面 部电子标签422由第二电子设备420的显示器452显示在文本框424中。同时,触觉输出设备 (如上文描述的触觉输出设备260)可以输出触觉效果462,其可以包括可与快乐情绪相关联 的相对强的振动.
[0040]如图4B所不,第一电子设备410的第一用户可以使用第一电子设备410上的前置相 机480来捕获第一用户的另一图像413。处理器210可以接收相机480输出的信号并利用情绪 确定模块214来确定第一用户的情绪,在图4B所示的实施例中为悲伤情绪。处理器210接着 可以利用动作确定模块214来确定基于悲伤情绪要发起的动作。基于所确定的要发起的动 作,输出设备控制模块218接着可以输出可经由通信网络130传递到第二电子设备420的信 号.在图示的实施例中,悲伤的面部电子标签423由第二电子设备420的显示器452显示在文 本框424中.同时,触觉输出设备260可输出触觉效果463,其可以包括可与悲伤情绪相关联 的相对弱的振动(与图4A中的触觉效果462相比而言).
[0041]在本发明实施例中的一个实现方式中,系统100的第一用户可以打开他/她的电子 设备110上的聊天应用以发送消息到系统100的第二用户.在第一用户键入消息时,可以激 活相机280.相机280的激活可以是自动的或者第一用户可以手动激活相机280。相机280可 以捕获可用于确定笫一用户的情绪的面部线索.另外地或另选地,传感器270可以提供生物 指标数据或位置数据以确定第一用户的情绪。在一个实施例中,来自第一电子设备110的日 历数据可用于提供对于所捕获的面部线索、生物指标数据和/或位置数据的上下文以帮助 确定第一用户的情绪.处理器210可以(可能是自动地)确定要发送到系统100的第二用户的 适当的表情符号、电子标签和/或触觉效果,使得第二用户接收到与消息一起的第一用户情 绪的指示,以帮助个性化该消息并在该消息的通知中携带含义.
[0042]图5是根据本发明实施例的当基于用户的情绪产生动作时图2的处理器210的流程 图.在一个实施例中,图5的流程图的功能性由存储器或其它计算机可读或有形介质中存储 的、并由处理器执行的软件实现。在其它实施例中,该功能性可由硬件(例如,通过使用专用 集成电路("ASIC")、可编程门阵列("PGA")、现场可编程门阵列("FPGA")等)或硬件和软件 的任意组合来执行.
[0043] 如图所示,流程图500在510开始.在520,通过传感器(如上文描述的传感器170中 的一个)感测电子设备(如上文描述的第一电子设备110)的第一用户的身体属性.在530,基 于所感测的身体属性确定第一用户的情绪.当处理器210执行情绪确定模块214时,所述确 定可以由上文描述的处理器210的情绪确定模块214来完成。在540,基于所确定的情绪自动 确定要发起的动作。当处理器210执行动作确定模块216时,确定要发起的动作可以由上文 描述的处理器210的动作确定模块216来完成。在550,发起所确定的动作。当处理器210执行 输出设备控制模块218时,该动作可由处理器210的输出设备控制模块218来发起.流程图 500在560结束.
[0044] 在550确定的动作可以包括通过发送表示情绪的对象来自动发送情绪到另一设 备.该对象可以是表情符号或其它预先确定的图像,如电子标签或动画图形交换格式 ("GIF")并且可以包括任何类型的音频或触觉效果。进一步,该对象可以仅包括音频,仅包 括触觉效果,或任意组合。该对象可以与文本消息、电子邮件或其它实体一起发送,或其可 以独立发送.
[0045] 在本发明实施例的一个实现方式中,系统100的第一用户和系统100的第二用户可 以利用他们各自的电子设备110、120(可以是移动设备的形式,如智能电话)上的聊天应用 ("聊天app")来通信。第一用户可以键入下述消息到第二用户:"我有头条新闻!我今天得到 晋升了!"第二用户可以通过做出一个夸大的"哇!"表情来回应。第二用户的设备上的前置 相机可以通过捕获在做夸大的"哇!"表情时他/她的面部图像来捕获第二用户的情绪。第二 用户的设备可以确定他/她的情绪是"吃惊"的并且在电子标签包或库中识别与"吃惊"情绪 相匹配的电子标签.例如,该电子标签可以是大猩猩的动画,它看上去如此吃惊以致于它的 下巴掉在了地板上并伴有巨大的*砰! *,这在该电子标签传送到第一用户时可以感觉为 与该电子标签相结合的触觉效果。
[0046] 在一个实施例中,情绪简档可以用于选择应用到视觉资源(如标签或化身 (avatar))的一组动画参数.例如,一个人可以向其朋友发送动画符号.在发送符号时和/或 发送符号之后,其所展示的虚拟行为可由情绪简档修改.如果发送者是悲伤的,则该符号可 以呈现与悲伤相关联的动作和行为,如向下看、拖动脚步等。触觉反馈可以与脚步的拖动相 匹配,使得收件人注意到该情绪并产生情绪体验.如果发送者的情绪变得兴奋,则该符号可 以开始跳上跳下,并且收件人可以感受到"兴奋的"振动模式,该模式通过每次符号落地时 的振动脉冲来与跳跃相匹配.
[0047] 在本发明实施例的另一个实现方式中,第一用户和第二用户可以使用谷哥群聊来 互相通信。第二用户可以在通过笫二用户的膝上电脑通信时,正等待第一用户到达与朋友 的活动。第二用户可以佩戴可佩戴的电子设备,该可佩戴的电子设备感测由第一用户迟到 弓丨起的第二用户感受到的紧张信号,第一用户迟到可以由第一用户的GPS位置确认.可以向 第一用户的移动设备发送暗示第二用户的压力等级的表情符号。第一用户可以在公交车上 (例如,在去往该活动的路上)在他/她的移动设备上接收到该消息。第一用户可以看出第二 用户是紧张的。随着公交车避开车流并快速接近活动地点,第一用户的设备可以捕获他/她 的微笑并发送积极的表情符号以通知第二用户他/她将会按时到达.第二用户可以经由连 接到他/她的谷哥账户的众多设备接收该通知,这些设备包括但不限于第二用户的可佩戴 电子设备、移动电话、鼠标、和触觉使能的膝上触控板等.
[0048] 在本发明实施例的另一个实现方式中,当系统的第一用户开始键入到系统的第二 用户的消息时,第二用户的设备可以向第一用户提供第二用户的情绪的指示,使得第一用 户考虑到第二用户的情绪.例如,第一用户可能想要向第二用户发送包括低劣的玩笑的消 息.在第一用户开始键入该消息时,第一用户可以在他/她的电子设备110上被通知第二用 户情绪不好,使得第一用户可以重新考虑他/她是否应该修改该消息的措辞和时间。
[0049] 在本发明实施例的一个实现方式中,如上所述,系统的第一用户的情绪可用于确 定动作,并且所确定的动作可以由感测到的系统的第二用户的情绪来进一步调整.例如,如 果第一用户的情绪是兴奋的,但是第二用户的情绪是郁闷的,则基于第一用户的情绪确定 的要采取的初始动作可以基于第二用户的情绪来调整,使得输出到第二用户的效果得以改 变。
[0050] 本发明实施例可以在游戏环境中实现.例如,在本发明实施例的一个实现方式中, 系统的第一用户的情绪可用于影响第一用户在游戏中的化身和/或可用于影响游戏中的其 它玩家。在一个实现方式中,系统的第一用户的化身严重受伤或删除系统的第二用户的化 身,本发明的实施例可用于检测作为该动作的结果,第二用户是否烦乱或生气,并且将第二 用户的情绪传递到第一用户。如果第一用户意图在这种动作之后嘲弄第二用户并且愿意更 好地得知嘲弄是否是一个好主意(也就是第二用户是否能应对这种嘲弄),则这种第二用户 情绪的传递可能是有帮助的。
[0051] 如所公开的,实施例感测电子设备用户的情绪并且基于该情绪自动执行动作.动 作的例子可以是到第二用户的电子消息的产生和发送,该电子消息包括反映第一用户情绪 的视觉和/或触觉组件。可以基于情绪自动选择视觉和/或触觉组件,如表情符号标签,由此 减少用户进行人工选择的需要.
[0052]这里所描述的实施例代表大量的实现方式和例子,并且并不意图必定将本公开内 容限制到任何特定的实施例。替代地,本领域技术人员将会理解,可以对这些实施例进行各 种修改.任何这种修改旨在包括在本公开内容的精神和范围内并且由权利要求保护。
【主权项】
1. 一种操作电子设备的方法,该方法包括: 确定与第一电子设备相关联的用户的情绪; 基于所确定的情绪确定第一电子设备要执行的动作;以及 发起所确定的动作,其中所确定的动作包括向第二电子设备发送与所确定的情绪对应 的对象。2. 如权利要求1所述的方法,其中确定情绪是基于用户的身体属性的。3. 如权利要求2所述的方法,其中身体属性包括基于电子设备上的相机确定的用户的 面部线索。4. 如权利要求2所述的方法,其中身体属性包括感测到的用户的生物指标、用户的语 音、或用户在该电子设备上施加的输入压力中的至少一个。5. 如权利要求1所述的方法,其中所确定的动作包括自动选择包括表情符号或电子标 签的对象,并将该对象附加到由用户准备的消息。6. 如权利要求1所述的方法,其中所确定的动作包括自动向第二电子设备发送以下中 的至少一个:反映所确定的情绪的视觉效果、反映所确定的情绪的音频效果或反映所确定 的情绪的触觉效果。7. 如权利要求1所述的方法,其中所确定的动作进一步基于用户的位置。8. 如权利要求5所述的方法,其中所确定的动作进一步包括基于所确定的情绪修改该 表情符号或电子标签。9. 一种其上存储有指令的计算机可读介质,所述指令在由处理器执行时使得该处理器 操作电子设备,该操作包括: 确定与第一电子设备相关联的用户的情绪; 基于所确定的情绪确定第一电子设备要执行的动作;以及 发起所确定的动作,其中所确定的动作包括向第二电子设备发送与所确定的情绪对应 的对象。10. 如权利要求9所述的计算机可读介质,其中确定情绪是基于用户的身体属性的。11. 如权利要求10所述的计算机可读介质,其中身体属性包括基于该电子设备上的相 机确定的用户的面部线索。12. 如权利要求10所述的计算机可读介质,其中身体属性包括感测到的用户的生物指 标、用户的语音、或用户在该电子设备上施加的输入压力中的至少一个。13. 如权利要求9所述的计算机可读介质,其中所确定的动作包括自动选择包括表情符 号或电子标签的对象,并将该对象附加到由用户准备的消息。14. 如权利要求9所述的计算机可读介质,其中所确定的动作包括自动向第二电子设备 发送以下中的至少一个:反映所确定的情绪的视觉效果、反映所确定的情绪的音频效果或 反映所确定的情绪的触觉效果。15. 如权利要求9所述的计算机可读介质,其中所确定的动作进一步基于用户的位置。16. 如权利要求13所述的计算机可读介质,其中所确定的动作进一步包括基于所确定 的情绪修改该表情符号或电子标签。17. -种装置,包括: 情绪确定器,所述情绪确定器包括传感器并确定与所述装置相关联的用户的情绪;以 及 动作确定器,所述动作确定器包括发射机,并且基于所确定的情绪确定所述装置要执 行的动作并发起所确定的动作,其中所确定的动作包括向第二装置发送与所确定的情绪对 应的对象。18. 如权利要求17所述的装置,其中确定情绪是基于用户的身体属性的。19. 如权利要求18所述的装置,进一步包括相机,其中身体属性包括利用该相机确定的 用户的面部线索。20. 如权利要求18所述的装置,其中身体属性包括感测到的用户的生物指标、用户的语 音、或用户在所述装置上施加的输入压力中的至少一个。
【文档编号】G06F3/01GK105929942SQ201610229395
【公开日】2016年9月7日
【申请日】2016年2月26日
【发明人】W·瑞赫恩, D·布瑞恩巴姆, A·B·瓦黛尔
【申请人】意美森公司