基于虚拟形象的视频通话方法、装置和终端与流程

文档序号:30636753发布日期:2022-07-05 21:31阅读:243来源:国知局
基于虚拟形象的视频通话方法、装置和终端与流程

1.本技术实施例涉及终端技术领域,尤其涉及一种基于虚拟形象的视频通话方法、装置和终端。


背景技术:

2.网络电话等基于互联网、移动互联网的音视频通话技术是目前社交领域广泛采用的通信手段。与传统电话相比,网络电话资费更低,使用起来更加方便。借助于移动互联网技术,网络电话不需要固定的终端设备,用户使用手机等便携式终端即可接入。此外,相较于传统电话只能传输音频,网络电话还可以实现视频通话。
3.另一方面,人脸识别技术得到了飞速发展,通过摄像头识别人脸、五官,已被广泛应用于身份识别、人脸替换以及表情映射等领域。将人脸识别技术应用于视频通话,实时识别通话中的人物形象并使用虚拟形象进行替换,便形成了一种更具趣味性的虚拟形象视频通话技术。
4.目前,支持虚拟形象视频通话的终端或应用程序,大多采用的都是传输视频流的技术,其本质上跟传统的视频通话并无区别。在用户接入的网络条件较差的情况下,如带宽无法支持视频通话时,这种虚拟形象的视频通话也就无法使用。


技术实现要素:

5.本技术实施例提供的一种基于虚拟形象的视频通话方法、装置和终端,用以解决现有技术中在网络条件较差的情况下,无法使用虚拟形象视频通话的问题。
6.为达到上述目的,本技术采用如下技术方案:
7.第一方面,提供一种基于虚拟形象的视频通话方法,应用于第一终端,该方法包括:
8.第一终端采集用户在通话过程中的图像数据和音频数据;
9.第一终端从图像数据中提取多帧目标特征信息,多帧目标特征信息包括用于表征用户的人脸表情和头部动作的特征信息;
10.第一终端将多帧目标特征信息和音频数据传输至第二终端,第二终端用于将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有人脸表情和头部动作的目标虚拟形象。
11.实施本技术实施例具有以下有益效果:在通话过程中,第一终端无需向第二终端传输视频流,而只需传输从图像数据中提取出的特征信息,极大地减少了需要传输的数据量,使得在网络条件不佳的情况下,用户也可以使用视频通话与其他用户联系。其次,由于第一终端并不需要向第二终端传输用户在通话过程中的实时图像,也能够保证用户的隐私安全。
12.在第一方面的一种可能的实现方式中,图像数据包括多个视频帧,第一终端中配置有第一人脸识别引擎,第一终端从图像数据中提取多帧目标特征信息时,可以采用第一
人脸识别引擎分别解析每个视频帧中的面部特征,得到每个视频帧中包含的特征点信息;然后,第一终端根据每个视频帧为特征点信息进行编码,得到分别与每个视频帧一一对应的多帧目标特征信息。
13.在第一方面的一种可能的实现方式中,第一终端根据每个视频帧为特征点信息进行编码,得到分别与每个视频帧一一对应的多帧目标特征信息,可以按照如下步骤进行:第一终端按照接收到每个视频帧的顺序,分别确定每帧目标特征信息的帧序号;第一终端分别根据每个视频帧中包含的特征点信息识别多个面部区域;第一终端获取每个面部区域的特征信息,上述特征信息包括每个面部区域的状态信息和坐标信息;第一终端将帧序号以及每个面部区域的特征信息存储至预设的数据结构中,得到多帧目标特征信息。
14.在第一方面的一种可能的实现方式中,在第一终端采集用户在通话过程中的图像数据和音频数据之前,还包括:第一终端确定待传输的面部区域。相应地,第一终端获取每个面部区域的特征信息,包括:第一终端从多个视频帧中确定关键视频帧;针对关键视频帧,第一终端获取关键视频帧中待传输的面部区域的特征信息;针对非关键视频帧,第一终端确定任意相邻的两个非关键视频帧中待传输的面部区域的特征信息是否发生变化,若任意相邻的两个非关键视频帧中待传输的面部区域的特征信息发生变化,则获取发生变化的非关键视频帧中待传输的面部区域的特征信息。
15.在第一方面的一种可能的实现方式中,第一终端中配置有第一人脸识别引擎,第二终端中配置有第二人脸识别引擎,第一人脸识别引擎和第二人脸识别引擎为相同类型的人脸识别引擎,多帧目标特征信息为由第一人脸识别引擎识别的原始特征信息,第二终端用于采用第二人脸识别引擎将原始特征信息映射至目标虚拟形象中,以生成视频通话图像。
16.在第一方面的一种可能的实现方式中,在第一终端将多帧目标特征信息和音频数据传输至第二终端之前,还包括:第一终端为多帧目标特征信息和音频数据添加时间戳。
17.在第一方面的一种可能的实现方式中,第一终端将目标特征信息和音频数据传输至第二终端,包括:第一终端将目标特征信息和音频数据封装成通话数据流;第一终端将通话数据流传输至第二终端。
18.在第一方面的一种可能的实现方式中,在第一终端将目标特征信息和音频数据传输至第二终端之前,还包括:第一终端向第二终端传输虚拟形象编号信息,虚拟形象编号信息用于指示第二终端从多个虚拟形象中确定目标虚拟形象。
19.第二方面,提供一种基于虚拟形象的视频通话方法,应用于与第一终端通信的第二终端,该方法包括:
20.第二终端接收第一终端传输的通话数据流,通话数据流包含音频数据和多帧目标特征信息,多帧目标特征信息包括用于表征用户在通话过程中的人脸表情和头部动作的特征信息;
21.第二终端将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有上述人脸表情和头部动作的目标虚拟形象;
22.第二终端在显示视频通话图像时,同步播放所述音频数据。
23.在第二方面的一种可能的实现方式中,第二终端将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,包括:第二终端从通话数据流中拆分出音频数据
和多帧目标特征信息;第二终端分别确定每帧目标特征信息中包含的人脸表情和头部动作;第二终端分别将每帧目标特征信息中包含的人脸表情和头部动作映射至预设的目标虚拟形象中,以生成视频通话图像。
24.在第二方面的一种可能的实现方式中,每帧目标特征信息包括多个面部区域的状态信息和坐标信息,第二终端分别确定每帧目标特征信息中包含的人脸表情和头部动作,包括:第二终端根据多个面部区域的坐标信息计算用户头部的朝向;第二终端根据多个面部区域的状态信息对用户头部的朝向进行调整,以及模拟人脸表情和头部动作。
25.在第二方面的一种可能的实现方式中,多帧目标特征信息包括与关键视频帧对应的目标特征信息以及与非关键视频帧对应的目标特征信息,与关键视频帧对应的目标特征信息包括关键视频帧的完整特征信息,与非关键视频帧对应的目标特征信息包括在非关键视频帧中发生变化的特征信息;在第二终端从通话数据流中拆分出音频数据和多帧目标特征信息之后,还包括:第二终端根据关键视频帧的完整特征信息和非关键视频帧中发生变化的特征信息,生成非关键视频帧的完整特征信息。
26.在第二方面的一种可能的实现方式中,第一终端中配置有第一人脸识别引擎,第二终端中配置有第二人脸识别引擎,第一人脸识别引擎和第二人脸识别引擎为相同类型的人脸识别引擎,多帧目标特征信息为由第一人脸识别引擎识别的原始特征信息,第二终端将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,包括:第二终端采用第二人脸识别引擎将原始特征信息映射至目标虚拟形象中,以生成视频通话图像。
27.在第二方面的一种可能的实现方式中,在第二终端接收第一终端传输的通话数据流之前,还包括:第二终端接收第一终端传输的虚拟形象编号信息;第二终端根据虚拟形象编号信息从多个虚拟形象中确定目标虚拟形象。
28.在第二方面的一种可能的实现方式中,多帧目标特征信息和音频数据具有时间戳,第二终端在显示所述视频通话图像时,同步播放所述音频数据,包括:第二终端根据多帧目标特征信息的时间戳,确定每帧视频通话图像的时间戳;述第二终端根据每帧视频通话图像的时间戳和音频数据的时间戳,对视频通话图像和音频数据进行同步。
29.第三方面,提供一种基于虚拟形象的视频通话装置的结构框图,该装置可以应用于第一终端,该装置具体可以包括如下模块:
30.采集模块,用于采集用户在通话过程中的图像数据和音频数据;
31.提取模块,用于从图像数据中提取多帧目标特征信息,多帧目标特征信息包括用于表征用户的人脸表情和头部动作的特征信息;
32.传输模块,用于将多帧目标特征信息和音频数据传输至第二终端,第二终端用于将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有上述人脸表情和头部动作的目标虚拟形象。
33.在第三方面的一种可能的实现方式中,图像数据包括多个视频帧,第一终端中配置有第一人脸识别引擎,提取模块具体可以包括如下子模块:
34.解析子模块,用于采用第一人脸识别引擎分别解析每个视频帧中的面部特征,得到每个视频帧中包含的特征点信息;
35.编码子模块,用于根据每个视频帧为特征点信息进行编码,得到分别与每个视频帧一一对应的多帧目标特征信息。
36.在第三方面的一种可能的实现方式中,编码子模块具体可以包括如下单元:
37.帧序号确定单元,用于按照接收到每个视频帧的顺序,分别确定每帧目标特征信息的帧序号;
38.面部区域识别单元,用于分别根据每个视频帧中包含的特征点信息识别多个面部区域;
39.特征信息获取单元,用于获取每个面部区域的特征信息,特征信息包括每个面部区域的状态信息和坐标信息;
40.特征信息存储单元,用于将帧序号以及每个面部区域的特征信息存储至预设的数据结构中,得到多帧目标特征信息。
41.在第三方面的一种可能的实现方式中,编码子模块还可以包括如下单元:
42.面部区域确定单元,用于确定待传输的面部区域;
43.在第三方面的一种可能的实现方式中,特征信息获取单元具体可以包括如下子单元:
44.关键视频帧确定子单元,用于从多个视频帧中确定关键视频帧;
45.第一特征信息获取子单元,用于针对关键视频帧,获取关键视频帧中待传输的面部区域的特征信息;
46.第二特征信息获取子单元,用于针对非关键视频帧,确定任意相邻的两个非关键视频帧中待传输的面部区域的特征信息是否发生变化,若任意相邻的两个非关键视频帧中待传输的面部区域的特征信息发生变化,则获取发生变化的非关键视频帧中待传输的面部区域的特征信息。
47.在第三方面的一种可能的实现方式中,第一终端中配置有第一人脸识别引擎,第二终端中配置有第二人脸识别引擎,第一人脸识别引擎和第二人脸识别引擎为相同类型的人脸识别引擎,多帧目标特征信息为由第一人脸识别引擎识别的原始特征信息,第二终端用于采用第二人脸识别引擎将原始特征信息映射至目标虚拟形象中,以生成视频通话图像。
48.在第三方面的一种可能的实现方式中,该装置还可以包括如下模块:
49.时间戳添加模块,用于为多帧目标特征信息和音频数据添加时间戳。
50.在第三方面的一种可能的实现方式中,传输模块具体可以包括如下子模块:
51.封装子模块,用于将目标特征信息和音频数据封装成通话数据流;
52.传输子模块,用于将通话数据流传输至所述第二终端。
53.在第三方面的一种可能的实现方式中,传输模块还用于向第二终端传输虚拟形象编号信息,虚拟形象编号信息用于指示第二终端从多个虚拟形象中确定目标虚拟形象。
54.第四方面,提供一种基于虚拟形象的视频通话装置的结构框图,该装置可以应用于第二终端,该装置具体可以包括如下模块:
55.接收模块,用于接收第一终端传输的通话数据流,通话数据流包含音频数据和多帧目标特征信息,多帧目标特征信息包括用于表征用户在通话过程中的人脸表情和头部动作的特征信息;
56.映射模块,用于将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有人脸表情和头部动作的目标虚拟形象;
57.通话模块,用于显示视频通话图像,并同步播放音频数据。
58.在第四方面的一种可能的实现方式中,映射模块具体可以包括如下子模块:
59.拆分子模块,用于从通话数据流中拆分出音频数据和多帧目标特征信息;
60.确定子模块,用于分别确定每帧目标特征信息中包含的人脸表情和头部动作;
61.映射子模块,用于分别将每帧目标特征信息中包含的人脸表情和头部动作映射至预设的目标虚拟形象中,以生成视频通话图像。
62.在第四方面的一种可能的实现方式中,每帧目标特征信息包括多个面部区域的状态信息和坐标信息,确定子模块具体可以包括如下单元:
63.计算单元,用于根据多个面部区域的坐标信息计算用户头部的朝向;
64.调整及模拟单元,用于根据多个面部区域的状态信息对用户头部的朝向进行调整,以及模拟人脸表情和头部动作。
65.在第四方面的一种可能的实现方式中,多帧目标特征信息包括与关键视频帧对应的目标特征信息以及与非关键视频帧对应的目标特征信息,与关键视频帧对应的目标特征信息包括关键视频帧的完整特征信息,与非关键视频帧对应的目标特征信息包括在非关键视频帧中发生变化的特征信息;映射模块还可以包括如下子模块:
66.生成子模块,用于根据关键视频帧的完整特征信息和非关键视频帧中发生变化的特征信息,生成非关键视频帧的完整特征信息。
67.在第四方面的一种可能的实现方式中,第一终端中配置有第一人脸识别引擎,第二终端中配置有第二人脸识别引擎,第一人脸识别引擎和第二人脸识别引擎为相同类型的人脸识别引擎,多帧目标特征信息为由第一人脸识别引擎识别的原始特征信息,映射子模块还用于采用第二人脸识别引擎将原始特征信息映射至目标虚拟形象中,以生成视频通话图像。
68.在第四方面的一种可能的实现方式中,接收模块还可以包括如下子模块:
69.虚拟形象编号信息接收子模块,用于接收第一终端传输的虚拟形象编号信息;
70.目标虚拟形象确定子模块,用于根据虚拟形象编号信息从多个虚拟形象中确定目标虚拟形象。
71.在第四方面的一种可能的实现方式中,多帧目标特征信息和音频数据具有时间戳,通话模块具体可以包括如下子模块:
72.时间戳确定子模块,用于根据多帧目标特征信息的时间戳,确定每帧视频通话图像的时间戳;
73.音视频同步子模块,用于根据每帧视频通话图像的时间戳和音频数据的时间戳,对视频通话图像和音频数据进行同步。
74.第五方面,提供一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面任一项所述的基于虚拟形象的视频通话方法。
75.第六方面,提供一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第二方面任一项所述的基于虚拟形象的视频通话方法。
76.第七方面,提供一种计算机存储介质,该计算机存储介质中存储有计算机指令,当
该计算机指令在终端上运行时,使得终端执行上述相关方法步骤实现上述第一方面任一项所述的基于虚拟形象的视频通话方法。
77.第八方面,提供一种计算机存储介质,该计算机存储介质中存储有计算机指令,当该计算机指令在终端上运行时,使得终端执行上述相关方法步骤实现上述第二方面任一项所述的基于虚拟形象的视频通话方法。
78.第九方面,提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述第一方面任一项所述的基于虚拟形象的视频通话方法。
79.第十方面,提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述第二方面任一项所述的基于虚拟形象的视频通话方法。
80.第十一方面,提供一种芯片,其特征在于,所述芯片包括存储器和处理器,所述处理器执行所述存储器中存储的计算机程序,以实现如上述第一方面任一项所述的基于虚拟形象的视频通话方法。
81.第十二方面,提供一种芯片,其特征在于,所述芯片包括存储器和处理器,所述处理器执行所述存储器中存储的计算机程序,以实现如上述第二方面任一项所述的基于虚拟形象的视频通话方法。
82.第十三方面,提供一种通信系统,包括如上述第一方面任一项所述的第一终端和上述第二方面任一项所述的第二终端,以及用于建立第一终端和第二终端之间的通信连接的通信设备。
83.可以理解的是,上述第二方面至第十三方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
84.图1是现有技术中的一种虚拟形象视频通话的界面示意图;
85.图2是本技术实施例提供的基于虚拟形象的视频通话方法与现有技术中传统的虚拟形象视频通话方法的对比示意图;
86.图3是本技术实施例提供的一种数据传输示意图;
87.图4是本技术实施例提供的一种电子设备的结构示意图;
88.图5是本技术实施例提供的一种电子设备的软件结构框图;
89.图6是本技术实施例提供的一种基于虚拟形象的视频通话方法的步骤示意图;
90.图7是本技术实施例提供的一种触发第一终端发起视频通话请求的操作示意图;
91.图8是本技术实施例提供的一种第二终端接受视频通话请求的操作示意图;
92.图9是本技术实施例提供的一种在第一终端和第二终端之间进行视频通话时的通话界面示意图;
93.图10是本技术实施例提供的第一终端的数据处理过程示意图;
94.图11是本技术实施例提供的一种视频帧的处理方式示意图;
95.图12是本技术实施例提供的第二终端的数据处理过程示意图;
96.图13是本技术实施例提供的一种人脸法线的示意图;
97.图14是本技术实施例提供的一种在第一终端侧实现的基于虚拟形象的视频通话方法的步骤示意图;
98.图15是本技术实施例提供的另一种在第一终端侧实现的基于虚拟形象的视频通话方法的步骤示意图;
99.图16是本技术实施例提供的又一种在第一终端侧实现的基于虚拟形象的视频通话方法的步骤示意图;
100.图17是本技术实施例提供的一种在第二终端侧实现的基于虚拟形象的视频通话方法的步骤示意图;
101.图18是本技术实施例提供的一种基于虚拟形象的视频通话装置的结构框图;
102.图19是本技术实施例提供的另一种基于虚拟形象的视频通话装置的结构框图。
具体实施方式
103.为了便于清楚描述本技术实施例的技术方案,在本技术的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。例如,第一人脸识别引擎、第二人脸识别引擎等等仅仅是为了区分不同终端上的人脸识别引擎,并不对其数量和执行次序进行限定。
104.需要说明的是,本技术实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本技术实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
105.本技术实施例描述的业务场景是为了更加清楚的说明本技术实施例的技术方案,并不构成对于本技术实施例提供的技术方案的限定,本领域普通技术人员可知,随着新业务场景的出现,本技术实施例提供的技术方案对于类似的技术问题,同样适用。
106.本技术实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b的情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
107.本技术实施例提供的一种基于虚拟形象的视频通话方法中所涉及到的步骤仅仅作为示例,并非所有的步骤均是必须执行的步骤,或者并非各个信息或消息中的内容均是必选的,在使用过程中可以根据需要酌情增加或减少。
108.本技术实施例中同一个步骤或者具有相同功能的步骤或者消息在不同实施例之间可以互相参考借鉴。
109.如图1所示,是现有技术中的一种虚拟形象视频通话的界面示意图。用户在使用图1所示的虚拟形象视频通话时,需要从多个待选虚拟形象中选择一个作为当前通话的虚拟形象。例如,用户从包含多个待选虚拟形象的区域100中选择虚拟形象103作为当前通话的虚拟形象。第一终端或应用程序使用人脸识别技术,将采集到的视频帧中的用户人脸替换为选中的虚拟形象103,替换后的用户人脸如图1中的110所示。然后,第一终端向第二终端
发送视频流,实现虚拟形象视频通话。
110.可见,现有技术中的虚拟形象视频通话是将替换后的画面作为完整的画面传输至对端设备,整个过程与传统视频通话传输视频流和音频流的过程并无区别。假设视频通话过程中原本要传输的视频流大小为1080*1920像素,每秒传输帧数(frames per second,fps)为30帧。采用虚拟形象会将每一帧中的人脸替换,最终生成的视频流仍为1080*1920像素,帧率为30fps,与原视频流在数据大小上无太大差异。这样,在用户接入的网络条件较差的情况下,如带宽无法支持视频通话时,这种虚拟形象的视频通话也就无法使用。
111.针对上述问题,本技术实施例提供一种基于虚拟形象的视频通话方法。采用该方法,第一终端在采集用户通话过程中的图像数据和音频数据后,可以从图像数据中提取出表征该用户的人脸表情和头部动作的特征信息。然后,第一终端将音频数据和提取出的特征信息传输至第二终端,由第二终端将接收到的特征信息映射至虚拟形象上,形成视频通话图像。并且,第二终端在显示视频通话图像的同时,通过同步播放接收到的音频数据,可以在第一终端和第二终端之间实现基于虚拟形象的视频通话。这样,在通话过程中,第一终端无需向第二终端传输视频流,而只需传输从视频流中提取出的特征信息,极大地减少了需要传输的数据量,使得在网络条件不佳的情况下,用户也可以使用视频通话与其他用户联系。其次,采用本方法,由于第一终端并不需要向第二终端传输用户在通话过程中的实时图像,也能够保证用户的隐私安全。
112.具体地,如图2所示,是本技术实施例提供的基于虚拟形象的视频通话方法与现有技术中传统的虚拟形象视频通话方法的对比示意图。在图2中的(a)中,示出了在本技术实施例中以及现有技术中视频通话发起端(即,第一终端)的数据处理过程对比示意图。如图2中的(a)所示,现有技术中传统的视频通话,是由第一终端调用摄像头采集图像数据,调用麦克风采集音频数据。然后,第一终端将图像数据和音频数据叠加为视频流,并将视频流传输给对端(即,第二终端)。而本技术实施例提供的视频通话方法,第一终端可以调用摄像头采集图像数据,调用麦克风采集音频数据。然后,第一终端对采集到的图像数据进行处理,识别出图像中的人脸表情、头部动作等特征信息。第一终端将识别出的特征信息与音频数据叠加为数据流,传输给对端的第二终端。在图2中的(b)中,示出了在本技术实施例中以及现有技术中视频通话接收端(即,第二终端)的数据处理过程对比示意图。现有技术中传统的视频通话,第二终端在接收到第一终端传输的数据流后,通过对视频流和音频流进行解码,从而显示出相应的画面,并播放声音,实现视频通话。而本技术实施例提供的视频通话方法,第二终端所接收到的数据流并非视频流,而是在音频流的基础上叠加有特征信息的特殊通话流。因此,第二终端一方面可以按照传统方法对音频流进行解码,另一方面则需要逐帧提取特征信息,并对每一帧特征信息进行分析处理,然后将包含有人脸表情和头部动作的特征信息映射至虚拟形象中,形成视频通话图像。最后,第二终端根据时间戳对图像和音频进行同步,通过显示虚拟形象画面并同步播放声音,实现第一终端和第二终端之间的视频通话。
113.可见,现有技术中传统的视频通话过程,传输的数据仍然为视频流。由于视频流的传输需要占用较多的网络带宽,在网络条件不佳的情况下,无法采用传统方法实现视频通话。而本技术实施例提供的视频通话方法,并不需要传输视频流,而是在语音通话传输音频流的基础上,增加了特征信息而形成的特殊数据流,其需要占用的网络带宽较少,即使在网
络条件不佳的情况下,采用本技术实施例提供的视频通话方法,也能够实现视频通话,而不会降级为语音通话。
114.在本技术实施例中,上述第一终端或第二终端可以是手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,ar)/虚拟现实(virtual reality,vr)设备、笔记本电脑、个人计算机(personal computer,pc)、上网本、个人数字助理(personal digital assistant,pda)等具备音视频采集功能的电子设备。本技术实施例对第一终端或第二终端的具体类型不作限定。
115.本技术实施例中的第一终端和第二终端可以是同类型的电子设备,例如,第一终端和第二终端均为手机;或者,第一终端和第二终端均为平板电脑。本技术实施例中的第一终端和第二终端也可以是不同类型的电子设备,例如,第一终端为手机,第二终端为平板电脑;或者,第一终端为平板电脑,第二终端为手机。
116.如图3所示,是本技术实施例提供的一种数据传输示意图。在图3中,包括第一终端31和第二终端32。其中,第一终端31可以是手机311、平板电脑312、pc设备313或者智能电视机314;类似地,第二终端32也可以是手机321、平板电脑322、pc设备323或者智能电视机324。在一种可能的实现方式中,第一终端31与第二终端32通信时,相互之间的数据流可以通过通信设备传输。该通信设备可以是通信基站、云服务器等设备。例如,第一终端31将采集到的特征信息和音频数据传输至云服务器30,由云服务器30再将这些数据传输至第二终端32,由第二终端32对数据进行处理,从而显示包含有虚拟形象的视频通话图像,并播放相应的音频,实现第一终端31和第二终端32之间的视频通话。在另一种可能的实现方式中,第一终端31和第二终端32之间的数据流也可以以点对点(peer to peer,p2p)数据流的形式进行传输本技术实施例对此不作限定。
117.示例性的,图4示出了一种电子设备400的结构示意图。上述第一终端31和第二终端32的结构可以参考电子设备400的结构。
118.电子设备400可以包括处理器410、外部存储器接口420、内部存储器421、通用串行总线(universal serial bus,usb)接口430、充电管理模块440、电源管理模块441、电池442、天线1、天线2、移动通信模块450、无线通信模块460、音频模块470、扬声器470a、受话器470b、麦克风470c、耳机接口470d、传感器模块480、按键490、马达491、指示器492、摄像头493、显示屏494,以及用户标识模块(subscriber identification module,sim)卡接口495等。其中,传感器模块480可以包括压力传感器480a、陀螺仪传感器480b、气压传感器480c、磁传感器480d、加速度传感器480e、距离传感器480f、接近光传感器480g、指纹传感器480h、温度传感器480j、触摸传感器480k、环境光传感器480l、骨传导传感器480m等。
119.可以理解的是,本技术实施例示意的结构并不构成对电子设备400的具体限定。在本技术一些实施例中,电子设备400可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
120.处理器410可以包括一个或多个处理单元。例如,处理器410可以包括应用处理器(application processor,ap)、调制解调处理器、图形处理器(graphics processing unit,gpu)、图像信号处理器(image signal processor,isp)、控制器、视频编解码器、数字信号处理器(digital signal processor,dsp)、基带处理器,和/或,神经网络处理器
(neural-network processing unit,npu)等。不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
121.其中,控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
122.处理器410中还可以设置存储器,用于存储指令和数据。在本技术一些实施例中,处理器410中的存储器为高速缓冲存储器。该存储器可以保存处理器410刚用过或循环使用的指令或数据。如果处理器410需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器410的等待时间,因而提高了系统的效率。
123.在本技术一些实施例中,处理器410可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,i2c)接口、集成电路内置音频(inter-integrated circuit sound,i2s)接口、脉冲编码调制(pulse code modulation,pcm)接口、通用异步收发传输器(universal asynchronous receiver/transmitter,uart)接口、移动产业处理器接口(mobile industry processor interface,mipi)、通用输入输出(general-purpose input/output,gpio)接口、用户标识模块(subscriber identity module,sim)接口,和/或,通用串行总线(universal serial bus,usb)接口等。
124.i2c接口是一种双向同步串行总线,包括一根串行数据线(serial data line,sda)和一根串行时钟线(derail clock line,scl)。在本技术一些实施例中,处理器410可以包含多组i2c总线。处理器410可以通过不同的i2c总线接口分别耦合触摸传感器480k、充电器、闪光灯、摄像头493等。例如,处理器410可以通过i2c接口耦合触摸传感器480k,使处理器410与触摸传感器480k通过i2c总线接口通信,实现电子设备400的触摸功能。
125.i2s接口可以用于音频通信。在本技术一些实施例中,处理器410可以包含多组i2s总线。处理器410可以通过i2s总线与音频模块470耦合,实现处理器410与音频模块470之间的通信。在本技术一些实施例中,音频模块470可以通过i2s接口向无线通信模块460传递音频信号,实现通过蓝牙耳机接听电话的功能。
126.pcm接口也可以用于音频通信,将模拟信号抽样,量化和编码。在本技术一些实施例中,音频模块470与无线通信模块460可以通过pcm总线接口耦合。在本技术一些实施例中,音频模块470也可以通过pcm接口向无线通信模块460传递音频信号,实现通过蓝牙耳机接听电话的功能。
127.uart接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在本技术一些实施例中,uart接口通常被用于连接处理器410与无线通信模块460。例如,处理器410通过uart接口与无线通信模块460中的蓝牙模块通信,实现蓝牙功能。在本技术一些实施例中,音频模块470可以通过uart接口向无线通信模块460传递音频信号,实现通过蓝牙耳机播放音乐的功能。
128.mipi接口可以被用于连接处理器410与显示屏494、摄像头493等外围器件。mipi接口包括摄像头串行接口(camera serial interface,csi)、显示屏串行接口(display serial interface,dsi)等。
129.在本技术一些实施例中,处理器410和摄像头493通过csi接口通信,实现电子设备400的拍摄功能。处理器410和显示屏494通过dsi接口通信,实现电子设备400的显示功能。
130.gpio接口可以通过软件配置。gpio接口可以被配置为控制信号,也可被配置为数
据信号。在本技术一些实施例中,gpio接口可以用于连接处理器410与摄像头493、显示屏494、无线通信模块460、音频模块470、传感器模块480等。gpio接口还可以被配置为i2c接口、i2s接口、uart接口、mipi接口等。
131.usb接口430是符合usb标准规范的接口,具体可以是mini usb接口、micro usb接口、usb type c接口等。usb接口430可以用于连接充电器为电子设备400充电,也可以用于电子设备400与外围设备之间传输数据。usb接口430也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如ar设备等。
132.可以理解的是,本技术实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备400的结构限定。在本技术另一些实施例中,电子设备400也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
133.充电管理模块440用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块440可以通过usb接口430接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块440可以通过电子设备400的无线充电线圈接收无线充电输入。充电管理模块440为电池442充电的同时,还可以通过电源管理模块441为电子设备供电。
134.电源管理模块441用于连接电池442、充电管理模块440与处理器410。电源管理模块441接收电池442和/或充电管理模块440的输入,为处理器410、内部存储器421、显示屏494、摄像头493、无线通信模块460等供电。电源管理模块441还可以用于监测电池容量、电池循环次数、电池健康状态(漏电,阻抗)等参数。
135.在其他一些实施例中,电源管理模块441也可以设置于处理器410中。在另一些实施例中,电源管理模块441和充电管理模块440也可以设置于同一个器件中。
136.电子设备400的无线通信功能可以通过天线1、天线2、移动通信模块450、无线通信模块460、调制解调处理器以及基带处理器等实现。
137.天线1和天线2用于发射和接收电磁波信号。电子设备400中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如,可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
138.移动通信模块450可以提供应用在电子设备400上的包括2g/3g/4g/5g等无线通信的解决方案。移动通信模块450可以包括至少一个滤波器、开关、功率放大器、低噪声放大器(low noise amplifier,lna)等。移动通信模块450可以由天线1接收电磁波,并对接收的电磁波进行滤波、放大等处理,传送至调制解调处理器进行解调。移动通信模块450还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。
139.在本技术一些实施例中,移动通信模块450的至少部分功能模块可以被设置于处理器410中。在本技术一些实施例中,移动通信模块450的至少部分功能模块可以与处理器410的至少部分模块被设置在同一个器件中。
140.调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后,解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器470a、受话器470b等)输出声音信号,或通过显示屏494显示图像或视频。
141.在本技术一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器410,与移动通信模块450或其他功能模块设置在同一个器件中。
142.无线通信模块460可以提供应用在电子设备400上的包括无线局域网(wireless local area networks,wlan)(如无线保真(wireless fidelity,wi-fi)网络)、蓝牙(bluetooth,bt)、全球导航卫星系统(global navigation satellite system,gnss)、调频(frequency modulation,fm)、近距离无线通信技术(near field communication,nfc)、红外技术(infrared,ir)等无线通信的解决方案。无线通信模块460可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块460经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器410。无线通信模块460还可以从处理器410接收待发送的信号,对其进行调频、放大,经天线2转为电磁波辐射出去。
143.在本技术一些实施例中,电子设备400的天线1和移动通信模块450耦合,天线2和无线通信模块460耦合,使得电子设备400可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,gsm)、通用分组无线服务(general packet radio service,gprs)、码分多址接入(code division multiple access,cdma)、宽带码分多址(wideband code division multiple access,wcdma)、时分码分多址(time-division code division multiple access,td-scdma)、长期演进(long term evolution,lte)、bt、gnss、wlan、nfc、fm,和/或ir技术等。所述gnss可以包括全球卫星定位系统(global positioning system,gps)、全球导航卫星系统(global navigation satellite system,glonass)、北斗卫星导航系统(beidou navigation satellite system,bds)、准天顶卫星系统(quasi-zenith satellite system,qzss),和/或星基增强系统(satellite based augmentation systems,sbas)。
144.电子设备400通过gpu、显示屏494,以及应用处理器等实现显示功能。gpu为图像处理的微处理器,连接显示屏494和应用处理器。gpu用于执行数学和几何计算,用于图形渲染。处理器410可包括一个或多个gpu,其执行程序指令以生成或改变显示信息。
145.显示屏494用于显示图像、视频等。显示屏494包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,lcd)、有机发光二极管(organic light-emitting diode,oled)、有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrix organic light emitting diode的,amoled)、柔性发光二极管(flex light-emitting diode,fled)、miniled、microled、micro-oled、量子点发光二极管(quantum dot light emitting diodes,qled)等。在本技术一些实施例中,电子设备400可以包括1个或n个显示屏494,n为大于1的正整数。
146.电子设备400可以通过isp、摄像头493、视频编解码器、gpu、显示屏494以及应用处理器等实现拍摄功能。
147.isp用于处理摄像头493反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给isp处理,转化为肉眼可见的图像。isp还可以对图像的噪点、亮度、肤色进行算法优化。isp还可以对拍摄场景的曝光、色温等参数优化。在本技术一些实施例中,isp可以设置在摄像头493中。
148.摄像头493用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,ccd)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,cmos)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给isp转换成数字图像信号。isp将数字图像信号输出到dsp加工处理。dsp将数字图像信号转换成标准的rgb、yuv等格式的图像信号。在本技术一些实施例中,电子设备400可以包括1个或n个摄像头493,n为大于1的正整数。
149.数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备400在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
150.视频编解码器用于对数字视频压缩或解压缩。电子设备400可以支持一种或多种视频编解码器。这样,电子设备400可以播放或录制多种编码格式的视频,例如,动态图像专家组(moving picture experts group,mpeg)1、mpeg2、mpeg3、mpeg4等。
151.npu为神经网络(neural-network,nn)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过npu可以实现电子设备400的智能认知等应用,例如,图像识别、人脸识别、语音识别、文本理解等。
152.外部存储器接口420可以用于连接外部存储卡,例如micro sd卡,实现扩展电子设备400的存储能力。外部存储卡通过外部存储器接口420与处理器410通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
153.内部存储器421可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器421可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备400使用过程中所创建的数据(比如音频数据、电话本等)等。
154.此外,内部存储器421可以包括高速随机存取存储器,还可以包括非易失性存储器。例如至少一个磁盘存储器件、闪存器件、通用闪存存储器(universal flash storage,ufs)等。
155.处理器410通过运行存储在内部存储器421的指令,和/或存储在设置于处理器中的存储器的指令,执行电子设备400的各种功能应用以及数据处理。
156.电子设备400可以通过音频模块470、扬声器470a、受话器470b、麦克风470c、耳机接口470d,以及应用处理器等实现音频功能。例如音乐播放、录音等。
157.音频模块470用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块470还可以用于对音频信号编码和解码。在本技术一些实施例中,音频模块470可以设置于处理器410中,或将音频模块470的部分功能模块设置于处理器410中。
158.扬声器470a,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备400可以通过扬声器470a收听音乐,或收听免提通话。
159.受话器470b,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备400接听电话或语音信息时,可以通过将受话器470b靠近人耳接听语音。
160.麦克风470c,也称“话筒”、“传声器”,用于将声音信号转换为电信号。当拨打电话
或发送语音信息时,用户可以通过人嘴靠近麦克风470c发声,将声音信号输入到麦克风470c。电子设备400可以设置至少一个麦克风470c。在另一些实施例中,电子设备400可以设置两个麦克风470c,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备400还可以设置三个、四个或更多麦克风470c,实现采集声音信号、降噪,还可以识别声音来源,实现定向录音功能等。
161.耳机接口470d用于连接有线耳机。耳机接口470d可以是usb接口430,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,omtp)标准接口、美国蜂窝电信工业协会(cellular telecommunications industry association of the usa,ctia)标准接口。
162.压力传感器480a用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器480a可以设置于显示屏494。压力传感器480a的种类很多,如电阻式压力传感器、电感式压力传感器、电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器480a,电极之间的电容改变。电子设备400根据电容的变化确定压力的强度。当有触摸操作作用于显示屏494,电子设备400根据压力传感器480a检测所述触摸操作强度。电子设备400也可以根据压力传感器480a的检测信号计算触摸的位置。
163.在本技术一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如,当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
164.陀螺仪传感器480b可以用于确定电子设备400的运动姿态。在本技术一些实施例中,可以通过陀螺仪传感器480b确定电子设备400围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器480b可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器480b检测电子设备400抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备400的抖动,实现防抖。陀螺仪传感器480b还可以用于导航、体感游戏场景。
165.气压传感器480c用于测量气压。在本技术一些实施例中,电子设备400通过气压传感器480c测得的气压值计算海拔高度、辅助定位和导航。
166.磁传感器480d包括霍尔传感器。电子设备400可以利用磁传感器480d检测翻盖皮套的开合。在本技术一些实施例中,当电子设备400是翻盖机时,电子设备400可以根据磁传感器480d检测翻盖的开合,进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
167.加速度传感器480e可检测电子设备400在各个方向上(一般为三轴)加速度的大小。当电子设备400静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
168.距离传感器480f,用于测量距离。电子设备400可以通过红外或激光测量距离。在本技术一些实施例中,例如拍摄场景,电子设备400可以利用距离传感器480f测距以实现快速对焦。
169.接近光传感器480g可以包括例如发光二极管(led)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备400通过发光二极管向外发射红外光。电子设
备400使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备400附近有物体。当检测到不充分的反射光时,电子设备400可以确定电子设备400附近没有物体。电子设备400可以利用接近光传感器480g检测用户手持电子设备400贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器480g也可用于皮套模式,口袋模式自动解锁与锁屏。
170.环境光传感器480l用于感知环境光亮度。电子设备400可以根据感知的环境光亮度自适应调节显示屏494亮度。环境光传感器480l也可用于拍照时自动调节白平衡。环境光传感器480l还可以与接近光传感器480g配合,检测电子设备400是否在口袋里,以防误触。
171.指纹传感器480h用于采集指纹。电子设备400可以利用采集的指纹特性实现指纹解锁、访问应用锁、指纹拍照、指纹接听来电等。
172.温度传感器480j用于检测温度。在本技术一些实施例中,电子设备400利用温度传感器480j检测的温度,执行温度处理策略。例如,当温度传感器480j上报的温度超过阈值,电子设备400执行降低位于温度传感器480j附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备400对电池442加热,以避免低温导致电子设备400异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备400对电池442的输出电压执行升压,以避免低温导致的异常关机。
173.触摸传感器480k,也称“触控器件”。触摸传感器480k可以设置于显示屏494,由触摸传感器480k与显示屏494组成触摸屏,也称“触控屏”。触摸传感器480k用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏494提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器480k也可以设置于电子设备400的表面,与显示屏494所处的位置不同。
174.骨传导传感器480m可以获取振动信号。在本技术一些实施例中,骨传导传感器480m可以获取人体声部振动骨块的振动信号。骨传导传感器480m也可以接触人体脉搏,接收血压跳动信号。
175.在本技术一些实施例中,骨传导传感器480m也可以设置于耳机中,结合成骨传导耳机。音频模块470可以基于所述骨传导传感器480m获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于骨传导传感器480m获取的血压跳动信号解析心率信息,实现心率检测功能。
176.按键490包括开机键、音量键等。按键490可以是机械按键,也可以是触摸式按键。电子设备400可以接收按键输入,产生与电子设备400的用户设置以及功能控制有关的键信号输入。
177.马达491可以产生振动提示。马达491可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照、音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏494不同区域的触摸操作,马达491也可对应不同的振动反馈效果。不同的应用场景(例如,时间提醒、接收信息、闹钟、游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
178.指示器492可以是指示灯,可以用于指示充电状态、电量变化,也可以用于指示消息、未接来电、通知等。
179.sim卡接口495用于连接sim卡。sim卡可以通过插入sim卡接口495,或从sim卡接口
495拔出,实现和电子设备400的接触和分离。电子设备400可以支持1个或n个sim卡接口,n为大于1的正整数。sim卡接口495可以支持nano sim卡、micro sim卡、sim卡等。同一个sim卡接口495可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。sim卡接口495也可以兼容不同类型的sim卡。sim卡接口495也可以兼容外部存储卡。电子设备400通过sim卡和网络交互,实现通话以及数据通信等功能。在本技术一些实施例中,电子设备400采用esim(即嵌入式sim卡)。esim卡可以嵌在电子设备400中,不能和电子设备400分离。
180.电子设备400的软件系统可以采用分层架构、事件驱动架构、微核架构、微服务架构,或云架构。本技术实施例以分层架构的系统为例,示例性说明电子设备400的软件结构。
181.图5是本技术实施例的电子设备400的软件结构框图。
182.分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在本技术一些实施例中,将系统分为四层,从上至下分别为应用程序层、应用程序框架层、运行时(runtime)和系统库,以及内核层。
183.应用程序层可以包括一系列应用程序包。
184.如图5所示,应用程序包可以包括相机、图库、日历、通话、地图、导航、wlan、蓝牙、音乐、视频、短信息等应用程序。
185.应用程序框架层为应用程序层的应用程序提供应用编程接口(application programming interface,api)和编程框架。应用程序框架层包括一些预先定义的函数。
186.如图5所示,应用程序框架层可以包括窗口管理器、内容提供器、视图系统、电话管理器、资源管理器、通知管理器等。
187.窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小、判断是否有状态栏、锁定屏幕、截取屏幕等。
188.内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频、图像、音频、拨打和接听的电话、浏览历史和书签、电话簿等。
189.视图系统包括可视控件,例如显示文字的控件、显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
190.电话管理器用于提供电子设备400的通信功能。例如,通话状态的管理(包括接通,挂断等)。
191.资源管理器为应用程序提供各种资源,比如本地化字符串、图标、图片、布局文件、视频文件等等。
192.通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成、消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息、发出提示音、电子设备振动、指示灯闪烁等。
193.runtime包括核心库和虚拟机。runtime负责系统的调度和管理。
194.核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是的核心库。
195.应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理、堆栈管理、线程管理、安全和异常的管理、以及垃圾回收等功能。
196.系统库可以包括多个功能模块。例如,表面管理器(surface manager)、媒体库(media libraries)、三维图形处理库(例如,opengl es)、2d图形引擎(例如,sgl)等。
197.表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2d和3d图层的融合。
198.媒体库支持多种常用的音频、视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如,mpeg4、h.264、mp3、aac、amr、jpg、png等。
199.三维图形处理库用于实现三维图形绘图、图像渲染、合成,以及图层处理等。
200.2d图形引擎是2d绘图的绘图引擎。
201.内核层是硬件和软件之间的层。内核层至少包含显示驱动、摄像头驱动、音频驱动、传感器驱动。
202.以下实施例以具有上述硬件结构/软件结构的终端为例,对本技术实施例提供的基于虚拟形象的视频通话方法进行说明。
203.参照图6,示出了本技术实施例提供的一种基于虚拟形象的视频通话方法的步骤示意图,该方法具体可以包括如下步骤:
204.s601、第一终端向第二终端传输虚拟形象编号信息。
205.在本技术实施例中,第一终端可以是发起视频通话的终端,第二终端可以是接收该视频通话的终端。
206.在本技术实施例的一种可能的实现方式中,视频通话可以是由第一用户在第一终端上的操作触发的。第一用户可以是指使用第一终端的用户;相应地,第二用户可以是指使用第二终端的用户。
207.示例性地,第一用户希望与第二用户进行视频通话,则第一用户可以在如图7中的(a)所示的第一终端的界面中点击“电话”控件701。响应于第一用户点击“电话”控件701的操作,第一终端进入如图7中的(b)所示的拨号界面。在该拨号界面中,第一用户可以输入第二用户的电话号码或其他可用于联系第二用户的联系方式;或者,若第一终端中存储有第二用户的联系方式,第一用户也可以直接从第一终端中调出第二用户的联系方式。在一种可能的实现方式,第一用户可以在如图7中的(b)所示的界面中输入第二用户的电话号码。待第一用户输入完整的电话号码后,如图7中的(c)所示,第一用户可以点击“视频通话”控件702,触发第一终端向第二终端发起相应的视频通话请求。
208.在本技术实施例的一种可能的实现方式中,第一终端在向第二终端发起视频通话请求前,可以向第一用户展示如图7中的(d)所示的对话框703。在该对话框703中,包括“普通视频通话”控件7031和“虚拟形象视频通话”控件7032,第一用户可以从上述两个控件7031或7032中选择任意一种视频通话方式。其中,普通视频通话可以是指传统的视频通话方式,第一终端可以实时采集第一用户的图像和语音,并将采集到的图像和语音传输至第二终端,实现第一终端和第二终端之间的视频通话。在普通视频通话模式下,第一终端向第
二终端传输的是第一用户本人的图像和语音,显示于第二终端上的图像也就是第一用户本人的图像。虚拟形象视频通话可以是指本技术实施例中提供的视频通话方式,在虚拟形象视频通话过程中,显示于第二终端上的图像并非第一用户本人的图像,而是经过处理后的虚拟形象。
209.在一种示例中,第一用户点击如图7中的(f)所示的“虚拟形象视频通话”控件7032,请求第一终端建立与第二终端之间的虚拟形象视频通话连接。在第一用户选定“虚拟形象视频通话”控件7032后,第一终端可以弹出如图7中的(g)所示的对话框704,在对话框704中,第一终端请求第一用户选择希望使用的虚拟形象。例如,对话框704中包括虚拟形象1和虚拟形象2。如图7中的(h)所示,第一用户可以选定虚拟形象1对应的控件7041,这样,第一终端可以将第一用户选定的虚拟形象1的信息传输至第二终端,并请求基于虚拟形象1建立第一终端与第二终端之间的虚拟形象视频通话连接。上述虚拟形象1的信息即是第一终端传输至第二终端的虚拟形象编号信息。
210.需要说明的是,可用于视频通话的虚拟形象可以是任意类型的虚拟形象。例如,虚拟形象可以是虚拟宠物形象,也可以是虚拟人物形象,本技术实施例对虚拟形象的类型不作限定。
211.如表一所示,是本技术实施例提供的一种在第一终端和第二终端建立视频通话连接时所传输的数据的示例。
212.表一:
213.参数列表数据长度可选/必选字段描述charcterid4byte必选虚拟形象编号信息otherdata
ꢀꢀ
其他数据,根据需求添加
214.s602、第二终端根据虚拟形象编号信息,从多个虚拟形象中确定目标虚拟形象。
215.在本技术实施例中,第一终端发起的虚拟形象视频通话请求可以基于任意的通信手段传输至第二终端。示例性地,上述虚拟形象视频通话请求可以通过基站、云服务器或者p2p的方式传输至第二终端。
216.如图8中的(a)所示,是第二终端接收到第一终端发送的虚拟形象视频通话请求时的界面示意图。在该界面中,包括第一终端的通信号码801,以及可供第二用户对该通话请求进行处理的多个操作控件,如“接听”控件802、“拒绝”控件803、“转为语音”控件804等等。当然,第二终端的界面中还可以包括用于显示本次通话请求类型的显示信息805a。第二终端通过显示信息805a可以告知第二用户当前的通话请求是虚拟形象视频通话请求。第二用户可以通过点击“接听”控件802,建立起第一终端与第二终端之间的视频通话连接;或者,第二用户也可以通过点击“转为语音”控件804,建立起第一终端与第二终端之间的语音通话连接;又或者,第二用户可以通过点击“拒绝”控件803,拒绝第一终端的通信请求。如图8中的(b)所示,第二用户可以点击“接听”控件802,接受第一终端发起的虚拟形象视频通话请求。当第二用户接受第一终端的虚拟视频通话请求后,第二终端可以弹出如图8中的(c)所示的对话框,该对话框中包括有“虚拟形象1”和“虚拟形象2”两个选择控件8021和8022,第二用户可以从中选择任意一个控件,例如第二用户选择如图8中的(c)所示的“虚拟形象2”对应的控件8022。在第二用户通过点击“虚拟形象2”对应的控件8022,建立起第一终端与第二终端之间的虚拟形象视频通话连接后,第二终端可以根据接收到的第一终端传输的虚
拟形象编号信息确定在本终端上显示的目标虚拟形象。相应地,第二终端也可以将第二用户选定的虚拟形象的信息传输至第一终端,由第一终端根据接收到的虚拟形象编号信息,从多个虚拟形象中确定在第一终端上显示的目标虚拟形象。
217.需要说明的是,第一用户和第二用户选定的虚拟形象可以是相同的虚拟形象,也可以是不同的虚拟形象,本技术实施例对此不作限定。例如,第一用户和第二用户均可以选择“虚拟形象1”或者“虚拟形象2”作为视频通话过程中使用的虚拟形象;或者,第一用户选择使用“虚拟形象1”,而第二用户选择使用“虚拟形象2”,本技术实施例对此不作限定。
218.在本技术实施例中,目标虚拟形象可以是指在本终端中所显示的对端用户的形象。示例性地,在第一用户选定“虚拟形象1”用于后续的视频通话后,第一终端可以将第一用户选定的“虚拟形象1”的信息传输至第二终端。这样,第二终端便可以根据接收到的信息,从多个虚拟形象中确定“虚拟形象1”作为目标虚拟形象。即,在第二终端中所显示的第一用户的形象为“虚拟形象1”。相应地,在第二用户接受第一终端发起的虚拟形象视频通话请求并选定“虚拟形象2”用户后续的视频通话后,第二终端也可以将第二用户选定的虚拟形象2”的信息传输至第一终端。这样,第一终端也可以根据接收到的信息,从多个虚拟形象中确定“虚拟形象2”作为目标虚拟形象。即,在第一终端中所显示的第二用户的形象为“虚拟形象2”。
219.参见图9中的(a)和(b)所示,分别是在第一终端和第二终端之间建立起虚拟形象视频通话连接后,第一终端和第二终端的通话界面示意图。其中,图9中的(a)所示的是在第一终端上的通话界面示意图。在图9中的(a)所示的通话界面中,包括第二终端的通信号码9011、第一用户的虚拟形象9021以及第二用户的虚拟形象9031;在图9中的(b)所示的通话界面中,包括第一终端的通信号码9012、第二用户的虚拟形象9022以及第一用户的虚拟形象9032。需要说明的是,在图9中的(a)所示的通话界面中显示的第二用户的虚拟形象9031,与在图9中的(b)所示的通话界面中显示的第二用户的虚拟形象9022是相同的;在图9中的(b)所示的通话界面中显示的第一用户的虚拟形象9032,与在图9中的(a)所示的通话界面中显示的第二用户的虚拟形象9021是相同的。
220.在本技术实施例的一种可能的实现方式中,如图7中的(e)所示,第一用户在选择视频通话类型时,可以选择普通视频通话。即,第一用户点击图7中的(e)所示的控件7031。这样,第一终端将请求建立与第二终端之间的视频通话连接。在第一用户请求建立第一终端与第二终端之间的普通视频通话时,第二终端接收到的视频通话请求可以如图8中的(d)所示。参见图8中的(a)和(d)所示,第二终端在接收到普通视频通话请求时所显示的显示信息805b,表示当前视频话为普通视频通话。如图8中的(e)所示,第二用户可以点击“接听”控件802。此时,第二终端可以弹出如图8中的(f)所示的对话框806,在该对话框806中,第二终端可以再次请求第二用户确认是与第一用户进行普通视频通话还是虚拟形象视频通话。若第二用户点击图8中的(f)所示的“虚拟形象视频通话”控件8062,则第二终端可以弹出对话框,请求第二用户选择用户视频通话的虚拟形象。例如,用户选择如图8中的(g)所示的虚拟形象2。这样,第一终端和第二终端可以建立起单方的虚拟形象视频通话连接。
221.如图9中的(c)和(d)所示,在第一终端和第二终端建立单方的虚拟形象视频通话连接后,显示于第一终端上的第二用户的形象可以是第二用户的虚拟形象,显示于第二终端上的第一用户的形象可以是第一用户本人的真实形象。或者,在通话中的某一用户选择
进行普通视频通话,而另一用户选择进行虚拟形象视频通话时,也可以在第一终端和第二终端之间直接建立虚拟形象视频通话。例如,在第一用户请求与第二用户进行普通视频通话,但第二用户选择接受虚拟形象视频通话时,第一终端和第二终端上显示的视频通话界面既可以是如图9中的(a)和(b)所示的通话界面,也可以是如图9中的(c)和(d)所示的通话界面。本技术实施例对此不作限定。
222.s603、第一终端采集用户在通话过程中的图像数据和音频数据。
223.以第一用户和第二用户均选择虚拟形象视频通话为例。在第一终端和第二终端建立起虚拟形象视频通话连接后,第一终端可以采集第一用户在通话过程中的图像数据和音频数据。
224.如图10所示,是本技术实施例提供的第一终端的数据处理过程示意图。按照图10所示,第一终端可以调用图像采集装置,如摄像头对第一用户进行视频拍摄,得到相应的图像数据。另一方面,第一终端可以调用音频采集装置,如麦克风采集第一用户在通话过程中的声音,得到相应的音频数据。
225.需要说明的是,第一终端在使用摄像头对第一用户进行视频拍摄时,该摄像头可以是前置摄像头,也可以是后置摄像头。在第一用户使用第一终端的前置摄像头进行视频通话时,相应的视频信息可以显示于第一终端的主界面中,在第一用户使用第一终端的后置摄像头进行视频通话时,相应的视频信息可以显示于第一终端的背面的显示装置或模块中,本技术实施例对此亦不作限定。
226.s604、第一终端从图像数据中提取多帧目标特征信息。
227.在本技术实施例中,第一终端采集得到的图像数据可以是由多个视频帧组成的。因此,第一终端在对图像数据进行处理时,可以从每个视频帧中提取出可以用于表征第一用户的人脸表情和头部动作的目标特征信息。
228.在本技术实施例的一种可能的实现方式中,第一终端中可以配置有第一人脸识别引擎。相应地,在第二终端中也可以配置有第二人脸识别引擎。第一人脸识别引擎和第二人脸认识引擎可以是相同类型的人脸识别引擎,也可以是不同类型的人脸识别引擎。
229.因此,如图10所示,第一终端在对采集得到的图像数据进行处理时,第一终端可以将多个视频帧逐帧传递给第一人脸识别引擎,采用第一人脸识别引擎分别解析每个视频帧中的面部特征,得到每个视频帧中包含的特征点信息。然后,第一终端可以根据每个视频帧为上述特征点信息进行编码,得到分别与每个视频帧一一对应的多帧数据帧,每帧数据帧对应一帧目标特征信息,这些目标特征信息即是后续需要传递给第二终端的数据。
230.如图11所示,是本技术实施例提供的视频帧处理方式示意图。其中,如图11中的(a)所示,是传统的视频帧编码后的示意图,包括多个i帧、b帧和p帧。
231.通常,在视频压缩过程中,每个视频帧代表一幅静止的图像。在实际压缩过程中,可以采取各种算法减少数据的容量,ipb就是最常见的一种压缩编码算法。其中,i帧是关键帧,属于帧内压缩,包含有最多、最关键的数据或特征信息。可以理解为这一帧画面的完整保留,在解码时,因为其包含有完整画面,所以只需要本帧数据就可以完成解码。p帧表示的是这一帧跟之前的一个关键帧(或p帧)之间的差别。解码时需要用之前缓存的画面叠加上本帧定义的差别,生成最终画面。也就是说p帧属于差别帧,p帧没有完整的画面数据,只有与前一帧的画面差别的数据。b帧是双向差别帧,也就是b帧记录的是本帧与前后帧的差别。
要解码b帧,不仅要取得之前的缓存画面,还要解码之后的画面,通过前后画面与本帧数据的叠加取得最终的画面。
232.若按照图11中的(a)所示的传统的视频帧编码后的视频帧序列进行传输,其本质上仍然是传输的视频流。
233.在本技术实施例中,为了减少视频通过过程中对网络带宽的占用,第一终端可以从采集得到的图像数据中提取出每个视频帧中的特征信息,然后采用如图11中的(b)所示的编码方式按帧编码,得到仅包含有特征信息的数据帧1、数据帧2、数据帧3等等。这些数据帧并非传统视频通话过程中所传输的视频帧。每个数据帧中仅包含有从对应视频帧中提取出的目标特征信息。
234.如表二所示,是按照图11中的(b)所示的编码方式进行编码后所得到的数据帧中包含的数据的示例。
235.表二:
[0236][0237][0238]
因此,在本技术实施例的一种可能的实现方式中,第一终端根据每个视频帧为特征点信息进行编码可以首先由第一终端按照接收到每个视频帧的顺序,分别确定每帧目标特征信息的帧序号,然后第一终端分别根据每个视频帧中包含的特征点信息识别多个面部区域,第一终端获取每个面部区域的特征信息,如每个面部区域的状态信息和坐标信息。第一终端可以将帧序号以及每个面部区域的特征信息存储至预设的数据结构中,得到上述表二所示的数据帧,每个数据帧分别对应一帧目标特征信息。
[0239]
需要说明的是,第一终端在按照图11中的(b)所示的编码方式对提取出的特征点信息进行编码时,并未对目标特征信息进行压缩,也未进行帧间编码。也就是说,图11中(b)的帧1、帧2、
……
、帧12等数据帧中包含的是从每个视频帧中提取出的可用于表征第一用户的人脸表情和头部动作的原始特征信息。
[0240]
本技术实施例通过提取每个视频帧中的特征点信息进行编码,使得后续向第二终端传输的是不是视频画面,只是表情特征信息,不包含冗余数据,这样传输的效率更高。按照每帧10byte特征信息,帧率24fps计算,码率只有30kbps左右,传输的数据量远小于传统视频通话直接传输的视频流的数据量。
[0241]
在本技术实施例的另一种可能的实现方式中,为了进一步减少视频通话过程中需
要传输的数据量,第一终端在对特征点信息进行编码时,还可以采用帧间压缩编码的方式进行。
[0242]
在本技术实施例中,第一终端在建立起与第二终端之间的视频通话通信后,可以确定待传输的面部区域。即,第一终端可以首先确定哪些面部区域的特征信息需要传输至第二终端。在之后的每帧数据中,只需填写相应的帧序号及已确定的面部区域的坐标、状态等信息即可。
[0243]
在具体实现中,第一终端可以从多个视频帧中确定关键视频帧(i帧)。第一终端确定的关键视频帧的信息可以在与第二终端建立起视频通话连接时,发送至第二终端。
[0244]
因此,若按照帧间压缩的方式对提取取的特征点信息进行编码,则第一终端在与第二终端建立视频通话连接时所需传输的数据可以如下表三所示。
[0245]
表三:
[0246]
参数列表数据长度可选/必选字段描述charcterid4byte必选虚拟形象编号信息gop1byte必选关键帧间隔帧数otherdata
ꢀꢀ
其他数据,根据需求添加facetypelistn*1byte必选约定后续数据中包含多少种面部特征facialareatype1byte必选面部区域,标识16个不同的面部区域
[0247]
针对关键视频帧,第一终端可以获取关键视频帧中待传输的面部区域的全部特征信息;而针对非关键视频帧,第一终端可以首先确定任意相邻的两个非关键视频帧中待传输的面部区域的特征信息是否发生变化,若任意相邻的两个非关键视频帧中待传输的面部区域的特征信息发生变化,则可以获取发生变化的非关键视频帧中待传输的面部区域的特征信息,从而仅仅对发生变化的特征信息进行编码。
[0248]
如图11中的(c)所示,是采用帧间压缩编码的方式对提取出的特征点信息进行编码的示意图。其中,对于关键视频帧,即图11中的(c)所示的帧1、帧6和帧11,第一终端可以保留这三个视频帧中的全部特征信息,而对其他视频帧,则可以仅仅保留每一帧中发生了变化的特征信息。
[0249]
关键视频帧中保留有完整的帧数据(面部区域的特征信息),中间各个非关键视频帧只保留变化的面部特征信息。在相邻的两帧间,不会有剧烈的表情和动作变化,所以一般情况下,中间各个非关键视频帧的数据要小于关键帧数据。
[0250]
如表四和表五所示,分别是按照图11中的(c)所示的编码方式进行编码后所得到的关键视频帧和非关键视频帧对应的数据帧中包含的数据的示例。
[0251]
表四,关键视频帧编码后得到的数据帧所包含的数据的示例:
[0252][0253]
表五,非关键视频帧编码后得到的数据帧所包含的数据的示例:
[0254][0255]
由于本实施例中由于采用了压缩编码,整体码率在直接对提取出的特征点信息进行编码的基础上会再降低。对于用户而言,所占用的带宽和消耗的流量更少。根据gop的不同、实际画面变化程度不同,压缩效果也不同。一般来说,gop越大,码率越低。
[0256]
s605、第一终端为多帧目标特征信息和音频数据添加时间戳。
[0257]
如图10所示,在对每个视频帧进行处理,得到相应的多帧目标特征信息后,为了保证每帧目标特征信息与音频数据能够同步,第一终端可以为多帧目标特征信息和音频数据添加时间戳,保证编码得到的每帧目标特征信息能够与该帧对应的音频数据对齐。
[0258]
s606、第一终端在将添加有时间戳的多帧目标特征信息和音频数据封装成通话数据流后,将通话数据流传输至第二终端。
[0259]
在添加时间戳后,第一终端可以将添加有时间戳的多帧目标特征信息和音频数据封装成通话数据流后,然后将通话数据流传输至第二终端。相较于传统的视频通话所传输的视频流,本技术实施例提供的基于虚拟形象的视频通话方法所传输的通话数据流仅仅包含音频数据和用于表征第一用户的人脸表情和头部动作的目标特征信息,极大地减少了数据传输时对网络带宽的占用。
[0260]
s607、第二终端从通话数据流中拆分出音频数据和多帧目标特征信息。
[0261]
如图12所示,是本技术实施例提供的第二终端的数据处理过程示意图。按照图12所示的处理过程,第二终端在接收到第一终端传输的通话数据流后,可以首先对通话数据流中的音频数据和多帧目标特征信息进行拆分。
[0262]
在具体实现中,第二终端可以从接收到的通话数据流中拆分出音频流和视频流,上述视频流可以是以数据流形式传输的多帧目标特征信息。对于音频流,第二终端可以对其进行音频解码,从而得到相应的音频数据;对于视频流,第二终端对其进行视频解码后,得到的便是每一帧的目标特征信息。
[0263]
s608、第二终端将多帧目标特征信息映射至目标虚拟形象中,以生成视频通话图像。
[0264]
在本技术实施例中,由于目标特征信息是表征第一用户的人脸表情和头部动作的特征信息,因此,第二终端在将多帧目标特征信息映射至目标虚拟形象后,可以生成多帧包含有第一用户的人脸表情和头部动作的图像,这些图像可以构成相应的视频通话画面。
[0265]
在本技术实施例的一种可能的实现方式中,第二终端解码得到的每帧目标特征信息中可以包括多个面部区域的状态信息和坐标信息,第二终端可以根据多个面部区域的坐标信息计算用户头部的朝向,也就是第一用户的头部的朝向;然后,第二终端可以根据多个面部区域的状态信息对用户头部的朝向进行调整,以及模拟人脸表情和头部动作。
[0266]
在具体实现中,第二终端可以根据解码得到的面部区域的坐标,通过人脸法线计算出头部的朝向。
[0267]
如图13所示,是本技术实施例提供的一种人脸法线的示意图。在图13中的(a)中显示有人的两眼之间的距离le、两眼与嘴唇之间的垂直距离lf,以及鼻尖与嘴唇之间的垂直距离lm;在图13中的(b)中显示有鼻尖距离面部的距离ln以及两眼与嘴唇之间的垂直距离lf、鼻尖与嘴唇之间的垂直距离lm等数据。第二终端可以根据接收到的各个面部区域的坐标,按照图13所示的人脸法线计算出第一用户的头部的朝向。然后,第二终端可以根据多个面部区域的状态信息对用户头部的朝向进行调整,模拟第一用户的人脸表情和头部动作。
[0268]
在确定出第一用户的人脸表情和头部动作后,第二终端可以将上述人脸表情和头部动作映射至预设的目标虚拟形象中,从而生成视频通话图像。上述目标虚拟形象即是第一终端和第二终端在建立视频通话连接时,根据第一终端传输的虚拟形象编号信息确定的虚拟形象。
[0269]
s609、第二终端在显示视频通话图像时,同步播放音频数据。
[0270]
如图13所示,在将第一用户的人脸表情和头部动作映射至目标虚拟形象,得到视频通话图像后,第二终端还需要对视频通话图像和音频数据进行时间同步。
[0271]
在本技术实施例中,第二终端解码得到的多帧目标特征信息和音频数据具有时间戳,该时间戳是第一终端为其添加的。第二终端可以根据多帧目标特征信息的时间戳,确定每帧视频通话图像的时间戳;然后,第二终端根据每帧视频通话图像的时间戳和音频数据的时间戳,对视频通话图像和音频数据进行同步,从而实现在显示视频通话图像时,同步播放音频数据。上述视频通话图像是映射有第一用户的人脸表情和头部动作的虚拟形象的图像。
[0272]
需要说明的是,上述实施例仅以第一终端向第二终端传输音频数据和目标特征信息,由第二终端在接收到音频数据和目标特征信息后,通过对目标特征信息进行处理,模拟
出第一用户的人脸表情和头部动作,从而在第二终端上呈现包含有第一用户的人脸表情和头部动作的方式,进而实现第一用户和第二用户的视频通话来对本技术实施例的基于虚拟形象的视频通话方法进行的介绍。可以理解的是,视频通话是双向的,第二终端可以采集第二用户的图像数据和音频数据,并从图像数据中提取出目标特征信息,然后将目标特征信息和音频数据传输至第一终端,由第一终端基于接收到的目标特征信息和音频数据,可以在第一终端上呈现出具有第二用户的人脸表情和头部动作的虚拟形象。在此过程中,第一终端和第二终端对数据的处理方式可以参见前述实施例各个步骤的介绍,本技术实施例对比不再赘述。
[0273]
参照图14,示出了本技术实施例提供的一种在第一终端侧实现的基于虚拟形象的视频通话方法的步骤示意图,该方法具体可以包括如下步骤:
[0274]
s1401、第一终端向第二终端传输虚拟形象编号信息,虚拟形象编号信息用于指示第二终端从多个虚拟形象中确定目标虚拟形象。
[0275]
在本技术实施例中,虚拟形象编号信息可以是在第一终端与第二终端建立起视频通话连接后,由第一终端传输至第二终端的。第二终端在接收到上述虚拟形象编号信息后,可以根据该信息,从多个虚拟形象中确定目标虚拟形象。目标虚拟形象便是后续显示在第二终端上,用于映射第一用户的人脸表情和头部动作的虚拟形象。
[0276]
s1402、第一终端采集用户在通话过程中的图像数据和音频数据。
[0277]
需要说明的是,前述实施例是将第一终端和第二终端作为一个整体来对本技术的基于虚拟形象的视频通话方法进行的介绍。本实施例是以第一终端侧来对本技术的方法进行的介绍。
[0278]
在本技术实施例中,第一终端采集的用户在通话过程中的图像数据和音频数据可以是指第一用户在通话过程中的音频数据和图像数据。这些图像数据包括多个视频帧。
[0279]
s1403、第一终端从图像数据中提取多帧目标特征信息,多帧目标特征信息包括用于表征用户的人脸表情和头部动作的特征信息。
[0280]
在本技术实施例中,第一终端中配置有第一人脸识别引擎。第一终端可以采用第一人脸识别引擎分别解析每个视频帧中的面部特征,得到每个视频帧中包含的特征点信息。然后,第一终端可以根据每个视频帧为上述特征点信息进行编码,得到分别与每个视频帧一一对应的多帧目标特征信息。
[0281]
在具体实现中,第一终端从图像数据中提取多帧目标特征信息时,可以首先按照接收到每个视频帧的顺序,分别确定每帧目标特征信息的帧序号;然后,第一终端可以分别根据每个视频帧中包含的特征点信息识别多个面部区域;在获取每个包含每个面部区域的状态信息和坐标信息等特征信息后,第一终端可以将帧序号以及每个面部区域的特征信息存储至预设的数据结构中,得到多帧目标特征信息。
[0282]
s1404、第一终端将多帧目标特征信息和音频数据传输至第二终端,第二终端用于将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有上述人脸表情和头部动作的目标虚拟形象。
[0283]
在本技术实施例中,第一终端在向第二终端传输目标特征信息和音频数据前,可以为多帧目标特征信息和音频数据添加时间戳。然后,第一终端可以将添加有时间戳的目标特征信息和音频数据封装成通话数据流,并将该通话数据流传输至第二终端。第二终端
在接收到第一终端传输的通话数据流后,可以通过对通话数据流进行拆分、解码等处理,将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,上述视频通话图像中包含具有第一用户的人脸表情和头部动作的目标虚拟形象。
[0284]
在网络条件较差的情况下,网络带宽可能无法支持在第一终端和第二终端之间进行视频通话。在本技术实施例中,由于第一终端仅向第二终端传输音频数据和可以表征第一用户的人脸表情和头部动作的目标特征信息,需要传输的数据流较少,对于网络带宽的要求较低。即使在网络条件较差的情况下,采用本方法仍然可以实现虚拟形象视频通话。第一用户和第二用户仍可以看到对方的表情和动作。其次,本技术实施例完全使用虚拟形象,不会暴露用户周围环境,能有有效保障用户的隐私安全。
[0285]
参照图15,示出了本技术实施例提供的另一种在第一终端侧实现的基于虚拟形象的视频通话方法的步骤示意图,该方法具体可以包括如下步骤:
[0286]
s1501、第一终端向第二终端传输虚拟形象编号信息,虚拟形象编号信息用于指示第二终端从多个虚拟形象中确定目标虚拟形象。
[0287]
由于s1501与前述实施例中s1401类似,可以相互参阅,本实施例对此不再赘述。
[0288]
s1502、第一终端确定待传输的面部区域。
[0289]
需要说明的是,在前一实施例中,第一终端向第二终端传输的每一帧目标特征信息都是包含有第一用户完整的面部特征信息的数据帧,包括哪个面部区域,其坐标、状态等信息。在本实施例中,可以在第一终端和第二终端建立视频通话连接后,预先确定需要传输哪些面部区域的数据。这样,在之后的每帧数据中,只需要填写帧序号以及面部区域的坐标、状态等信息即可,通过类似于视频编码中的帧间压缩的方式,进一步减少传输的数据量。
[0290]
s1503、第一终端采集用户在通话过程中的图像数据和音频数据,图像数据包括多个视频帧。
[0291]
由于s1503与前述实施例中s1402类似,可以相互参阅,本实施例对此不再赘述。
[0292]
s1504、第一终端从多个视频帧中确定关键视频帧。
[0293]
在本技术实施例中,对于采集得到的多个视频帧,第一终端可以从中确定出关键视频帧。关键视频帧即是需要将该帧中的全部特征信息传输至第二终端的视频帧。
[0294]
s1505、针对关键视频帧,第一终端获取关键视频帧中待传输的面部区域的特征信息。
[0295]
s1506、针对非关键视频帧,第一终端确定任意相邻的两个非关键视频帧中待传输的面部区域的特征信息是否发生变化,若任意相邻的两个非关键视频帧中待传输的面部区域的特征信息发生变化,则获取发生变化的非关键视频帧中待传输的面部区域的特征信息。
[0296]
在本技术实施例中,对于关键视频帧,可以获取该视频帧中待传输的面部区域的全部特征信息。对于非关键视频帧,则可以通过比较相邻两帧之间的面部区域的特征信息是否发生变化来确定需要获取哪些特征信息。如果某一非关键视频帧中有特征信息发生了变化,则可以获取发生了变化的特征信息。也就是说,对于关键视频帧,保留完整的帧数据;而对于中间各个非关键视频帧,则仅保留发生变化的特征信息。
[0297]
s1507、第一终端对关键视频帧和非关键视频帧的特征点信息进行帧间压缩编码,
得到分别与每个视频帧一一对应的多帧目标特征信息,多帧目标特征信息包括用于表征用户的人脸表情和头部动作的特征信息。
[0298]
在本技术实施例中,第一终端可以对关键视频帧和非关键视频帧的特征点信息进行帧间压缩编码,从而得到多帧数据帧,每一数据帧均对应一帧目标特征信息,这些目标特征信息可以用于表征第一用户的人脸表情和头部动作。
[0299]
s1508、第一终端将多帧目标特征信息和音频数据传输至第二终端,第二终端用于将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有上述人脸表情和头部动作的目标虚拟形象。
[0300]
由于s1508与前述实施例中s1404类似,可以相互参阅,本实施例对此不再赘述。
[0301]
在本实施例中,由于采用了帧间压缩编码的方式对视频帧进行处理,处理后的整体码率在前一实施例的基础上会再降低。对于用户而言,进行视频通话所占用的带宽和消耗的流量更少。
[0302]
参照图16,示出了本技术实施例提供的又一种在第一终端侧实现的基于虚拟形象的视频通话方法的步骤示意图,该方法具体可以包括如下步骤:
[0303]
s1601、第一终端向第二终端传输虚拟形象编号信息,虚拟形象编号信息用于指示第二终端从多个虚拟形象中确定目标虚拟形象,第一终端中配置有第一人脸识别引擎,第二终端中配置有第二人脸识别引擎,第一人脸识别引擎和第二人脸识别引擎为相同类型的人脸识别引擎。
[0304]
s1602、第一终端采集用户在通话过程中的图像数据和音频数据。
[0305]
s1603、第一终端从图像数据中提取多帧目标特征信息,多帧目标特征信息包括用于表征用户的人脸表情和头部动作的特征信息,多帧目标特征信息为由第一人脸识别引擎识别的原始特征信息。
[0306]
s1604、第一终端将多帧目标特征信息和音频数据传输至第二终端,所述第二终端用于采用第二人脸识别引擎将原始特征信息映射至目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有上述人脸表情和头部动作的目标虚拟形象。
[0307]
在本技术实施例中,可以不在发送侧处理表征人脸表情和头部动作的特征信息,而是将原始特征信息发送到接收侧进行处理。
[0308]
在具体实现中,第一终端在采集得到第一用户在通话过程中的图像数据和音频数据后,可以将图像数据传递给第一人脸识别引擎进行处理。第一人脸识别引擎可以返回处理得到的全部原始数据。例如,第一人脸识别引擎可以返回276个原始特征点,这些原始特征点不仅包括眼睛、嘴唇等可以用于表征人脸表情和头部动作的特征信息,还包括一些冗余信息。第一终端可以将第一人脸识别引擎返回的全部原始特征信息传输至第二终端,由第二终端中的第二人脸识别引擎进行处理,在目标虚拟形象中映射出第一用户的人脸表情和头部动作。
[0309]
在本实施例中,数据发送侧的第一终端不对原始特征信息进行处理,而是将全部原始特征信息均传输至第二终端,对原始特征信息的处理在接收侧进行。这样,舍弃的信息更少,接收侧可以基于原始特征信息进行更加精准的表情和动作还原。相较于前述两个实施例中的处理方式,本实施例需要传递更多的数据量,通话时的数据流码率也会有一定的升高,但由于第一终端传递了更多的原始数据,相应地在接收侧的第二终端也能够映射出
表现力更丰富的表情和动作,有助于更好地还原发送侧的表情和动作。
[0310]
参照图17,示出了本技术实施例提供的一种在第二终端侧实现的基于虚拟形象的视频通话方法的步骤示意图,该方法具体可以包括如下步骤:
[0311]
s1701、第二终端接收第一终端传输的虚拟形象编号信息,根据虚拟形象编号信息从多个虚拟形象中确定目标虚拟形象。
[0312]
s1702、第二终端接收第一终端传输的通话数据流,通话数据流包含音频数据和多帧目标特征信息,多帧目标特征信息包括用于表征用户在通话过程中的人脸表情和头部动作的特征信息。
[0313]
s1703、第二终端将多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,视频通话图像中包含具有上述人脸表情和头部动作的目标虚拟形象。
[0314]
s1704、第二终端在显示视频通话图像时,同步播放音频数据。
[0315]
需要说明的是,本实施例是以第二终端侧来对本技术的方法进行的介绍。
[0316]
在本技术实施例中,在建立起第一终端和第二终端之间的视频通话连接后,第二终端可以接收到第一终端传输的虚拟形象编号信息。第二终端可以根据该虚拟形象编号信息从多个虚拟形象中确定目标虚拟形象。目标虚拟形象即是显示在第二终端上并用于映射第一用户的人脸表情和头部动作的虚拟形象。
[0317]
在本技术实施例中,第二终端接收到的通话数据流可以是包含有音频数据和多帧目标特征信息的数据流。这些目标特征信息可以用于表征第一用户在通话过程中的人脸表情和头部动作。
[0318]
在具体实现中,第二终端可以从通话数据流中拆分出音频数据和多帧目标特征信息。然后,第二终端可以分别确定每帧目标特征信息中包含的人脸表情和头部动作,通过分别将每帧目标特征信息中包含的人脸表情和头部动作映射至预设的目标虚拟形象中,生成视频通话图像。
[0319]
第二终端在确定每帧目标特征信息中包含的人脸表情和头部动作时,可以首先根据多个面部区域的坐标信息计算用户头部的朝向;然后根据多个面部区域的状态信息对用户头部的朝向进行调整,以及模拟人脸表情和头部动作。
[0320]
在本技术实施例的一种可能的实现方式中,目标特征信息可以是未经第一终端处理的原始特征信息。原始特征信息可以是由第一终端上的第一人脸识别引擎识别得到的。第二终端在接收到未经处理的原始特征信息后,可以将其传递至第二人脸识别引擎。第二终端上的第二人脸识别引擎可以是与第一人脸识别引擎相同类型的人脸识别引擎。这样,第二终端可以采用第二人脸识别引擎将原始特征信息映射至目标虚拟形象中,以生成视频通话图像。
[0321]
在本技术实施例的另一种可能的实现方式中,目标特征信息可以是对多个视频帧进行特征提取,在编码时保留全部可用于表征第一用户的人脸表情和头部动作的特征信息所得到的数据帧。
[0322]
在本技术实施例的另一种可能的实现方式中,目标特征信息可以是第一终端对多个视频帧进行帧间压缩编码后得到的数据帧。这种类型的目标特征信息包括与关键视频帧对应的目标特征信息以及与非关键视频帧对应的目标特征信息。其中,与关键视频帧对应的目标特征信息包括关键视频帧的完整特征信息,与非关键视频帧对应的目标特征信息包
括在非关键视频帧中发生变化的特征信息。因此,第二终端在从通话数据流中拆分出音频数据和多帧目标特征信息之后,还可以根据关键视频帧的完整特征信息和非关键视频帧中发生变化的特征信息,生成非关键视频帧的完整特征信息。然后,基于关键视频帧的完整特征信息和非关键视频帧的完整特征信息,将第一用户的人脸表情和头部动作映射至目标虚拟形象中。
[0323]
为了同步视频通话图像和音频数据,第二终端可以根据多帧目标特征信息的时间戳,确定每帧视频通话图像的时间戳,然后根据每帧视频通话图像的时间戳和音频数据的时间戳,对视频通话图像和音频数据进行同步。
[0324]
在完成人脸表情和头部动作的映射,得到相应的视频通话图像并同步视频通话图像和音频数据后,第二终端可以显示这些视频通话图像,多个视频通话图像便形成了视频流。叠加有视频流和音频流便形成了第一终端和第二终端之间的视频通话。
[0325]
本技术实施例可以根据上述方法示例对终端设备进行功能模块的划分,例如,可以对应每一个功能划分每一个功能模块,也可以将一个或多个的功能集成在一个功能模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本技术实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。下面以对应每一个功能划分每一个功能模块为例进行说明。
[0326]
对应于上述各个实施例,参照图18,示出了本技术实施例提供的一种基于虚拟形象的视频通话装置的结构框图,该装置可以应用于前述各个实施例中的第一终端,该装置具体可以包括如下模块:采集模块1801、提取模块1802和传输模块1803,其中:
[0327]
采集模块,用于采集用户在通话过程中的图像数据和音频数据;
[0328]
提取模块,用于从所述图像数据中提取多帧目标特征信息,所述多帧目标特征信息包括用于表征所述用户的人脸表情和头部动作的特征信息;
[0329]
传输模块,用于将所述多帧目标特征信息和所述音频数据传输至第二终端,所述第二终端用于将所述多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,所述视频通话图像中包含具有所述人脸表情和所述头部动作的所述目标虚拟形象。
[0330]
在本技术实施例中,所述图像数据包括多个视频帧,所述第一终端中配置有第一人脸识别引擎,所述提取模块具体可以包括如下子模块:
[0331]
解析子模块,用于采用所述第一人脸识别引擎分别解析每个视频帧中的面部特征,得到所述每个视频帧中包含的特征点信息;
[0332]
编码子模块,用于根据所述每个视频帧为所述特征点信息进行编码,得到分别与所述每个视频帧一一对应的多帧目标特征信息。
[0333]
在本技术实施例中,所述编码子模块具体可以包括如下单元:
[0334]
帧序号确定单元,用于按照接收到所述每个视频帧的顺序,分别确定每帧目标特征信息的帧序号;
[0335]
面部区域识别单元,用于分别根据所述每个视频帧中包含的特征点信息识别多个面部区域;
[0336]
特征信息获取单元,用于获取每个面部区域的特征信息,所述特征信息包括所述每个面部区域的状态信息和坐标信息;
[0337]
特征信息存储单元,用于将所述帧序号以及所述每个面部区域的特征信息存储至
预设的数据结构中,得到所述多帧目标特征信息。
[0338]
在本技术实施例中,所述编码子模块还可以包括如下单元:
[0339]
面部区域确定单元,用于确定待传输的面部区域;
[0340]
在本技术实施例中,所述特征信息获取单元具体可以包括如下子单元:
[0341]
关键视频帧确定子单元,用于从所述多个视频帧中确定关键视频帧;
[0342]
第一特征信息获取子单元,用于针对所述关键视频帧,获取所述关键视频帧中所述待传输的面部区域的特征信息;
[0343]
第二特征信息获取子单元,用于针对非关键视频帧,确定任意相邻的两个非关键视频帧中所述待传输的面部区域的特征信息是否发生变化,若所述任意相邻的两个非关键视频帧中所述待传输的面部区域的特征信息发生变化,则获取发生变化的非关键视频帧中所述待传输的面部区域的特征信息。
[0344]
在本技术实施例中,所述第一终端中配置有第一人脸识别引擎,所述第二终端中配置有第二人脸识别引擎,所述第一人脸识别引擎和所述第二人脸识别引擎为相同类型的人脸识别引擎,所述多帧目标特征信息为由所述第一人脸识别引擎识别的原始特征信息,所述第二终端用于采用所述第二人脸识别引擎将所述原始特征信息映射至所述目标虚拟形象中,以生成所述视频通话图像。
[0345]
在本技术实施例中,所述装置还可以包括如下模块:
[0346]
时间戳添加模块,用于为所述多帧目标特征信息和所述音频数据添加时间戳。
[0347]
在本技术实施例中,所述传输模块具体可以包括如下子模块:
[0348]
封装子模块,用于将所述目标特征信息和所述音频数据封装成通话数据流;
[0349]
传输子模块,用于将所述通话数据流传输至所述第二终端。
[0350]
在本技术实施例中,所述传输模块还用于向所述第二终端传输虚拟形象编号信息,所述虚拟形象编号信息用于指示所述第二终端从多个虚拟形象中确定所述目标虚拟形象。
[0351]
参照图19,示出了本技术实施例提供的另一种基于虚拟形象的视频通话装置的结构框图,该装置可以应用于前述各个实施例中的第二终端,该装置具体可以包括如下模块:接收模块1901、映射模块1902和通话模块1903,其中:
[0352]
接收模块,用于接收所述第一终端传输的通话数据流,所述通话数据流包含音频数据和多帧目标特征信息,所述多帧目标特征信息包括用于表征用户在通话过程中的人脸表情和头部动作的特征信息;
[0353]
映射模块,用于将所述多帧目标特征信息映射至预设的目标虚拟形象中,以生成视频通话图像,所述视频通话图像中包含具有所述人脸表情和所述头部动作的所述目标虚拟形象;
[0354]
通话模块,用于显示所述视频通话图像,并同步播放所述音频数据。
[0355]
在本技术实施例中,所述映射模块具体可以包括如下子模块:
[0356]
拆分子模块,用于从所述通话数据流中拆分出所述音频数据和所述多帧目标特征信息;
[0357]
确定子模块,用于分别确定每帧目标特征信息中包含的所述人脸表情和所述头部动作;
[0358]
映射子模块,用于分别将每帧目标特征信息中包含的所述人脸表情和所述头部动作映射至预设的目标虚拟形象中,以生成视频通话图像。
[0359]
在本技术实施例中,所述每帧目标特征信息包括多个面部区域的状态信息和坐标信息,所述确定子模块具体可以包括如下单元:
[0360]
计算单元,用于所述第二终端根据所述多个面部区域的坐标信息计算用户头部的朝向;
[0361]
调整及模拟单元,用于所述第二终端根据所述多个面部区域的状态信息对所述用户头部的朝向进行调整,以及模拟所述人脸表情和所述头部动作。
[0362]
在本技术实施例中,所述多帧目标特征信息包括与关键视频帧对应的目标特征信息以及与非关键视频帧对应的目标特征信息,与所述关键视频帧对应的目标特征信息包括所述关键视频帧的完整特征信息,与所述非关键视频帧对应的目标特征信息包括在所述非关键视频帧中发生变化的特征信息;所述映射模块还可以包括如下子模块:
[0363]
生成子模块,用于根据所述关键视频帧的完整特征信息和所述非关键视频帧中发生变化的特征信息,生成所述非关键视频帧的完整特征信息。
[0364]
在本技术实施例中,所述第一终端中配置有第一人脸识别引擎,所述第二终端中配置有第二人脸识别引擎,所述第一人脸识别引擎和所述第二人脸识别引擎为相同类型的人脸识别引擎,所述多帧目标特征信息为由所述第一人脸识别引擎识别的原始特征信息,所述映射子模块还用于采用所述第二人脸识别引擎将所述原始特征信息映射至所述目标虚拟形象中,以生成所述视频通话图像。
[0365]
在本技术实施例中,所述接收模块还可以包括如下子模块:
[0366]
虚拟形象编号信息接收子模块,用于接收所述第一终端传输的虚拟形象编号信息;
[0367]
目标虚拟形象确定子模块,用于根据所述虚拟形象编号信息从多个虚拟形象中确定所述目标虚拟形象。
[0368]
在本技术实施例中,所述多帧目标特征信息和所述音频数据具有时间戳,所述通话模块具体可以包括如下子模块:
[0369]
时间戳确定子模块,用于根据所述多帧目标特征信息的时间戳,确定每帧视频通话图像的时间戳;
[0370]
音视频同步子模块,用于根据所述每帧视频通话图像的时间戳和所述音频数据的时间戳,对所述视频通话图像和所述音频数据进行同步。
[0371]
需要说明的是,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
[0372]
本技术实施例还提供一种终端,该终端可以是前述各个实施例中的第一终端或第二终端,该终端包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,当处理器执行计算机程序时,实现上述各个实施例中的基于虚拟形象的视频通话方法。
[0373]
本技术实施例还提供一种计算机存储介质,该计算机存储介质中存储有计算机指令,当该计算机指令在终端上运行时,使得终端执行上述相关方法步骤实现上述各个实施例中的基于虚拟形象的视频通话方法。
[0374]
本技术实施例还提供一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述各个实施例中的基于虚拟形象的视频通话方法。
[0375]
本技术实施例还提供一种通信系统,包括上述各个实施例中的第一终端和第二终端,以及用于建立第一终端和第二终端之间的通信连接的通信设备。
[0376]
本技术实施例还提供一种芯片,该芯片可以为通用处理器,也可以为专用处理器。该芯片包括处理器。其中,处理器用于支持终端执行上述相关步骤,以实现上述各个实施例中的基于虚拟形象的视频通话方法。
[0377]
可选的,该芯片还包括收发器,收发器用于接受处理器的控制,用于支持终端执行上述相关步骤,以实现上述各个实施例中的基于虚拟形象的视频通话方法。
[0378]
可选的,该芯片还可以包括存储介质。
[0379]
需要说明的是,该芯片可以使用下述电路或者器件来实现:一个或多个现场可编程门阵列(field programmable gate array,fpga)、可编程逻辑器件(programmable logic device,pld)、控制器、状态机、门逻辑、分立硬件部件、任何其他适合的电路、或者能够执行本技术通篇所描述的各种功能的电路的任意组合。
[0380]
最后应说明的是:以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何在本技术揭露的技术范围内的变化或替换,都应涵盖在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1