视频直播方法、装置、电子设备以及存储介质与流程

文档序号:31782309发布日期:2022-10-12 10:57阅读:77来源:国知局
视频直播方法、装置、电子设备以及存储介质与流程

1.本公开实施例涉及计算机技术领域,尤其涉及一种视频直播方法、装置、电子设备以及存储介质。


背景技术:

2.虚拟现实(vr,virtual reality)视频直播具有很好的沉浸感体验,也衍生出很多不同的直播方式,比如采用虚拟人物代替表演者进行直播。
3.为了增加虚拟人物代表的表演者与观众之间互动度,通常采用vr一体机将虚拟人物画面与观众画面进行融合渲染,但是vr一体机的性能有限,表演者、环境、互动观众的渲染分配非常有限,造成vr一体机渲染生成的人物和背景偏像素化,边缘锯齿块状等问题,无法实现较好的画面效果。


技术实现要素:

4.本公开提供一种视频直播方法、装置、电子设备以及存储介质,以实现表演者视频流本地播放与观众视频流本地渲染的互动场,解决了本地渲染性能不足的问题,提升表演者的动画精度。
5.第一方面,本公开实施例提供了一种视频直播方法,该方法包括:
6.确定第一设备端渲染的第一虚拟画面数据;
7.对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;
8.向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。。
9.第二方面,本公开实施例还提供了一种视频直播方法,该方法包括:
10.接收第一设备端视频流;所述第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到;
11.对所述第一设备端视频流进行视频播放;
12.在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。
13.第三方面,本公开实施例还提供了一种视频直播装置,该装置包括:
14.第一虚拟画面数据确定模块,用于确定第一设备端渲染的第一虚拟画面数据;
15.第一设备端视频流确定模块,用于对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;
16.第一设备端视频流推送模块,用于向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。
17.第四方面,本公开实施例还提供了一种视频直播装置,该装置包括:
18.第一设备端视频流接收模块,用于接收第一设备端视频流;所述第一设备端视频
流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到;
19.第一设备端视频流播放模块,用于对所述第一设备端视频流进行视频播放;
20.第一设备端视频流融合模块,用于在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。
21.第五方面,本公开实施例还提供了一种电子设备,该电子设备包括:
22.一个或多个处理器;
23.存储装置,用于存储一个或多个程序,
24.当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开实施例第一方面或第二方面所提供的视频直播方法。
25.第六方面,本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本公开实施例第一方面或第二方面所提供的视频直播方法。
26.本公开实施例,能够实现表演者视频流本地播放与观众视频流本地渲染的互动场,解决了本地渲染性能不足的问题,提升表演者的动画精度。
附图说明
27.结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
28.图1为本公开实施例所提供的一种视频直播方法的流程示意图;
29.图2为本公开实施例提供的一种视频流推送的示意图;
30.图3为本公开实施例提供的一种观看者的观看效果示意图;
31.图4为本公开实施例所提供的另一种视频直播方法的流程示意图;
32.图5为本公开实施例所提供的一种视频直播装置结构示意图;
33.图6为本公开实施例所提供的另一种视频直播装置结构示意图;
34.图7为本公开实施例所提供的一种电子设备的结构示意图。
具体实施方式
35.下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
36.应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
37.本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
38.需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
39.需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
40.本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
41.可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
42.例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
43.作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
44.可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
45.图1为本公开实施例所提供的一种视频直播方法的流程示意图,本公开实施例适用于对表演者的直播视频进行渲染处理的情形,该方法可以由视频直播装置来执行,该装置可以通过软件和/或硬件的形式实现。可选的,通过电子设备来实现,该电子设备可以是移动终端、pc端或服务器等。
46.如图1所示,本公开实施例的方法可包括但不限于如下步骤s110-s130:
47.s110、确定第一设备端渲染的第一虚拟画面数据。
48.随着网络技术以及虚拟现实技术的发展,通过vr一体机观看视频直播,能够使观众有更强的互动体验和更好的沉浸感体验。其中,vr一体机中有独立处理器,具备独立运算、输入和输出功能。然而,vr一体机中独立处理器的性能有限,使得表演者、环境、互动观众的渲染分配非常有限,造成vr一体机渲染生成的人物和背景偏像素化,边缘锯齿块状等问题,无法实现较好的画面效果。
49.鉴于上述问题,本公开实施例可通过第一设备端对所采集的表演者直播表演数据进行高性能渲染,以解决vr一体机渲染性能不足的问题,提升表演者的动画精度。其中,第一设备端可以是用于对表演者的直播表演数据进行渲染的工作站设备。例如,第一设备端可以是图形工作站或具备高性能渲染功能的电脑等设备。在第一设备端中可以采用高性能的显卡,以提高对所采集的画面数据的渲染性能。
50.其中,第一虚拟画面数据可以是朝向表演者供观看者进行观看表演的虚拟画面数据。第一虚拟画面数据可以通过第一设备端对所采集到的表演者直播表演数据进行渲染得
到。具体的,表演者的直播表演数据可以通过多个机位的摄像机进行采集,以生成具备立体感的三维场景下的画面数据,即可得到第一虚拟画面数据。可选地,通过第一设备端可以对所采集的画面数据按照预设环境、灯光、材质、纹理及渲染参数等,进行渲染以得到第一虚拟画面数据。
51.作为一种可选的但非限定性的实现方式,确定第一设备端渲染的第一虚拟画面数据,可以包括但不限于如下步骤a1至a2的过程:
52.步骤a1、对第一设备端的第一真实对象进行动作数据捕捉与音频数据采集。
53.其中,第一真实对象可以是表演者。第一虚拟画面数据通常可以由为动作画面和/或声音等数据组成,其中,动作画面属于画面数据,声音属于音频数据。因此,在确定第一虚拟画面数据时,需分别对第一真实对象的表演动作以及声音进行采集处理,例如,对第一设备端的第一真实对象进行动作数据捕捉与音频数据采集。
54.其中,动作数据可以包括第一真实对象的肢体动作数据和面部表情动作数据。其中,肢体动作数据可以通过穿戴在表演者身上的肢体动作捕捉设备进行获取,例如,可以是衣服、手套等,又例如,可以是安装在表演者各个活动关节处的传感器。面部表情动作数据可以通过至少一个朝向表演者面部的图像采集器进行获取;也可以通过头戴式设备对表演者的面部表情动作进行获取,以使所采集到的表演者面部表情动作连贯。
55.其中,音频数据可以包括在视频直播时第一真实对象、背景音乐以及噪声共同产生的声音数据。音频数据可以通过声音采集装置在视频直播现场进行采集获取,例如,可以是麦克风、喉麦等。需要说明的是,也可以通过对所采集到的声音数据进行降噪处理以获取纯净的音频数据。
56.步骤a2、对捕捉的动作数据与采集的音频数据进行虚拟画面渲染处理,得到第一设备端渲染的第一虚拟画面数据;其中第一设备端的画面渲染性能高于所述第二设备端的画面渲染性能。
57.其中,虚拟画面渲染处理可以是基于第一设备端的显示适配器,将捕捉的动作数据与采集的音频数据渲染生成第一虚拟画面数据,得到一个或多个视角的虚拟画面数据。其中,可以基于捕捉的动作数据生成虚拟对象,该虚拟对象通过捕捉的动作数据生成的控制指令进行驱动。其中,虚拟对象可以是卡通形象、动物形象、真人形象等。也可以基于音频数据做变音处理,变音的形式可以根据所生成的虚拟对象类型进行确定。通过对处理后的动作数据与处理后的采集的音频数据进行进行虚拟画面渲染,可以得到第一设备端渲染的第一虚拟画面数据。
58.作为一种可选的但非限定性的实现方式,第一设备端的画面渲染性能高于第二设备端的画面渲染性能。由于vr一体机中独立处理器的性能有限,使得表演者、环境、互动观众的渲染分配非常有限,因此采用高画面渲染性能的第一设备端(也即第一真实对象进行视频直播所在设备端)对第一真实对象的视频直播内容进行渲染,以避免出现在vr一体机播放直播视频时画面精度低的问题。
59.作为一种可选的但非限定性的实现方式,对捕捉的动作数据与采集的音频数据进行虚拟画面渲染处理,可以包括但不限于如下步骤b1至b3的过程:
60.步骤b1、依据捕捉的动作数据生成第一真实对象的第一虚拟对象。
61.其中,第一虚拟对象可以是与所捕捉第一真实对象的动作数据相同或相似的虚拟
模型。第一虚拟对象的类型可以是但不限于卡通形象、动物形象、真人形象等。第一虚拟对象的3d数据类型可以是网格化的模型数据、体素数据、贴图纹理数据或其他组合形式。可选地,第一虚拟对象的类型可以在第一设备段中预先存储的虚拟形象资产库中进行选择。
62.步骤b2、依据所述第一虚拟对象与第一虚拟对象所要使用的虚拟画面背景,生成包括第一虚拟对象的第一虚拟动画数据。
63.其中,虚拟画面背景可以是根据第一设备段中预先存储的舞台背景资产库进行确定。例如,虚拟画面背景可以是剧院舞台、演唱厅舞台、室外草坪等等。虚拟画面背景可以为第一设备端的预先设定,也可以根据实际需要进行选择。
64.其中,第一虚拟动画数据可以是根据第一虚拟对象与第一虚拟对象所要使用的虚拟画面背景所形成的多个画面数据帧。将第一虚拟对象与第一虚拟对象所要使用的虚拟画面背景进行融合处理,生成包括第一虚拟对象的第一虚拟动画数据。
65.步骤b3、对第一虚拟动画数据与采集的音频数据进行虚拟画面渲染处理。
66.其中,显示适配器是用于对第一设备端所要显示的画面信息进行控制的设备。例如,第一设备端的显示适配器可以是rtx3090显卡。采用第一设备端的显示适配器,将所生成的第一虚拟动画数据和所采集的音频数据进行融合,例如,可以按照第一虚拟动画数据中各画面数据帧的顺序和音频数据帧进行依次匹配,以得到渲染后的第一虚拟画面数据。
67.s120、对第一虚拟画面数据进行编码处理得到对应的第一设备端视频流。
68.一方面,第一虚拟画面数据是基于各视频帧和音频帧组合渲染而成,其所占的内存空间非常大,若直接通过网络进行传输,很可能会增加传输成本。另一方面,第二设备端渲染能力有限,若第二设备端直接将具有三维立体感的第一虚拟画面数据进行渲染显示,则会因为自身渲染性能不足导致第二设备端渲染生成的人物和背景出现偏像素化,边缘锯齿块状等问题,无法实现较好的画面效果。综上,可通过第一设备端所配置的编码器对具有三维立体感的第一虚拟画面数据进行编码压缩,得到对应的第一设备端视频流,以便后续不再进行渲染。
69.示例性的,将第一虚拟画面数据输入至编码器中,编码器按照预设编码标准进行编码,输出对应的第一设备端视频流。其中,编码标准可以是h.261、h.263、mpeg等。作为一种可选的但非限定性的实现方式,对第一虚拟画面数据进行编码处理得到对应的第一设备端视频流,可以包括但不限于如下步骤c1至c2的过程:
70.步骤c1、通过所述第一设备端虚拟现实引擎,采集至少一个观看视角的第一虚拟画面数据。
71.其中,虚拟现实引擎可以是以底层编程语言为基础的一种通用开发平台,包括各种交互硬件接口、图形数据的管理和绘制模块、功能设计模块、消息响应机制、网络接口等功能。例如,虚拟现实引擎可以是游戏引擎unity、ue(unreal engine,虚幻引擎)等。
72.示例性的,基于第一设备端虚拟现实引擎,对第一真实对象进行动作数据捕捉与音频数据采集,对捕捉的动作数据与采集的音频数据进行虚拟画面渲染处理,得到至少一个观看视角的第一虚拟画面数据。
73.步骤c2、对至少一个观看视角的第一虚拟画面数据进行编码得到至少一个观看视角的第一设备端视频流。
74.其中,可以分别对不同观看视角的第一虚拟画面数据进行编码,以得到不同观看
视角的第一设备端视频流。通过第一设备端虚拟现实引擎,采集至少一个观看视角的第一虚拟画面数据,并进行编码得到至少一个观看视角的第一设备端视频流,这样可以满足位于不同观看视角观众的需求。
75.s130、向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。
76.其中,第二设备可以是观众在观看视频直播时所使用的设备。例如,可以是具备虚拟现实功能的终端显示设备。具体的,可以为vr一体机、双目全方位显示器等。
77.在本公开实施例中,向第二设备端推送第一设备端视频流,可以是第一设备端视频流先上传至云端服务器中,再根据互动模型的视频流请求信息,由云端服务器将第一设备端视频流推送至对应的互动模型中。其中,互动模型为建模生成的互动场原始id,可用于绑定第一设备端视频流和互动模型的映射关系。
78.示例性的,图2为本公开实施例提供的一种视频流推送的示意图。如图2所示,视频流推送的本质为将直播间内的视频直播内容推送至互动房间内,其中,直播间内的视频直播内容为第一设备端视频流。其中,直播间内的观众数量无上限,而互动房间中的观众数量有容纳上限,因此,根据每个互动房间的容纳上限和直播间内的观众数量确定互动房间的数量,并将预定数量的观众分入各个互动房间内。需要说明的是,每个互动房间内观看到的视频直播内容是相同的。
79.具体的,第一设备端采集到至少一个观看视角的第一设备端视频流;第二设备端通过第一设备端视频流和互动模型的映射关系,拉取第一设备端视频流至互动模型中;根据互动房间数量,将互动模型复制相同数量的互动场,以容纳直播间内的所有观众。
80.在第一设备端视频流在第二设备端进行视频播放时,第一设备端视频流与第二设备端渲染的第二虚拟画面数据进行融合显示。即可以将朝向表演者的直播视频流和同一互动房间内其他观众的虚拟画面数据进行融合显示,获取三维立体的全景动画显示效果,以增强观众的互动体验。
81.其中,第二虚拟画面数据可以是非朝向观众的虚拟画面数据,例如,可以是同一互动房间内其他观众的虚拟画面数据。具体的,可以是同一互动房间内其他观众的虚拟形象以及自定义昵称。可以理解的是,对于观众的观看体验来说,可以简化同一互动房间内其他观众的虚拟形象,以降低第二设备端对其他互动观众的渲染性能分配,提升表演者的动画精度。
82.图3为本公开实施例提供的一种观看者的观看效果示意图。如图3所示,平面四边形abcd为第一设备端视频流所播放的观看效果,其无法达到虚拟现实的效果。因此,为实现表演者视频流本地播放与观众视频流本地渲染的互动场,第一设备端视频流在第二设备端进行视频播放时与第二虚拟画面数据之间,通过第二设备端进行无缝融合。如图3所示,曲面四边形abcd为第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示的观看效果。
83.作为一种可选的但非限定性的实现方式,向第二设备端推送第一设备端视频流,可以包括但不限于如下步骤d1至d2的过程:
84.步骤d1、将第一设备端视频流转换成实时消息传输协议格式的第一设备端视频流。
85.可以理解的是,为了便于不同设备之间的音视频和数据通信,可以将第一设备端视频流的协议格式转换为实时消息传输协议格式的第一设备端视频流。
86.其中,实时消息传输协议格式(real time messaging protocol,rtmp)是一种设计用来进行实时数据通信的网络协议,主要用于在flash/air平台和支持rtmp协议的流媒体/交互服务器之间进行音视频和数据通信。
87.步骤d2、将转换格式的第一设备端视频流向对应视频流服务器进行推流,以使第二设备端从视频流服务器拉取第一设备端视频流进行播放。
88.其中,推流是指将转换格式的第一设备端视频流传输到对应视频流服务器的过程,也可以理解为将第一设备端所采集到的第一虚拟画面数据传输到网络中。观众可以基于所在互动房间和第一设备端视频流的映射关系,从对应视频流服务器中拉取第一设备端视频流以在第二设备端进行播放。
89.示例性的,以rtmp流传输协议为例进行解释说明。第一步,第一设备端和对应视频流服务器进行握手;第二步,第一设备端和对应视频流服务器建立网络连接;第三步,第一设备端和对应视频流服务器建立网络流;第四步,第二设备端从网络流中拉取第一设备端视频流并播放。
90.通过实时消息传输协议对第一设备端视频流进行传输,可以提高第二设备端对于第一设备端视频流播放的稳定性,进而提高观众的体验感和满意度。
91.在上述公开实施例中,可选的,所述第一设备端对应具备虚拟现实功能的工作站,所述第一虚拟画面数据包括表演者的虚拟画面数据;所述第二设备端对应具备虚拟现实功能的终端显示设备,所述第二虚拟画面数据包括观看者的互动虚拟画面数据。
92.其中,第一设备端对应具备虚拟现实功能的工作站,可以是利用计算机生成一种可对观众直接施加视觉、听觉和触觉感受,并允许其交互地观察和操作虚拟世界的设备。第一设备端可以包括建模设备(如3d扫描仪、深度相机等)、计算设备(如高配置电脑等)等。第一虚拟画面数据包括表演者的虚拟画面数据,也可以包括除表演者外的实际表演场景画面数据。
93.其中,第二设备端对应具备虚拟现实功能的终端显示设备,可以是头戴式显示器、平视显示器、沉浸式投影系统等。第二虚拟画面数据包括观看者的互动虚拟画面数据。其中,观看者的互动虚拟画面数据可以包括观看者本身的动作虚拟画面数据,以及和同一互动房间内其他观众进行聊天、交互动作等虚拟画面数据。
94.在上述公开实施例中,可选的,所述第一设备端视频流在第二设备端进行视频播放时与第二虚拟画面数据之间,通过第二设备端的界面设计功能与颜色设计功能进行无缝融合。
95.其中,界面设计功能可以包括第二设备端显示界面的业务功能和应用功能,为观看者提供便捷的功能需求设计,观看者可以通过交互设备(如手柄、可穿戴设备、自由移动设备、仿真设备、力学反馈设备等)使用界面设计功能。
96.其中,颜色设计功能可以对第一设备端视频流和第二设备端渲染的第二虚拟画面数据交界处的画面数据进行融合。例如,对第一设备端视频流中虚拟对象和虚拟背景的边缘处的像素值进行融合处理。这样可以解决第二设备端所渲染生成的人物和背景偏像素化,边缘锯齿块状等问题,实现较好的画面效果。
97.本公开实施例提供了一种视频直播方法,该视频直播方法通过确定第一设备端渲染的第一虚拟画面数据;对第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。本技术方案,能够实现表演者视频流本地播放与观众视频流本地渲染的互动场,解决了本地渲染性能不足的问题,提升表演者的动画精度。
98.图4为本公开实施例所提供的另一种视频直播方法的流程示意图。本公开实施例适用于观众在观看视频直播并在互动房间内间内进行互动的情形,该方法可以由视频直播装置来执行,该装置可以通过软件和/或硬件的形式实现。可选的,通过电子设备来实现,该电子设备可以是移动终端、pc端或服务器等。
99.s410、接收第一设备端视频流;所述第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到。
100.s420、对所述第一设备端视频流进行视频播放。
101.s430、在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。
102.本公开实施例提供了一种视频直播方法,该视频直播方法通过接收第一设备端视频流;第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,第一虚拟画面数据通过第一设备端渲染得到;对第一设备端视频流进行视频播放;在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。本技术方案,能够实现表演者视频流本地播放与观众视频流本地渲染的互动场,解决了本地渲染性能不足的问题,提升表演者的动画精度。
103.图5为本公开实施例所提供的一种视频直播装置结构示意图,如图5所示,所述装置包括第一虚拟画面数据确定模块、第一设备端视频流确定模块和第一设备端视频流推送模块。其中,
104.第一虚拟画面数据确定模块510,用于确定第一设备端渲染的第一虚拟画面数据;
105.第一设备端视频流确定模块520,用于对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;
106.第一设备端视频流推送模块530,用于向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。
107.本公开实施例提供了一种视频直播装置,该视频直播装置通过确定第一设备端渲染的第一虚拟画面数据;对第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。本技术方案,能够实现表演者视频流本地播放与观众视频流本地渲染的互动场,解决了本地渲染性能不足的问题,提升表演者的动画精度。
108.可选的,第一虚拟画面数据确定模块510,包括:
109.数据采集单元,用于对第一设备端的第一真实对象进行动作数据捕捉与音频数据采集;
110.第一虚拟画面数据确定单元,用于对捕捉的动作数据与采集的音频数据进行虚拟画面渲染处理,得到第一设备端渲染的第一虚拟画面数据;
111.其中所述第一设备端的画面渲染性能高于所述第二设备端的画面渲染性能。
112.可选的,第一虚拟画面数据确定单元,包括:
113.第一虚拟对象生成子单元,用于依据捕捉的动作数据生成第一真实对象的第一虚拟对象;
114.第一虚拟动画数据生成子单元,用于依据所述第一虚拟对象与第一虚拟对象所要使用的虚拟画面背景,生成包括第一虚拟对象的第一虚拟动画数据;
115.虚拟画面渲染子单元,用于对所述第一虚拟动画数据与采集的音频数据进行虚拟画面渲染处理。
116.可选的,第一设备端视频流确定模块520,包括:
117.第一虚拟画面数据确定单元,用于通过所述第一设备端虚拟现实引擎,采集至少一个观看视角的第一虚拟画面数据;
118.第一设备端视频流确定单元,用于对至少一个观看视角的第一虚拟画面数据进行编码得到至少一个观看视角的第一设备端视频流。
119.可选的,第一设备端视频流推送模块530,包括:
120.第一设备端视频流格式转换单元,用于将第一设备端视频流转换成实时消息传输协议格式的第一设备端视频流;
121.第一设备端视频流推送单元,用于将转换格式的第一设备端视频流向对应视频流服务器进行推流,以使第二设备端从视频流服务器拉取第一设备端视频流进行播放。
122.可选的,所述第一设备端对应具备虚拟现实功能的工作站,所述第一虚拟画面数据包括表演者的虚拟画面数据;所述第二设备端对应具备虚拟现实功能的终端显示设备,所述第二虚拟画面数据包括观看者的互动虚拟画面数据。
123.可选的,所述第一设备端视频流在第二设备端进行视频播放时与第二虚拟画面数据之间,通过第二设备端的界面设计功能与颜色设计功能进行无缝融合。
124.本公开实施例所提供的视频直播装置可执行本公开任意实施例所提供的视频直播方法,具备执行方法相应的功能模块和有益效果。
125.值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本公开实施例的保护范围。
126.图6为本公开实施例所提供的另一种视频直播装置结构示意图,如图2所示,所述装置包括第一设备端视频流接收模块、第一设备端视频流播放模块和第一设备端视频流融合模模块。其中,
127.第一设备端视频流接收模块610,用于接收第一设备端视频流;所述第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到;
128.第一设备端视频流播放模块620,用于对所述第一设备端视频流进行视频播放;
129.第一设备端视频流融合模块630,用于在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进
行融合显示。
130.本公开实施例提供了一种视频直播装置,该视频直播装置通过接收第一设备端视频流;第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,第一虚拟画面数据通过第一设备端渲染得到;对第一设备端视频流进行视频播放;在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。本技术方案,能够实现表演者视频流本地播放与观众视频流本地渲染的互动场,解决了本地渲染性能不足的问题,提升表演者的动画精度。
131.图7为本公开实施例所提供的一种电子设备的结构示意图。下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如图7中的终端设备或服务器)700的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、pda(个人数字助理)、pad(平板电脑)、pmp(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字tv、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
132.如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(rom)702中的程序或者从存储装置708加载到随机访问存储器(ram)703中的程序而执行各种适当的动作和处理。在ram 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、rom 702以及ram 703通过总线704彼此相连。编辑/输出(i/o)接口705也连接至总线704。
133.通常,以下装置可以连接至i/o接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
134.特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从rom 702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
135.本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
136.本公开实施例提供的电子设备与上述实施例提供的视频直播方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
137.本公开实施例提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的视频直播方法。
138.需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不
限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
139.在一些实施方式中,客户端、服务器可以利用诸如http(hypertext transfer protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“lan”),广域网(“wan”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
140.上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
141.上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
142.上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:确定第一设备端渲染的第一虚拟画面数据;对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。
143.或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收第一设备端视频流;所述第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到;对所述第一设备端视频流进行视频播放;在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。
144.可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包
括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
145.附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
146.描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
147.本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑设备(cpld)等等。
148.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
149.根据本公开的一个或多个实施例,示例1提供一种视频直播方法,所述方法包括:
150.确定第一设备端渲染的第一虚拟画面数据;
151.对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;
152.向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。
153.示例2根据示例1所述的方法,确定第一设备端渲染的第一虚拟画面数据,包括:
154.对第一设备端的第一真实对象进行动作数据捕捉与音频数据采集;
155.对捕捉的动作数据与采集的音频数据进行虚拟画面渲染处理,得到第一设备端渲染的第一虚拟画面数据;
156.其中所述第一设备端的画面渲染性能高于所述第二设备端的画面渲染性能。
157.示例3根据示例2所述的方法,对捕捉的动作数据与采集的音频数据进行虚拟画面渲染处理,包括:
158.依据捕捉的动作数据生成第一真实对象的第一虚拟对象;
159.依据所述第一虚拟对象与第一虚拟对象所要使用的虚拟画面背景,生成包括第一虚拟对象的第一虚拟动画数据;
160.对所述第一虚拟动画数据与采集的音频数据进行虚拟画面渲染处理。
161.示例4根据示例1所述的方法,对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流,包括:
162.通过所述第一设备端虚拟现实引擎,采集至少一个观看视角的第一虚拟画面数据;
163.对至少一个观看视角的第一虚拟画面数据进行编码得到至少一个观看视角的第一设备端视频流。
164.示例5根据示例1所述的方法,向第二设备端推送第一设备端视频流,包括:
165.将第一设备端视频流转换成实时消息传输协议格式的第一设备端视频流;
166.将转换格式的第一设备端视频流向对应视频流服务器进行推流,以使第二设备端从视频流服务器拉取第一设备端视频流进行播放。
167.示例6根据示例1-5中任一所述的方法,所述第一设备端对应具备虚拟现实功能的工作站,所述第一虚拟画面数据包括表演者的虚拟画面数据;所述第二设备端对应具备虚拟现实功能的终端显示设备,所述第二虚拟画面数据包括观看者的互动虚拟画面数据。
168.示例7根据示例1-5中任一所述的方法,所述第一设备端视频流在第二设备端进行视频播放时与第二虚拟画面数据之间,通过第二设备端的界面设计功能与颜色设计功能进行无缝融合。
169.根据本公开的一个或多个实施例,示例8提供一种视频直播方法,所述方法包括:
170.接收第一设备端视频流;所述第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到;
171.对所述第一设备端视频流进行视频播放;
172.在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融合显示。
173.根据本公开的一个或多个实施例,示例9提供一种视频直播装置,所述装置包括:
174.第一虚拟画面数据确定模块,用于确定第一设备端渲染的第一虚拟画面数据;
175.第一设备端视频流确定模块,用于对所述第一虚拟画面数据进行编码处理得到对应的第一设备端视频流;
176.第一设备端视频流推送模块,用于向第二设备端推送第一设备端视频流,以使第一设备端视频流在第二设备端进行视频播放时与第二设备端渲染的第二虚拟画面数据进行融合显示。
177.根据本公开的一个或多个实施例,示例10提供一种视频直播装置,所述装置包括:
178.第一设备端视频流接收模块,用于接收第一设备端视频流;所述第一设备端视频流通过第一设备端对第一虚拟画面数据进行编码得到,所述第一虚拟画面数据通过第一设备端渲染得到;
179.第一设备端视频流播放模块,用于对所述第一设备端视频流进行视频播放;
180.第一设备端视频流融合模块,用于在第二设备端进行视频对第一设备端视频流进行播放时,将第二设备端渲染的第二虚拟画面数据与第一设备端视频流的播放画面进行融
合显示。
181.根据本公开的一个或多个实施例,示例11提供一种电子设备,所述电子设备包括:
182.一个或多个处理器;
183.存储装置,用于存储一个或多个程序,
184.当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如示例1-8中任一所述的视频直播方法。
185.根据本公开的一个或多个实施例,示例12提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如示例1-8中任一所述的视频直播方法。
186.以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
187.此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
188.尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1