
ai数字人在直播中的音视频同步方法、系统、设备及介质
技术领域
1.本公开涉及音视频信号处理技术领域,具体的,公开了一种关于ai数字人在直播中的音视频信号同步处理的方法、系统、设备及存储介质。
背景技术:2.人工智能(artificialintelligence,ai)产业正逐渐趋向成熟,人工智能虚拟现实技术越来越贴近大众生活,基于人工智能形成与真人形象无差的虚拟主播(以下统称为ai数字人)进行娱乐传媒、新闻播报、虚拟教师、虚拟客服等众多的业务场景,大大提高了信息表达和传递的效率。
3.在通过ai数字人进行娱乐传媒的过程中,存在需要ai数字人对应的虚拟形象随旋律进行歌曲演唱的需求。现有技术中往往是简单地将背景旋律通过扬声器播放给虚拟主播对应的表演者,让表演者根据背景旋律进行演唱,将播放的背景旋律和与表演者的歌声同步进行采取来合成歌曲演唱对应的音频信号;虚拟形象同步根据音频信号进行表情变化或是口型开合等配合动作,最终形成ai数字人进行歌曲演唱的实际表现效果。
技术实现要素:4.本公开提供一种关于ai数字人在直播中的音视频信号同步处理的方法、系统、设备及存储介质。在本公开的第一方面提供了一种音视频信号同步处理方法,包括:
5.获取实时视频信号与音频信号达到同步状态时的时间差,以作为延迟时长;
6.延时音频信号,以得到经过延迟时长延时的延时音频信号;
7.输出延时音频信号,以实现与实时视频信号的同步状态。
8.在上述第一方面的一种可能的实现中,音频信号包括伴奏信号和由实时采集基于伴奏产生的语音形成的语音信号;
9.实时视频信号包括基于语音匹配形成的视频画面。
10.上述同步处理方法包括如下步骤:
11.获取视频画面与伴奏信号达到同步状态时的时间差,以作为第一时长;
12.延时伴奏信号,以得到经过第一时长延时的延时伴奏信号;
13.获取视频画面与语音信号达到同步状态时的时间差,以作为第二时长;
14.延时语音信号,以得到经过第二时长延时的延时语音信号;
15.混合延时伴奏信号和延时语音信号,以得到混合音频信号;
16.输出混合音频信号,以实现与视频画面的同步状态。
17.在上述第一方面的一种可能的实现中,获取视频画面与伴奏信号达到同步状态时的时间差,以作为第一时长的步骤包括:
18.获取伴奏信号与语音信号达到同步状态时的时间差,以作为中间时长;
19.相加第二时长和中间时长,以获得第一时长。
20.在上述第一方面的一种可能的实现中,获取伴奏信号与语音信号达到同步状态时
的时间差,以作为中间时长的步骤包括:
21.获取语音信号的语音波形图和伴奏信号的伴奏波形图;
22.通过匹配语音波形图和伴奏波形图,以将语音波形图与伴奏波形图匹配时对应的时间差作为中间时长。
23.在上述第一方面的一种可能的实现中,视频画面包括具有外形、表情以及动作的虚拟形象和/或虚拟空间。
24.本公开的第二方面提供了一种音视频信号同步处理系统,应用于前述第一方面提供的音视频信号同步处理方法中,包括:
25.数据获取模块,用于获取实时视频信号与音频信号达到同步状态时的时间差,以作为延迟时长;
26.延时模块,用于延时音频信号,以得到经过延迟时长延时的延时音频信号;
27.输出模块,用于输出延时音频信号,以实现与实时视频信号的同步状态。
28.在上述第二方面的一种可能的实现中,数据获取模块包括:
29.播录模块,用于播放伴奏信号,并实时采集基于伴奏产生的语音以形成语音信号;
30.画面生成模块,用于接收语音信号,以基于语音匹配视频画面形成实时视频信号;
31.时延检测模块,用于获取实时视频信号与伴奏信号达到同步状态时的时间差,以作为第一时长;以及
32.用于获取实时视频信号与语音信号达到同步状态时的时间差,以作为第二时长;
33.延时模块,用于延时伴奏信号,以得到经过第一时长延时的延时伴奏信号;以及
34.用于延时语音信号,以得到经过第二时长延时的延时语音信号;
35.输出模块包括:
36.混音模块,用于混合延时伴奏信号和延时语音信号,以得到混合音频信号;
37.音频输出转换模块,用于输出混合音频信号,以实现与实时视频信号的同步状态。
38.在上述第二方面的一种可能的实现中,混音模块能够按照预定音频接口标准输出混合音频信号;
39.音频输出转换模块能够将一种音频接口标准的混合音频信号,转换成另一种音频接口标准的混合音频信号。
40.本公开的第三方面提供了一种音视频信号同步处理设备,包括:
41.存储器,用于存储计算机程序;
42.处理器,用于执行计算机程序时实现前述第一方面提供的音视频信号同步处理方法。
43.本公开的第四方面提供了一种计算机可读存储介质,该种计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现前述第一方面提供的音视频信号同步处理方法。
44.与现有技术相比,本公开具有如下的有益效果:
45.通过本公开提出的技术方案,能够实现音频信号与实时视频信号的同步播放,消除了音频与视频间的播放延迟,提升了用户的观感体验。同时本公开提出的技术方案还能够兼容各类直播软件和平台,适用性广泛,具有可推广价值。
附图说明
46.通过阅读参照以下附图对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
47.图1根据本公开实施例,示出了一种音视频信号同步处理方法的流程示意图;
48.图2根据本公开实施例,示出了一种应用于ai数字人直播的音视频信号处理方法的流程示意图;
49.图3根据本公开实施例,示出了一种获取第一时长的流程示意图;
50.图4根据本公开实施例,示出了一种获取中间时长的流程示意图;
51.图5根据本公开实施例,示出了一种音视频信号同步处理系统的结构示意图;
52.图6根据本公开实施例,示出了一种音视频信号同步处理设备的结构示意图;
53.图7根据本公开实施例,示出了一种计算机可读存储介质的结构示意图。
具体实施方式
54.下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
55.在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少区域地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
56.可以理解的是,在ai数字人进行直播的过程中,需要应用到音频识别技术来生成与ai数字人对应的虚拟形象的表情、动作、口型开合等数据。具体来说,可以是由虚拟形象生成软件根据麦克风等音频采集设备采集到的语音信号来实时生成虚拟形象的表情、口型等动作。显而易见的是,虚拟形象的表情、口型等动作的变化和切换具有一定的生成延时,且必然晚于匹配的输入音频信号对应的采集时间。在实践过程中上述生成延时根据生成软件的性能差异,可以达到几十乃至数百毫秒。
57.同时,可以理解的是,在ai数字人进行歌曲演唱等需要伴奏音乐进行配合的直播过程中,通常是由虚拟形象背后的表演者根据伴奏音频来提供与之相匹配实时的语音内容,例如述说台词、演唱歌曲等。传统的音频采集模式可以是同步采集外放的伴奏音频和表演者的语音内容一并作为采集得到的音频进行播放,但外放伴奏音频和人声之间差异性和失真会导致用户的欣赏体验降低,且越来越多的专业表演者习惯于通过耳麦等非外放渠道来获取伴奏音频;而若是仅采集表演者的语音音频,则还需要将语音音频与伴奏音频进行混音后同步输出,由于此过程需要多种电子设备参与,因此在这过程中也极易导致伴奏音频与语音音频之间出现延迟,显得不够同步,导致观众听起来会出现脱节、混乱的感觉。
58.为了克服现有技术中存在的上述问题,本公开提供了一种关于ai数字人在直播中的音视频信号同步处理的方法、系统、设备和计算机可读存储介质。具体的,在本公开的一些实施例中,图1提供了一种音视频信号同步处理方法的流程示意图。
59.如图1所示,本公开提供的音视频信号同步处理方法可以包括:
60.步骤101:获取实时视频信号与音频信号达到同步状态时的时间差,以作为延迟时长。
61.本领域技术人员可以理解的是,于上述步骤101中,所涉及的同步状态是在信号处理手段中的各种信号所记录的内容达到相互协调,符合人们常规收听和观感感受的状态。在本公开中通常可以理解为:视频信号所记载的视频内容与音频信号所搭载的音频内容相协调,没有视觉上、听觉上的明显脱节。而在获取时间差的过程中,本领域技术人员可以直接采用比对视频画面和背景音乐的方式获取上述时间差,例如通过动作与音频节奏的变化规律等本领域技术人员能够合理应用现有技术加以实现;也可以采用其他容易获取的中间量间接获取上述时间差,在此不做限定。
62.步骤102:延时音频信号,以得到经过延迟时长延时的延时音频信号。
63.步骤103:输出延时音频信号,以实现与实时视频信号的同步状态。
64.可以理解的是,通过上述步骤101至步骤103,能够实现实时视频信号与音频信号间的同步,以下将以虚拟主播形象进行直播作为本公开提供的技术方案的一种具体应用场景,在此基础上对上述音视频信号同步处理方法的实际应用做出阐释和说明。
65.基于前述对现有技术问题的剖析,在ai数字人进行直播的过程中,其对应虚拟形象的动作、口型、表情等与伴奏、台词、歌声等出现脱节的话将非常影响直播观感。由于如何实现音视频信号的同步对于ai数字人直播的行业中显得尤为重要。通常,需要同步的音视频信号会包括伴奏信号,以及由实时采集基于伴奏所产生的语音形成的语音信号,以及基于语音所形成的视频画面。其中,基于伴奏所产生的语音可以理解为能够使ai数字人对应的配音演员或是歌手等结合伴奏的节奏、节点、韵律等信息要素在合适的时间点上准确说出或唱出的台词/歌词;也因此语音信号对应的语音内容需要与上述伴奏达到同步状态才能让观众听起来比较符合正常的视听感受。同样的,基于语音所形成的视频画面可以理解为能够使视频画面的内容所展现的意思与语音内容所表达的意思相匹配。例如对应的视频画面可以包括依据歌曲旋律的喜悦或悲伤对应表现为虚拟形象喜悦或悲伤的表情;依据歌声的词语发声口型对应产生虚拟形象的发声口型等。当然,实现基于不同的语言内容,使虚拟形象对应产生不同的表情、动作时,本领域技术人员不必付出创造性劳动,依据现有技术即可实现。进一步的,视频画面除了能够包括具有外形、表情以及动作的虚拟形象外,还可以包括虚拟形象所处的虚拟空间,例如根据歌声的高亢或平缓于虚拟空间中形成适应性的波纹状动态视觉效果等。对于本领域技术人员来说,还可以依据实际需求来合理拓展语音、伴奏、视频画面的具体内容,在此不再一一列举。
66.在本公开的一些实施例中,图2提供了一种应用于ai数字人直播的音视频信号处理方法,如图2所示具体可以包括:
67.步骤201:获取视频画面与伴奏信号达到同步状态时的时间差,以作为第一时长;以及获取视频画面与语音信号达到同步状态时的时间差,以作为第二时长。在实施例中,使伴奏信号所携带的伴奏音频、语音信号所携带的语音音频以及视频画面能够最终同步进行播放时,采用了以时间轴上最晚生成的视频画面作为基准的方式,即不对视频信号进行延时调整,而是分别为伴奏信号和语音信号增加一个对应的延时时长,即上述步骤201中提供的第一时长以及第二时长。尽管本实例中并未对视频信号进行延时调整,但并不排斥对视
频信号进行调整的方案,并且本领域技术人员可以理解,在有必要的情况下,对视频信号进行延时调整是基于本公开之内容所带来的技术启示。
68.步骤202:分别延时伴奏信号和语音信号,以得到经过第一时长延时的延时伴奏信号以及经过第二时长延时的延时语音信号。
69.步骤203:混合延时伴奏信号和延时语音信号,以得到混合音频信号。可以理解的是,于上述步骤203中进行混音操作一方面可以将延时后的伴奏信号和语音信号整合至一个音轨中以提升最终的播放呈现效果,另一方面能够保证伴奏信号和语音信号的持续同步,避免出现因其他干扰而再此出现不匹配的问题。
70.步骤204:输出混合音频信号,以实现与实时视频信号的同步状态。
71.以下将对于上述步骤201至步骤204的具体实现做出进一步阐释和说明:
72.于上述实施例中,在步骤201的具体实现过程中,视频画面的生成可以通过一些计算设备,对采集得到的语音信号进行即时分析所得到。在此可以通过记录计算设备接收到输入音频的时刻以及生成对应的视频画面的时刻,即可通过两个已知时刻的时间差获取上述第二时长,也就是说上述第二时长对应的实质上是计算设备处理生成视频画面的所耗时间。
73.然而,在步骤201的具体实现过程中,视频画面与伴奏信号达到同步状态的时间差,即第一时长,却因为没有高关联度的比较维度而难以直接获取。为此在本公开中提供了一种可行方案,在上述实施例的一种可能的实现中,图3示出了一种获取第一时长的流程示意图,具体可以包括:
74.步骤301:获取伴奏信号与语音信号达到同步状态时的时间差,以作为中间时长。
75.步骤302:相加第二时长和中间时长,以获得第一时长。
76.可以理解的是,在未经同步处理的状态下,伴奏信号与语音信号间、语音信号与视频画面间均存在时间差,而获取伴奏信号与视频画面间的延时情况,可以将语音信号作为中间参考量,以通过不同信号间的时间差相加的方式来获取第一时长。
77.进一步的,图4示出了一种获取中间时长的流程示意图,具体可以包括:
78.步骤401:获取语音信号的语音波形图和伴奏信号的伴奏波形图。
79.步骤402:通过匹配语音波形图和伴奏波形图,以将语音波形图与伴奏波形图匹配时对应的时间差作为中间时长。
80.可以理解的是,语音波形图和伴奏波形图分别代表了语音信号和伴奏信号的音频特征,可以通过波形图分析语音信号与伴奏信号在音调、节奏等因素上的相关性,例如当波峰以及波谷的分布规律一致时可以视为语音波形图和伴奏波形图匹配。在匹配的过程中可以获取语音波形图相对于伴奏波形图的在时间轴上的平移量,这一平移量对应的即为匹配的伴奏信号和语音信号之间的时间差,也就是上述中间时长。
81.在本公开的一些实施例中,还提供了一种音视频信号同步处理系统,应用于前述实施例提供的音视频信号同步处理方法中,包括:
82.数据获取模块,用于获取实时视频信号与音频信号达到同步状态时的时间差,以作为延迟时长。
83.延时模块,用于延时音频信号,以得到经过延迟时长延时的延时音频信号。
84.输出模块,用于输出延时音频信号,以实现与实时视频信号的同步状态。
85.可以理解的是,上述功能模块数据获取模块至输出模块与前述实施例中步骤101至步骤103所执行的动作相一致,在此不做赘述。
86.具体地,图5示出了一种音视频信号同步处理系统的结构示意图。具体地,如图5所示,音视频信号同步处理系统可以包括播录模块001、画面生成模块002、时延检测模块003、延时模块004、混音模块005以及音频输出转换模块006,其中播录模块001、画面生成模块002和时延检测模块003可以组合实现前述数据获取模块的相关功能;混音模块005以及音频输出转换模块006可以组合实现前述输出模块的相关功能。以下将对上述各个功能模块的数据流向和功能实现做出阐释和说明:
87.播录模块001用于播放伴奏信号,并实时采集基于伴奏产生的语音以形成语音信号。其中,播录模块001提供的伴奏信号可以是通过存储器本地存储的,也可以是通过网络实时云传输得到的,在此不做限定。
88.进一步的,播录模块001除了将伴奏信号通过耳返等外接设备提供给演唱者外,还将伴奏信号分别提供给时延检测模块003以及延时模块004。其中,提供给时延检测模块003的伴奏信号用于后续第一时长的获取过程,提供给延时模块004的伴奏信号则是于延时模块004中进行暂存以待后续的延时处理。
89.当演唱者根据伴奏信号进行歌曲演唱或语音演讲时,表演者的语音通过采集设备经播录模块001生成对应的语音信号,此时播录模块001还将上述语音信号分别传输给画面生成模块002、时延检测模块003以及延时模块004。
90.画面生成模块002用于接收语音信号,以基于语音匹配视频画面形成实时视频信号。
91.时延检测模块003用于获取实时视频信号与伴奏信号达到同步状态时的时间差,以作为第一时长;以及用于获取实时视频信号与语音信号达到同步状态时的时间差,以作为第二时长。有关第一时长以及第二时长的获取方式已于前述实施例中进行必要的说明,在此不再赘述。时延检测模块003将获取的第一时长和第二时长传输给延时模块004。
92.延时模块004用于延时伴奏信号,以得到经过第一时长延时的延时伴奏信号;以及用于延时语音信号,以得到经过第二时长延时的延时语音信号。可以理解的是,,分别对缓存于延时处理模块504的输入音频和背景音频进行延时处理以生成延时伴奏信号和延时语音信号,并将两路音频信号传输给混音模块005。
93.混音模块005用于混合延时伴奏信号和延时语音信号,以得到混合音频信号。其中,混音模块005能够按照预定音频接口标准输出混合音频信号。
94.音频输出转换模块006用于输出混合音频信号,以实现与实时视频信号的同步状态。其中,音频输出转换模块006能够将一种音频接口标准的混合音频信号,转换成另一种音频接口标准的混合音频信号。
95.在上述实施例的一种具体应用场景中,混音模块005输出的混合音频信号可以是aes/ebu标准定义的数字音频信号,利用d/d(数字/数字)信号转换器能够实现数字音频信号在usb和aes/ebu之间的转换,即音频输出转换模块006可以是一个aes/ebu转usb信号转换器。通过上述设置即可使得上述音视频信号同步处理系统作为标准的usb音频设备向电脑等电子设备输出混音后的数字音频,具有很强的兼容性,能够兼容各类直播软件的应用,普适性强。
96.可以理解的是,本公开技术方案的各个方面可以实现为系统、方法或程序产品。因此,本公开技术方案的各个方面可以具体实现为以下形式,即完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
97.本领域的技术人员应该明白,上述本公开的各模块或各步骤可以用通用的计算设备来实现,它们可以集中在单个的计算设备上,或者分布在多个计算设备所组成的网络上,可选地,它们可以用计算设备可执行的程序代码来实现,从而,可以将它们存储在存储介质中由计算设备来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。
98.图6根据本公开的一些实施例,示出了一种音视频信号同步处理设备的结构示意图。下面参照图6来详细描述根据本实施例中的实施方式实施的音视频信号同步处理设备600。可以理解的是,图6显示的音视频信号同步处理设备600仅仅是一个示例,不应对本公开技术方案任何实施例的功能和使用范围带来任何限制。
99.如图6所示,音视频信号同步处理设备600以通用计算设备的形式表现。音视频信号同步处理设备600的组建可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
100.其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本实施例中上述音视频信号同步处理系统中各个功能模块的实现。
101.存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取单元(ram)6201和/或高速缓存存储单元6202,可以进一步包括只读存储单元(rom)6203。
102.存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现
103.总线630可以表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图像加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
104.音视频信号同步处理设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可以与一个或者多个使得用户与该电子设备600交互的设备通信,和/或与使得该电子设备能与一个或多个其他计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(lan)、广域网(wan)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其他模块通信。应当明白,尽管图5中未示出,可以结合电子设备600使用其他硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储平台等。
105.在本公开的一些实施例中,还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时能够实现上述公开中音视频信号同步处理系统中的各个功能模块的实现。
106.尽管本实施例未详尽地列举其他具体的实施方式,但在一些可能的实施方式中,本公开技术方案说明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本公开技术方案中音视频信号同步方法中描述的根据本公开技术方案各种实施例中实施方式的步骤。
107.图7根据本公开的一些实施例示出了一种计算机可读存储介质的结构示意图。如图7所示,其中描述了根据本公开技术方案的实施方式中用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(cd-rom)并包括程序代码,并可以在终端设备,例如个人电脑上运行。当然,依据本实施例产生的程序产品不限于此,在本公开技术方案中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
108.程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。
109.计算机可读存储介质可以包括在基带中或者作为载波一区域传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、rf等等,或者上述的任意合适的组合。
110.可以以一种或多种程序设计语言的任意组合来编写用于执行本公开技术方案操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如java、c++等,还包括常规的过程式程序设计语言—诸如c语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、区域地在用户设备上执行、作为一个独立的软件包执行、区域在用户计算设备上区域在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
111.综上所述,通过本公开提出的技术方案,能够实现伴奏信号、语音信号和与语音信号匹配的实时视频信号的同步播放,消除了音频与视频间的播放延迟,提升了用户的观感体验,同时能够兼容各类直播软件和平台,适用性广泛,具有可推广价值。
112.上述描述仅是对本公开技术方案较佳实施例的描述,并非对本公开技术方案范围的任何限定,本公开技术方案领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。