文本生成方法、装置、计算机设备及介质与流程

文档序号:31406585发布日期:2022-09-03 07:05阅读:63来源:国知局
文本生成方法、装置、计算机设备及介质与流程

1.本公开涉及计算机技术领域,尤其涉及一种文本生成方法、装置、计算机设备及介质。


背景技术:

2.随着计算机技术和互联网技术的飞速发展,视频处理技术逐渐成为新兴的研究热点。在视频处理技术中,通常需要提取能够表征视频内容的视频特征,进而利用该视频特征来进行视频推荐、视频分类或视频搜索等处理过程。
3.目前,在提取视频的视频特征时,通常会采用分类器对视频中的图像进行分类,以得到该视频的类别特征。然而,通过视频分类的方式来提取视频特征,所提取到的视频特征所包含的信息量较少,不利于后续视频推荐、视频分类或视频搜索的处理过程。


技术实现要素:

4.本公开提供一种文本生成方法、装置、计算机设备及介质,提供了一种基于文本生成的视频特征提取模型,所生成的内容描述文本包含了丰富的信息量,能够更好的表征该目标视频。本公开的技术方案如下:
5.根据本公开实施例的第一方面,提供一种文本生成方法,该方法包括:
6.获取目标视频的图像信息与文本信息;
7.将该图像信息与该文本信息输入视频特征提取模型,通过该视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该目标视频的图像特征,通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征;
8.通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本。
9.本公开实施例中,通过在视频特征提取模型中构建图像特征提取子模型和文本特征提取子模型的双流架构,能够精确地提取到目标视频的图像特征和文本特征,且,通过在视频特征提取模型中设置文本生成子模型,对该目标视频的图像特征和文本特征进行处理,能够输出自注意力分值达到文本生成条件的多个字符,进而基于所输出的多个字符能够自动生成该目标视频的内容描述文本,提供了一种基于文本生成的视频特征提取模型,所生成的内容描述文本包含了丰富的信息量,能够更好的表征该目标视频,提升了视频表征的准确性。
10.在一些实施例中,该目标视频的图像信息的获取过程包括下述至少一项:
11.获取该目标视频的封面图像;或,获取该目标视频内的至少一帧图像。
12.本公开实施例中,通过获取目标视频的封面图像或目标视频所包括的图像帧,均能够快速获取到目标视频的图像信息,在确保获取图像信息的效率的同时,还丰富了图像
信息的类型,提升了获取图像信息的灵活性。
13.在一些实施例中,该目标视频的文本信息的获取过程包括下述至少一项:
14.获取该目标视频的描述信息;获取该目标视频的标题信息;获取该目标视频的字幕信息;获取该目标视频的文字识别结果,该文字识别结果为对该目标视频内的至少一帧图像进行文字识别所得到的结果;获取该目标视频的音频识别结果,该音频识别结果为对该目标视频的背景音频进行音频识别所得到的结果。
15.本公开实施例中,通过获取目标视频的描述信息、标题信息、字幕信息、文字识别结果或音频识别结果,均能够快速获取到目标视频的文本信息,在确保获取文本信息的效率的同时,还丰富了文本信息的类型,提升了获取文本信息的灵活性。
16.在一些实施例中,该内容描述文本包括内容类目描述文本、内容形式描述文本、内容主题描述文本以及内容详情描述文本中的至少一类。
17.本公开实施例中,基于视频特征提取模型,能够获取到多种类型的内容描述文本,一方面,生成了更具有表达能力的内容描述文本,另一方面,该多种类型的内容描述文本能够从不同的维度对该目标视频的内容进行描述,丰富了所生成的内容描述文本的类型,能够更加充分完整的表征目标视频。
18.在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
19.通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本之前,该方法还包括:
20.对该图像特征与该文本特征进行拼接,得到拼接特征;
21.在该拼接特征上,添加各个类型的类型标识;
22.通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本包括:
23.将添加该类型标识后的拼接特征输入该文本生成子模型,通过该文本生成子模型所包括的自注意力层,分别基于各个类型标识对应的处理机制,对该拼接特征进行处理,输出该自注意力分值达到该文本生成条件的多个字符,基于该多个字符生成该目标视频的多个类型的内容描述文本。
24.本公开实施例中,通过在拼接特征上添加各个类型的类型标识,以便视频特征提取模型中的文本生成子模型能够基于各个类型的类型标识,来触发生成目标视频的多个类型的内容描述文本,确保文本生成的顺利进行。
25.在一些实施例中,该视频特征提取模型的训练过程包括:
26.在模型训练的第i次迭代过程中,将样本视频的图像信息与文本信息输入第i-1次迭代过程所确定的视频特征提取模型,得到第i次迭代过程的文本训练结果,该i为大于1的正整数;
27.基于该第i次迭代过程的文本训练结果与该样本视频的描述文本标签,确定该第i次迭代过程的模型损失值;
28.基于该第i次迭代过程的模型损失值,对该第i-1次迭代过程所确定的视频特征提取模型的模型参数进行调整,基于调整后的该模型参数进行第i+1次迭代过程,重复上述训
练的迭代过程,直至训练满足目标条件。
29.本公开实施例中,在模型训练的任一次迭代过程中,均利用本次迭代过程的模型损失值来对视频特征提取模型进行模型参数的调整,以提升视频特征提取模型的特征提取能力,从而训练出特征提取能力较高的视频特征提取模型。
30.在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
31.基于该第i次迭代过程的文本训练结果与该样本视频的描述文本标签,确定该第i次迭代过程的模型损失值包括:
32.对于任一类型,基于该第i次迭代过程在该类型上的文本训练结果与该样本视频在该类型上的描述文本标签,确定该第i次迭代过程在该类型上的损失值;
33.基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值。
34.本公开实施例中,针对文本生成所涉及的各个类型,分别设置有各个类型对应的权重系数,进而利用各个类型对应的损失值以及各个类型对应的权重系数,来确定模型损失值,提高了确定模型损失值的准确性。
35.在一些实施例中,基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值之前,该方法还包括:
36.对于任一类型,基于该第i次迭代过程在该类型上的正确文本数量以及总文本数量,确定该第i次迭代过程在该类型上的正确比例,该正确比例表示在该第i次迭代过程中正确文本数量占总文本数量的比例;
37.基于该第i次迭代过程在该类型上的正确比例,确定该视频特征提取网络在该类型上的权重系数,其中,该正确比例与该权重系数成负相关。
38.本公开实施例中,针对文本生成所涉及的各个类型,分别按照各个类型所对应的正确比例,来确定各个类型对应的权重系数,由于正确比例表示正确文本数量占总文本数量的比例,且由于正确比例与权重系数之间成负相关,因此,在计算模型损失值的情况下,为正确比例大的类型设置较小的权重系数,为正确比例小的类型设置较大的权重系数,提高了确定权重系数的准确性,也就提高了确定模型损失值的准确性。
39.在一些实施例中,该文本信息的数量为多个;
40.该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征之前,该方法还包括:
41.对多个该文本信息进行拼接,得到拼接后的该文本信息;
42.基于拼接后的该文本信息,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
43.本公开实施例中,在文本信息的数量为多个的情况下,通过对文本信息进行拼接,以得到拼接后的文本信息,进而利用拼接后的文本信息来进行提取文本特征的过程,参考了多种类型的文本信息,提高了提取文本特征的精确性。
44.在一些实施例中,对多个该文本信息进行拼接,得到拼接后的该文本信息之后,该方法还包括:
45.从拼接后的该文本信息中,提取前目标数量的字符;
46.基于所提取的字符,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
47.本公开实施例中,在拼接后的文本信息中,提取前目标数量的字符,以便基于所提取的一定数量的字符,来进行后续提取文本特征的过程,在确保输入充足的文本信息的基础上,减小了视频特征提取模型的运算量,提高了提取文本特征的效率。
48.根据本公开实施例的第二方面,提供一种文本生成装置,该装置包括:
49.获取单元,被配置为执行获取目标视频的图像信息与文本信息;
50.提取单元,被配置为执行将该图像信息与该文本信息输入视频特征提取模型,通过该视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该目标视频的图像特征,通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征;
51.处理单元,被配置为执行通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本。
52.在一些实施例中,该获取单元,被配置为执行下述至少一项:
53.获取该目标视频的封面图像;或,获取该目标视频内的至少一帧图像。
54.在一些实施例中,该获取单元,被配置为执行下述至少一项:
55.获取该目标视频的描述信息;获取该目标视频的标题信息;获取该目标视频的字幕信息;获取该目标视频的文字识别结果,该文字识别结果为对该目标视频内的至少一帧图像进行文字识别所得到的结果;获取该目标视频的音频识别结果,该音频识别结果为对该目标视频的背景音频进行音频识别所得到的结果。
56.在一些实施例中,该内容描述文本包括内容类目描述文本、内容形式描述文本、内容主题描述文本以及内容详情描述文本中的至少一类。
57.在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
58.该装置还包括:
59.第一拼接单元,被配置为执行对该图像特征与该文本特征进行拼接,得到拼接特征;
60.添加单元,被配置为执行在该拼接特征上,添加各个类型的类型标识;
61.该处理单元,被配置为执行:
62.将添加该类型标识后的拼接特征输入该文本生成子模型,通过该文本生成子模型所包括的自注意力层,分别基于各个类型标识对应的处理机制,对该拼接特征进行处理,输出该自注意力分值达到该文本生成条件的多个字符,基于该多个字符生成该目标视频的多个类型的内容描述文本。
63.在一些实施例中,该装置还包括:
64.输入单元,被配置为执行在模型训练的第i次迭代过程中,将样本视频的图像信息与文本信息输入第i-1次迭代过程所确定的视频特征提取模型,得到第i次迭代过程的文本训练结果,该i为大于1的正整数;
65.确定单元,被配置为执行基于该第i次迭代过程的文本训练结果与该样本视频的描述文本标签,确定该第i次迭代过程的模型损失值;
66.调整单元,被配置为执行基于该第i次迭代过程的模型损失值,对该第i-1次迭代过程所确定的视频特征提取模型的模型参数进行调整,基于调整后的该模型参数进行第i+1次迭代过程,重复上述训练的迭代过程,直至训练满足目标条件。
67.在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
68.该确定单元,被配置为执行:
69.对于任一类型,基于该第i次迭代过程在该类型上的文本训练结果与该样本视频在该类型上的描述文本标签,确定该第i次迭代过程在该类型上的损失值;
70.基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值。
71.在一些实施例中,该确定单元,还被配置为执行:
72.对于任一类型,基于该第i次迭代过程在该类型上的正确文本数量以及总文本数量,确定该第i次迭代过程在该类型上的正确比例,该正确比例表示在该第i次迭代过程中正确文本数量占总文本数量的比例;
73.基于该第i次迭代过程在该类型上的正确比例,确定该视频特征提取网络在该类型上的权重系数,其中,该正确比例与该权重系数成负相关。
74.在一些实施例中,该文本信息的数量为多个;
75.该装置还包括第二拼接单元,被配置为执行对多个该文本信息进行拼接,得到拼接后的该文本信息;
76.该提取单元,还被配置为执行基于拼接后的该文本信息,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
77.在一些实施例中,该提取单元,还被配置为执行:
78.从拼接后的该文本信息中,提取前目标数量的字符;
79.基于所提取的字符,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
80.根据本公开实施例的第三方面,提供一种计算机设备,该计算机设备包括:
81.一个或多个处理器;
82.用于存储该处理器可执行程序代码的存储器;
83.其中,该处理器被配置为执行该程序代码,以实现上述的文本生成方法。
84.根据本公开实施例的第四方面,提供一种计算机可读存储介质,该计算机可读存储介质包括:当该计算机可读存储介质中的程序代码由计算机设备的处理器执行时,使得计算机设备能够执行上述的文本生成方法。
85.根据本公开实施例的第五方面,提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述的文本生成方法。
86.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
87.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施
例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
88.图1是根据一示例性实施例示出的一种文本生成方法的实施环境示意图;
89.图2是根据一示例性实施例示出的一种文本生成方法的流程图;
90.图3是根据一示例性实施例示出的一种文本生成方法的流程图;
91.图4是根据一示例性实施例示出的一种视频特征提取模型的框架;
92.图5是根据一示例性实施例示出的一种视频特征提取模型的训练方法的流程图;
93.图6是根据一示例性实施例示出的一种文本生成装置的框图;
94.图7是根据一示例性实施例示出的一种终端的框图;
95.图8是根据一示例性实施例示出的一种服务器的框图。
具体实施方式
96.为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
97.需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
98.需要说明的是,本公开实施例所涉及的信息(包括但不限于用户设备信息、用户个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经用户授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。例如,本公开实施例所涉及的图像信息和文本信息都是在充分授权的情况下获取的。在一些实施例中,终端提供有权限询问页面,该权限询问页面用于询问用户是否授予目标视频的图像信息和文本信息的获取权限,在该权限询问页面中,显示同意授权控件和拒绝授权控件,在检测到用户对该同意授权控件的触发操作的情况下,利用本公开实施例所提供的文本生成方法来获取目标视频的图像信息和文本信息,进而基于该目标视频的图像信息和文本信息,来获取目标视频的内容描述文本。
99.图1是根据一示例性实施例示出的一种文本生成方法的实施环境示意图,参见图1,该实施环境包括:终端101和服务器102。
100.终端101可以为智能手机、智能手表、台式电脑、手提电脑、虚拟现实终端、增强现实终端、无线终端和膝上型便携计算机等设备中的至少一种。终端101具有通信功能,可以接入有线网络或无线网络。终端101可以泛指多个终端中的一个,本实施例仅以终端101来举例说明。本领域技术人员可以知晓,上述终端的数量可以更多或更少。
101.服务器102可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式文件系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、cdn(content delivery network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。在一些实施例中,服务器102与终端101通过有线或无线通信方式进行直接或间接的连接,本公开实施例对此不作
限定。可选地,上述服务器102的数量可以更多或更少,本公开实施例对此不加以限定。当然,服务器102还可以包括其他功能服务器,以便提供更全面且多样化的服务。
102.在一些实施例中,本公开实施例所提供的文本生成方法由终端101执行,例如,针对终端101本地所存储的目标视频或终端101所下载的目标视频,终端101响应于对该目标视频的文本生成操作,利用本公开实施例所提供的文本生成方法,来生成该目标视频的内容描述文本;在又一些实施例中,本公开实施例所提供的文本生成方法由服务器102执行,例如,针对服务器102所关联的视频数据库中的目标视频,服务器102利用本公开实施例所提供的文本生成方法,周期性的生成该目标视频的内容描述文本;在另一些实施例中,本公开实施例所提供的文本生成方法由终端101和服务器102共同执行,例如,终端101响应于对目标视频的文本生成操作,向服务器102上传目标视频,则服务器102接收终端101所上传的目标视频,利用本公开实施例所提供的文本生成方法,来生成该目标视频的内容描述文本。本公开实施例中,采用目标视频来指代待描述的视频,也即是待生成内容描述文本的视频。
103.需要说明的是,本公开实施例所提供的文本生成方法,可以应用在视频推荐、视频分类或视频搜索的场景中。在一些实施例中,利用本公开实施例所提供的文本生成方法,生成该目标视频的内容描述文本,进而利用该目标视频的内容描述文本来表征该目标视频,以实现后续视频推荐、视频分类或视频搜索。
104.图2是根据一示例性实施例示出的一种文本生成方法的流程图,如图2所示,该方法由计算机设备执行,该计算机设备可提供为上述图1所示出的终端或服务器,示意性地,该方法包括以下步骤:
105.在步骤201中,计算机设备获取目标视频的图像信息与文本信息。
106.在步骤202中,计算机设备将该图像信息与该文本信息输入视频特征提取模型,通过该视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该目标视频的图像特征,通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征。
107.在步骤203中,计算机设备通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本。
108.本公开实施例提供的技术方案,通过在视频特征提取模型中构建图像特征提取子模型和文本特征提取子模型的双流架构,能够精确地提取到目标视频的图像特征和文本特征,且,通过在视频特征提取模型中设置文本生成子模型,对该目标视频的图像特征和文本特征进行处理,能够输出自注意力分值达到文本生成条件的多个字符,进而基于所输出的多个字符能够自动生成该目标视频的内容描述文本,提供了一种基于文本生成的视频特征提取模型,所生成的内容描述文本包含了丰富的信息量,能够更好的表征该目标视频,提升了视频表征的准确性。
109.在一些实施例中,该目标视频的图像信息的获取过程包括下述至少一项:
110.获取该目标视频的封面图像;或,获取该目标视频内的至少一帧图像。
111.在一些实施例中,该目标视频的文本信息的获取过程包括下述至少一项:
112.获取该目标视频的描述信息;获取该目标视频的标题信息;获取该目标视频的字幕信息;获取该目标视频的文字识别结果,该文字识别结果为对该目标视频内的至少一帧
图像进行文字识别所得到的结果;获取该目标视频的音频识别结果,该音频识别结果为对该目标视频的背景音频进行音频识别所得到的结果。
113.在一些实施例中,该内容描述文本包括内容类目描述文本、内容形式描述文本、内容主题描述文本以及内容详情描述文本中的至少一类。
114.在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
115.通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本之前,该方法还包括:
116.对该图像特征与该文本特征进行拼接,得到拼接特征;
117.在该拼接特征上,添加各个类型的类型标识;
118.通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本包括:
119.将添加该类型标识后的拼接特征输入该文本生成子模型,通过该文本生成子模型所包括的自注意力层,分别基于各个类型标识对应的处理机制,对该拼接特征进行处理,输出该自注意力分值达到该文本生成条件的多个字符,基于该多个字符生成该目标视频的多个类型的内容描述文本。
120.在一些实施例中,该视频特征提取模型的训练过程包括:
121.在模型训练的第i次迭代过程中,将样本视频的图像信息与文本信息输入第i-1次迭代过程所确定的视频特征提取模型,得到第i次迭代过程的文本训练结果,该i为大于1的正整数;
122.基于该第i次迭代过程的文本训练结果与该样本视频的描述文本标签,确定该第i次迭代过程的模型损失值;
123.基于该第i次迭代过程的模型损失值,对该第i-1次迭代过程所确定的视频特征提取模型的模型参数进行调整,基于调整后的该模型参数进行第i+1次迭代过程,重复上述训练的迭代过程,直至训练满足目标条件。
124.在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
125.基于该第i次迭代过程的文本训练结果与该样本视频的描述文本标签,确定该第i次迭代过程的模型损失值包括:
126.对于任一类型,基于该第i次迭代过程在该类型上的文本训练结果与该样本视频在该类型上的描述文本标签,确定该第i次迭代过程在该类型上的损失值;
127.基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值。
128.在一些实施例中,基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值之前,该方法还包括:
129.对于任一类型,基于该第i次迭代过程在该类型上的正确文本数量以及总文本数量,确定该第i次迭代过程在该类型上的正确比例,该正确比例表示在该第i次迭代过程中正确文本数量占总文本数量的比例;
130.基于该第i次迭代过程在该类型上的正确比例,确定该视频特征提取网络在该类型上的权重系数,其中,该正确比例与该权重系数成负相关。
131.在一些实施例中,该文本信息的数量为多个;
132.通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征之前,该方法还包括:
133.对多个该文本信息进行拼接,得到拼接后的该文本信息;
134.基于拼接后的该文本信息,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
135.在一些实施例中,对多个该文本信息进行拼接,得到拼接后的该文本信息之后,该方法还包括:
136.从拼接后的该文本信息中,提取前目标数量的字符;
137.基于所提取的字符,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
138.上述图2所示仅为本公开的基本流程,下面基于一种具体实施方式,来对本公开提供的方案进行进一步阐述,图3是根据一示例性实施例示出的一种文本生成方法的流程图,参见图3,该方法包括:
139.在步骤301中,计算机设备获取目标视频的图像信息与文本信息。
140.本公开实施例中,采用目标视频来指代待描述的视频,也即是待生成内容描述文本的视频。其中,内容描述文本是指用于描述该目标视频的内容的语句。在一些实施例中,以计算机设备提供为终端为例,该目标视频为终端本地所存储的视频,或终端所下载的视频等;在另一些实施例中,以计算机设备提供为服务器为例,该目标视频为服务器所关联的视频数据库中的视频,或终端所上传的视频等。本公开实施例对目标视频的来源不作限定。
141.在一些实施例中,计算机设备获取目标视频的图像信息的过程包括下述至少一项:获取该目标视频的封面图像;或,获取该目标视频内的至少一帧图像。
142.其中,该至少一帧图像的数量可以为一帧、两帧或两帧以上,如三帧。在一些实施例中,计算机设备获取该至少一帧图像的过程为:从该目标视频所包括的多帧图像中,随机抽取预设数量的图像,例如随机抽取三帧图像;或,从该目标视频所包括的多帧图像中,均匀抽取预设数量的图像,例如等间隔抽取三帧图像;从该目标视频所包括的多帧图像中,抽取关键帧图像。当然,计算机设备还能够基于其他方式,来获取该目标视频内的至少一帧图像,本公开实施例对此不加以限定。
143.在上述实施例中,通过获取目标视频的封面图像或目标视频所包括的图像帧,均能够快速获取到目标视频的图像信息,在确保获取图像信息的效率的同时,还丰富了图像信息的类型,提升了获取图像信息的灵活性。
144.在一些实施例中,计算机设备获取目标视频的文本信息的过程包括下述至少一项:获取该目标视频的描述信息;获取该目标视频的标题信息;获取该目标视频的字幕信息;获取该目标视频的文字识别结果;获取该目标视频的音频识别结果。
145.其中,描述信息为用于描述该目标视频的视频主题的信息,如主题描述信息或话题描述信息(caption);或者,描述信息为用于描述该目标视频的视频内容的信息,如内容描述信息(hashtag)。标题信息是指该目标视频的视频标题(title)。在一些实施例中,描述
信息和标题信息为目标视频的发布者所设置的信息,例如,目标视频的发布者在发布该目标视频时,该发布者所对应的终端提供有描述信息录入框和标题信息录入框,通过该描述信息录入框和标题信息录入框,发布者能够对该目标视频的描述信息和标题信息进行设置,进而,计算机设备在获取到该目标视频的同时,还能够获取到该目标视频的描述信息和标题信息。
146.字幕信息是指目标视频内的图像所包括的字幕(text),在一些实施例中,计算机设备利用字幕提取工具,提取该目标视频的字幕信息。文字识别结果为对该目标视频内的至少一帧图像进行文字识别所得到的结果,在一些实施例中,计算机设备利用ocr(optical character recognition,光学字符识别)技术,对该目标视频所包括的多帧图像进行文字识别,得到该目标视频的文字识别结果。音频识别结果为对该目标视频的背景音频进行音频识别所得到的结果,在一些实施例中,计算机设备利用asr(automatic speech recognition,自动语音识别)技术,对该目标视频的背景音频进行音频识别,得到该目标视频的音频识别结果。
147.在上述实施例中,通过获取目标视频的描述信息、标题信息、字幕信息、文字识别结果或音频识别结果,均能够快速获取到目标视频的文本信息,在确保获取文本信息的效率的同时,还丰富了文本信息的类型,提升了获取文本信息的灵活性。
148.在步骤302中,计算机设备将该图像信息与该文本信息输入视频特征提取模型。
149.本公开实施例中,视频特征提取模型提供有生成视频的内容描述文本的功能。在一些实施例中,视频特征提取模型为基于自注意力机制(self attention mechanism)的编码器(encoder)-解码器(decoder)架构。其中,自注意力机制是一种基于特征之间的依赖关系来学习特征含义的机制,在自注意力机制中,对于每一个输入的特征,根据该特征与其邻近特征来计算两者的相似性或相关性,如计算两者的向量点积、计算两者的向量相似性或者通过再引入额外的神经网络来求值等,得到该特征与其邻近特征的计算分值,再利用如softmax函数的计算方式对该计算分值进行数值转换,如此,一方面,能够将计算分值转化为元素权重之和为1的概率分布,实现了归一化,另一方面,通过softmax函数的内在机制,能够更加突出重要元素的权重,进而,利用各个元素的权重进行加权求和,输出自注意力分值。
150.示例地,图4是根据一示例性实施例示出的一种视频特征提取模型的框图,参见图4,视频特征提取模型包括图像特征提取子模型、文本特征提取子模型以及文本生成子模型,其中,视频特征提取模型的编码器包括图像特征提取子模型和文本特征提取子模型,视频特征提取模型的解码器包括文本生成子模型。下面基于图4所示出的视频特征提取模型,对本公开实施例提供的文本生成方法进行说明。
151.在步骤303中,通过该视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该目标视频的图像特征。
152.本公开实施例中,图像特征提取子模型用于提取该目标视频的图像特征。在一些实施例中,图像特征提取子模型为resnet(残差网络)或vit(vision transformer,视觉转换器)等。
153.在一些实施例中,计算机设备将该图像信息与该文本信息输入视频特征提取模型之后,通过该视频特征提取模型,将该图像信息输入该视频特征提取模型的图像特征提取
子模型,通过图像特征提取子模型对目标视频的图像信息进行特征提取,能够得到预定维数的图像特征,如512维度(或其他数量维度)的图像特征。
154.在步骤304中,通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征。
155.本公开实施例中,文本特征提取子模型用于提取该目标视频的文本特征。在一些实施例中,文本特征提取子模型为bert(bidirectional encoder representations from transformers,语言表示模型)等。
156.在一些实施例中,计算机设备将该图像信息与该文本信息输入视频特征提取模型之后,通过该视频特征提取模型,将该文本信息输入该视频特征提取模型的文本特征提取子模型,通过文本特征提取子模型对目标视频的文本信息进行特征提取,能够得到预定维数的文本特征,如512维度(或其他数量维度)的文本特征。需要说明的是,文本特征的维数与图像特征的维数相同。
157.在一些实施例中,文本信息的数量为多个(如两个或两个以上),相应地,在对该文本信息进行特征提取之前,该方法还包括:对多个该文本信息进行拼接,得到拼接后的文本信息,基于拼接后的文本信息,执行上述步骤304。示例地,以步骤301所示出的五个文本信息为例,对该目标视频的描述信息、标题信息、字幕信息、文字识别结果以及音频识别结果进行拼接,得到拼接后的文本信息,再将该拼接后的文本信息输入上述文本特征提取子模型,以执行上述步骤304。在该实施例中,在文本信息的数量为多个的情况下,通过对文本信息进行拼接,以得到拼接后的文本信息,进而利用拼接后的文本信息来进行提取文本特征的过程,参考了多种类型的文本信息,提高了提取文本特征的精确性。
158.进一步地,在一些实施例中,在得到拼接后的文本信息之后,该方法还包括:从拼接后的该文本信息中,提取前目标数量的字符,基于所提取的字符,执行上述步骤304。其中,目标数量为预先设定的固定数量,如200。在该实施例中,在拼接后的文本信息中,提取前目标数量的字符,以便基于所提取的一定数量的字符,来进行后续提取文本特征的过程,在确保输入充足的文本信息的基础上,减小了视频特征提取模型的运算量,提高了提取文本特征的效率。
159.需要说明的是,上述步骤303至步骤304以先提取图像特征再提取文本特征为例,在另一些实施例中,计算机设备还能够先提取文本特征再提取图像特征,或者,计算机设备还能够同时执行提取图像特征和提取文本特征的过程,本公开实施例对步骤303和步骤304的执行次序不作限定。
160.在步骤305中,通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本。
161.其中,文本生成子模型用于生成目标视频的内容描述文本。在一些实施例中,该内容描述文本包括多个类型的内容描述文本,例如,内容描述文本包括内容类目描述文本、内容形式描述文本、内容主题描述文本以及内容详情描述文本中的至少一类。
162.在一些实施例中,内容类目描述文本包括多级类目描述文本,例如,一级类目描述文本和二级类目描述文本,其中,一级类目描述文本是指用于描述目标视频的一级类目的语句,二级类目描述文本是指用于描述目标视频的二级类目的语句。应理解地,一级类目是
指目标视频的总分类,二级类目是指目标视频在一级类目的基础上的子分类,其中二级类目相对于一级类目为树形结构,也就是说,一级类目下会包括多个二级类目。示例地,一级类目可以是生活类,二级类目可以是生活记录、好物分享或健康养生等等,或者,一级类目可以是美妆类,二级类目可以是美妆教学、美妆测评、护肤保养等等。
163.内容形式描述文本是指用于描述目标视频的内容形式的语句,该内容形式表示该目标视频的表现形式(或称作拍摄形式)。示例地,内容形式可以是纪录片形式、情景短剧形式或街头采访形式等等。内容主题描述文本是指用于描述目标视频的内容主题的语句,例如,内容主题可以是视频话题。内容详情描述文本是指用于描述目标视频的内容详情的语句,例如,用于描述目标视频的画面内容的语句。
164.在上述实施例中,基于视频特征提取模型,能够获取到多种类型的内容描述文本,一方面,生成了更具有表达能力的内容描述文本,另一方面,该多种类型的内容描述文本能够从不同的维度对该目标视频的内容进行描述,丰富了所生成的内容描述文本的类型,能够更加充分完整的表征目标视频。
165.在一些实施例中,文本生成子模型包括多层自注意力层(transformer layer)。在一些实施例中,通过该视频特征提取模型,将该图像特征与该文本特征输入视频特征提取模型的文本生成子模型,通过该文本生成子模型所包括的多层自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于所输出的多个字符生成该目标视频的内容描述文本。示例地,文本生成条件可以是自注意力分值达到分值阈值。
166.在一种可选的实施例中,文本生成子模型用于执行多个类型的文本生成任务,通过该文本生成子模型所包括的多层自注意力层,分别按照该多个类型对应的文本生成任务的处理机制,对该图像特征与该文本特征进行处理,以生成目标视频的多个类型的内容描述文本。进一步地,针对任一类型,在一种可选的实施例中,通过该文本生成子模型所包括的多层自注意力层,对图像特征与文本特征中的第一段特征序列进行处理,输出第一段特征序列中自注意力分值达到文本生成条件的字符;基于第一段特征序列中输出的字符,继续对图像特征与文本特征中的第二段特征序列进行处理,输出第二段特征序列中自注意力分值达到文本生成条件的字符;基于第一段特征序列中输出的字符与第二段特征序列中输出的字符,继续对图像特征与文本特征中的第三段特征序列进行处理,输出第三段特征序列中自注意力分值达到文本生成条件的字符,进而,基于已输出的字符,重复执行上述处理过程和输出过程,输出下一段特征序列中自注意力分值达到文本生成条件的字符,得到该文本生成子模型所输出的多个字符,按照该多个字符的输出时序进行拼接,得到该目标视频的内容描述文本。
167.在一些实施例中,文本生成子模型还提供有mask机制,该mask机制是指将一段特征序列中不需要关注的特征遮挡起来,以避免对视频特征提取模型的影响,提高了自注意力机制的精确性。
168.在一些实施例中,在将该图像特征与该文本特征输入文本生成子模型之前,对该图像特征与该文本特征进行拼接,得到拼接特征,基于该拼接特征,执行上述步骤305。在一些实施例中,通过该视频特征提取模型的特征拼接层(concat),对该图像特征与该文本特征进行拼接,输出该拼接特征。在该实施例中,通过对图像特征和文本特征进行拼接,以得
到拼接特征,进而利用拼接特征来进行文本生成的过程,使视频特征提取模型中的文本生成子模型不仅参考了目标视频的图像特征,还参考了目标视频的文本特征,增加了视频特征提取模型所参考的信息量,提高了文本生成的精确性。
169.进一步地,在一些实施例中,在文本生成子模型用于执行多个类型的文本生成任务的情况下,在得到拼接特征之后,该方法还包括:在该拼接特征上,添加各个类型的类型标识,基于添加该类型标识后的拼接特征,执行上述步骤305。其中,类型标识用于指示对应类型的文本生成任务。在一些实施例中,通过视频特征提取模型,将添加该类型标识后的拼接特征输入文本生成子模型,通过该文本生成子模型所包括的自注意力层,分别基于各个类型标识对应的处理机制,对该拼接特征进行处理,输出该自注意力分值达到该文本生成条件的多个字符,基于该多个字符生成该目标视频的多个类型的内容描述文本。在该实施例中,通过在拼接特征上添加各个类型的类型标识,以便视频特征提取模型中的文本生成子模型能够基于各个类型的类型标识,来触发生成目标视频的多个类型的内容描述文本,确保文本生成的顺利进行。
170.本公开实施例提供的技术方案,通过在视频特征提取模型中构建图像特征提取子模型和文本特征提取子模型的双流架构,能够精确地提取到目标视频的图像特征和文本特征,且,通过在视频特征提取模型中设置文本生成子模型,对该目标视频的图像特征和文本特征进行处理,能够输出自注意力分值达到文本生成条件的多个字符,进而基于所输出的多个字符能够自动生成该目标视频的内容描述文本,提供了一种基于文本生成的视频特征提取模型,所生成的内容描述文本包含了丰富的信息量,能够更好的表征该目标视频,提升了视频表征的准确性。
171.在上述图3所示出的方案中,提供了一种基于图像信息和文本信息来生成视频的内容描述文本的模型,参考了图像模态和文本模型的多模态信息,增加了视频特征提取模型所参考的信息量,一方面,丰富了视频特征提取模型所提取的视频特征,另一方面,提升了视频特征提取模型提取视频特征的准确性。其中,模态是指信息的表示方式或表示形式,应理解地,每一种信息的媒介或者形式均可以称作一种模态,例如,信息的媒介,如图像、文本、音频等等。在另一些实施例中,计算机设备还能够利用其他模态的信息来进行上述文本生成方法,例如,目标视频的发布信息等等。
172.针对上述图3所示出的实施例中的视频特征提取模型,在一些实施例中,在实施上述步骤301至步骤305的方案之前,计算机设备基于样本视频的图像信息、该样本视频的文本信息以及该样本视频的描述文本标签,进行模型训练,得到该视频特征提取模型。本公开实施例中,采用样本视频来指代用于训练该视频特征提取模型的训练视频,在一些实施例中,样本视频的数量为多个。应理解地,样本视频的图像信息、该样本视频的文本信息以及该样本视频的描述文本标签作为训练数据集而获取。其中,样本视频的图像信息包括该样本视频的封面图像或该样本视频内的至少一帧图像中的至少一项。样本视频的文本信息包括该样本视频的描述信息、标题信息、字幕信息、文字识别结果以及音频识别结果中的至少一项。需要说明的是,关于样本视频的图像信息和文本信息的获取过程参见步骤301中获取目标视频的图像信息和文本信息的过程,不再赘述。描述文本标签用于指示该样本视频的内容描述文本。在一些实施例中,描述文本标签是指人工生成(如打标签)的样本视频的内容描述文本。
173.图5是根据一示例性实施例示出的一种视频特征提取模型的训练方法的流程图,参见图5,该方法包括:
174.在步骤501中,计算机设备在模型训练的第i次迭代过程中,将该样本视频的图像信息与文本信息输入第i-1次迭代过程所确定的视频特征提取模型,得到第i次迭代过程的文本训练结果,该i为大于1的正整数。
175.其中,文本训练结果为模型训练过程中所生成的内容描述文本。在一些实施例中,计算机设备在模型训练的第i次迭代过程中,将该样本视频的图像信息与文本信息输入第i-1次迭代过程所确定的视频特征提取模型,通过该视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该样本视频的图像特征,通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该样本视频的文本特征,通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,得到该样本视频的文本训练结果。
176.在一些实施例中,在模型训练的第一次迭代过程中,将该样本视频的图像信息与文本信息输入初始视频特征提取模型,得到第一次迭代过程的文本训练结果,其中,初始视频特征提取模型的处理过程为:通过该初始视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该样本视频的图像特征,通过该初始视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该样本视频的文本特征,通过该初始视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,得到该样本视频的文本训练结果。
177.在步骤502中,对于任一类型,计算机设备基于该第i次迭代过程在该类型上的文本训练结果与该样本视频在该类型上的描述文本标签,确定该第i次迭代过程在该类型上的损失值。
178.在一些实施例中,对于任一类型,计算机设备基于该第i次迭代过程在该类型上的文本训练结果与该样本视频在该类型上的描述文本标签,确定该第i次迭代过程在该类型上的交叉熵损失值,进而基于该第i次迭代过程在该类型上的交叉熵损失值来执行后续步骤。
179.在一些实施例中,对于任一类型,获取该类型的交叉熵损失值的过程为:计算机设备基于该第i次迭代过程在该类型上的文本训练结果、该样本视频在该类型上的描述文本标签、样本视频的数量以及celoss(cross entropy loss,交叉熵损失)公式(1),确定该第i次迭代过程在该类型上的交叉熵损失值。
[0180][0181]
式中,celoss表示交叉熵损失值;m表示训练数据集中样本视频的数量;yk表示该视频特征提取模型针对第k个样本视频的文本训练结果;p表示该视频特征提取模型针对第k个样本视频的文本训练结果的正确概率,例如,正确概率可以是文本训练结果与描述文本标签之间的相似度。
[0182]
在步骤503中,对于任一类型,计算机设备基于该第i次迭代过程在该类型上的正确文本数量以及总文本数量,确定该第i次迭代过程在该类型上的正确比例,该正确比例表示在该第i次迭代过程中正确文本数量占总文本数量的比例。
[0183]
其中,正确文本数量是指模型训练过程中所生成的正确文本训练结果的数量,例如,正确概率达到概率阈值的文本训练结果的数量。总文本数量是指模型训练过程中所生成的文本训练结果的总数量。在一些实施例中,对于任一类型,计算机设备确定该第i次迭代过程在该类型上的正确文本数量与总文本数量比值,将所确定的比值确定为该第i次迭代过程在该类型上的正确比例。
[0184]
在步骤504中,计算机设备基于该第i次迭代过程在该类型上的正确比例,确定该视频特征提取网络在该类型上的权重系数,其中,该正确比例与该权重系数成负相关。
[0185]
针对上述步骤503至步骤504中确定各个类型对应的权重系数的过程,在一些实施例中,计算机设备基于该第i次迭代过程在该类型上的正确文本数量、该第i次迭代过程在该类型上的总文本数量以及下述权重系数公式(2),确定该视频特征提取网络在该类型上的权重系数。
[0186]
w=1-(correct/total)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0187]
式中,w表示该视频特征提取网络在该类型上的权重系数;correct表示在该类型上的正确文本数量;total表示在该类型上的总文本数量。
[0188]
在上述实施例中,针对文本生成所涉及的各个类型,分别按照各个类型所对应的正确比例,来确定各个类型对应的权重系数,由于正确比例表示正确文本数量占总文本数量的比例,且由于正确比例与权重系数之间成负相关,因此,在计算模型损失值的情况下,为正确比例大的类型设置较小的权重系数,为正确比例小的类型设置较大的权重系数,提高了确定权重系数的准确性,也就提高了确定模型损失值的准确性。
[0189]
在步骤505中,计算机设备基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值。
[0190]
针对该第i次迭代过程,在一些实施例中,基于上述celoss公式(1),计算得到该至少一个类型所对应的交叉熵损失值,基于上述权重系数公式(2),计算得到该至少一个类型所对应的权重系数之后,基于该至少一个类型所对应的交叉熵损失值、该至少一个类型所对应的权重系数以及下述损失值公式(3),进行加权求和,得到该第i次迭代过程的模型损失值。
[0191][0192]
式中,totalloss表示该第i次迭代过程的模型损失值;n表示多个类型的数量;ws表示类型s所对应的权重系数;celosss表示类型s所对应的交叉熵损失值。
[0193]
在上述步骤502至步骤505中,计算机设备基于该第i次迭代过程在多个类型上的文本训练结果与该样本视频在多个类型上的描述文本标签,确定该第i次迭代过程的模型损失值。在该实施例中,针对文本生成所涉及的各个类型,分别设置有各个类型对应的权重系数,进而利用各个类型对应的损失值以及各个类型对应的权重系数,来确定模型损失值,提高了确定模型损失值的准确性。
[0194]
在步骤506中,计算机设备基于该第i次迭代过程的模型损失值,对该第i-1次迭代过程所确定的视频特征提取模型的模型参数进行调整,基于调整后的该模型参数进行第i+1次迭代过程,重复上述训练的迭代过程,直至训练满足目标条件。
[0195]
在一些实施例中,训练满足的目标条件为视频特征提取模型的训练迭代次数达到目标次数,该目标次数为预先设定的训练迭代次数,如1000次;或者,训练满足的目标条件为模型损失值满足目标阈值条件,如损失值小于0.00001。本公开实施例对目标条件的设置不加以限定。
[0196]
在上述实施例中,在模型训练的任一次迭代过程中,均利用本次迭代过程的模型损失值来对视频特征提取模型进行模型参数的调整,以提升视频特征提取模型的特征提取能力,从而训练出特征提取能力较高的视频特征提取模型。
[0197]
本公开实施例所提供的技术方案,利用样本视频的图像信息、样本视频的文本信息以及样本视频的描述文本标签,来进行模型训练,以训练得到具备文本生成功能的视频特征提取模型,进而利用所训练出的视频特征提取模型来生成目标视频的内容描述文本,提供了一种基于文本生成的视频特征提取模型,所生成的内容描述文本包含了丰富的信息量,能够更好的表征该目标视频,提升了视频表征的准确性。
[0198]
图6是根据一示例性实施例示出的一种文本生成装置的框图。参见图6,该装置包括获取单元601,提取单元602和处理单元603。
[0199]
获取单元601,被配置为执行获取目标视频的图像信息与文本信息;
[0200]
提取单元602,被配置为执行将该图像信息与该文本信息输入视频特征提取模型,通过该视频特征提取模型的图像特征提取子模型对该图像信息进行特征提取,得到该目标视频的图像特征,通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征;
[0201]
处理单元603,被配置为执行通过该视频特征提取模型的文本生成子模型所包括的自注意力层,对该图像特征与该文本特征进行处理,输出自注意力分值达到文本生成条件的多个字符,基于该多个字符生成该目标视频的内容描述文本。
[0202]
本公开实施例提供的技术方案,通过在视频特征提取模型中构建图像特征提取子模型和文本特征提取子模型的双流架构,能够精确地提取到目标视频的图像特征和文本特征,且,通过在视频特征提取模型中设置文本生成子模型,对该目标视频的图像特征和文本特征进行处理,能够输出自注意力分值达到文本生成条件的多个字符,进而基于所输出的多个字符能够自动生成该目标视频的内容描述文本,提供了一种基于文本生成的视频特征提取模型,所生成的内容描述文本包含了丰富的信息量,能够更好的表征该目标视频,提升了视频表征的准确性。
[0203]
在一些实施例中,该获取单元601,被配置为执行下述至少一项:
[0204]
获取该目标视频的封面图像;或,获取该目标视频内的至少一帧图像。
[0205]
在一些实施例中,该获取单元601,被配置为执行下述至少一项:
[0206]
获取该目标视频的描述信息;获取该目标视频的标题信息;获取该目标视频的字幕信息;获取该目标视频的文字识别结果,该文字识别结果为对该目标视频内的至少一帧图像进行文字识别所得到的结果;获取该目标视频的音频识别结果,该音频识别结果为对该目标视频的背景音频进行音频识别所得到的结果。
[0207]
在一些实施例中,该内容描述文本包括内容类目描述文本、内容形式描述文本、内容主题描述文本以及内容详情描述文本中的至少一类。
[0208]
在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
[0209]
该装置还包括:
[0210]
第一拼接单元,被配置为执行对该图像特征与该文本特征进行拼接,得到拼接特征;
[0211]
添加单元,被配置为执行在该拼接特征上,添加各个类型的类型标识;
[0212]
该处理单元603,被配置为执行:
[0213]
将添加该类型标识后的拼接特征输入该文本生成子模型,通过该文本生成子模型所包括的自注意力层,分别基于各个类型标识对应的处理机制,对该拼接特征进行处理,输出该自注意力分值达到该文本生成条件的多个字符,基于该多个字符生成该目标视频的多个类型的内容描述文本。
[0214]
在一些实施例中,该装置还包括:
[0215]
输入单元,被配置为执行在模型训练的第i次迭代过程中,将样本视频的图像信息与文本信息输入第i-1次迭代过程所确定的视频特征提取模型,得到第i次迭代过程的文本训练结果,该i为大于1的正整数;
[0216]
确定单元,被配置为执行基于该第i次迭代过程的文本训练结果与该样本视频的描述文本标签,确定该第i次迭代过程的模型损失值;
[0217]
调整单元,被配置为执行基于该第i次迭代过程的模型损失值,对该第i-1次迭代过程所确定的视频特征提取模型的模型参数进行调整,基于调整后的该模型参数进行第i+1次迭代过程,重复上述训练的迭代过程,直至训练满足目标条件。
[0218]
在一些实施例中,该内容描述文本包括多个类型的内容描述文本;
[0219]
该确定单元,被配置为执行:
[0220]
对于任一类型,基于该第i次迭代过程在该类型上的文本训练结果与该样本视频在该类型上的描述文本标签,确定该第i次迭代过程在该类型上的损失值;
[0221]
基于该第i次迭代过程在该多个类型上的损失值以及该视频特征提取网络在该多个类型上的权重系数,进行加权求和,得到该第i次迭代过程的模型损失值。
[0222]
在一些实施例中,该确定单元,还被配置为执行:
[0223]
对于任一类型,基于该第i次迭代过程在该类型上的正确文本数量以及总文本数量,确定该第i次迭代过程在该类型上的正确比例,该正确比例表示在该第i次迭代过程中正确文本数量占总文本数量的比例;
[0224]
基于该第i次迭代过程在该类型上的正确比例,确定该视频特征提取网络在该类型上的权重系数,其中,该正确比例与该权重系数成负相关。
[0225]
在一些实施例中,该文本信息的数量为多个;
[0226]
该装置还包括第二拼接单元,被配置为执行对多个该文本信息进行拼接,得到拼接后的该文本信息;
[0227]
该提取单元602,还被配置为执行基于拼接后的该文本信息,执行该通过该视频特征提取模型的文本特征提取子模型对该文本信息进行特征提取,得到该目标视频的文本特征的步骤。
[0228]
在一些实施例中,该提取单元602,还被配置为执行:
[0229]
从拼接后的该文本信息中,提取前目标数量的字符;
[0230]
基于所提取的字符,执行该通过该视频特征提取模型的文本特征提取子模型对该
文本信息进行特征提取,得到该目标视频的文本特征的步骤。
[0231]
需要说明的是:上述实施例提供的文本生成装置在生成文本时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的文本生成装置与文本生成方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
[0232]
本公开实施例所提到的计算机设备可提供为一种终端。图7示出了本公开一个示例性实施例提供的终端700的结构框图。该终端700可以是:智能手机、平板电脑、mp3播放器(moving picture experts group audio layer iii,动态影像专家压缩标准音频层面3)、mp4(moving picture experts group audio layer iv,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端700还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
[0233]
通常,终端700包括有:处理器701和存储器702。
[0234]
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用dsp(digital signal processing,数字信号处理)、fpga(field-progra mmable gate array,现场可编程门阵列)、pla(programmable logic array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称cpu(central processing unit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以集成有gpu(graphics processing unit,图像处理器),gpu用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括ai(artificial intelligence,人工智能)处理器,该ai处理器用于处理有关机器学习的计算操作。
[0235]
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器701所执行以实现本公开中方法实施例提供的文本生成方法中终端执行的过程。
[0236]
在一些实施例中,终端700还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、显示屏705、摄像头组件706、音频电路707、定位组件708和电源709中的至少一种。
[0237]
外围设备接口703可被用于将i/o(input/output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
[0238]
射频电路704用于接收和发射rf(radio frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转
换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、rf收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2g、3g、4g及5g)、无线局域网和/或wifi(wireless fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括nfc(near field communication,近距离无线通信)有关的电路,本公开对此不加以限定。
[0239]
显示屏705用于显示ui(user interface,用户界面)。该ui可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置在终端700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在终端700的不同表面或呈折叠设计;在另一些实施例中,显示屏705可以是柔性显示屏,设置在终端700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用lcd(liquid crystal display,液晶显示屏)、oled(organic light-emitting diode,有机发光二极管)等材质制备。
[0240]
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及vr(virtual reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
[0241]
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
[0242]
定位组件708用于定位终端700的当前地理位置,以实现导航或lbs(location based service,基于位置的服务)。
[0243]
电源709用于为终端700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
[0244]
在一些实施例中,终端700还包括有一个或多个传感器710。该一个或多个传感器
710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
[0245]
加速度传感器711可以检测以终端700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
[0246]
陀螺仪传感器712可以检测终端700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对终端700的3d动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变ui)、拍摄时的图像稳定、游戏控制以及惯性导航。
[0247]
压力传感器713可以设置在终端700的侧边框和/或显示屏705的下层。当压力传感器713设置在终端700的侧边框时,可以检测用户对终端700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在显示屏705的下层时,由处理器701根据用户对显示屏705的压力操作,实现对ui界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
[0248]
光学传感器714用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器714采集的环境光强度,控制显示屏705的显示亮度。具体地,当环境光强度较高时,调高显示屏705的显示亮度;当环境光强度较低时,调低显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器714采集的环境光强度,动态调整摄像头组件706的拍摄参数。
[0249]
接近传感器715,也称距离传感器,通常设置在终端700的前面板。接近传感器715用于采集用户与终端700的正面之间的距离。在一个实施例中,当接近传感器715检测到用户与终端700的正面之间的距离逐渐变小时,由处理器701控制显示屏705从亮屏状态切换为息屏状态;当接近传感器715检测到用户与终端700的正面之间的距离逐渐变大时,由处理器701控制显示屏705从息屏状态切换为亮屏状态。
[0250]
本领域技术人员可以理解,图7中示出的结构并不构成对终端700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
[0251]
本公开实施例所提到的计算机设备可提供为一种服务器。图8是根据一示例性实施例示出的一种服务器的框图,该服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(central processing units,cpu)801和一个或多个的存储器802,其中,该一个或多个存储器802中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器801加载并执行以实现上述各个方法实施例提供的文本生成方法中服务器执行的过程。当然,该服务器800还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器800还可以包括其他用于实现设备功能的部件,在此不做赘述。
[0252]
在示例性实施例中,还提供了一种包括程序代码的计算机可读存储介质,例如包括程序代码的存储器802,上述程序代码可由服务器800的处理器801执行以完成上述文本生成方法。可选地,计算机可读存储介质可以是rom(read-only memory,只读内存)、ram
(random access memory,随机存取存储器)、cd-rom(compact-disc read-only memory,只读光盘)、磁带、软盘和光数据存储设备等。
[0253]
在示例性实施例中,还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述的文本生成方法。
[0254]
在一些实施例中,本公开实施例所涉及的计算机程序可被部署在一个计算机设备上执行,或者在位于一个地点的多个计算机设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算机设备上执行,分布在多个地点且通过通信网络互连的多个计算机设备可以组成区块链系统。
[0255]
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
[0256]
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1