音频合成及相应的模型训练方法、装置、设备及存储介质与流程

文档序号:28169708发布日期:2021-12-24 23:23阅读:83来源:国知局
1.本公开涉及计算机
技术领域
:,具体涉及深度学习、语音技术与自然语言处理等人工智能
技术领域
:,尤其涉及一种音频合成及相应的模型训练方法、装置、设备及存储介质。
背景技术
::2.语音合成的应用越来越广。目前的语音合成主要包括声学模型和声码器两部分,其中声学模型用于将文本或音素转成音频,之后由声码器将音频转化为语音。3.现有技术中,声学模型的训练一般需要较多的数据,例如,要学习某个说话人的音色和/或风格等特征信息,若采集到该说话人的少于20条语音,声学模型就难以准确地学习到该说话人的音色和/或风格等特征信息。技术实现要素:4.本公开提供了一种音频合成及相应的模型训练方法、装置、设备及存储介质。5.根据本公开的一方面,提供了一种音频合成方法,其中,所述方法包括:6.对指定音频进行切分,得到多个音频切片;7.采用预先训练的声学特征提取模型提取各所述音频切片对应的声学特征信息,得到多个声学特征信息;8.基于所述多个声学特征信息和指定文本,采用预先训练的编码器和解码器,合成相应的音频。9.根据本公开的另一方面,提供了一种声学模型的训练方法,其中,所述方法包括:10.对采集的多条训练音频中至少一条训练音频进行切分,得到多个训练音频切片;11.将所述多条训练音频及采集的对应的训练文本、与所述多个训练音频切片进行排列组合,得到多条训练数据;12.采用所述多条训练数据对声学模型进行训练。13.根据本公开的再一方面,提供了一种音频合成装置,其中,所述装置包括:14.切分模块,用于对指定音频进行切分,得到多个音频切片;15.提取模块,用于采用预先训练的声学特征提取模型提取各所述音频切片对应的声学特征信息,得到多个声学特征信息;16.合成模块,用于基于所述多个声学特征信息和指定文本,采用预先训练的编码器和解码器,合成相应的音频。17.根据本公开的又一方面,提供了一种声学模型的训练装置,其中,所述装置包括:18.切分模块,用于对采集的多条训练音频中至少一条训练音频进行切分,得到多个训练音频切片;19.组合模块,用于将所多条述训练音频及采集的对应的训练文本、与所述多个训练音频切片进行排列组合,得到多条训练数据;20.训练模块,用于采用所述多条训练数据对声学模型进行训练。21.根据本公开的再另一方面,提供了一种电子设备,包括:22.至少一个处理器;以及23.与所述至少一个处理器通信连接的存储器;其中,24.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方面和任一可能的实现方式的方法。25.根据本公开的再又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的方面和任一可能的实现方式的方法。26.根据本公开的又另另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方面和任一可能的实现方式的方法。27.根据本公开的技术,能够有效地提高音频的合成效率。28.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。附图说明29.附图用于更好地理解本方案,不构成对本公开的限定。其中:30.图1是根据本公开第一实施例的示意图;31.图2是根据本公开第二实施例的示意图;32.图3是根据本公开第三实施例的示意图;33.图4是根据本公开第四实施例的示意图;34.图5是根据本公开第五实施例的示意图;35.图6是根据本公开第六实施例的示意图;36.图7是根据本公开第七实施例的示意图;37.图8是根据本公开第八实施例的示意图;38.图9是用来实现本公开实施例的音频合成方法或者声学模型的训练方法的电子设备的框图。具体实施方式39.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。40.显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本公开保护的范围。41.需要说明的是,本公开实施例中所涉及的终端设备可以包括但不限于手机、个人数字助理(personaldigitalassistant,pda)、无线手持设备、平板电脑(tabletcomputer)等智能设备;显示设备可以包括但不限于个人电脑、电视等具有显示功能的设备。42.另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。43.图1是根据本公开第一实施例的示意图;如图1所示,本实施例提供一种音频合成方法,具体可以包括如下步骤:44.s101、对指定音频进行切分,得到多个音频切片;45.s102、采用预先训练的声学特征提取模型提取各音频切片对应的声学特征信息,得到多个声学特征信息;46.s103、基于多个声学特征信息和指定文本,采用预先训练的编码器和解码器,合成相应的音频。47.本实施例的音频合成方法的执行主体可以为音频合成装置,该音频合成装置可以为电子实体或者也可以采用软件集成的应用,用于合成指定音频的说话人描述指定文本的音频。48.本实施例中所述的音频如指定音频以及合成的音频可以采用梅尔谱(mel)的形式,也可以称为mel音频。49.具体地,在对指定音频进行切分时,可以进行等长度的切分,如每100帧为单位进行切分,如果由前至后切分剩余的最后一段音频切片不足100帧,也可以单独使用,不影响使用效果。或者也可以在切分时,进行不等长度的切分,得到多个音频切片。本实施例切分后的音频切片是用于提取声学特征信息,无论按照哪种方式进行切分,为了保证提取的声学特征信息的准确性,本实施例中在进行切分时,可以保证切分得到的每个音频切片长度大于预设阈值,预设阈值长度可以根据经验来设置,例如可以为90帧、100帧或者其他整数帧。50.本实施例的声学特征提取模型用于提取音频切片中的声学特征信息,例如音色信息或者风格信息或者其他声学特征信息。其中,由于风格信息需要更长的音频才可以准确提取到,所以相对于音色信息,风格信息需要音频切片的长度更长。而说话人的音色信息,仅仅一小段的音频切片便可以提取到。也就是说,在音频切片较少时,本实施例的方案在声学特征信息为音色时,效果更佳。51.使用时,将各个音频切片输入至声学特征提取模型内,该声学特征提取模型便可以预测并输出各音频切片的声学特征信息。对于多个音频切片,可以得到多个声学特征信息。52.最后采用编码器和解码器,基于多个声学特征信息和指定文本,可以合成相应的音频,即合成的该音频为指定音频的说话人说指定文本的音频。53.本实施例中预先训练的声学特征提取模型、编码器和解码器合在一起可以称为声学模型,该声学模型用于实现指定音频的说话人将指定文本的音频。在训练时,声学特征提取模型、编码器和解码器构成的声学模型可以一起进行训练。54.本实施例的音频合成方法,通过对指定音频进行切分,得到多个音频切片;并采用预先训练的声学特征提取模型提取各音频切片对应的声学特征信息,得到多个声学特征信息;进而基于多个声学特征信息和指定文本,采用预先训练的编码器和解码器,合成相应的音频,能够有效地提高提取的指定音频的声学特征信息的准确性,进而有效地提高合成的音频的准确性,并提高音频的合成效率。55.图2是根据本公开第二实施例的示意图;本实施例的音频合成方法,在上述图1所示实施例的技术方案的基础上,进一步更加详细地介绍本技术的技术方案。如图2所示,本实施例的音频合成方法,具体可以包括如下步骤:56.s201、对指定音频进行切分,得到多个音频切片;57.s202、采用预先训练的声学特征提取模型提取各音频切片对应的声学特征信息,得到多个声学特征信息;58.s203、基于多个声学特征信息,获取目标声学特征信息;59.具体地,可以采用数学计算方式,基于多个声学特征信息,计算得到目标声学特征信息。例如,可以采用如下公式,取多个声学特征信息的平均值m,作为目标声学特征信息:m=(x1+x2+x3+……+xn)/n,其中x1、x2、x3、……、xn分别表示n个声学特征信息;m表示n个声学特征信息的平均值。60.再例如,还可以采用如下公式,先计算n个声学特征信息的方差;s2=(x1‑m)2+(x2‑m)2+(x3‑m)2+……+(xn‑m)2;然后从n个声学特征信息中获取与方差的差值最小的两个声学特征信息;并取获取的两个声学特征信息的平均值,作为目标声学特征信息。或者还可以采用其他方式获取目标声学特征信息,如可以先将n个声学特征信息分成多组,计算每组的声学特征信息的平均值,最后再取所有组的声学特征信息的平均值的平均值,作为目标声学特征信息。或者实际应用中,也可以采用其他数学计算获取目标声学特征信息,在此不再一一举例赘述。61.以音色为例,采用本实施例的方式,对指定音频进行切分,得到多个音频切片,然后声学特征提取模型提取各音频切片对应的音色特征信息,得到多个音色特征信息。基于多个音色特征信息,获取一个目标音色特征信息,与直接从指定音频中提取音色特征信息相比,能够进一步提高提取的目标音色特征信息的准确性。62.s204、采用编码器对指定文本进行编码,得到指定文本的编码特征信息;63.s205、采用解码器基于目标声学特征信息和指定文本的编码特征信息,解码得到音频。64.本实施例的编码器和解码器也为神经网络模型,例如可以采用循环神经网络模型来实现。65.在工作时,编码器接收输入的指定文本,对指定文本进行编码,得到相应的编码特征信息。解码器接收输入的目标声学特征信息和指定文本的编码特征信息,然后进行解码,得到指定音频的说话人说指定文本的音频。后续还可以基于该音频合成对应的语音。66.本实施例的音色特征信息和文本编码特征信息均采用向量的形式来表示。67.本实施例的音频合成方法,通过采用上述技术方案,能够有效地提高提取的指定音频的声学特征信息的准确性,进而有效地提高合成的音频的准确性,提高音频的合成效率。68.图3是根据本公开第三实施例的示意图;如图3所示,本实施例提供一种声学模型的训练方法,具体可以包括如下步骤:69.s301、对采集的多条训练音频中至少一条训练音频进行切分,得到多个训练音频切片;70.s302、将多条训练音频及采集的对应的训练文本、与多个训练音频切片进行排列组合,得到多条训练数据;71.s303、采用多条训练数据对声学模型进行训练。72.本实施例的声学模型的训练方法的执行主体可以为声学模型的训练装置,该装置可以为电子实体或者也可以为采用软件集成的应用,用于对声学模型进行训练。本实施例的声学模型即为上述图1或者图2所示实施例的包括声学特征提取模型、编码器和解码器的声学模型。73.本实施例中,排列组合后得到的训练数据中可以包括一条训练文本、训练文本对应的训练音频以及一条训练音频切片,该训练音频切片是用于在训练过程中提供音色和/或风格等声学特征。74.本实施例中,采集的训练音频和训练文本是一一对应的关系,但是在实际应用的场景中,采集到的训练音频的数据量还是非常有限的。本实施例中的声学模型是用于学习说话人的声学特征如音色和/或风格,尤其是音色,对音频数据的长度要求非常低,如仅包括100帧的音频切片便可以实现音色的学习。因此,为了提高声学模型训练数据的数据量,本实施例中可以对至少一条训练音频进行切分,得到多个训练音频切片。进一步地,为了增加训练音频切片的数量,优选地,可以对每一条训练音频都进行切分。然后将多个训练音频切片、与多条训练音频及对应的训练文本进行排列组合,以丰富训练数据。假如采集到10条训练音频和对应的训练文本,以对每条训练音频都进行切分为例,每条训练音频可以切分得到8个训练音频切片,共可以得到80个训练音频切片。这样,进行排列组合,可以得到800条训练数据,能够极大地丰富训练数据的数据量。该种方式得到的训练数据中,训练音频切片与训练音频解耦,即在同一条训练数据中,训练音频切片不一定是训练音频中的片段,或者说训练音频切片和训练音频对应的文本信息没有交集。75.最后,采用多条训练数据对声学模型进行训练。由于训练数据量扩大了很多倍,进而可以使得声学模型能够充分学习到训练数据中声学特征信息,提高声学模型的训练效果。76.本实施例的声学模型的训练方法,通过采用上述技术方案,能够极大地丰富训练数据的数据量,进而使得声学模型能够充分学习到训练数据中的声学特征信息,有效地提高训练的声学模型合成音频的效率。77.图4是根据本公开第四实施例的示意图;本实施例的声学模型的训练方法,在上述图3所示实施例的技术方案的基础上,进一步更加详细地描述本技术的技术方案,如图4所示,本实施例的声学模型的训练方法,具体可以包括如下步骤:78.s401、采集多条训练音频和各训练音频对应的训练文本;79.s402、对采集的多条训练音频中至少一条训练音频进行切分,得到多个训练音频切片;80.s403、将多条训练音频及采集的对应的训练文本、与多个训练音频切片进行排列组合,得到多条训练数据;81.参考上述图3所示实施例的记载,本实施例的训练音频和训练文本是一一对应的关系,即训练音频为讲话人将训练文本的音频。而排列组合得到的训练数据中,训练音频切片与训练文本完全解构,可以没有任何关系。82.s404、对于各条训练数据,采用声学模型中的声学特征提取模型提取训练数据中的训练特征音频切片的声学特征信息,得到训练声学特征信息;83.s405、采用声学模型中的编码器对训练数据中的训练文本进行编码,得到训练文本编码特征信息;84.s406、采用声学模型中的解码器,基于训练声学特征信息和训练文本编码特征信息进行解码,得到预测音频;85.上述步骤在训练过程中与上述图2所示实施例的使用过程原理相似,在此不再赘述。86.s407、基于预测音频和训练数据中的训练音频,构建损失函数;87.s408、判断损失函数是否收敛,若不收敛,执行步骤s409;若收敛,执行步骤s410;88.s409、对声学特征提取模型、编码器和解码器进行参数调整,使得损失函数趋于收敛;返回步骤s404,选择下一条训练数据,继续进行训练;89.本实施例中,对声学特征提取模型、编码器和解码器进行参数调整时,可以基于梯度下降法来进行调整。具体地对三个模型可以分开调整,例如,每n轮训练调整一个模型。也可以三个模型同时进行调整。无论采用哪种调整方式,总之,只要是朝向损失函数下降的趋势调整即可。90.s410、检测是否满足训练终止条件,若满足,训练结束,确定包括声学特征提取模型、编码器和解码器的声学模型的参数,进而确定声学模型;否则,若不满足,返回步骤s404选择下一条训练数据,继续进行训练;91.本实施例的训练终止条件可以为训练次数达到预设次数阈值,或者也可以在连续轮数的训练中,损失函数始终收敛。在满足训练终止条件时,可以认为声学模型已经训练成熟,可以使用,此时终止训练即可。92.本实施例的声学模型的训练方法,通过采用上述技术方案,能够极大地丰富训练数据的数据量,进而使得声学模型能够充分学习到训练数据中的声学特征信息,有效地提高训练的声学模型合成音频的效率。93.图5是根据本公开第五实施例的示意图;本实施例提供一种音频合成装置500,包括:94.切分模块501,用于对指定音频进行切分,得到多个音频切片;95.提取模块502,用于采用预先训练的声学特征提取模型提取各音频切片对应的声学特征信息,得到多个声学特征信息;96.合成模块503,用于基于多个声学特征信息和指定文本,采用预先训练的编码器和解码器,合成相应的音频。97.本实施例的音频合成装置500,通过采用上述模块实现音频合成的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。98.图6是根据本公开第六实施例的示意图;本实施例的音频合成装置500,在上述图5所示实施例的技术方案的基础上,进一步更加详细地描述本技术的技术方案。99.如图6所示,本实施例的音频合成装置500中,合成模块503,包括:100.获取单元5031,用于基于多个声学特征信息,获取目标声学特征信息;101.编码单元5032,用于采用编码器对指定文本进行编码,得到指定文本的编码特征信息;102.解码单元5033,用于采用解码器基于目标声学特征信息和指定文本的编码特征信息,解码得到音频。103.进一步可选地,其中获取单元5031,用于:104.采用数学计算方式,基于多个声学特征信息,计算得到目标声学特征信息。105.本实施例的音频合成装置500,通过采用上述模块实现音频合成的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。106.图7是根据本公开第七实施例的示意图;本实施例提供一种声学模型的训练装置700,包括:107.切分模块701,用于对采集的多条训练音频中至少一条训练音频进行切分,得到多个训练音频切片;108.组合模块702,用于将多条训练音频及采集的对应的训练文本、与多个训练音频切片进行排列组合,得到多条训练数据;109.训练模块703,用于采用多条训练数据对声学模型进行训练。110.本实施例的声学模型的训练装置700,通过采用上述模块实现声学模型的训练的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。111.图8是根据本公开第八实施例的示意图;本实施例的声学模型的训练装置700,在上述图7所示实施例的技术方案的基础上,进一步更加详细地描述本技术的技术方案。112.如图8所示,本实施例的声学模型的训练装置700中,训练模块703,包括:113.提取单元7031,用于对于各条训练数据,采用声学模型中的声学特征提取模型提取训练数据中的训练特征音频切片的声学特征信息,得到训练声学特征信息;114.编码单元7032,用于采用声学模型中的编码器对训练数据中的训练文本进行编码,得到训练文本编码特征信息;115.解码单元7033,用于采用声学模型中的解码器,基于训练声学特征信息和训练文本编码特征信息进行解码,得到预测音频;116.构建单元7034,用于基于预测音频和训练数据中的训练音频,构建损失函数;117.调整单元7035,用于若损失函数不收敛,对声学特征提取模型、编码器和解码器进行参数调整,使得损失函数趋于收敛。118.进一步可选地,本实施例的声学模型的训练装置700中,还包括:119.采集模块704,用于采集多条训练音频和各训练音频对应的训练文本。120.本实施例的声学模型的训练装置700,通过采用上述模块实现声学模型的训练的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。121.本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。122.根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。123.图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。124.如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(rom)902中的计算机程序或者从存储单元908加载到随机访问存储器(ram)903中的计算机程序,来执行各种适当的动作和处理。在ram903中,还可存储设备900操作所需的各种程序和数据。计算单元901、rom902以及ram903通过总线904彼此相连。输入/输出(i/o)接口905也连接至总线904。125.设备900中的多个部件连接至i/o接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。126.计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如音频合成方法或者声学模型的训练方法。例如,在一些实施例中,音频合成方法或者声学模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由rom902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到ram903并由计算单元901执行时,可以执行上文描述的音频合成方法或者声学模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行音频合成方法或者声学模型的训练方法。127.本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。128.用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。129.在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd‑rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。130.为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。131.可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)和互联网。132.计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端‑服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。133.应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。134.上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1