1.本发明涉及计算机技术领域,尤其涉及一种面向语音对话场景的语音合成方法、系统及存储介质。
背景技术:2.对于目前的语音合成系统,在根据数据库中的文本和语音进行训练后,输入特定的文本可以生成对应的语音,实现语音合成的功能。目前的面向对话的语音合成系统一般包括语音合成模块、上下文编码器和辅助编码器。其中语音合成模块用来根据文本生成对应的音频,包括文本编码器、梅尔谱解码器、变分适配器和声码器等;上下文编码器用于从文本方面对对话历史上下文信息进行句子层级的信息建模;同时,采用辅助编码器提取有用的统计文本特征,如语义和句法特征。
3.现有技术中,在面向语音对话场景进行语音合成时,一般只将历史对话的文本内容通过上下文编码器得到句子级别的上下文嵌入表示,即现有技术中对对话场景中的语音进行合成时仅仅考虑了句子级别的全局韵律风格信息,没有考虑对话中的其他尺度的信息。而发明人在研究中发现,在真实对话场景中,关键词、强调重音和韵律变化这些词级别的局部信息都对整个对话的理解起到作用,人们会对他人在交流中说的特定单词或短语做出反应。因而,发明人发现现有的面向语音对话场景的语音合成方法,虽然可实现语音的合成,但通过该方法合成的语音存在着与历史对话语音的贴合度较差的问题;因此,如何提高所合成的语音与历史对话的贴合度是亟待解决的技术问题。
技术实现要素:4.有鉴于此,本发明提供了一种面向语音对话场景的语音合成方法、系统及存储介质,以解决现有技术中存在的一个或多个问题。
5.根据本发明的一个方面,本发明公开了一种面向语音对话场景的语音合成方法,所述方法包括:获取待合成语音文本数据以及所述待合成语音文本数据对应的当前对话人信息数据,基于所述待合成语音文本数据确定音素序列,基于所述音素序列确定所述待合成语音文本数据的文本嵌入序列,并基于所述当前对话人信息数据得到当前对话人嵌入向量;获取历史对话的历史文本数据、历史语音数据以及历史对话人信息数据,基于所述历史对话人信息数据确定历史对话人信息嵌入向量;基于所述历史文本数据得到句子级别的文本嵌入向量,基于所述句子级别的文本嵌入向量与所述历史对话人信息嵌入向量确定文本角度句子级别的第一上下文特征;基于所述历史语音数据得到句子级别的语音嵌入向量,基于所述句子级别的语音嵌入向量与所述历史对话人信息嵌入向量确定语音角度句子级别的第二上下文特征;基于所述历史文本数据得到词级别的文本嵌入向量,基于所述词级别的文本嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定文本角度的第一韵律风格特
征;基于所述历史语音数据得到词级别的语音嵌入向量,基于所述词级别的语音嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定语音角度的第二韵律风格特征;基于所述第一上下文特征、第二上下文特征、第一韵律风格特征、第二韵律风格特征、文本嵌入序列以及当前对话人嵌入向量得到预测的梅尔频谱,基于所述梅尔频谱确定所述待合成语音文本数据对应的音频。
6.在本发明的一些实施例中,基于所述音素序列确定所述待合成语音文本数据的文本嵌入序列,并基于所述当前对话人信息数据得到当前对话人嵌入向量,包括:将所述音素序列输入至第一编码器中得到文本嵌入序列;将所述当前对话人信息数据输入至第二编码器中得到当前对话人嵌入向量。
7.在本发明的一些实施例中,基于所述历史文本数据得到句子级别的文本嵌入向量,基于所述句子级别的文本嵌入向量与所述历史对话人信息嵌入向量确定文本角度句子级别的第一上下文特征;包括:将所述历史文本数据输入至第一预训练模型中,得到句子级别的文本嵌入向量;将所述句子级别的文本嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第一拼接向量;将所述第一拼接向量输入至第三编码器中,得到文本角度句子级别的第一上下文特征。
8.在本发明的一些实施例中,基于所述历史语音数据得到句子级别的语音嵌入向量,基于所述句子级别的语音嵌入向量与所述历史对话人信息嵌入向量确定语音角度句子级别的第二上下文特征;包括:将所述历史语音数据输入至第二预训练模型中,得到句子级别的语音嵌入向量;将所述句子级别的语音嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第二拼接向量;将所述第二拼接向量输入至第四编码器中,得到语音角度句子级别的第二上下文特征。
9.在本发明的一些实施例中,基于所述历史文本数据得到词级别的文本嵌入向量,基于所述词级别的文本嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定文本角度的第一韵律风格特征;包括:将所述历史文本数据输入至第三预训练模型中得到词级别的文本嵌入向量;将所述词级别的文本嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第三拼接向量;将所述第三拼接向量和所述文本嵌入序列输入至第五编码器中,得到文本角度的第一韵律风格特征。
10.在本发明的一些实施例中,基于所述历史语音数据得到词级别的语音嵌入向量,基于所述词级别的语音嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定语音角度的第二韵律风格特征;包括:将所述历史语音数据输入至第四预训练模型中得到词级别的语音嵌入向量;
将所述词级别的语音嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第四拼接向量;将所述第四拼接向量和所述文本嵌入序列输入至第六编码器中,得到语音角度的第二韵律风格特征。
11.在本发明的一些实施例中,基于所述第一上下文特征、第二上下文特征、第一韵律风格特征、第二韵律风格特征、文本嵌入序列以及当前对话人嵌入向量得到预测的梅尔频谱,基于所述梅尔频谱确定所述待合成语音文本数据对应的音频;包括:将所述第一上下文特征、第二上下文特征、第一韵律风格特征、第二韵律风格特征、文本嵌入序列以及当前对话人嵌入向量相加得到融合嵌入序列;所述融合嵌入序列输入至变分适配器,并加上音高特征和能量特征,得到梅尔嵌入向量序列;将所述梅尔嵌入向量序列、第一上下文特征、第二上下文特征输入至梅尔解码器中进行解码,得到预测的梅尔频谱;将预测的所述梅尔频谱输入至声码器,得到所述待合成语音文本数据对应的音频。
12.在本发明的一些实施例中,所述第一预训练模型为sentence bert模型,所述第二预训练模型为fine-tuned wav2vec模型,所述第三预训练模型为bert模型,所述第四预训练模型为wav2vec模型。
13.根据本发明的另一方面,还公开了一种面向语音对话场景的语音合成系统,该系统包括处理器和存储器,所述存储器中存储有计算机指令,所述处理器用于执行所述存储器中存储的计算机指令,当所述计算机指令被处理器执行时该系统实现如上述任一实施例所述方法的步骤。
14.根据本发明的又一方面,还公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一实施例所述方法的步骤。
15.本发明实施例所公开的面向语音对话场景的语音合成方法、系统及存储介质,能够模拟真实人类语音对话的场景,从多模态、多粒度的角度提取历史对话的句子级别、词级别的文本和语音特征,从而加深对历史对话的理解,从而生成更加贴合历史对话的语音,使得合成的语音有着丰富的韵律、情感、风格等特点。
16.本发明的附加优点、目的,以及特征将在下面的描述中将部分地加以阐述,且将对于本领域普通技术人员在研究下文后部分地变得明显,或者可以根据本发明的实践而获知。本发明的目的和其它优点可以通过在书面说明及其权利要求书以及附图中具体指出的结构实现到并获得。
17.本领域技术人员将会理解的是,能够用本发明实现的目的和优点不限于以上具体所述,并且根据以下详细说明将更清楚地理解本发明能够实现的上述和其他目的。
附图说明
18.此处所说明的附图用来提供对本发明的进一步理解,构成本技术的一部分,并不构成对本发明的限定。附图中的部件不是成比例绘制的,而只是为了示出本发明的原理。为了便于示出和描述本发明的一些部分,附图中对应部分可能被放大,即,相对于依据本发明
实际制造的示例性装置中的其它部件可能变得更大。在附图中:图1为本发明一实施例的面向语音对话场景的语音合成方法的流程示意图。
19.图2为本发明另一实施例的面向语音对话场景的语音合成方法的流程示意图。
20.图3为本发明一实施例的文本角度句子级别模块的架构示意图。
21.图4为本发明一实施例的语音角度句子级别模块的架构示意图。
22.图5为本发明一实施例的文本角度词级别模块的架构示意图。
23.图6为本发明一实施例的语音角度词级别模块的架构示意图。
具体实施方式
24.为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
25.在此,需要说明的是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
26.应该强调,术语“包括/包含/具有”在本文使用时指特征、要素、步骤或组件的存在,但并不排除一个或更多个其它特征、要素、步骤或组件的存在或附加。
27.在语音对话场景下,因为人们在相同的内容或情境下也会用不同的声调说话,因而语音对话过程中的副语言信息(如语音韵律)在语境理解中也起着重要作用;即在真实语音对话中,语音方面的内容包含了更多对话信息,比如情绪情感信息等,这些内容都会影响对历史对话的理解。因而,在面向多人对话场景的语音合成系统中,为了提高所合成的语音与历史对话的贴合度,则需要根据历史的对话信息,比如历史对话人的语调、情感、重音以及说话内容等等,合成适合于当前文本的语调、情感等风格的语音,从而提高所合成的语音的自然度及与历史对话的贴合度。
28.在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
29.图1为本发明一实施例的面向语音对话场景的语音合成方法的流程示意图,如图1所示,该面向语音对话场景的语音合成方法至少包括步骤s10至s70。
30.步骤s10:获取待合成语音文本数据以及所述待合成语音文本数据对应的当前对话人信息数据,基于所述待合成语音文本数据确定音素序列,基于所述音素序列确定所述待合成语音文本数据的文本嵌入序列,并基于所述当前对话人信息数据得到当前对话人嵌入向量。
31.在该步骤中,待合成语音文本数据作为当前文本,即待合成语音文本数据通过音素转换器转化成对应的音素序列;参考图2,当前文本通过音素转换器转换成音素序列;进而音素序列作为输入,输入到文本编码器中,得到文本嵌入序列。另外,当前对话人信息数据作为输入条件,输入到说话人编码器中,得到当前对话人嵌入向量。
32.示例性的,基于所述音素序列确定所述待合成语音文本数据的文本嵌入序列,并基于所述当前对话人信息数据得到当前对话人嵌入向量,具体包括如下步骤:将所述音素序列输入至第一编码器中得到文本嵌入序列;将所述当前对话人信息数据输入至第二编码
器中得到当前对话人嵌入向量。其中,第一编码器为文本编码器,而第二编码器为说话人编码器。
33.步骤s20:获取历史对话的历史文本数据、历史语音数据以及历史对话人信息数据,基于所述历史对话人信息数据确定历史对话人信息嵌入向量。
34.在该步骤中,可基于说话人编码器确定历史对话人信息嵌入向量,即将历史对话人信息数据输入至说话人编码器中,得到各历史对话人的历史对话人信息嵌入向量。可以理解的是,该步骤的说话人编码器和步骤s10中的第二编码器可为相同的编码器,也可为不同的编码器。
35.步骤s30:基于所述历史文本数据得到句子级别的文本嵌入向量,基于所述句子级别的文本嵌入向量与所述历史对话人信息嵌入向量确定文本角度句子级别的第一上下文特征。
36.在该步骤中,是基于历史对话过程中的历史文本数据确定句子级别的文本特征。参考图2,将历史文本数据作为输入信息输入至文本角度句子级别模块中,文本角度句子级别模块的输出作为文本角度句子级别的第一上下文特征。
37.在一实施例中,基于所述历史文本数据得到句子级别的文本嵌入向量,基于所述句子级别的文本嵌入向量与所述历史对话人信息嵌入向量确定文本角度句子级别的第一上下文特征;具体包括:将所述历史文本数据输入至第一预训练模型中,得到句子级别的文本嵌入向量;将所述句子级别的文本嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第一拼接向量;将所述第一拼接向量输入至第三编码器中,得到文本角度句子级别的第一上下文特征。
38.图3为本发明一实施例的文本角度句子级别模块的架构示意图,参考图3,第一预训练模型可为sentence bert模型,即历史文本数据通过sentence bert模型得到句子级别的文本嵌入向量;进而句子级别的文本嵌入向量与历史对话人信息嵌入向量通过全连接层进行拼接得到第一拼接向量。第三编码器具体的可包括gru网络层、全连接层以及自注意力模块,即第一拼接向量作为输入通过第三编码器,得到文本角度句子级别的上下文特征,从而实现从句子级别的文本角度对历史对话进行理解以及特征提取。其中,第三编码器为文本角度的句子级别的上下文编码器。
39.步骤s40:基于所述历史语音数据得到句子级别的语音嵌入向量,基于所述句子级别的语音嵌入向量与所述历史对话人信息嵌入向量确定语音角度句子级别的第二上下文特征。
40.在该步骤中,是基于历史对话过程中的历史语音数据确定句子级别的语音特征。参考图2,将历史语音数据作为输入信息输入至语音角度句子级别模块中,语音角度句子级别模块的输出作为语音角度句子级别的第二上下文特征。
41.在一实施例中,基于所述历史语音数据得到句子级别的语音嵌入向量,基于所述句子级别的语音嵌入向量与所述历史对话人信息嵌入向量确定语音角度句子级别的第二上下文特征;具体包括:将所述历史语音数据输入至第二预训练模型中,得到句子级别的语音嵌入向量;将所述句子级别的语音嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第二拼接向量;将所述第二拼接向量输入至第四编码器中,得到语音角度句子级别的第二上下文特征。
42.图4为本发明一实施例的语音角度句子级别模块的架构示意图,参考图4,第二预训练模型可为fine-tuned wav2vec模型,即历史语音数据通过fine-tuned wav2vec模型得到句子级别的语音嵌入向量;进而句子级别的语音嵌入向量与历史对话人信息嵌入向量通过全连接层进行拼接得到第二拼接向量。第四编码器具体的可包括gru网络层、全连接层以及自注意力模块,即第二拼接向量作为输入通过第四编码器,得到语音角度句子级别的上下文特征,从而实现从句子级别的语音角度对历史对话进行理解以及特征提取。其中,第四编码器为语音角度的句子级别的上下文编码器。
43.步骤s50:基于所述历史文本数据得到词级别的文本嵌入向量,基于所述词级别的文本嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定文本角度的第一韵律风格特征。
44.在该步骤中,文本嵌入序列为待合成语音文本数据对应的文本嵌入序列,即基于历史文本数据、历史对话人信息嵌入向量以及文本嵌入序列进一步的从词级别的文本角度提取韵律风格特征。参考图2,文本角度的第一韵律风格特征可通过文本角度词级别模块获取,即历史文本数据作为输入信息输入至文本角度词级别模块中,且文本角度词级别模块的输出作为文本角度词级别的第一韵律风格特征。
45.在一实施例中,基于所述历史文本数据得到词级别的文本嵌入向量,基于所述词级别的文本嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定文本角度的第一韵律风格特征;具体包括:将所述历史文本数据输入至第三预训练模型中得到词级别的文本嵌入向量;将所述词级别的文本嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第三拼接向量;将所述第三拼接向量和所述文本嵌入序列输入至第五编码器中,得到文本角度的第一韵律风格特征。
46.图5为本发明一实施例的文本角度词级别模块的架构示意图,参考图5,第三预训练模型可为bert模型,即历史文本数据通过bert模型得到词级别的文本嵌入向量序列;进而词级别的文本嵌入向量序列与历史对话人信息嵌入向量进行拼接得到第三拼接向量。第五编码器具体的可包括卷积层、多头注意力模块,此时将第三拼接向量以及待合成语音文本数据对应的文本嵌入序列同步作为输入信息输入至第五编码器中,从而得到与文本嵌入序列相同长度的文本角度的韵律风格特征。其中,第五编码器也可理解为文本角度的词级别的上下文编码器。其中,第五编码器为文本角度的词级别的上下文编码器。
47.步骤s60:基于所述历史语音数据得到词级别的语音嵌入向量,基于所述词级别的语音嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定语音角度的第二韵律风格特征。
48.在该步骤中,基于历史语音数据、历史对话人信息嵌入向量以及文本嵌入序列进一步的从词级别的语音角度提取韵律风格特征。参考图2,语音角度的第二韵律风格特征可通过语音角度词级别模块获取,即历史语音数据作为输入信息输入至语音角度词级别模块中,且语音角度词级别模块的输出作为语音角度词级别的第二韵律风格特征。
49.在一实施例中,基于所述历史语音数据得到词级别的语音嵌入向量,基于所述历史语音数据得到词级别的语音嵌入向量,基于所述词级别的语音嵌入向量、历史对话人信息嵌入向量以及所述文本嵌入序列确定语音角度的第二韵律风格特征;具体包括:将所述历史语音数据输入至第四预训练模型中得到词级别的语音嵌入向量;将所述词级别的语音
嵌入向量与所述历史对话人信息嵌入向量进行拼接得到第四拼接向量;将所述第四拼接向量和所述文本嵌入序列输入至第六编码器中,得到语音角度的第二韵律风格特征。
50.图6为本发明一实施例的语音角度词级别模块的架构示意图,参考图6,第四预训练模型可为wav2vec模型,即历史语音数据通过wav2vec模型得到词级别的语音嵌入向量序列;进而词级别的语音嵌入向量序列与历史对话人信息嵌入向量进行拼接得到第四拼接向量。第六编码器具体的可包括卷积层、多头注意力模块,此时将第四拼接向量以及待合成语音文本数据对应的文本嵌入序列同步作为输入信息输入至第六编码器中,从而得到与文本嵌入序列相同长度的语音角度的韵律风格特征。其中,第六编码器也可理解为语音角度的词级别的上下文编码器。其中,第六编码器为语音角度的词级别的上下文编码器。
51.步骤s70:基于所述第一上下文特征、第二上下文特征、第一韵律风格特征、第二韵律风格特征、文本嵌入序列以及当前对话人嵌入向量得到预测的梅尔频谱,基于所述梅尔频谱确定所述待合成语音文本数据对应的音频。
52.在该步骤中,将待合成语音文本对应的文本嵌入序列融合句子级别的第一上下文特征和第二上下文特征,并融合词级别的第一韵律风格特征和第二韵律风格特征,从语音和文本两个角度考虑历史对话中的韵律、情感、风格等特征,以获得较自然的,且与历史对话高度贴合的音频。
53.在一实施例中,基于所述第一上下文特征、第二上下文特征、第一韵律风格特征、第二韵律风格特征、文本嵌入序列以及当前对话人嵌入向量得到预测的梅尔频谱,基于所述梅尔频谱确定所述待合成语音文本数据对应的音频;包括:将所述第一上下文特征、第二上下文特征、第一韵律风格特征、第二韵律风格特征、文本嵌入序列以及当前对话人嵌入向量相加得到融合嵌入序列;所述融合嵌入序列输入至变分适配器,并加上音高特征和能量特征,得到梅尔嵌入向量序列;将所述梅尔嵌入向量序列、第一上下文特征、第二上下文特征输入至梅尔解码器中进行解码,得到预测的梅尔频谱;将预测的所述梅尔频谱输入至声码器,得到所述待合成语音文本数据对应的音频。
54.参考图2,将加入过文本角度、语音角度的句子级别和词级别的历史对话特征后的文本嵌入序列经过变分适配器,加入音高、能量特征信息,然后经过长度适配器;即将融合了多模态特征后的文本嵌入序列扩展成和目标梅尔频谱长度相同的梅尔嵌入向量序列;并将梅尔嵌入向量序列、第一上下文特征和第二上下文特征一起作为输入信息输入至梅尔解码器中,得到预测的梅尔频谱;最终将预测的梅尔频谱作为输入信息输入至声码器中,得到最终预测的音频。
55.在该实施例中,待合成语音文本数据对应的文本嵌入序列,在加入了语音角度的词级别信息、文本角度的词级别信息、语音角度的句子级别信息以及文本角度的句子级别信息之后进一步的通过变分适配器、梅尔解码器以及声码器等生成待合成语音文本数据对应的音频。由此可知,该面向语音对话场景的语音合成方法不仅考虑语音和文本两个模态的特征,还考虑了不同层级粒度的历史信息的特征,包括句子层级和词语层级,实现了端到端的多尺度多模态对话语音合成。
56.在另一实施例中,该面向语音对话场景的语音合成方法还包括以下步骤:基于预测到的梅尔频谱得到当前语音角度句子级别的上下文编码向量;并进一步将历史对话对应的文本角度句子级别的第一上下文特征和语音角度句子级别的第二上下文特征输入至风
格预测器中得到上下文编码嵌入向量,进而计算上下文编码嵌入向量与当前语音角度句子级别的上下文编码向量的损失,并基于损失计算结果更新各模型、编码器和解码器的参数。
57.在上述实施例中,将句子级别的从文本角度考虑的上下文编码嵌入向量、句子级别的从音频角度考虑的上下文编码嵌入向量作为输入信息输入至风格预测器中,输出预测的上下文编码嵌入向量,和当前对话对应的音频得到的句子级别的从音频角度考虑的上下文编码嵌入向量一起比较,从而使得预测的句子级别的风格和真实的风格尽可能接近。
58.通过上述实施例可以发现,本发明所公开的面向语音对话场景的语音合成方法,能够模拟真实人类语音对话的场景,从多模态、多粒度的角度对历史对话进行全方位的特征提取,从而加深对历史对话的理解,从而生成更加贴合历史对话的语音,使得合成的语音有着丰富的韵律、情感、风格等特点。
59.相应的,本发明还提供了一种面向语音对话场景的语音合成系统,该系统包括处理器和存储器,所述存储器中存储有计算机指令,所述处理器用于执行所述存储器中存储的计算机指令,当所述计算机指令被处理器执行时该系统实现如上任一实施例所述方法的步骤。
60.本技术的面向语音对话场景的语音合成系统在考虑了文本信息的基础上,同时考虑了在真实语音对话中的副语言信息(如语音韵律信息),从语音的角度对历史对话的情绪、情感和韵律等方面进行建模,从而更加全面充分的对历史对话的信息进行提取。另外,本技术的面向语音对话场景的语音合成系统在考虑了句子级别的全局风格信息的基础上,同时对历史上下文中的词级别的局部信息进行关注;因此该方法及系统可以对关键词、强调重音和韵律变化进行额外的关注,从而使得合成的语音更自然,且更贴合于历史对话。
61.另外,该发明还公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一实施例所述方法的步骤。
62.本领域普通技术人员应该可以明白,结合本文中所公开的实施方式描述的各示例性的组成部分、系统和方法,能够以硬件、软件或者二者的结合来实现。具体究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(asic)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输数据的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、rom、闪存、可擦除rom(erom)、软盘、cd-rom、光盘、硬盘、光纤介质、射频(rf)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
63.还需要说明的是,本发明中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本发明不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
64.本发明中,针对一个实施方式描述和/或例示的特征,可以在一个或更多个其它实施方式中以相同方式或以类似方式使用,和/或与其他实施方式的特征相结合或代替其他实施方式的特征。
65.以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。