语音用户识别方法、装置、电子设备及存储介质与流程

文档序号:33128428发布日期:2023-02-01 06:35阅读:35来源:国知局
语音用户识别方法、装置、电子设备及存储介质与流程

1.本技术涉及声纹识别技术领域,尤其涉及一种语音用户识别方法、装置、电子设备及存储介质。


背景技术:

2.随着人工智能技术的不断发展,语音交互已经慢慢在人们的生活中开始普及,例如人们通过语音遥控器操作电视已经成为常用的手段,语音遥控器让用户的操作更加效率便捷。语音分析引擎可以根据用户输入的语音,识别出语音用户的声纹,从而分析出该语音用户对应的兴趣偏好等用户信息,以使机顶盒根据语音用户的兴趣偏好对语音用户提供个性化内容推荐。
3.但是,当用户的身体情况出现变化导致声纹特征改变时,或者当环境干扰较严重时,声纹识别会出现声纹偏移现象,无法准确识别用户身份。


技术实现要素:

4.基于上述现有技术的缺陷和不足,本技术提出一种语音用户识别方法、装置、电子设备及存储介质,能够提高获取到的语音用户信息的准确度。
5.本技术第一方面提供了一种语音用户识别方法,包括:
6.通过提取用户语音的声纹特征确定与所述用户语音对应的第一声纹标识;
7.将所述第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与所述第一声纹标识对应的第一主声纹标识;
8.所述声纹标识对照表中包含各个用户的主声纹标识和副声纹标识,其中,每一用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识,该用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。
9.本技术第二方面提供了一种语音用户识别装置,包括:
10.声纹标识确定模块,用于通过提取用户语音的声纹特征确定与所述用户语音对应的第一声纹标识;
11.声纹标识对比模块,用于将所述第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与所述第一声纹标识对应的第一主声纹标识;
12.所述声纹标识对照表中包含各个用户的主声纹标识和副声纹标识,其中,每一用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识,该用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。
13.本技术第三方面提供了一种电子设备,包括:存储器和处理器;
14.其中,所述存储器与所述处理器连接,用于存储程序;
15.所述处理器,用于通过运行所述存储器中的程序,实现上述语音用户识别方法。
16.本技术第四方面提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时,实现上述语音用户识别方法。
17.本技术提出的语音用户识别方法,通过提取用户语音的声纹特征确定与用户语音对应的第一声纹标识;将第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与第一声纹标识对应的第一主声纹标识;声纹标识对照表中包含各个用户的主声纹标识和副声纹标识,其中,每一用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识,该用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。采用本技术的技术方案,利用声纹标识对照表可以将同一用户的所有副声纹标识与主声纹标识对应关联,当用户语音对应的声纹发生偏移时,可以通过声纹偏移后的副声纹标识,从声纹标识对照表准确查询到该用户的主声纹标识,提高了用户信息确定的准确度。
附图说明
18.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
19.图1是本技术实施例提供的一种语音用户识别方法的流程示意图;
20.图2是本技术实施例提供的确定声纹标识对照表的处理流程示意图;
21.图3是本技术实施例提供的确定主声纹标识对应的副声纹标识的处理流程示意图;
22.图4是本技术实施例提供的更新声纹标识对应的偏好数据的处理流程示意图;
23.图5是本技术实施例提供的一种语音用户识别装置的结构示意图;
24.图6是本技术实施例提供的一种电子设备的结构示意图。
具体实施方式
25.本技术实施例技术方案适用于语音声纹识别的应用场景。采用本技术实施例技术方案,能够提高用户信息确定的准确度。
26.随着人工智能技术的不断发展,语音交互已经慢慢在人们的生活中开始普及,逐渐成为我们主流的交互方式之一。例如,人们通过语音遥控器操作电视等,利用语音交互的手段可以让用户的操作更加效率便捷。语音交互主要是接收用户输入的语音,然后对语音进行分析识别,以使终端设备根据分析识别结果对用户输入的语音进行反馈操作。例如,用户利用语音遥控器与机顶盒之间的语音交互,用户利用语音遥控器输入语音“打开电视剧列表”,机顶盒可以针对用户语音对连接的电视进行语音的反馈操作,即输出并显示电视剧列表,由于不同用户具有不同的兴趣爱好,可以根据用户的兴趣偏好为用户提供个性化内容,满足用户的个性化需求。
27.现有技术中,用户的兴趣偏好等信息是基于用户的声纹标识存储的,通常利用语音分析引擎对用户输入的语音进行声纹分析,根据该语音对应的声纹标识,从预先存储的信息中提取该声纹标识对应的兴趣偏好等信息,以使终端设备(如机顶盒)利用兴趣偏好等信息对该语音进行个性化反馈操作。但是,当用户的身体情况出现变化(例如,用户进入变声期或者用户声带损伤等)导致声纹特征改变,或者当环境干扰较为严重时,声纹分析引擎
识别声纹会出现声纹偏移现象,以使识别出的声纹标识与对应用户的兴趣偏好等信息的声纹标识不同,无法准确识别用户身份,影响了语音用户信息的准确度,从而无法获取到准确的兴趣偏好等信息。
28.鉴于上述的现有技术的不足以及现实存在的识别语音用户信息的准确度较低,本技术发明人经过研究和试验,提出一种语音用户识别方法,该方法能够提高用户信息确定的准确度。
29.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
30.本技术实施例提出一种语音用户识别方法,参见图1所示,该方法包括:
31.s101、通过提取用户语音的声纹特征确定与用户语音对应的第一声纹标识。
32.具体的,本实施例接收到用户语音后,可以利用声纹分析引擎对该用户语音进行噪声消除等预处理,然后从预处理后的用户语音中提取该用户语音的声纹特征,最后基于该声纹特征进行实时聚类模型预测,确定该用户语音对应的第一声纹标识。
33.其中,聚类模型可以利用深度学习的方法,预先对说话人的声纹特征进行聚类,即,将同一个人的声纹特征聚类在一个类簇中,并赋予一个唯一的声纹标识。实际应用中,当同样的说话人输入语音,并提取出语音的声纹特征后,该聚类模型便可根据声纹特征,确定说话人的声纹标识。
34.s102、将第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与第一声纹标识对应的第一主声纹标识。
35.具体的,本实施例中,预先设置了声纹标识对照表,该声纹标识对照表中包含了各个用户的主声纹标识和副声纹标识,并且对于同一个用户,该用户的所有副声纹标识均与该用户的主声纹标识相关联。其中,用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识;用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。
36.本实施例在确定了用户语音对应的第一声纹标识后,将该第一声纹标识与声纹标识对照表中的声纹标识进行对比,从声纹标识对照表中查找出与该第一声纹标识相同的声纹标识,并判断查找出的该声纹标识是主声纹标识还是副声纹标识,从而确定与第一声纹标识对应的第一主声纹标识。
37.本实施例中预先设置的声纹标识对照表可以为主声纹-副声纹标识对照表,也可以为副声纹-主声纹标识对照表。利用主声纹-副声纹标识对照表可以通过主声纹标识,查询出该主声纹标识对应的所有副声纹,利用副声纹-主声纹标识对照表可以通过副声纹标识,查询出该副声纹标识对应的主声纹标识。利用声纹标识对照表不仅可以记录用户的主声纹标识,还能捕捉同一用户的声纹偏移时的副声纹标识,并将同一用户的副声纹标识与主声纹标识关联对照,这样,在用户语音对应的声纹发生偏移时,从声纹标识对照表中能够查询出声纹偏移时的副声纹标识对应的主声纹标识,即使用户语音发生偏移,也能准确确定用户身份,从而准确确定用户信息。
38.本步骤的具体执行方式可以如下所述:
39.将第一声纹标识与预先设置的声纹标识对照表(主声纹-副声纹标识对照表)中的主声纹标识进行对比,如果声纹标识对照表(主声纹-副声纹标识对照表)中的主声纹标识中存在与该第一声纹标识相同的主声纹标识,则说明该第一声纹标识便是主声纹标识,此时将声纹标识对照表(主声纹-副声纹标识对照表)中与该第一声纹标识相同的主声纹标识(也是该第一声纹标识),作为与该第一声纹标识对应的第一主声纹标识。如果声纹标识对照表(主声纹-副声纹标识对照表)中的主声纹标识中并不存在与该第一声纹标识相同的主声纹标识,则从声纹标识对照表(副声纹-主声纹标识对照表)的副声纹标识中查询与该第一声纹标识相同的副声纹标识所对应的主声纹标识,并将该主声纹标识作为与该第一声纹标识对应的第一主声纹标识。
40.本步骤的具体执行方式还可以如下所述:
41.将第一声纹标识与预先预先设置的声纹标识对照表(副声纹-主声纹标识对照表)中的副声纹标识进行对比,如果声纹标识对照表(副声纹-主声纹标识对照表)中的副声纹标识中存在与该第一声纹标识相同的副声纹标识,则说明该第一声纹标识便是副声纹标识,此时从声纹标识对照表(副声纹-主声纹标识对照表)中查询与该第一声纹标识相同的副声纹标识对应的主声纹标识,作为与该第一声纹标识对应的第一主声纹标识。如果声纹标识对照表(副声纹-主声纹标识对照表)中的副声纹标识中并不存在与该第一声纹标识相同的副声纹标识,则从声纹标识对照表(主声纹-副声纹标识对照表)的主声纹标识中查询与该第一声纹标识相同的主声纹标识,并将该主声纹标识作为与该第一声纹标识对应的第一主声纹标识。
42.通过上述介绍可见,本技术实施例提出的语音用户识别方法,通过提取用户语音的声纹特征确定与用户语音对应的第一声纹标识;将第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与第一声纹标识对应的第一主声纹标识;声纹标识对照表中包含各个用户的主声纹标识和副声纹标识,其中,每一用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识,该用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。采用本技术的技术方案,利用声纹标识对照表可以将同一用户的所有副声纹标识与主声纹标识对应关联,当用户语音对应的声纹发生偏移时,可以通过声纹偏移后的副声纹标识,从声纹标识对照表准确查询到该用户的主声纹标识,提高了用户信息确定的准确度。
43.进一步地,每次用户输入用户语音后,本实施例均需要利用语音分析引擎分析该用户语音对应的携带第一声纹标识的语音交互信息,当利用上述实施例确定出该第一声纹标识对应的第一主声纹标识后,需要将该用户语音对应的语音交互信息合并存储到第一主声纹标识对应的语音交互信息中,以便实现同一用户的所有语音交互信息均基于用户的主声纹标识存储与查询。
44.作为一种可选的实施方式,本技术另一实施例公开了,在步骤s102之后,还可以执行如下步骤:
45.基于预先设置的声纹标识与偏好数据对应表,获取第一主声纹标识对应的偏好数据,作为第一主声纹标识对应的用户的偏好数据。
46.具体的,本实施例中会对每次接收到的用户语音进行语音识别,将识别出所有用户语音对应的语音交互信息按照各个用户语音对应的声纹标识进行存储,即将属于同一声
纹标识的用户语音对应的语音交互信息合并存储。其中,语音交互信息中包括:用户操作数据、语音文本、文本意图等。本实施例可以根据声纹标识对应的所有语音交互信息中的相关信息进行行为分析,然后根据不同行为对应的不同权重,确定该声纹标识对应的偏好数据。
47.本实施例需要基于声纹标识对照表,将主声纹标识对应的副声纹标识的所有用户语音对应的语音交互信息均合并存储到该主声纹标识对应的语音交互信息中,从而实现同一用户的语音交互行为融合。将主声纹标识对应的副声纹标识所对应的偏好数据均合并存储到该主声纹标识对应的偏好数据中,从而实现同一用户的偏好数据的融合。根据各声纹标识与各声纹标识对应的偏好数据,可以预先设置声纹标识与偏好数据对应表。
48.当基于声纹标识对照表,查询出用户语音对应的第一声纹标识为声纹标识对照表中的主声纹标识或者副声纹标识时,按照第一声纹标识对应的第一主声纹标识,从预先设置的声纹标识与偏好数据对应表中查询出该第一主声纹标识对应的偏好数据。对应的终端设备可以根据用户语音对应的语音交互信息以及查询出的偏好数据,针对用户语音作出符合用户偏好的个性化反馈操作。
49.作为一种可选的实施方式,参见图2所示,本技术另一实施例公开了,确定声纹标识对照表的处理步骤如下:
50.s201、获取预设时间段内识别到的声纹标识。
51.具体的,对于用户输入的语音,可以利用语音分析引擎对所有语音进行识别,得到各个语音对应的携带声纹标识的语音交互信息,并且语音交互信息中包含语音生成时间以及语音需要发送给的终端设备的设备标识。本实施例对于构建某终端设备对应的声纹标识对照表,首先需要从所有语音中,筛选出语音交互信息中的设备标识与该终端设备相匹配的语音,然后根据这些语音的语音交互信息中的语音生成时间,采集预设时间段内的所有语音,并获取这些语音对应的声纹标识。
52.进一步地,本实施例中,对于用户流动性较小的终端设备才需要构建声纹标识对照表,而对于用户流动性较大的终端设备,用户变化性太大,可能大部分用户仅仅只针对该终端设备进行一次语音交互,同一个用户并不会产生多个声纹标识,因此,构建声纹标识对照表的作用不大。例如,终端设备机顶盒,对于家庭场景下的机顶盒,用户流动性很小,家庭中的成员会对机顶盒进行反复的语音交互,因此需要构建对应的声纹标识对照表。
53.因此,本实施例还需要确定终端设备是否为需要构建声纹标识对照表的终端设备。通过判断获取到的预设时间段内的声纹标识进行去重操作后声纹标识个数是否超过预设标识数量,如果去重后的声纹标识个数超过了预设标识数量,则说明该终端设备的用户流动性较大,不再对该终端设备构建声纹标识对照表,如果去重后的声纹标识个数未超过预设标识数量,则说明该终端设备的用户流动性较小,需要对该终端设备构建声纹标识对照表。
54.s202、根据预设时间段内声纹标识被识别出的频率,确定所有声纹标识中的主声纹标识和副声纹标识。
55.具体的,本实施例对于上述步骤中获取到的预设时段内的所有声纹标识,根据预设时间段内各个声纹标识被识别出的频率,确定各个声纹标识是主声纹标识还是副声纹标识。具体步骤如下所述:
56.第一,将所有声纹标识中的、在预设时间段内被识别出的天数大于预设天数,且平
均每天被识别出的次数大于预设次数的声纹标识,作为主声纹标识。
57.根据所有声纹标识对应的语音交互信息,确定各个声纹标识在预设时间段内被识别出的天数、各个声纹标识在预设时间段内被识别出的总次数,以及终端设备在预设时间段内工作的天数。利用终端设备在预设时间段内工作的天数乘以预先设置的比例系数得到的数值作为预设天数,并利用声纹标识在预设时间段内被识别出的总次数除以该声纹标识在预设时间段内被识别出的天数,得到该声纹标识平均每天被识别出的次数。本实施例需要从获取到的所有声纹标识中,查询出在预设时间段内被识别出的天数大于预设天数,且平均每天被识别出的次数大于预设次数的声纹标识,作为主声纹标识。其中,预设时间段可以设置为30天,预先设置的比例系数可以为1/3,预设次数优选设置为1次,本实施例可以根据实际需求设置预设时间段、比例系数以及预设次数。
58.例如,当终端设备为机顶盒、预设时间段为30天、预先设置的比例系数为1/3、预设次数为1次时,统计近30天内该机顶盒下出现的各声纹标识被识别出的天数(即近30天内各声纹标识的活跃天数)、各声纹标识近30天内被识别出的总次数(即近30天内各声纹标识的活跃次数)以及近30天内该机顶盒工作的天数(即近30天内机顶盒的活跃天数)。将近30天内该机顶盒工作的天数的1/3作为预设天数,将近30天内声纹标识的活跃次数除以近30天内该声纹标识的活跃天数得到的数值作为该声纹标识平均每天被识别出的次数(即该声纹标识的日平均活跃次数)。从该机顶盒下出现的所有声纹标识中,选取活跃天数大于机顶盒活跃天数1/3,且日平均活跃次数大于1次的声纹标识,作为主声纹标识。
59.第二,将所有声纹标识中的主声纹标识以外的声纹标识作为副声纹标识。
60.通过上述步骤,将获取到的所有声纹标识中的主声纹标识确定后,将所有声纹标识中除主声纹标识以外的其他声纹标识作为副声纹标识。
61.s203、根据主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,从所有副声纹标识中,确定各个主声纹标识对应的副声纹标识,得到声纹标识对照表。
62.具体的,确定了所有声纹标识是主声纹标识还是副声纹标识之后,需要对每个主声纹标识与每个副声纹标识进行匹配分析,从所有副声纹标识中,分析出与各个主声纹标识相匹配的副声纹标识,并将主声纹标识关联上与该主声纹标识相匹配的所有副声纹标识。其中,主声纹标识与副声纹标识之间的匹配分析需要先获取主声纹标识的所有用户语音对应的语音交互信息与副声纹标识的所有用户语音对应的语音交互信息,通过计算主声纹对应的语音交互信息与副声纹标识对应的语音交互信息之间的行为特征相似度,根据行为特征相似度来确定主声纹标识和副声纹标识是否匹配,如果行为特征相似度越大,则说明主声纹标识的用户与副声纹标识的用户之间的行为特征越相似,主声纹标识的用户与副声纹标识的用户为同一用户的可能性越大,那么该主声纹标识与副声纹标识之间相关联的概率也越大。因此,本实施例可以预先设置相应的阈值,将两个声纹标识对应的语音交互信息之间的行为特征相似度与预先设置的阈值相比较,将行为特征相似度超过阈值的两个声纹标识判断为匹配,将行为特征相似度未超过阈值的两个声纹标识判断为不匹配。
63.本实施例根据确定出的各个主声纹标识与各个副声纹标识之间的匹配关系,构建声纹标识对照表,从而可以根据该声纹标识对照表可以查询出各个主声纹标识对应的副声纹标识,并且主声纹标识以及该主声纹标识对应的副声纹标识均属于同一用户的声纹标识。
64.进一步地,每隔一段时间,需要再次获取终端设备下相比于上次新增的声纹标识,然后按照上述方式确定新增的声纹标识进行主声纹标识与副声纹标识的划分,然后将新增的副声纹标识分别与新增的主声纹标识以及以往的主声纹标识均进行匹配分析,从而针对新增的声纹标识确定新增的声纹标识对照表,并将新增的声纹标识对照表与以往的声纹标识对照表进行合并,从而得到最新的声纹标识对照表。
65.作为一种可选的实施方式,本技术另一实施例公开了,确定了声纹标识对照表之后,还包括如下步骤:
66.第一,将主声纹标识对应的副声纹标识的语音交互信息均合并存储到主声纹标识对应的语音交互信息中。
67.具体的,本实施例确定了声纹标识对照表后,需要将与主声纹标识对应的所有副声纹标识的语音交互信息均合并存储到该主声纹标识的语音交互信息中,这样便能实现每个用户的所有用户语音对应的语音交互信息均基于该用户对应的主声纹标识存储,直接通过用户对应的主声纹标识便能查询到该用户对应的所有语音交互信息。
68.第二,将主声纹标识对应的副声纹标识对应的偏好数据合并存储到主声纹标识对应的偏好数据中。
69.具体的,每个声纹标识均对应识别了语音交互信息,并且每个声纹标识均需要根据其对应的语音交互信息进行行为分析,得到该声纹标识对应的行为特征。其中行为分析需要根据语音交互信息中包含的用户语音对应的用户操作、语音文本以及文本意图等数据分析,由于声纹标识对应的语音交互信息为该声纹标识对应的所有语音识别的语音交互信息,那么在行为分析时则是对若干组用户操作、语音文本以及文本意图的数据进行分析,得到该声纹标识对应的行为特征。不同的行为对于分析用户的偏好具有不同的重要性,例如,开机、关机等行为对于判断用户的偏好并不重要,而用户控制播放某电视剧的行为对于判断用户的偏好便较为重要,因此,针对不同的行为需要预先设置不同的权重,本实施例根据预先设置的权重以及各个声纹标识对应的行为特征,确定各个声纹标识对应的偏好数据,从而便能确定出各个主声纹标识对应的偏好数据以及各个副声纹标识对应的偏好数据。
70.基于构建的声纹标识对照表,需要将主声纹标识对应的副声纹标识对应的偏好数据合并存储到该主声纹标识对应的偏好数据中,这样便能实现每个用户对应的所有偏好数据均基于该用户对应的主声纹标识存储,直接通过用户对应的主声纹标识便能查询到该用户对应的偏好数据。
71.作为一种可选的实施方式,参见图3所示,本技术另一实施例公开了,上述步骤s203中,根据主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,从所有副声纹标识中,确定各个主声纹标识对应的副声纹标识,包括:
72.s301、基于主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,计算主声纹标识和副声纹标识之间的声纹相似度。
73.具体的,本实施例可以利用主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,计算主声纹标识对应的用户以及副声纹标识对应的用户之间的行为特征相似度,其中,两个声纹标识对应的用户之间的行为特征相似度越高,则说明两个声纹标识对应的用户为同一用户的可能性越大,因此,可以利用两个声纹标识对应的用户之间的行为特征相似度来评估这两个声纹标识之间的可匹配情况(即两个声纹标识之间的声纹相似
度)。那么本实施例可以将该主声纹标识对应的用户以及副声纹标识对应的用户之间的行为特征相似度作为主声纹标识和副声纹标识之间的声纹相似度。
74.本步骤具体包括:
75.第一,利用主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,计算主声纹标识和副声纹标识之间的单属性相似度。
76.本实施例中,各个声纹标识对应的语音交互信息中均包括:语音文本、语音说话人年龄段(例如,儿童、成年、老年三段)、语音说话人性别以及语音生成时间。利用语音交互信息中的所有内容可以在多个方面分析主声纹标识与副声纹标识的行为特征相似度,例如可以利用语音交互信息中的语音文本来分析主声纹标识与副声纹标识之间的语义相似度,或者利用语音交互信息中的语音说话人年龄段来分析主声纹标识与副声纹标识之间的年龄相似度,或者利用语音交互信息中的语音说话人性别来分析主声纹标识与副声纹标识之间的性别相似度,或者利用语音交互信息中的语音生成时间来分析主声纹标识与副声纹标识之间的活跃时段相似度。本实施例可以将语义相似度、年龄相似度、性别相似度以及活跃时段相似度均作为单属性相似度,即,主声纹标识和副声纹标识之间的单属性相似度包括:语义相似度、年龄相似度、性别相似度和活跃时段相似度中的至少一种。
77.具体的,当单属性相似度包括语义相似度时,本实施例可以将主声纹标识对应的语音交互信息中的所有语音文本作为主声纹标识对应的语音文本集合,将副声纹标识对应的语音交互信息中的所有语音文本作为副声纹标识对应的语音文本集合,然后计算主声纹标识对应的语音文本集合与副声纹标识对应的语音文本集合之间的重合度,将该重合度作为主声纹标识和副声纹标识之间的语义相似度。
78.当单属性相似度包括年龄相似度时,根据主声纹标识对应的语音交互信息中的语音说话人年龄段,确定主声纹标识对应的年龄段次数分布,即,主声纹标识对应的语音交互信息中包括若干用户语音对应的语音交互信息,而每个用户语音对应的语音交互信息中均包含该用户语音对应的语音说话人年龄段,根据主声纹标识的所有用户语音对应的语音说话人年龄段,可以确定出每个语音说话人年龄段的次数。例如,主声纹标识对应的语音交互信息中包括10个用户语音对应的语音说话人年龄段的数据,其中,语音说话人年龄段为儿童的有0个,语音说话人年龄段为成年的有9个,语音说话人年龄段为老年的有1个,那么得到的主声纹标识对应的年龄段次数分布可以表示为[0,9,1]。对于副声纹标识对应的年龄段次数分布,也采用上述方法根据副声纹标识对应的语音交互信息中的语音说话人年龄段确定。然后计算主声纹标识对应的年龄段次数分布和副声纹标识对应的年龄段次数分布之间的相似度,作为主声纹标识和副声纹标识之间的年龄相似度。
[0079]
当单属性相似度包括性别相似度时,根据主声纹标识对应的语音交互信息中包含的所有语音说话人性别的数据,确定主声纹标识对应的性别次数分布,例如,主声纹标识对应的语音交互信息中包括10个用户语音对应的语音说话人性别的数据,其中,语音说话人性别为男的有8个,语音说话人性别为女的有2个,那么得到的主声纹标识对应的性别次数分布可以表示为[8,2]。对于副声纹标识对应的性别次数分布,也采用上述方法根据副声纹标识对应的语音交互信息中的所有语音说话人性别的数据确定。然后计算主声纹标识对应的性别次数分布和副声纹标识对应的性别次数分布之间的相似度,作为主声纹标识和副声纹标识之间的性别相似度。
[0080]
当单属性相似度包括活跃时段相似度时,首先需要进行时段划分,其中时段的划分可以按照一天24小时进行划分,划分为24个时段,也可以按照其他时段划分方式,例如两个小时划分为一个时段等,本实施例不对时段划分进行具体限制,可以根据实际情况进行具体的时段划分。本实施例将主声纹标识对应的语音交互信息中包含的各个语音生成时间所属的时段均作为活跃时段,然后分析主声纹标识对应的各个活跃时段的活跃次数(即各个活跃时段内包含的主声纹标识对应的语音交互信息中的语音生成时间的个数),同时也要根据副声纹标识对应的语音交互信息中包含的所有语音生成时间,确定该副声纹标识对应的活跃时段以及各个活跃时段的活跃次数。
[0081]
将主声纹标识对应的活跃时段与副声纹标识对应的活跃时段中均出现的活跃时段,作为主声纹标识和副声纹标识的共同活跃时段(即,主声纹标识和副声纹标识均被识别出的时段)。然后根据主声纹标识对应的各个活跃时段的活跃次数,提取出主声纹标识在共同活跃时段中的活跃次数,从而得到主声纹标识的共同活跃时段次数分布,根据副声纹标识对应的各个活跃时段的活跃次数,提取出副声纹标识在共同活跃时段中的活跃次数,从而得到副声纹标识的共同活跃时段次数分布。将共同活跃时段个数与总时段数之间的比值,作为权重,计算出主声纹标识的共同活跃时段次数分布与副声纹标识的共同活跃时段次数分布之间的相似度后,将该相似度与权重之间的乘积作为主声纹标识和副声纹标识之间的活跃时段相似度。
[0082]
其中,相似度计算可以采用余弦相似度的计算方式,也可以采用欧式距离相似度的计算方式等,本实施例不限制相似度的计算方式。
[0083]
第二,根据所有单属性相似度以及预先设置的各单属性相似度对应的权重,计算主声纹标识和副声纹标识之间的声纹相似度。
[0084]
本实施例预先设置了各个单属性相似度对应的权重,计算单属性相似度与该单属性相似度的权重之间的乘积作为该单属性相似度对应的相似度分值,然后计算各个单属性相似度对应的相似度分值之间的总分值作为主声纹标识对应的用户和副声纹标识对应的用户之间的行为特征相似度,即主声纹标识和副声纹标识之间的声纹相似度。
[0085]
当单属性相似度包括语义相似度、年龄相似度、性别相似度和活跃时段相似度四种时,声纹相似度的计算公式如下:
[0086]
当语义相似度不为0时,声纹相似度=活跃时段相似度
×
0.1+语义相似度
×
0.3+1.0+年龄相似度
×
0.3+性别相似度
×
0.3;
[0087]
当语义相似度为0时,声纹相似度=活跃时段相似度
×
0.1+年龄相似度
×
0.3+性别相似度
×
0.3。
[0088]
s302、根据主声纹标识与各个副声纹标识之间的声纹相似度和设定相似度阈值,从所有副声纹标识中,选取主声纹标识对应的副声纹标识。
[0089]
具体的,本实施例将主声纹标识与各个副声纹标识之间的声纹相似度分别与设定相似度阈值进行比较,将所有副声纹标识中声纹相似度大于设定相似度阈值的副声纹标识作为与该主声纹标识对应的副声纹标识。这样,便可以确定各个主声纹标识所对应的副声纹标识。其中,每个主声纹标识均可对应零个、一个或多个副声纹标识。
[0090]
本步骤还可以采用如下方式:
[0091]
第一,从所有副声纹标识中,选取与主声纹标识之间的声纹相似度大于设定相似
度阈值的副声纹标识,作为主声纹标识对应的候选副声纹标识。
[0092]
将主声纹标识与各个副声纹标识之间的声纹相似度分别与设定相似度阈值进行比较,从所有副声纹标识中,选取与主声纹标识之间的声纹相似度大于设定相似度阈值的副声纹标识作为该主声纹标识对应的候选副声纹标识。
[0093]
另外,本实施例还可以采用声纹相似度排序的方式选取候选副声纹标识,即,将该主声纹标识与各个副声纹标识之间的声纹相似度按照大小进行排序,基于预设数量,选取声纹相似度最高的副声纹标识作为该主声纹标识对应的候选副声纹标识。例如预设数量为5,则选取声纹相似度最高的5个副声纹标识作为该主声纹标识对应的候选副声纹标识。
[0094]
第二,根据候选副声纹标识与主声纹标识之间的单属性相似度,从候选副声纹标识中选取主声纹标识对应的副声纹标识。
[0095]
从所有副声纹标识中选取了主声纹标识对应的候选副声纹标识后,需要根据各个候选副声纹标识与主声纹标识之间的单属性相似度,再从候选副声纹标识中选取主声纹标识对应的副声纹标识。
[0096]
例如,从候选副声纹标识中选取符合如下所述规则的副声纹标识作为该主声纹标识对应的副声纹标识:
[0097]
当年龄相似度和性别相似度都不为空时,语义相似度不为0且年龄相似度大于0.5且性别相似度大于0.5;或者,当年龄相似度为空时,语义相似度不为0且性别相似度大于0.5;或者,当性别相似度为空时,语义相似度不为0且年龄相似度大于0.5。
[0098]
本实施例通过先选取主声纹标识对应的候选副声纹标识,再从候选副声纹标识中选取主声纹标识对应的副声纹标识,利用了两次条件判断来确定主声纹标识对应的副声纹标识,提高了对主声纹标识与副声纹标识之间匹配分析的准确度。本实施例利用候选副声纹标识与主声纹标识之间的单属性相似度,从候选副声纹标识中选取主声纹标识对应的副声纹标识,也可以采用其他单属性相似度的选取规则来进行选取,本实施例不做限定。
[0099]
作为一种可选的实施方式,参见图4所示,本技术另一实施例公开了,语音用户识别方法,还包括:
[0100]
s401、对预设采集时长内第一声纹标识的用户语音对应的语音交互信息,进行用户偏好分析,确定第一声纹标识对应的当前偏好数据。
[0101]
具体的,对于各声纹标识对应的偏好数据需要不断根据各声纹标识对应的用户所输入的用户语音进行更新。因此,本实施例需要每个预设采集时长均对第一声纹标识的用户语音对应的语音交互信息进行收集汇总,然后对收集到的预设采集时长内的第一声纹标识对应的所有语音交互信息进行用户偏好分析(即行为分析),分析出预设采集时长内该第一声纹标识对应的当前偏好数据。其中,利用语音交互信息分析偏好数据的具体方式在上述实施例中已经具体阐述,本实施例不再赘述。
[0102]
本实施例中,预设采集时长优选设置为一天,那么每天均需要收集汇总第一声纹标识的用户语音对应的语音交互信息。
[0103]
s402、利用第一声纹标识对应的当前偏好数据与第一主声纹标识对应的偏好数据融合后得到的偏好数据,对声纹标识与偏好数据对应表进行更新。
[0104]
当确定了第一声纹标识对应的当前偏好数据,还需要根据预先确定的第一声纹标识对应的第一主声纹标识,从声纹标识与偏好数据对应表中查询该第一主声纹标识对应的
偏好数据,然后将当前偏好数据与第一主声纹标识对应的偏好数据融合,然后将声纹标识与偏好数据对应表中,第一主声纹标识对应的偏好数据更新为融合后的偏好数据,这样实现了根据用户每天的语音交互操作,对用户的偏好数据进行更新,提高了用户偏好数据的准确度,从而保证对用户语音进行个性化反馈操作的准确度。
[0105]
其中,当前偏好数据与预先记录的第一主声纹标识对应的偏好数据之间的融合,需要先对预先记录的第一主声纹标识对应的偏好数据进行衰减,然后利用衰减后的偏好数据与当前偏好数据合并,得到融合后的偏好数据。因为随着时间的推移,以往确定的偏好数据可能会有所变化,那么以往的偏好数据的可采纳性便低于当前偏好数据,因此需要对以往的偏好数据进行衰减,以提高偏好数据的准确度。本实施例中可以通过设置衰减系数,利用衰减系数对偏好数据进行衰减。
[0106]
与上述的语音用户识别方法相对应的,本技术实施例还提出一种语音用户识别装置,参见图5所示,该装置包括:
[0107]
声纹标识确定模块100,用于通过提取用户语音的声纹特征确定与用户语音对应的第一声纹标识;
[0108]
声纹标识对比模块110,用于将第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与第一声纹标识对应的第一主声纹标识;
[0109]
声纹标识对照表中包含各个用户的主声纹标识和副声纹标识,其中,每一用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识,该用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。
[0110]
本技术实施例提出的语音用户识别装置,声纹标识确定模块100通过提取用户语音的声纹特征确定与用户语音对应的第一声纹标识;声纹标识对比模块110将第一声纹标识与预先设置的声纹标识对照表中的声纹标识进行对比,确定与第一声纹标识对应的第一主声纹标识;声纹标识对照表中包含各个用户的主声纹标识和副声纹标识,其中,每一用户的主声纹标识为在预设时间段内被识别到的频率大于设定频率阈值的声纹标识,该用户的副声纹标识是与该用户的主声纹标识的声纹相似度大于设定相似度阈值的声纹标识。采用本实施例的技术方案,利用声纹标识对照表可以将同一用户的所有副声纹标识与主声纹标识对应关联,当用户语音对应的声纹发生偏移时,可以通过声纹偏移后的副声纹标识,从声纹标识对照表准确查询到该用户的主声纹标识,提高了用户信息确定的准确度。
[0111]
作为一种可选的实现方式,本技术另一实施例还公开了,声纹标识对比模块110,具体用于:
[0112]
将第一声纹标识与预先设置的声纹标识对照表中的副声纹标识进行对比;
[0113]
若声纹标识对照表中存在与第一声纹标识相同的副声纹标识,则从声纹标识对照表中查询与第一声纹标识相同的副声纹标识对应的主声纹标识,作为与第一声纹标识对应的第一主声纹标识;
[0114]
若声纹标识对照表中不存在与第一声纹标识相同的副声纹标识,则将第一声纹标识作为与第一声纹标识对应的第一主声纹标识。
[0115]
作为一种可选的实现方式,本技术另一实施例还公开了,声纹标识对比模块110,具体还用于:
[0116]
将第一声纹标识与预先设置的声纹标识对照表中的主声纹标识进行对比;
[0117]
若声纹标识对照表中存在与第一声纹标识相同的主声纹标识,则将与第一声纹标识相同的主声纹标识作为与第一声纹标识对应的第一主声纹标识;
[0118]
若声纹标识对照表中不存在与第一声纹标识相同的主声纹标识,则从声纹标识对照表中查询与第一声纹标识相同的副声纹标识对应的主声纹标识,作为与第一声纹标识对应的第一主声纹标识。
[0119]
作为一种可选的实现方式,本技术另一实施例还公开了,语音用户识别装置,还包括:声纹获取模块、声纹划分模块和声纹对应模块。
[0120]
声纹获取模块,用于获取预设时间段内识别到的声纹标识;
[0121]
声纹划分模块,用于根据预设时间段内声纹标识被识别出的频率,确定所有声纹标识中的主声纹标识和副声纹标识;
[0122]
声纹对应模块,用于根据主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,从所有副声纹标识中,确定各个主声纹标识对应的副声纹标识,得到声纹标识对照表。
[0123]
作为一种可选的实现方式,本技术另一实施例还公开了,语音用户识别装置,还包括:合并存储模块。
[0124]
合并存储模块,用于将主声纹标识对应的副声纹标识的语音交互信息均合并存储到主声纹标识对应的语音交互信息中;将主声纹标识对应的副声纹标识对应的偏好数据合并存储到主声纹标识对应的偏好数据中。
[0125]
作为一种可选的实现方式,本技术另一实施例还公开了,声纹划分模块,具体用于:
[0126]
将所有声纹标识中的、在预设时间段内被识别出的天数大于预设天数,且平均每天被识别出的次数大于预设次数的声纹标识,作为主声纹标识;
[0127]
将所有声纹标识中的主声纹标识以外的声纹标识作为副声纹标识。
[0128]
作为一种可选的实现方式,本技术另一实施例还公开了,声纹对应模块,包括:相似度计算单元和声纹选取单元。
[0129]
相似度计算单元,用于基于主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,计算主声纹标识和副声纹标识之间的声纹相似度;
[0130]
声纹选取单元,用于根据主声纹标识与各个副声纹标识之间的声纹相似度和设定相似度阈值,从所有副声纹标识中,选取主声纹标识对应的副声纹标识。
[0131]
作为一种可选的实现方式,本技术另一实施例还公开了,相似度计算单元,具体用于:
[0132]
利用主声纹标识对应的语音交互信息和副声纹标识对应的语音交互信息,计算主声纹标识和副声纹标识之间的单属性相似度;其中,语音交互信息包括:语音文本、语音说话人年龄段、语音说话人性别以及语音生成时间;单属性相似度包括:语义相似度、年龄相似度、性别相似度和活跃时段相似度中的至少一种;
[0133]
根据所有单属性相似度以及预先设置的各单属性相似度对应的权重,计算主声纹标识和副声纹标识之间的声纹相似度。
[0134]
作为一种可选的实现方式,本技术另一实施例还公开了,若单属性相似度包括语义相似度,相似度计算单元具体用于:
[0135]
提取主声纹标识对应的语音交互信息的语音文本集合,以及提取副声纹标识对应的语音交互信息的语音文本集合;
[0136]
计算主声纹标识对应的语音文本集合与副声纹标识对应的语音文本集合之间的重合度,作为主声纹标识和副声纹标识之间的语义相似度。
[0137]
作为一种可选的实现方式,本技术另一实施例还公开了,若单属性相似度包括年龄相似度,相似度计算单元具体用于:
[0138]
根据主声纹标识对应的语音交互信息的语音说话人年龄段和副声纹标识对应的语音交互信息的语音说话人年龄段,确定主声纹标识对应的年龄段次数分布和副声纹标识对应的年龄段次数分布;
[0139]
计算主声纹标识对应的年龄段次数分布和副声纹标识对应的年龄段次数分布之间的相似度,作为主声纹标识和副声纹标识之间的年龄相似度;
[0140]
若单属性相似度包括性别相似度,相似度计算单元具体用于:
[0141]
根据主声纹标识对应的语音交互信息的语音说话人性别和副声纹标识对应的语音交互信息的语音说话人性别,确定主声纹标识对应的性别次数分布和副声纹标识对应的性别次数分布;
[0142]
计算主声纹标识对应的性别次数分布和副声纹标识对应的性别次数分布之间的相似度,作为主声纹标识和副声纹标识之间的性别相似度。
[0143]
作为一种可选的实现方式,本技术另一实施例还公开了,若单属性相似度包括活跃时段相似度,相似度计算单元具体用于:
[0144]
根据主声纹标识对应的语音交互信息的语音生成时间和副声纹标识对应的语音交互信息的语音生成时间,确定主声纹标识与副声纹标识之间的共同活跃时段;共同活跃时段为主声纹标识和副声纹标识均被识别出的时段;
[0145]
根据主声纹标识对应的语音交互信息的语音生成时间、副声纹标识对应的语音交互信息的语音生成时间以及共同活跃时段,确定主声纹标识的共同活跃时段次数分布、副声纹标识的共同活跃时段次数分布以及共同活跃时段的数量对应的权重;
[0146]
计算主声纹标识的共同活跃时段次数分布和副声纹标识的共同活跃时段次数分布之间的相似度,将相似度与权重之间的乘积作为主声纹标识和副声纹标识之间的活跃时段相似度。
[0147]
作为一种可选的实现方式,本技术另一实施例还公开了,声纹选取单元,具体用于:
[0148]
从所有副声纹标识中,选取与主声纹标识之间的声纹相似度大于设定相似度阈值的副声纹标识,作为主声纹标识对应的候选副声纹标识;
[0149]
根据候选副声纹标识与主声纹标识之间的单属性相似度,从候选副声纹标识中选取主声纹标识对应的副声纹标识。
[0150]
作为一种可选的实现方式,本技术另一实施例还公开了,语音用户识别装置,还包括:偏好数据获取模块,用于基于预先设置的声纹标识与偏好数据对应表,获取第一主声纹标识对应的偏好数据,作为第一主声纹标识对应的用户的偏好数据。
[0151]
作为一种可选的实现方式,本技术另一实施例还公开了,语音用户识别装置,还包括:偏好分析模块和融合模块;
[0152]
偏好分析模块,用于对预设采集时长内第一声纹标识的用户语音对应的语音交互信息,进行用户偏好分析,确定第一声纹标识对应的当前偏好数据;
[0153]
融合模块,用于利用第一声纹标识对应的当前偏好数据与第一主声纹标识对应的偏好数据融合后得到的偏好数据,对声纹标识与偏好数据对应表进行更新。
[0154]
作为一种可选的实现方式,本技术另一实施例还公开了,语音用户识别装置,还包括:信息合并模块,用于将用户语音对应的语音交互信息合并到第一主声纹标识对应的语音交互信息中。
[0155]
本实施例提供的语音用户识别装置,与本技术上述实施例所提供的语音用户识别方法属于同一申请构思,可执行本技术上述任意实施例所提供的语音用户识别方法,具备执行该语音用户识别方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本技术上述实施例提供的语音用户识别方法的具体处理内容,此处不再加以赘述。
[0156]
本技术另一实施例还公开了一种电子设备,参见图6所示,该设备包括:
[0157]
存储器200和处理器210;
[0158]
其中,所述存储器200与所述处理器210连接,用于存储程序;
[0159]
所述处理器210,用于通过运行所述存储器200中存储的程序,实现上述任一实施例公开的语音用户识别方法。
[0160]
具体的,上述电子设备还可以包括:总线、通信接口220、输入设备230和输出设备240。
[0161]
处理器210、存储器200、通信接口220、输入设备230和输出设备240通过总线相互连接。其中:
[0162]
总线可包括一通路,在计算机系统各个部件之间传送信息。
[0163]
处理器210可以是通用处理器,例如通用中央处理器(cpu)、微处理器等,也可以是特定应用集成电路(application-specific integrated circuit,asic),或一个或多个用于控制本发明方案程序执行的集成电路。还可以是数字信号处理器(dsp)、专用集成电路(asic)、现成可编程门阵列(fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
[0164]
处理器210可包括主处理器,还可包括基带芯片、调制解调器等。
[0165]
存储器200中保存有执行本发明技术方案的程序,还可以保存有操作系统和其他关键业务。具体地,程序可以包括程序代码,程序代码包括计算机操作指令。更具体的,存储器200可以包括只读存储器(read-only memory,rom)、可存储静态信息和指令的其他类型的静态存储设备、随机存取存储器(random access memory,ram)、可存储信息和指令的其他类型的动态存储设备、磁盘存储器、flash等等。
[0166]
输入设备230可包括接收用户输入的数据和信息的装置,例如键盘、鼠标、摄像头、扫描仪、光笔、语音输入装置、触摸屏、计步器或重力感应器等。
[0167]
输出设备240可包括允许输出信息给用户的装置,例如显示屏、打印机、扬声器等。
[0168]
通信接口220可包括使用任何收发器一类的装置,以便与其他设备或通信网络通信,如以太网,无线接入网(ran),无线局域网(wlan)等。
[0169]
处理器2102执行存储器200中所存放的程序,以及调用其他设备,可用于实现本申
请实施例所提供的语音用户识别方法的各个步骤。
[0170]
本技术另一实施例还提供了一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器执行时,实现上述任一实施例提供的语音用户识别方法的各个步骤。
[0171]
对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本技术并不受所描述的动作顺序的限制,因为依据本技术,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本技术所必须的。
[0172]
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
[0173]
本技术各实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
[0174]
本技术各实施例种装置及终端中的模块和子模块可以根据实际需要进行合并、划分和删减。
[0175]
本技术所提供的几个实施例中,应该理解到,所揭露的终端,装置和方法,可以通过其它的方式实现。例如,以上所描述的终端实施例仅仅是示意性的,例如,模块或子模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个子模块或模块可以结合或者可以集成到另一个模块,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
[0176]
作为分离部件说明的模块或子模块可以是或者也可以不是物理上分开的,作为模块或子模块的部件可以是或者也可以不是物理模块或子模块,即可以位于一个地方,或者也可以分布到多个网络模块或子模块上。可以根据实际的需要选择其中的部分或者全部模块或子模块来实现本实施例方案的目的。
[0177]
另外,在本技术各个实施例中的各功能模块或子模块可以集成在一个处理模块中,也可以是各个模块或子模块单独物理存在,也可以两个或两个以上模块或子模块集成在一个模块中。上述集成的模块或子模块既可以采用硬件的形式实现,也可以采用软件功能模块或子模块的形式实现。
[0178]
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0179]
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件单元,或者二者的结合来实施。软件单元可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。
[0180]
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将
一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0181]
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1