人机对话中智能体对话语句的生成方法和装置

文档序号:25214000发布日期:2021-05-28 14:10阅读:59来源:国知局
人机对话中智能体对话语句的生成方法和装置

本发明涉及人工智能技术,特别是涉及一种人机对话中智能体对话语句的生成方法和装置。



背景技术:

现有的人机对话实现方案通常针对特定场景实现。具体场景可以划分为闲聊、问答、推荐和任务型对话四种。其中,闲聊是指智能体可以与用户进行没有明确目标的聊天;问答是指当用户向智能体提问时,智能体能做出回答;推荐是指智能体可以根据知识库以及与用户的聊天,向用户推荐合适的信息;任务型对话是指智能体可以围绕着某个特定的目标,与用户开展对话,例如帮助用户购买电影票、预定宾馆等。

由于不同类型场景的对话目标不同,使得针对某一类场景的人机对话实现方案仅能适应于对应的应用场景,而不适用于其他类型的场景。而在实际生活中,人机对话的应用场景边界并不分明。例如,人们在完成订票任务时,可能会加入一些问候、报错等与任务无关的对话,在聊天情景中,也可能会发起一些特定的服务请求,比如在聊电影话题时,用户可能需要智能体帮助订电影票、查询订单、请求推荐、询问答案等。因此,需要提出一种可服务于多任务场景人机对话方案,以满足上述应用需求。



技术实现要素:

有鉴于此,本发明的主要目的在于提供一种人机对话中智能体对话语句的生成方法和装置,可以支持多任务场景的人机对话。

为了达到上述目的,本发明实施例提出的技术方案为:

一种人机对话中智能体对话语句的生成方法,包括:

利用预先训练的自然语言理解模型,从当前人机对话的对话历史数据中,提取预设知识库中的属性值和场景类别;其中,所述知识库由知识三元组构成;

基于所述属性值和所述场景类别,从所述知识库中筛选出相关的知识三元组,得到候选知识子集;

基于所述对话历史数据和所述候选知识子集,利用预先训练的对话生成模型,为智能体生成当前的响应语句并输出。

较佳地,所述提取预设知识库中的属性值和场景类别包括:

将所述对话历史数据与预设特殊标记拼接后,输入至所述自然语言理解模型的编码器进行编码,得到相应的对话历史向量和场景信息向量;

将所述对话历史向量,输入至所述自然语言理解模型的crf层进行序列标注,得到所述对话历史数据包含的所述属性值;

将所述场景信息向量,输入至所述自然语言理解模型的多层感知机进行场景分类,得到所述人机对话的场景类别。

较佳地,所述基于所述属性值和所述场景类别,从所述知识库中筛选出相关的知识三元组,得到候选知识子集包括:

如果所述场景类别为闲聊,则遍历每个所述属性值,从所述知识库中查找包含该属性值的知识三元组,利用查找出的所有知识三元组,构建所述候选知识子集;

如果所述场景类别为问答,则遍历所述对话历史数据中最新一轮对话包含的每个属性值,从所述知识库中查找包含该属性值的知识三元组;利用查找出的所有知识三元组,构建所述候选知识子集;

如果所述场景类别为推荐,则将所述属性值中的所有主键实体值进行两两组合,遍历每种所述组合,确定该组合中的属性值具有的共同属性值,对于每个所述共同属性值,从所述知识库中查找包含该共同属性值的知识三元组;利用查找出的所有知识三元组,构建所述候选知识子集;

如果所述场景类别为任务型对话,则遍历所述属性值中的每个主键实体值,从所述知识库中查找包含该主键实体值且与当前人机对话任务相关的知识三元组,利用查找出的所有知识三元组,构建所述候选知识子集。

较佳地,所述基于所述对话历史数据和所述候选知识子集,利用预先训练的对话生成模型,为智能体生成当前的响应语句包括:

将所述对话历史数据,输入至所述对话生成模型的对话编码器进行编码处理,得到所述对话历史数据的综合表征向量c和所述对话历史数据包含的所有词的词向量;

将所述候选知识子集,输入至所述对话生成模型的知识编码器进行编码,得到所述候选知识子集的综合表征向量kg和所述候选知识子集中每条知识三元组的向量表示;

基于所述对话历史数据的综合表征向量c、所述候选知识子集的综合表征向量kg、所述词向量和所述知识三元组的向量表示,利用所述对话生成模型的自然语言生成器,生成所述响应语句。

较佳地,所述将所述对话历史数据,输入至所述对话生成模型的对话编码器进行编码处理包括:

通过在所述对话历史数据中增加每个词所属的对话角色信息和对话轮次信息,对所述对话历史数据进行扩充;

按照对话轮次,对所述扩充后的对话历史数据进行划分;

利用句子级双向门限循环神经网络bigru,对所述划分得到的每轮对话数据进行编码,得到每轮对话包含的所有词的词向量;

基于每轮对话包含的所有词的词向量,采用自注意力机制计算每轮对话的第一对话向量;

利用对话轮次级bigru,对所有轮对话的所述第一对话向量进行编码,得到每轮对话的第二对话向量;

基于所述第二对话向量,采用自注意力机制计算所述对话历史数据的综合表征向量c。

较佳地,所述将所述候选知识子集,输入至所述对话生成模型的知识编码器进行编码包括:

利用transe模型,计算所述候选知识子集中每条知识三元组的实体词向量;

基于每条知识三元组的所述实体词向量,利用多层感知机,得到所述候选知识子集中每条知识三元组的向量表示;

基于每条知识三元组的所述向量表示,利用自注意力机制,得到所述候选知识子集的综合表征向量kg。

较佳地,利用所述对话生成模型的自然语言生成器,生成所述响应语句包括:

将所述知识三元组的向量表示与所述词向量拼接,将拼接的结果m写入所述自然语言生成器的记忆网络;其中,m=[(h1,...,hn);(k1,...,kg)]=[m1,...,mn+g],hn表示第n个词向量;kg表示第g条知识三元组的向量表示;n表示词向量数量;g表示知识三元组数量;

将所述自然语言生成器的gru用于解码的初始查询向量s0,初始化为所述综合表征向量c和所述综合表征向量kg的拼接结果;

在所述gru进行解码的每个时刻t,所述gru基于上一时刻的查询向量st-1和上一时刻的生成词yt-1,生成当前时刻t的查询向量st,利用注意力机制计算所述查询向量st与所述记忆网络中每一个存储单元的相关度,得到所述查询向量st与所述对话历史数据中每个所述词的相关度αit以及所述查询向量st与所述候选知识子集中每条知识三元组的相关度βrt;基于所述相关度αit,采用加权求和的方式计算所述对话历史数据的联合表示ct,基于所述相关度βrt,采用加权求和的方式计算所述候选知识子集的联合表示gt;以所述ct作为查询向量,采用多跳的方式访问所述记忆网络,得到知识分布pptr;以所述gt作为查询向量,采用多层感知机访问预设词典,得到词典分布pvocab;基于所述知识分布pptr和所述词典分布pvocab,利用门控机制得到当前时刻t的生成词yt;

所述gru基于所有时刻的所述生成词,为所述智能体生成当前的响应语句。

本发明实施例还公开了一种人机对话中智能体对话语句的生成装置,包括:

信息提取模块,用于利用预先训练的自然语言理解模型,从当前人机对话的对话历史数据中,提取预设知识库中的属性值和场景类别;其中,所述知识库由知识三元组构成;

知识筛选模块,用于基于所述属性值和所述场景类别,从所述知识库中筛选出相关的知识三元组,得到候选知识子集;

对话响应模块,用于基于所述对话历史数据和所述候选知识子集,利用预先训练的对话生成模型,为智能体生成当前的响应语句并输出。

本发明实施例还公开了一种人机对话中智能体对话语句的生成设备,包括处理器和存储器;

所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述的人机对话中智能体对话语句的生成方法。

一种计算机可读存储介质,其中存储有计算机可读指令,该计算机可读指令用于执行如上所述的人机对话中智能体对话语句的生成方法。

由上述技术方案可见,本发明实施例提出的人机对话中智能体对话语句的生成方案,从对话历史数据中提取出知识库中的属性值并对对话场景类别进行识别,并基于对话中属性值和场景类别,从知识库中筛选出与对话相关的候选知识子集,然后再基于该候选知识子集和当前的对话历史数据,生成当前的智能体响应语句。如此,一方面通过构建候选知识子集,可以有效缩减用于生成响应语句的知识三元组数量,从而可以降低响应语句生成的运算开销、提高语句生成效率,另一方面通过基于场景类别对知识库中的知识三元组进行筛选,可以使得所生成的候选知识子集与当前的场景类别相匹配,从而使得所生成的响应语句能够与当前的人机对话场景相匹配,进而提高响应语句的智能度,提高用户的人机对话体验。因此,本发明实施例提出的智能体对话语句生成方案可以适用于多种任务场景。

附图说明

图1为本发明实施例的方法流程示意图。

图2为本发明实施例的装置结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。

图1为本发明实施例的流程示意图,如图1所示,该实施例实现的人机对话中智能体对话语句的生成方法主要包括:

步骤101、利用预先训练的自然语言理解模型,从当前人机对话的对话历史数据中,提取预设知识库中的属性值和场景类别;其中,所述知识库由知识三元组构成。

这里,所述当前人机对话的对话历史数据即当前人机对话中已产生的对话语句。本步骤中,将对该对话历史数据中的属性值和场景类别进行识别,以便在步骤102中基于这些属性值和场景类别,来构建与当前对话相关的候选知识子库,这样,在后续步骤中只需要基于候选知识子库,而不需要基于整个知识库来生成响应语句,从而可以提高响应语句的生成效率。

所述对话历史数据具体可以表示为x=(x1,...,xn),其中的每个元素对应一个词,n表示所述对话历史数据包含的词数量。

需要说明的是,本发明实施例需要预先构造一个可用于多任务场景对话的大规模数据集。其中,训练数据可以依据模板和知识库实现大规模扩展。给定一个特定领域的数据库,包含一个主键字段及若干个描述该主键的属性字段。主键字段指一个专门的实体对象,能唯一标识数据库中的一条记录,例如一部电影作品、一个宾馆、一个旅游景点等,属性字段指描述主键实体的若干个要素,例如某一部电影作品具有属性“导演”、“演员”、“上映时间”等,属性具有属性值,属性值也被认为是一个实体。属性名称往往描述了一个实体和它的某个属性值之间的语义关系类型,例如电影作品“山楂树之恋”具有属性“导演”,“导演”具有属性值“张艺谋”,则“导演”描述了“山楂树之恋”和“张艺谋”之间的语义关系。因此,一个实体和它的一个属性值可以表示为一条知识三元组,每条三元组由头实体、关系和尾实体组成,例如<山楂树之恋,导演,张艺谋>表示头实体“山楂树之恋”与尾实体“张艺谋”之间的关系是“导演”。知识库由大量的知识三元组构成。实体之间的关系类型可以依据不同的领域进行设置,例如在电影领域,可以设计为12种关系类型,分别为movie_name、actor、director、writer、release、genre、language、plot、date、num_tickets、theatre_name、time。

具体地,基于知识三元组构建知识库的方法为本领域技术人员所掌握,在此不再赘述。

在一个实施方式中,具体可以采用下述方法提取预设知识库中的属性值和场景类别:

步骤1011、将所述对话历史数据与预设特殊标记拼接后,输入至所述自然语言理解模型的编码器进行编码,得到相应的对话历史向量和场景信息向量。

本步骤,需要将对话历史数据x=(x1,...,xn)与一特殊标记(表示为x@)进行拼接,然后再对拼接的结果即(x1,...,xn,x@)进行编码,将会得到向量表示h=(h1,...,hn,h@)。其中,所述特殊标记x@经过编码后,所得到的场景信息向量h@将会携带与所述对话历史数据相关的场景信息,这样,在后续步骤中基于该场景信息向量进行场景分类即可得到场景类别。

具体地,该编码器可以为bigru,具体编码方法同现有技术,在此不再赘述。

步骤1012、将所述对话历史向量,输入至所述自然语言理解模型的条件随机场(crf)层进行序列标注,得到所述对话历史数据包含的所述属性值。

本步骤采用公式表示为:ylogit=crf(h1,...,hn)。ylogit表示序列标注的结果。

步骤1013、将所述场景信息向量,输入至所述自然语言理解模型的多层感知机进行场景分类,得到所述人机对话的场景类别。

本步骤采用公式表示为:scelogit=softmax(mlp(h@))。scelogit表示输出的场景类别。

步骤102、基于所述属性值和所述场景类别,从所述知识库中筛选出相关的知识三元组,得到候选知识子集。

在一个实施方式中,具体可以采用下述方法基于所述属性值和所述场景类别,从所述知识库中筛选出相关的知识三元组,得到候选知识子集:

a、如果所述场景类别为闲聊,则遍历每个所述属性值,从所述知识库中查找包含该属性值的知识三元组,利用查找出的所有知识三元组,构建所述候选知识子集。

b、如果所述场景类别为问答,则遍历所述对话历史数据中最新一轮对话包含的每个属性值,从所述知识库中查找包含该属性值的知识三元组;利用查找出的所有知识三元组,构建所述候选知识子集。

这里考虑到问答场景下,智能体的响应应针对用户最新提出的问题给出答复,因此,这里需要基于所述对话历史数据中最新一轮对话包含的每个属性值,找到相关的知识三元组,以使得所构建的候选知识子集与对话场景需求相匹配。

c、如果所述场景类别为推荐,则将所述属性值中的所有主键实体值进行两两组合,遍历每种所述组合,确定该组合中的属性值具有的共同属性值,对于每个所述共同属性值,从所述知识库中查找包含该共同属性值的知识三元组;利用查找出的所有知识三元组,构建所述候选知识子集。

考虑到推荐场景下,需要为用户提供其感兴趣的信息,因此,这里需要将对话历史中所述属性值中的所有主键实体值进行两两组合,得到所有可能的两两主键实体值组合,以通过寻找两个主键实体值之间的共同属性值,找到用户的兴趣点,这样再基于共同属性值筛选知识三元组,可以使得所筛选出的知识三元组能够提供用户感兴趣的信息,从而可以满足推荐场景任务需要。

d、如果所述场景类别为任务型对话,则遍历所述属性值中的每个主键实体值,从所述知识库中查找包含该主键实体值且与当前人机对话任务相关的知识三元组,利用查找出的所有知识三元组,构建所述候选知识子集。

考虑到任务型对话场景下的人机对话需要完成预定的任务,此情况下,在进行知识三元组筛选时,需要确保所筛选出的知识三元组与当前人机对话任务相关,以满足任务型对话场景的任务需要。

步骤103、基于所述对话历史数据和所述候选知识子集,利用预先训练的对话生成模型,为智能体生成当前的响应语句并输出。

在一个实施方式中,具体可以采用下述方法基于所述对话历史数据和所述候选知识子集,为智能体生成当前的响应语句:

步骤1031、将所述对话历史数据,输入至所述对话生成模型的对话编码器进行编码处理,得到所述对话历史数据的综合表征向量c和所述对话历史数据包含的所有词的词向量。

在一个实施方式中,本步骤可以采用下述方法将所述对话历史数据,输入至所述对话生成模型的对话编码器进行编码处理:

步骤x1、通过在所述对话历史数据中增加每个词所属的对话角色信息和对话轮次信息,对所述对话历史数据进行扩充。

本步骤,用于对话历史数据进行扩充,在每个词后面增加相应的对话角色信息和对话轮次信息,即,将对话历史数据x=(x1,...,xn)扩充为x=(c1,...,cn),其中,ci=(xi,$u/$s,t),其中,1≤i≤n,$u表示用户的语句,$s表示智能体回复的语句,“/”表求或者的关系,t表示对话轮次。这样,扩充后的对话历史能够使得模型在编码时捕捉到更多的与对话相关的信息,从而有利于生成与用户的语句更匹配的回复语句,进而可以提高回复语句的有效性。

步骤x2、按照对话轮次,对所述扩充后的对话历史数据进行划分。

步骤x3、利用句子级双向门限循环神经网络(bigru),对所述划分得到的每轮对话数据进行编码,得到每轮对话包含的所有词的词向量。

步骤x4、基于每轮对话包含的所有词的词向量,采用自注意力机制计算每轮对话的第一对话向量。

步骤x5、利用对话轮次级bigru,对所有轮对话的所述第一对话向量进行编码,得到每轮对话的第二对话向量。

步骤x6、基于所述第二对话向量,采用自注意力机制,计算所述对话历史数据的综合表征向量c。

步骤1032、将所述候选知识子集,输入至所述对话生成模型的知识编码器进行编码,得到所述候选知识子集的综合表征向量kg和所述候选知识子集中每条知识三元组的向量表示。

在一个实施方式中,本步骤可以采用下述方法将所述候选知识子集,输入至所述对话生成模型的知识编码器进行编码:

步骤y1、利用transe模型,计算所述候选知识子集中每条知识三元组的实体词向量。

步骤y2、基于每条知识三元组的所述实体词向量,利用多层感知机,得到所述候选知识子集中每条知识三元组的向量表示。

步骤y3、基于每条知识三元组的所述向量表示,利用自注意力机制,得到所述候选知识子集的综合表征向量kg。

步骤1033、基于所述对话历史数据的综合表征向量c、所述候选知识子集的综合表征向量kg、所述词向量和所述知识三元组的向量表示,利用所述对话生成模型的自然语言生成器,生成所述响应语句。

较佳地,可以采用下述方法利用所述对话生成模型的自然语言生成器,采用记忆网络(memorynetwork)与gru动态交互的方法生成所述响应语句:

步骤z1、将所述知识三元组的向量表示与所述词向量拼接,将拼接的结果m写入所述自然语言生成器的记忆网络。

这里,将知识三元组的向量表示kg=[k1,...,kg]和对话历史中词的词向量表示h=(h1,...,hn)拼接共同作为输入写入记忆网络。

其中,m=[(h1,...,hn);(k1,...,kg)]=[m1,...,mn+g],hn表示第n个词向量;kg表示第g条知识三元组的向量表示;n表示词向量数量;g表示知识三元组数量。

所述记忆网络即存储器,有可读可写的功能,其主要用于将对话编码器的输出结果h=(h1,...,hn)和知识编码器的输出结果kg=[k1,...,kg]写入存储器,以便于gru每一时刻动态生成词时查询。

步骤z2、将所述自然语言生成器的gru用于解码的初始查询向量s0,初始化为所述综合表征向量c和所述综合表征向量kg的拼接结果。

步骤z3、在所述gru进行解码的每个时刻t,所述gru基于上一时刻的查询向量st-1和上一时刻的生成词yt-1,生成当前时刻t的查询向量st;即按照st=gru(st-1,e(yt-1)),得到所述查询向量st;

利用注意力机制,按照计算所述查询向量st与所述记忆网络中每一个存储单元的相关度,得到所述查询向量st与所述对话历史数据中每个所述词的相关度以及所述查询向量st与所述候选知识子集中每条知识三元组的相关度

即:按照得到所述相关度其中,i表示词编号;1≤i≤n;按照得到所述相关度其中,r表示知识三元组编号;1≤r≤g;

基于所述相关度采用加权求和的方式,计算所述对话历史数据的联合表示ct;即,按照得到所述ct;

基于所述相关度采用加权求和的方式,按照计算所述候选知识子集的联合表示gt;即,按照得到所述gt;

以所述ct作为查询向量,采用多跳的方式访问所述记忆网络,得到知识分布pptr;即按照pptr=multihop([st,gt],m),得到所述pptr;采用多跳的方式访问所述记忆网络的具体方法为本领域技术人员所掌握,在此不再赘述;

以所述gt作为查询向量,采用多层感知机访问预设词典,得到词典分布pvocab;即按照pvocab=mlp([st,gt],v),得到所述pvocab;

基于所述知识分布pptr和所述词典分布pvocab,利用门控机制得到当前时刻t的生成词。

本步骤中,通过以所述对话历史数据的联合表示ct作为查询向量,采用多跳的方式访问所述记忆网络,得到知识分布pptr,可以利用所述知识三元组的向量表示与所述词向量拼接结果,提高所述知识分布pptr的准确性。

步骤z4、所述gru基于所有时刻的所述生成词,为所述智能体生成当前的响应语句。

本步骤中,将利用gru在所有时刻选择出的生成词,生成系统响应y=(y1,...,yt,...ym),其中,yt表示gru在时刻t的生成词。

基于上述实施例可以看出,上述技术方案通过对对话历史数据中的属性值和对话场景类别进行识别,基于对话中属性值和场景类别,从知识库中筛选出与对话相关的知识三元组,构建候选知识子集,然后再基于该候选知识子集和当前的对话历史数据,生成当前的系统响应语句。如此,一方面通过构建候选知识子集,可以有效缩减用于生成响应语句的知识三元组数量,从而可以降低响应语句生成的运算开销、提高语句生成效率,另一方面通过基于场景类别对知识库中的知识三元组进行筛选,可以使得所生成的候选知识子集与当前的场景类别相匹配,从而使得所生成的响应语句能够与当前的人机对话场景相匹配,进而可以提高响应语句的智能性和准确性,有效改善用户的人机对话体验。因此,本发明适用于多种任务场景。

与上述方法实施例相对应,本发明实施例还公开了一种人机对话中智能体对话语句的生成装置,如图2所示,该装置包括:

信息提取模块,用于利用预先训练的自然语言理解模型,从当前人机对话的对话历史数据中,提取预设知识库中的属性值和场景类别;其中,所述知识库由知识三元组构成;

知识筛选模块,用于基于所述属性值和所述场景类别,从所述知识库中筛选出相关的知识三元组,得到候选知识子集;

对话响应模块,用于基于所述对话历史数据和所述候选知识子集,利用预先训练的对话生成模型,为智能体生成当前的响应语句并输出。

本发明实施例还公开了一种人机对话中智能体对话语句的生成设备,包括处理器和存储器;所述存储器中存储有可被所述处理器执行的应用程序,用于使得所述处理器执行如上所述的人机对话中智能体对话语句的生成方法。

其中,存储器具体可以实施为电可擦可编程只读存储器(eeprom)、快闪存储器(flashmemory)、可编程程序只读存储器(prom)等多种存储介质。处理器可以实施为包括一或多个中央处理器或一或多个现场可编程门阵列,其中现场可编程门阵列集成一或多个中央处理器核。具体地,中央处理器或中央处理器核可以实施为cpu或mcu。

需要说明的是,上述各流程和各结构图中不是所有的步骤和模块都是必须的,可以根据实际的需要忽略某些步骤或模块。各步骤的执行顺序不是固定的,可以根据需要进行调整。各模块的划分仅仅是为了便于描述采用的功能上的划分,实际实现时,一个模块可以分由多个模块实现,多个模块的功能也可以由同一个模块实现,这些模块可以位于同一个设备中,也可以位于不同的设备中。

各实施方式中的硬件模块可以以机械方式或电子方式实现。例如,一个硬件模块可以包括专门设计的永久性电路或逻辑器件(如专用处理器,如fpga或asic)用于完成特定的操作。硬件模块也可以包括由软件临时配置的可编程逻辑器件或电路(如包括通用处理器或其它可编程处理器)用于执行特定操作。至于具体采用机械方式,或是采用专用的永久性电路,或是采用临时配置的电路(如由软件进行配置)来实现硬件模块,可以根据成本和时间上的考虑来决定。

本发明还提供了一种机器可读的存储介质,存储用于使一机器执行如本申请所述方法的指令。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施方式的功能的软件程序代码,且使该系统或者装置的计算机(或cpu或mpu)读出并执行存储在存储介质中的程序代码。此外,还可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作。还可以将从存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的cpu等来执行部分和全部实际操作,从而实现上述实施方式中任一实施方式的功能。

用于提供程序代码的存储介质实施方式包括软盘、硬盘、磁光盘、光盘(如cd-rom、cd-r、cd-rw、dvd-rom、dvd-ram、dvd-rw、dvd+rw)、磁带、非易失性存储卡和rom。可选择地,可以由通信网络从服务器计算机或云上下载程序代码。

在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中的只示意性地表示出了与本发明相关部分,而并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”并不表示将本发明相关部分的数量限制为“仅此一个”,并且“一个”不表示排除本发明相关部分的数量“多于一个”的情形。在本文中,“上”、“下”、“前”、“后”、“左”、“右”、“内”、“外”等仅用于表示相关部分之间的相对位置关系,而非限定这些相关部分的绝对位置。

以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1