基于案例文本自动生成试题的方法、存储介质和电子设备与流程

文档序号:31360573发布日期:2022-08-31 14:30阅读:93来源:国知局
基于案例文本自动生成试题的方法、存储介质和电子设备与流程

1.本发明涉及案例信息化领域,尤其涉及一种基于案例文本自动生成试题的方法、存储介质和电子设备。


背景技术:

2.随着社会经济水平的不断提升,对生产安全的重视程度也呈现出持续上升的趋势。加强对企业安全生产的培训管理工作已经成为各级工作单位的工作重点。以消防安全为例,要做好消防安全工作最基本的就是要全面掌握相关的法律法规与政策,熟悉各行各业生产与经营管理特点。近年来,由于经济社会发展及信息化技术等进步多方面因素,如何尽快熟悉掌握这些政策法规及安全事故案例并能够熟练运用成了每一个消防安全工作者所面临的首要问题。
3.目前,国内比较成熟的计算机语义理解技术已经应用到消防安全等领域,但是运用于安全事故案例文本的试题生成系统的研究比较少,若要汇编安全事故案例相关的试题信息,要求出题人需要事先阅读整个案例文本,再结合自身对文本内容的理解出相应的试题,不仅整个过程耗时耗力,受限于思维惯性基于同一个事故案例文本每次生成的试题信息往往相同,不利于做题人能够全方位地掌握知识点。


技术实现要素:

4.为此,需要提供一种基于案例文本自动生成试题的技术方案,用以解决基于案例生成试题信息的方式效率低下、出题重复率高等问题。
5.在第一方面,本发明提供了一种基于案例文本自动生成试题的方法,包括以下步骤:
6.获取案例文本信息;
7.对所述案例文本信息进行数据预处理,构建训练集;
8.将所述训练集输入到训练模型中进行训练,得到试题题目与试题答案的键值对;
9.根据多个所述键值对生成各个案例文本信息相关的题目,得到案例知识库。
10.作为一种可选的实施例,对所述案例文本信息进行数据预处理包括:
11.去除所述案例文本信息中除文字内容以外的符号,将提取的文字内容按照句子为单位进行分句,对各分句采用bioes的编码方式进行标注;其中,“b”表示实体的开始,“i”表示实体的中间,“o”代表非实体,用于标记无关字符,“e”表示实体的结尾,“s”代表单个字或者词标记。
12.作为一种可选的实施例,所述训练模型包括bert层、flat层和crf层;
13.所述bert层用于增强句子的语义表示,得到序列化文本输入;
14.所述flat层用于对每一个字符或词汇信息都构建了两个位置编码,将字符或词汇信息转换为位置编码;
15.所述crf层用于基于标签信息之间存在的依赖关系,对标签序列进行建模,从而获
取最优序列。
16.作为一种可选的实施例,所述flat层包括transformer结构;所述flat层用于对每一个字符或词汇信息都构建了两个位置编码,将字符或词汇信息转换为位置编码具体包括:
17.采用head[i]和tail[2]分别表示一个字符或词汇信息的头部和尾部,再用四种相对位置距离表示两个字词之间的相对关系,所述四种相对位置距离的计算方式如下所示:
[0018][0019][0020][0021][0022]
其中,表示xi的head到xj的head距离;表示xi的head到xj的tail距离;表示xi的tail到xj的head距离;表示xi的tail到xj的tail距离;
[0023]
根据以下公式基于上述四种相对位置距离计算相对位置编码:
[0024][0025]
其中,wr是需要训练的参数,表示连接操作符;
[0026]
的计算方式如下:
[0027][0028][0029]
其中,d是位置编码的维度;
[0030]
而后可以将计算结果输入到自注意力机制层,计算方式如下:
[0031][0032]
其中,wq、w
k,r
、w
k,e
、u以及v为需要训练的参数,e表示词嵌入查找表或者是transformer最后一层的输出。
[0033]
作为一种可选的实施例,所述crf层用于基于标签信息之间存在的依赖关系,对标签序列进行建模,从而获取最优序列包括:
[0034]
crf层使用最大似然估计进行训练,并在其中引入转换矩阵w作为参数;对于句子x,模型标注序列y=(y1,y2,...,yn)的概率为:
[0035][0036][0037]
其中,x表示输入句子x1,x2,...,xn,y为标签序列y1,y2,...,yn,p
i,yj
表示第i个
字符被分类为第j个标签的概率值,w
i,yj
表示表示第i个标签到第j个标签的状态转移值,exp表示自然常数e的指数函数;
[0038]
所述最优序列为概率值最大的序列。
[0039]
作为一种可选的实施例,所述案例文本信息包括事件原因信息;所述根据多个所述键值对生成各个案例文本信息相关的题目包括:
[0040]
使用正则表达式从案例文本信息中获取导致事件发生的直接原因条目,将获取的所述导致事件发生的直接原因条目存入第一数据库,并基于规则的方式进行匹配;
[0041]
和/或所述案例文本信息包括事件应对措施信息;所述根据多个所述键值对生成各个案例文本信息相关的题目包括:
[0042]
使用正则表达式从案例文本信息中获取事件应对措施条目,将获取的所述事件应对措施条目存入第二数据库,并基于规则的方式进行匹配。
[0043]
作为一种可选的实施例,针对事件原因信息基于规则的方式进行匹配包括:
[0044]
当所述直接原因条目大于0且小于3,生成两个[0,1]之间的随机整数random_index和random_index1;如果random_index等于0则生成错误判断题;如果random_index1等于0,从第一数据库中随机选取一个不属于该事件的原因ro,生成试题信息;
[0045]
和/或针对事件应对措施信息基于规则的方式进行匹配包括:
[0046]
当所述事件应对措施条目大于0且小于3,生成两个[0,1]之间的随机整数random_index和random_index1;如果random_index等于0则生成错误判断题;如果random_index1等于0,从第二数据库中随机选取一个不属于该事件的应对措施co,生成试题信息。
[0047]
作为一种可选的实施例,所述案例知识库包括多种不同类型的试题信息,所述试题信息的类型包括选择题、判断题和解答题;
[0048]
所述方法还包括:
[0049]
接收用户终端的答题请求,记录所述用户终端的地理位置信息和发起答题请求的时间戳信息;
[0050]
根据所述用户终端的地理位置信息和发起答题请求的时间戳信息,获取预设时间段内所有预设区域范围内的用户终端的历史答题数据,将答题错误率最高的试题信息的类型作为推送题型;所述预设时间段为在所述答题请求的时间戳信息之前的一定时间长度;所述预设区域范围为以用户终端的地理位置信息为中心、预设半径范围内的区域;
[0051]
向当前发起答题请求的用户终端推送所述推送题型对应的答题信息。
[0052]
在第二方面,本发明还提供了一种存储介质,存储介质存储有计算机程序,计算机程序被处理器执行时实现如本发明第一方面的方法步骤。
[0053]
在第三方面,本发明还提供了一种电子设备,包括处理器和存储介质,存储介质为如第二方面的存储介质;
[0054]
处理器用于执行存储介质中存储的计算机程序以实现如第一方面的方法步骤。
[0055]
区别于现有技术,本发明提供了一种基于案例文本自动生成试题的方法、存储介质和电子设备,该方法包括以下步骤:获取案例文本信息;对所述案例文本信息进行数据预处理,构建训练集;将所述训练集输入到训练模型中进行训练,得到试题题目与试题答案的键值对;根据多个所述键值对生成各个案例文本信息相关的题目,得到案例知识库。由于试题信息是基于案例文本信息经过预处理后的数据输入到训练模型中进行训练得到的,训练
或者其他类似的表述,意在涵盖非排他性的包含,这些表述并不排除在包括要素的过程、方法或者产品中还可以存在另外的要素,从而使得包括一系列要素的过程、方法或者产品中不仅可以包括那些限定的要素,而且还可以包括没有明确列出的其他要素,或者还包括为这种过程、方法或者产品所固有的要素。
[0072]
与《审查指南》中的理解相同,在本技术中,“大于”、“小于”、“超过”等表述理解为不包括本数;“以上”、“以下”、“以内”等表述理解为包括本数。此外,在本技术实施例的描述中“多个”的含义是两个以上(包括两个),与之类似的与“多”相关的表述亦做此类理解,例如“多组”、“多次”等,除非另有明确具体的限定。
[0073]
自然语言处理(natural language processing,nlp)是主要研究用计算机理解和生成自然语言的各种理论和方法,属于人工智能领域的一个重要甚至核心分支,是计算机科学与语言学的交叉学科。在如今数据不断膨胀的年代,文本信息呈指数性增长,为自然语言处理技术提供了广阔的实际应用场景。早期的nlp技术应用稍显困难,但在自然语言处理领域进入深度训练的时代后,nlp在应用层面开始崭露头角。近年来的热门应用任务包括信息抽取、命名实体识别、文本摘要、情感分析、问答系统、机器翻译和对话系统等等,它们都具有一定的社会意义,并且让人们看到了自然语言处理的实际能力。以bert为代表的预训练模型相继展现能力,在某些任务上甚至超过了人类的水平。近年来诞生的模型也多围绕预训练模型进行,其中不乏中文领域的。也正是预训练模型的强大能力,nlp的应用逐渐火热。
[0074]
本发明的主旨在于提出一种基于安全事故案例文本的题目生成方法,对于一个输入的任意事故案例文本,该方法都能够根据文本内容自动生成与文本内容相关的测试试题,所述测试试题能够用于测试阅读该文本的人员对文本内容的掌握程度,从而达到对工作人员进行安全教育的目的,提高从业人员的安全意识,减少安全事故的发生。
[0075]
具体在本发明中,生成的测试试题可以包括多种不同的类型,例如在构建选择题时可以将句子中合法的时间、地点或数字提取出来作为正确选项的答案,并将句子剩余部分作为题干;也可以将安全事故案例发生的主要原因抽取出来,作为问题的答案;或者将事故案例中防范措施和整改措施的内容被抽取出来,生成相关的题目,作为选择题或判断题的答案。
[0076]
如图1所示,在第一方面,本发明提供了一种基于案例文本自动生成试题的方法,包括以下步骤:
[0077]
首先进入步骤s101获取案例文本信息;
[0078]
而后进入步骤s102对所述案例文本信息进行数据预处理,构建训练集;
[0079]
而后进入步骤s103将所述训练集输入到训练模型中进行训练,得到试题题目与试题答案的键值对;
[0080]
而后进入步骤s104根据多个所述键值对生成各个案例文本信息相关的题目,得到案例知识库。
[0081]
在本实施方式中,所述案例文本信息中记录有事件基础信息、事件原因信息和事件应对措施信息。所述事件基础信息包括事件发生的时间点、地点等。所述事件原因信息是指导致事件发生的原因,所述事件应对措施信息是指针对事件的应对举措。事件基础信息、事件原因信息和事件应对措施信息通常以文字或字符的方式被记录于所述案例文本信息
中。所述事件可以是指安全事故,如消防安全事故,用电安全事故等。
[0082]
在本实施方式中,键值对是指试题题目和试题答案对应的配对信息,该配对信息可以以键值对的方式进行存储,以便后续索引。试题题目和试题答案可以基于训练模型实时生成,以避免生成的试题信息重复。案例知识库中可以存储有多种不同类型的试题信息,以便获取接收到用户终端的答题请求时实时调用。
[0083]
采用上述方案后,由于本发明涉及的试题信息是基于案例文本信息经过预处理后的数据输入到训练模型中进行训练得到的,训练模型针对不同的案例文本能够组合出多种不同类型的试题信息,相较于人工出题的方式极大提升了出题效率,同时最大程度避免了出题重复的情况发生,有利于做题人在做题时更加全面地掌握相关案例的知识点。
[0084]
在某些实施例中,对所述案例文本信息进行数据预处理包括:去除所述案例文本信息中除文字内容以外的符号,将提取的文字内容按照句子为单位进行分句,对各分句采用bioes的编码方式进行标注;其中,“b”表示实体的开始,“i”表示实体的中间,“o”代表非实体,用于标记无关字符,“e”表示实体的结尾,“s”代表单个字或者词标记。
[0085]
进一步地,除文字内容以外的符号包括案例文本信息中多余的空格、加减乘除等特殊符号。当将提取的文字内容按照句子为单位进行分句后,可以去除句子首尾空白符再进行标注,若句子末尾存在标点符号则去除标点符号。
[0086]
通过上述方式对案例文本信息进行数据预处理后,能够构建出训练集,训练集中包含一个个经过初步过滤符号的句子,便于后续训练模型能够更加方便地进行数据的处理,进而生成相应的试题信息。
[0087]
在某些实施例中,所述训练模型包括bert层、flat层和crf层;
[0088]
所述bert层用于增强句子的语义表示,得到序列化文本输入;
[0089]
所述flat层用于对每一个字符或词汇信息都构建了两个位置编码,将字符或词汇信息转换为位置编码;
[0090]
所述crf层用于基于标签信息之间存在的依赖关系,对标签序列进行建模,从而获取最优序列。
[0091]
优选的,所述训练模型为bert-flat-crf命名实体识别模型,该训练模型能够对训练集中的句子进行切割、识别,识别出相应的命名实体如时间、地点或数字等进行整理;然后通过正则匹配对于识别的标签进行拆分,比如按照时间、地点、主要原因、次要原因等进行拆分,并将拆分的结果存入数据库中。
[0092]
bert层(模型的第一层)为bert词嵌入层,其采用中文的bert预训练模型。bert模型是在transformer模型基础上建立起来的,它包含了两层双向transformer模型,但稍显不同的是,bert模型只包含encoder部分。在bert模型中,采用多头注意力层作为其核心处理层,不同规模的bert模型包含的多头注意力机制的层数不相同(如可以是12或24层),并且每个多头注意力层中包含的注意力头数也各不相同(如可以是12或16)。由于bert模型的层之间不进行权重共享,所以一个bert模型能有效地包含多达384(24x16)个不同的注意力机制结果。bert模型只是预训练阶段的模型,在解决具体的nlp任务时,还需要在bert模型后添加其他的处理模型,完善为encoder-decoder构型。bert模型的结构如图5所示。
[0093]
在某些实施例中,所述flat层包括transformer结构;所述flat层用于对每一个字符或词汇信息都构建了两个位置编码,将字符或词汇信息转换为位置编码具体包括:
[0094]
采用head[i]和tail[i]分别表示一个字符或词汇信息的头部和尾部,再用四种相对位置距离表示两个字词之间的相对关系,所述四种相对位置距离的计算方式如下所示:
[0095][0096][0097][0098][0099]
其中,表示xi的head到xj的head距离;表示xi的head到xj的tail距离;表示xi的tail到xj的head距离;表示xi的tail到xj的tail距离;
[0100]
根据以下公式基于上述四种相对位置距离计算相对位置编码:
[0101][0102]
其中,wr是需要训练的参数,表示连接操作符;wr可以是神经网络的权重参数,连接操作符可以是and、nand(而非and)、0r等异或运算。
[0103]
的计算方式如下:
[0104][0105][0106]
其中,d是位置编码的维度;
[0107]
而后可以将计算结果输入到自注意力机制层,计算方式如下:
[0108][0109]
其中,wq、w
k,r
、w
k,e
、u以及v为需要训练的参数,e表示词嵌入查找表或者是transformer最后一层的输出。
[0110]
优选的,如图4所示,所述flat层其中左侧和下侧采用经典的transformer结构,且flat结构只有一层transformer结构。右侧的四个矩阵就是对lattice结构的展平。通常在transformer结构中,会有对位置信息的表示,最初的transformer结构是绝对位置,而在后来的结构中,大多会以相对位置来表示位置关系,相对位置的表示是多种多样的。
[0111]
通过flat层结构设计,解决了挖掘输入文本本身的词汇信息的问题,并且该结构还能捕捉长距离依赖。此外,由于flat结构中的位置信息表示解决了并行化问题,时间效率上得到较大提升。
[0112]
在某些实施例中,所述crf层用于基于标签信息之间存在的依赖关系,对标签序列进行建模,从而获取最优序列包括:
[0113]
crf层使用最大似然估计进行训练,并在其中引入转换矩阵w作为参数;对于句子x,模型标注序列y=(y1,y2,...,yn)的概率为:
[0114][0115][0116]
其中,x表示输入句子x1,x2,...,xn,y为标签序列y1,y2,...,yn,p
i,yj
表示第i个字符被分类为第j个标签的概率值,w
i,yj
表示表示第i个标签到第j个标签的状态转移值,exp表示自然常数e的指数函数;所述最优序列为概率值最大的序列。
[0117]
区别于常用深度学习模型中所采用的softmax函数,crf可以学习标签之间的依赖关系,例如:在行业类型标签中,b-time不能出现在m-time之后。
[0118]
在某些实施例中,所述案例文本信息包括事件原因信息;所述根据多个所述键值对生成各个案例文本信息相关的题目包括:使用正则表达式从案例文本信息中获取导致事件发生的直接原因条目,将获取的所述导致事件发生的直接原因条目存入第一数据库,并基于规则的方式进行匹配。
[0119]
和/或,所述案例文本信息包括事件应对措施信息;所述根据多个所述键值对生成各个案例文本信息相关的题目包括:使用正则表达式从案例文本信息中获取事件应对措施条目,将获取的所述事件应对措施条目存入第二数据库,并基于规则的方式进行匹配。
[0120]
优选的,针对事件原因信息基于规则的方式进行匹配包括:当所述直接原因条目大于0且小于3,生成两个[0,1]之间的随机整数random_index和random_index1;如果random_index等于0则生成错误判断题;如果random_index1等于0,从第一数据库中随机选取一个不属于该事件的原因ro,生成试题信息。
[0121]
和/或,针对事件应对措施信息基于规则的方式进行匹配包括:当所述事件应对措施条目大于0且小于3,生成两个[0,1]之间的随机整数random_index和random_index1;如果random_index等于0则生成错误判断题;如果random_index1等于0,从第二数据库中随机选取一个不属于该事件的应对措施co,生成试题信息。
[0122]
通过设置两个随机数来随机生成不同类型的试题信息(如选择题或判断题),能够有效避免试题信息的重复性,便于做题人员更加全面地掌握相关试题的知识点。
[0123]
如图2所示,所述案例知识库包括多种不同类型的试题信息,所述试题信息的类型包括选择题、判断题和解答题;
[0124]
所述方法还包括:
[0125]
首先进入步骤s201接收用户终端的答题请求,记录所述用户终端的地理位置信息和发起答题请求的时间戳信息;
[0126]
而后进入步骤s202根据所述用户终端的地理位置信息和发起答题请求的时间戳信息,获取预设时间段内所有预设区域范围内的用户终端的历史答题数据,将答题错误率最高的试题信息的类型作为推送题型;所述预设时间段为在所述答题请求的时间戳信息之前的一定时间长度;所述预设区域范围为以用户终端的地理位置信息为中心、预设半径范围内的区域;
[0127]
而后进入步骤s203向当前发起答题请求的用户终端推送所述推送题型对应的答题信息。
[0128]
以预设时间段为发起答题请求的时间戳信息之前的一个月、预设半径为1公里为
例,当系统接收到某一用户终端发出的答题请求时,会调取近1个月内以该用户终端所在的地理位置信息为中心1公里范围内所有用户终端的历史答题数据,并对这些答题数据进行统计,例如这一区域内判断题答错的次数远高于选择题,则系统确定判断题会推送题型,将推送相关判断题信息给当前发起答题请求的用户终端。通过设计,用户终端除了能够知道自身的做题情况外,还能够根据推送试题知晓自己小区附近人的答题情况,例如对于易错的知识点进行消化吸收后便于后续在周围进行宣讲,从而提升了安全知识科普的广泛性。
[0129]
当然,为了使得推送的试题信息更具代表性和时效性,首先可以根据发起答题请求的时间戳信息推送基于案例文本信息中记录的时间信息与之相接近的案例而生成的试题信息,其次可以基于当前用户终端的地理位置信息,获取从历史数据库获取该地理位置信息对应的预设区域范围内近期发生过的事件类型,如近一年内发生过2次火灾,则系统会重点调用火灾相关的案例文本信息来生成相关的试题信息推送给终端;再比如近一年内该用户终端所在的位置附近发生多起交通事故,则系统会重点调用交通安全相关的案例文本信息来生成相关的试题信息推送给终端。这样,可以使得试题信息的推送更具针对性和代表性。
[0130]
如图3所示,在某些应用场景中,本发明提供的方法还可以包括以下步骤:
[0131]
首先可以进入步骤s1从多个不同渠道获取事故案例对应的文本数据。具体的,可以从消防安全政策法规、企业实际案例库、互联网等不同渠道获取安全事故相关案例的文本材料。
[0132]
而后进入步骤s2对所述文本数据进行预处理,建立命名实体识别(ner)、文本摘要、信息抽取模型。在这一步骤中,可以对获取的事故案例文本材料进行数据预处理,进行标注并构建训练集,建立起知识库。
[0133]
而后进入步骤s3基于时间、地点、数字等信息生成相关试题,遍历ner中列表进行判断,生成试题对应的答案。
[0134]
而后进入步骤s4应用正则化、ner等技术从事故案例文本中获取原因条目,以及步骤s5应用正则化、ner、摘要生成、信息抽取等技术获取事故相关的解决方案。
[0135]
重复步骤s3-s5,可以将输入的安全事故案例文本中所能抽取出的问题一一描述出来,对于生成的事故案例文本试题进行汇总,形成知识库。
[0136]
本发明充分考虑了事件安全知识的特点,提供一种基于事件案例文本的题目生成方法,以解决当前人工出题需要阅读完整个文本,再根据文本内容出题耗时耗力并且同一个事故案例文本每次生成的题目一样等弊端。本发明为了达到语义理解、自动智能的目的,在使用分词算法对用户以自然语言形式输入的事故案例文本信息进行分词,同时对文本进行预处理、标注,以形成基于标准化的训练样本库,系统还应具备使用自身存储的知识对输入数据进行判定,生成结果并对其进行进一步验证的功能,从而构建完善的安全事故案例知识库。通过知识的获取、表示和推理构建一种基于安全事故案例文本的题目生成知识库,是提高从业人员的安全意识、减少安全事故的发生的关键。
[0137]
对于一个输入的任意事故案例文本,本发明可以根据文本内容自动生成与文本内容相关的测试试题,这些测试试题可以用于测试阅读该文本的人员对文本内容的掌握程度,从而达到对工作人员进行安全教育的目的,提高从业人员的安全意识,减少安全事故的发生。当事故案例文本输入该系统后,系统在很短的事件内即可完成根据文本内容生成和
文本内容相关的一套题目,极大提升了试题生成效率。
[0138]
在第二方面,本发明还提供了一种存储介质,存储介质存储有计算机程序,计算机程序被执行时实现如本发明第一方面的方法步骤。
[0139]
如图6所示,在第三方面,本发明还提供了一种电子设备10,包括处理器101和存储介质102,该存储介质102为如第二方面的存储介质;处理器101用于执行存储介质102中存储的计算机程序以实现如第一方面的方法步骤。
[0140]
在本实施例中,电子设备为计算机设备,包括但不限于:个人计算机、服务器、通用计算机、专用计算机、网络设备、嵌入式设备、可编程设备、智能移动终端、智能家居设备、穿戴式智能设备、车载智能设备等。存储介质包括但不限于:ram、rom、磁碟、磁带、光盘、闪存、u盘、移动硬盘、存储卡、记忆棒、网络服务器存储、网络云存储等。处理器包括但不限于cpu(中央处理器)、gpu(图像处理器)、mcu(微处理器)等。
[0141]
本领域内的技术人员应明白,上述各实施例可提供为方法、装置、或计算机程序产品。这些实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。上述各实施例涉及的方法中的全部或部分步骤可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机设备可读取的存储介质中,用于执行上述各实施例方法的全部或部分步骤。
[0142]
上述各实施例是参照根据实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到计算机设备的处理器以产生一个机器,使得通过计算机设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0143]
这些计算机程序指令也可存储在能引导计算机设备以特定方式工作的计算机设备可读存储器中,使得存储在该计算机设备可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0144]
这些计算机程序指令也可装载到计算机设备上,使得在计算机设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0145]
尽管已经对上述各实施例进行了描述,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改,所以以上仅为本发明的实施例,并非因此限制本发明的专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1