图片归档方法、装置、终端设备及计算机可读存储介质与流程

文档序号:29736944发布日期:2022-04-21 17:42阅读:153来源:国知局
图片归档方法、装置、终端设备及计算机可读存储介质与流程

1.本技术属于图像处理技术领域,尤其涉及一种图片归档方法、装置、终端设备及计算机可读存储介质。


背景技术:

2.图片归档是指,将拍摄装置采集的抓拍图片分类成多个档案的过程。图片归档的目标是,归档后的每个档案中的图片包括相同的拍摄对象。图片归档被广泛应用于身份识别、轨迹追踪等领域。例如,在对多个目标人物进行轨迹追踪时,对多张抓拍图片进行归档,归档后的每个档案中的图片包括相同的目标人物。
3.现有的图片归档方法,通常是提取抓拍图片中人物的人脸特征信息,根据人脸特征信息计算两张抓拍图片之间的相似度,根据相似度的大小确定是否将两张抓拍图片归纳到同一档案中。当人脸拍摄角度发生变化、或者人脸特征模糊时,计算出的相似度的可靠性较低,导致图片归档效果较差。


技术实现要素:

4.本技术实施例提供了一种图片归档方法、装置、终端设备及计算机可读存储介质,可以有效提高图片归档结果的可靠性。
5.第一方面,本技术实施例提供了一种图片归档方法,包括:获取多张待归档图片,每张待归档图片中包括人脸和/或人体;对于包括人脸的待归档图片,检测所包括的人脸图像是否符合预定的质量条件;在检测到包括符合所述质量条件的第一人脸图像的待归档图片时,提取第一人脸图像的人脸特征信息;对于包括人体的待归档图片,通过目标检测处理识别所述人体的头部以得到多个第一头部关键点信息;通过对该待归档图片进行自下而上识别处理来对所述人体进行识别,以得到一个或多个第二人体姿态信息;根据所述第一头部关键点信息和所述第二人体姿态信息确定该待归档图片的人体特征信息;根据所述人脸特征信息对所述多张待归档图片进行归档,得到至少一个人脸档案,以及根据所述人体特征信息对所述多张待归档图片进行归档,得到至少一个人体档案;根据所述待归档图片所属的轨迹信息对所述至少一个人脸档案和所述至少一个人体档案进行匹配处理,将相匹配的人脸档案和人体档案合并为一个档案,其中,属于同一组轨迹信息的两张待归档图片中包含相同的拍摄对象。
6.本技术各实施例中,在提取人脸特征信息之前对人脸图片的质量进行筛选,对符合预定质量条件的人脸图像才进行人脸特征信息提取,使得后续能够更准确地计算两张图片中的人脸相似度以按照人脸特征信息对图片进行归档。此外,还通过用不同的方法确定人体图片的头部关键点信息和人体姿态信息并基于这两者来确定人体图片的人体特征信息,使得人体特征信息的识别准确度得以提高,从而提高了图片归档的可靠性。
7.第二方面,本技术实施例提供了一种图片归档装置,包括:图片获取单元,用于获取多张待归档图片,每张待归档图片中包括人脸和/或人体;质量检测单元,用于对于包括
人脸的待归档图片,检测所包括的人脸图像是否符合预定的质量条件;人脸特征识别单元,用于在检测到包括符合所述质量条件的第一人脸图像的待归档图片时提取第一人脸图像的人脸特征信息;人体特征识别单元,用于:对于包括人体的待归档图片,通过目标检测处理识别所述人体的头部以以得到多个第一头部关键点信息;通过对该待归档图片进行自下而上识别处理来对所述人体进行识别,以得到一个或多个第二人体姿态信息;根据所述第一头部关键点信息和所述第二人体姿态信息确定该待归档图片的人体特征信息;第一归档单元,用于根据所述人脸特征信息对所述多张待归档图片进行归档,得到至少一个人脸档案,以及根据所述人体特征信息对所述多张待归档图片进行归档,得到至少一个人体档案;第二归档单元,用于根据所述待归档图片所属的轨迹信息对所述至少一个人脸档案和所述至少一个人体档案进行匹配处理,将相匹配的人脸档案和人体档案合并为一个档案,其中,属于同一组轨迹信息的两张待归档图片中包含相同的拍摄对象。
8.第三方面,本技术实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的图片归档方法。
9.第四方面,本技术实施例提供了一种计算机可读存储介质,本技术实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的图片归档方法。
10.第五方面,本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的图片归档方法。
11.可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
12.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
13.图1是本技术实施例提供的图片归档方法的流程示意图;
14.图2是本技术实施例提供的正面时对应的人体关键点的示意图;
15.图3是本技术实施例提供的左侧面时对应的人体关键点的示意图;
16.图4是本技术实施例提供的人脸角度的示意图;
17.图5是本技术实施例提供的拍摄装置的位置示意图;
18.图6是本技术实施例提供的图片归档流程的示意图;
19.图7是本技术实施例提供图片归档装置的结构示意图;
20.图8是本技术实施例提供终端设备的结构示意图。
具体实施方式
21.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本技术实施例。然而,本领域的技术人员应当清楚,在没有这些具体
细节的其它实施例中也可以实现本技术。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本技术的描述。
22.应当理解,当在本技术说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
23.如在本技术说明书和所附权利要求书中所使用的那样,术语“若”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。
24.另外,在本技术说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
25.在本技术说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本技术的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。
26.参见图1,是本技术实施例提供的图片归档方法的流程示意图,作为示例而非限定,方法可以包括以下步骤:
27.s101,获取多张待归档图片,每张待归档图片中包括人脸和/或人体。
28.本技术实施例中,多张待归档图片可以由不同的拍摄装置拍摄,也可以由相同的拍摄装置拍摄。
29.示例性的,在一个应用场景中,商场内安装有10个摄像头,每个摄像头拍摄出100张抓拍图片,这10个摄像头共拍摄出1000张抓拍图片。这1000张抓拍图片中有些图片只包括人脸部分,有些图片只包括人体部分,有些图片包括整个人物(既包括人脸部分、又包括人体部分)。这1000张抓拍图片即构成了多张待归档图片。本技术后续实施例中,将包括人脸部分的待归档图片记为人脸图片,将包括人体部分的待归档图片记为人体图片。
30.为了后续能够精准地提取特征信息,还可以将包括整个人物的图片分割为只包括人脸部分的人脸图片和只包括人体部分的人体图片,后续对分割后的人脸图片和人体图片分别进行特征提取。
31.实际应用中,可以人工分拣待归档图片,将待归档图片人工划分为人脸图片和人体图片,或将整个人物图片人工分割为人脸图片和人体图片。还可以利用训练好的识别模型对待归档图片进行分拣,在此不做具体限定。
32.s102,对于包括人脸的待归档图片,检测所包括的人脸图像是否符合预定的质量条件。
33.质量条件是预先设定的、用于初步判断人脸图像质量的条件,作为初步筛选人脸图像的依据。
34.在一个示例中,可以根据图像的光线条件来判断人脸图像是否满足质量条件。例如,检测所包括的人脸图像是否符合预定的质量条件可以包括:
35.获取人脸图像的光线分,光线分用于表征人脸图像的亮暗程度;
36.根据人脸图像的光线分,检测人脸图像是否符合质量条件。
37.可以通过自适应判断的方式检测人脸图像是否满足质量条件。例如,通过将人脸
图像的光线分与光线分阈值进行比较来检测人脸图像是否符合质量条件。若人脸图像的光线分大于或者等于光线分阈值,则人脸图像符合质量条件;若人脸图像的光线分低于光线分阈值,则人脸图像不符合质量条件。这里的光线分阈值可以是预设值,其是根据拍摄待归档图片的图像采集设备的参数或者拍摄环境参数中的至少之一来确定的,本技术实施例对此不作限定。
38.s103,在检测到包括符合质量条件的第一人脸图像的待归档图片时,提取第一人脸图像的人脸特征信息。
39.在一个示例中,当检测到包括符合质量条件的第一人脸图像的待归档图片时,停止继续检测气体待归档图片的人脸图像是否符合质量条件,而是开始提取该第一人脸图像的人脸特征信息。
40.预定的质量条件,例如光线分阈值,用于作为是否从第一人脸图像提取人脸特征信息的判断依据。如果第一人脸图像符合预定的质量条件,则说明第一人脸图像的整体质量良好,达到了用作人脸识别的质量要求,不会影响之后的图片归档可靠性,因此可以提取该第一人脸图像的人脸特征信息。该预定质量条件(例如光线分阈值)的设定可结合实际情况,根据经验或者实验数据进行设定,本技术实施例对该质量条件的设定方式及依据不作限定。
41.若第一人脸图像不符合预定的质量条件,则检测下一张包括人脸的待归档图片是否符合质量条件,或者处理其他流程。
42.在本技术各实施例中,在提取人脸特征信息之前对人脸图片的质量进行筛选,对达到质量条件的人脸图像才进行人脸特征信息提取,使得后续能够更准确地计算两张图片中的人脸相似度以按照人脸特征信息对图片进行归档。
43.在本示例中,可以利用现有的图像特征提取方法提取人脸特征信息。例如,利用训练后的神经网络模型提取特征信息、利用尺度不变特征变化方法提取特征信息、利用方向梯度直方图提取特征信息等,在此不做具体限定。
44.需要说明的是,当某一张待归档图片既包括人脸、又包括人体时,该待归档图片既为人脸图片、又为人体图片,需要对该待归档图片分别提取人脸特征信息和人体特征信息。
45.在一个示例中,提取完一张待归档人脸图片的人脸特征信息后,对其之后的下一张待归档人脸图片重复s102-s103的步骤,直到处理完所有的待归档人脸图片。可选地,在处理完一张待归档人脸图片之后可以插入其他流程,例如,插入处理待归档人体图片的流程,在该其他流程处理完毕再继续按照s102-s103处理下一张待归档人脸图片。
46.s104,对于包括人体的待归档图片,通过目标检测处理识别人体的头部以得到多个第一头部关键点信息。
47.将待归档图片中包括人体的图片称为人体图片。在本技术实施例中,对待归档图片除了根据人脸进行归档之外,还根据人体特征信息进行归档。人体特征信息是表征某个人特有的人体特征,例如人体姿态。
48.现有技术中人体姿态识别技术主要包括两个大类:
49.一类是自上而下的识别方法,即:先定位人体大概位置,再对姿态进行具体识别。最常用的是先采用目标检测的方法得到图像中每个人的位置框,然后在检测框的基础上针对单个人做人体骨骼关键点检测,最终得到整个人体姿态,主要有cpm、rmpe、mask-rcnn、
grmi等方法。
50.另一类是自下而上的识别方法,即:这种方法是先找到所有肢体,然后将肢体进行组合,主要步骤是将图像中所有关键点都检测出来,然后通过相关策略将所有的关键点聚类成不同的个体。典型的代表是:采用人体姿态热力图heatmaps或回归关键点坐标计算人体姿态的每个关键点信息;采用部分亲和场(part affinity fields,paf)将计算的关键点之间进行连接;当识别出多个人时,采用图论的二分图求解方法得到每个人的人体姿态信息。
51.但是以上两类方法都存在识别准确率低的问题。本技术各实施例在进行人体姿态识别时,通过用不同的方法确定人体图片的头部关键点信息和人体姿态信息并基于这两者来确定人体图片的人体特征信息,使得人体特征信息的识别准确度得以提高,从而提高了图片归档的可靠性。
52.在一个示例中,通过目标检测处理识别人体的头部以得到多个第一头部关键点信息,包括:
53.s201,通过目标检测处理确定该待归档图片中的一个或多个头部检测框;以及
54.s202,对第一头部检测框进行关键点计算处理,得到多个第一头部关键点信息。
55.在本示例中通过目标检测处理(例如采用faster-rcnn或ssd)来获取待处理图像中人体的第一头部检测框,第一头部检测框为矩形框,对应人体的头部尽可能内切于该矩形框。当图像中仅包括一个人时,则通过目标检测处理得到一个第一头部检测框;当图像中包括多个人时,则通过目标检测处理得到多个第一头部检测框。通过目标检测处理可以得到图像中物体的相关信息,包括该物体的类别以及位置,比如图上是人还是物,具体数量,而位置信息通常以一个bounding box(检测框)表示。本实施例中就是通过目标检测处理来得到每个人体头部的bounding box。
56.具体地,本实施例中可以采用的目标检测方法是基于卷积神经网络的faster rcnn、r-fcn等为代表的两个阶段的检测方法,该类方法主要通过候选窗加深度学习分类,先通过提取候选区域,并对相应区域进行以深度学习方法为主的分类方案;还可以采用以yolo、ssd等为代表的基于深度学习的端到端的回归方法,这类方法将图像事先划分好若干个小方格,在小方格中进行特征提取。此外,本实施例中也可以采用传统的检测方法来进行目标检测处理,其都在本发明的保护范围内。
57.本示例在获得第一头部检测框后,就可以通过关键点计算处理来得到多个第一头部关键点信息,头部关键点信息主要指的是头部关键点对应的像素的位置坐标值(即头部关键点的位置坐标值)以及头部关键点对应像素区域内每个像素的位置坐标值。头部关键点对应像素区域指的是以头部关键点对应的像素为中心像素,半径为r的圆形区域中包含的除中心像素之外的所有其余像素。r的取值方式并不限定,比如:r可以取3倍的高斯函数标准差值,还可以取待处理图像长边像素的一定比例,如:1/10倍。
58.在一个具体例子中,关键点计算处理可以包括以下步骤:
59.s301,采用人体姿态热力图或回归关键点坐标计算人体姿态的每个关键点信息;
60.s302,根据计算的每个关键点信息获知人体的头部姿态;
61.s303,当人体的头部姿态为正面或背面时,分别将第一头部检测框各边的中点作为四个头部关键点;
62.s304,当人体的头部姿态为左侧面时,将第一头部检测框右侧纵向边的中点、左下顶点以及上侧横向边的中点作为三个头部关键点;
63.s305,当人体的头部姿态为右侧面时,将第一头部检测框左侧纵向边的中点、右下顶点以及上侧横向边的中点作为三个头部关键点。
64.首先执行步骤s301,采用人体姿态热力图或回归关键点坐标计算人体姿态的每个关键点信息。采用人体姿态热力图计算人体姿态的每个关键点信息以及采用回归关键点坐标计算人体姿态的每个关键点信息对于本领域技术人员是熟知的,在此不再赘述。在一示例中,计算得到16个关键点信息(当人体姿态为正面时,此时的人体关键点具体参见图2)或15个关键点信息(当人体姿态为左侧面时,此时的头部关键点具体参见图3,其中1为头顶,2为左耳,3为下巴),其与采用的计算模型相关,而计算模型的训练则与人工标注相关,人工标注的具体方式后面详细介绍。
65.接着执行步骤s302,根据计算的每个关键点信息获知人体的头部姿态。在本例子中具体可以通过paf将计算的关键点进行连接,当识别出多个人时,采用图论的二分图求解方法(如:匈牙利算法)来得到每个人的人体姿态信息;当识别出仅一人时,则利用深度学习根据连接的关键点得出每个人的人体姿态识别信息。paf以及图论的二分图求解方法对于本领域技术人员是熟知的,在此不再赘述。具体地,当步骤s301获知头部包括四个关键点时,则表明人体的头部姿态为正面或背面;当步骤s301获知头部包括三个关键点且位于头部检测框顶点的关键点(即下巴)位于头部检测框最左侧时,则表明人体的头部姿态为左侧面;当步骤s301获知头部包括三个关键点且位于头部检测框顶点的关键点(即下巴)位于头部检测框最右侧时,则表明人体的头部姿态为右侧面。
66.至此,可以获知待处理图像中每个人体的头部姿态,头部姿态包括:正面、背面、左侧面或右侧面。然后对于不同的头部姿态,分别采用不同的方式进行处理:当人体的头部姿态为正面或背面时,分别将第一头部检测框各边的中点作为四个第一头部关键点;当人体的头部姿态为左侧面时,将第一头部检测框右侧纵向边的中点、左下顶点以及上侧横向边的中点作为三个第一头部关键点;当人体的头部姿态为右侧面时,将第一头部检测框左侧纵向边的中点、右下顶点以及上侧横向边的中点作为三个第一头部关键点。
67.在另一个具体例子中,关键点计算处理可以包括以下步骤:
68.s311,采用人体姿态热力图或回归关键点坐标计算人体姿态的每个关键点信息;
69.s312,根据计算的每个关键点信息获知人体的头部姿态;
70.s313,当人体的头部姿态为侧面时,对第一头部检测框进行横向扩展处理,得到扩展后的第一头部检测框;
71.s314,当人体的头部姿态为正面或背面时,分别将第一头部检测框各边的中点作为四个第一头部关键点;
72.s315,当人体的头部姿态为左侧面时,将扩展后的第一头部检测框右侧纵向边的中点、左下顶点以及上侧横向边的中点作为三个第一初步头部关键点信息;
73.s316,当人体的头部姿态为右侧面时,将扩展后的第一头部检测框左侧纵向边的中点、右下顶点以及上侧横向边的中点作为三个第一初步头部关键点信息;
74.s317,当人体的头部姿态为左侧面或右侧面时,对第一初步头部关键点信息进行与横向扩展处理相应的横向敛缩处理,以得到第一头部关键点信息。
75.关键点计算的这一示例(s311-317)的例子与之前的示例(s301-305)相比,步骤s311、步骤s312、步骤s314、步骤s315和步骤s316分别可以参考步骤s301、步骤s302、步骤s303、步骤s304和步骤s305,其主要是增加了步骤s313和步骤s317。当获知人体的头部姿态为左侧面或右侧面时,接着执行步骤s313,对第一头部检测框进行横向扩展处理,即将第一头部检测框在人脸的横向方向进行一定比例的扩展(参见图3所示,其中中间的矩形框是第一头部检测框,扩展后的矩形框是扩展后的第一头部检测框),该扩展比例的取值范围可以包括1.2-1.5,比如:将第一头部检测框保持中心点不变且纵向长度不变的情况下,横向扩展1.2倍、1.3倍、1.4倍或1.5倍,即横向坐标以第一头部检测框的中心为原点且保持不变的情况下扩展1.2倍、1.3倍、1.4倍或1.5倍,以使扩展后的第一头部检测框可以完全覆盖人的头部,从而提高后续识别的准确率。
76.当执行完步骤s315或步骤s316时,即可获得一个人体对应的三个第一初步头部关键点信息,接着执行步骤s317,对得到的三个第一初步头部关键点信息进行与步骤s313中的横向扩展处理相应的横向敛缩处理,即其纵向坐标不变,而横向坐标以第一头部检测框的中心为原点进行敛缩处理,比如:当步骤s313的扩展比例为1.1倍时,则敛缩比例为1/1.1,并将敛缩后的三个第一初步头部关键点信息作为三个第一头部关键点信息。
77.当人体的头部姿态为侧面(非正面或非背面)时,通过对第一头部检测框的合理扩展以及据此得到的头部关键点的敛缩,可以使第一头部关键点信息更符合实际情况,最终提高人体姿态的识别准确率。需要再次强调的是,关键点信息包括以关键点对应的像素为中心像素,半径为r的圆形区域中包含的所有像素的位置坐标值。
78.至此获知了第一头部关键点信息。
79.s105,通过对该待归档图片进行自下而上识别处理来对人体进行识别,以得到一个或多个第二人体姿态信息。
80.本实施例中自下而上识别处理可以包括以下步骤:
81.(1)采用人体姿态热力图或回归关键点坐标计算人体姿态的每个关键点信息,其具体实现方式可以参考步骤s301,且在具体例子中可以直接获取步骤s301的信息,从而无需重复执行;
82.(2)采用部分亲和场将计算的关键点之间进行连接,当识别出多个人时,采用图论的二分图求解方法(如:匈牙利算法)得到每个人的人体姿态信息,其具体实现方式可以参考步骤s302,且在具体例子中可以直接获取步骤s302的信息,从而无需重复执行。部分亲和场在人体姿态识别技术中比较常用,其是一种躯干关键点关联的非参数表示法。它保存了肢体的支持区域中的位置和方向信息。部分亲和场是每一个肢体的二维向量域:对于属于每个肢体(指手臂,或腿,或躯干)的区域中的每个像素,二维向量编码了从肢体上的一个部分指向另一个部分的方向。每一种肢体都有对应的亲和场来联系起它们的身体部分。有关部分亲和场的细节可以参见文章“realtime multi-person 2d pose estimation using part affinity fields(使用部分亲和场进行实时多人2d姿态估计)”(该文章的网址链接为:https://arxiv.org/abs/1611.08050)或其他公开内容,在此不再赘述。
83.需要说明的是,在本发明的其它实施例中还可以采用其它自下而上识别方法获知第二人体姿态信息,其都在本发明的保护范围内。
84.至此,获得了第二人体姿态信息,接着执行s106。
85.s106,根据第一头部关键点信息和第二人体姿态信息确定该待归档图片的人体特征信息。
86.在一个示例中,根据第一头部关键点信息和第二人体姿态信息确定该待归档图片的人体特征信息,包括:
87.s401,从第二人体姿态信息中提取第二头部关键点信息和第一躯干关键点信息;
88.s402,对第一头部关键点信息和第二头部关键点信息进行融合,得到融合后的第三头部关键点信息;以及
89.s403,将第三头部关键点信息和第一躯干关键点信息作为该待归档图片的人体特征信息。
90.在本示例中,首先执行从第二人体姿态信息中提取第二头部关键点信息和第一躯干关键点信息(s401),其对于本领域技术人员是熟知的,在此不再赘述。在本示例中,第一躯干关键点为12个,每个肢体上有三个关键点,具体可以参见图2。第二头部关键点为3个(当人体头部姿态为左侧面或右侧面时,具体可以参见图3)或4个(当人体头部姿态为正面或背面时,具体可以参见图2)。需要说明的是,本实施例中不仅需要提取头部关键点和躯干关键点对应的像素的位置坐标值,而且还需要提取以每个头部关键点和每个躯干关键点为中心、半径为r的圆形区域对应的像素的位置坐标值。
91.至此获知了第二头部关键点信息。
92.接着,对第一头部关键点信息和第二头部关键点信息进行融合,得到融合后的第三头部关键点信息(s402)。
93.本示例中可以先计算得到每个第二头部关键点对应的整个待处理图像中每个像素的高斯分布值,接着通过下面的公式计算得到每个融合后的第三头部关键点对应的整个待处理图像中每个像素的高斯分布值,然后再将计算得到的高斯分布值转换为每个融合后的第三头部关键点对应像素的位置坐标值以及半径为r的圆形区域对应的像素的位置坐标值。
94.在经过图论的二分图求解方法得到paf的连接问题之后,人体姿态所有关键点连接矢量场已经求得,为了提高定位精度,且进一步去除错误和多余的连接(这些连接可能是之前的处理(例如步骤s105)中人体有重叠部位或隐藏部位以至于相对难以识别的部分),将现有的姿态信息和bounding box的头部位置信息进行融合,从而提高信息定位的准确率。
95.本实施例融合包括以下公式,即可以通过该公式计算得到每个融合后的第三头部关键点对应的整个待处理图像中每个像素的高斯分布值:
[0096][0097][0098]
其中,fk(xi)为融合后的第k个第三头部关键点对应的第i个像素的高斯分布值,g为双线性插值函数,r为头部关键点对应像素区域的半径,lk为第k个第二头部关键点对应的像素的位置坐标值,xi为第k个第二头部关键点对应的第i个像素的高斯分布值,xj为第k
个第一头部关键点对应的第j个像素的位置坐标值,lk为第k个第一头部关键点对应的像素的位置坐标值。其中,i的取值范围为1-m,m为半径为r的圆形区域中包括的像素的数目;j的取值范围为1-n,n为待处理图像中像素的总数目。在实际应用时,可以根据高斯分布值来确定r的数值,进而去确定前面步骤中的r具体取值。
[0099]
在本示例中,当人体的头部姿态为正面或背面时,第一头部关键点和第二头部关键点的数目为四个,从而k的取值为1、2、3和4。当人体的头部姿态为左侧面或右侧面时,第一头部关键点和第二头部关键点的数目为三个,从而k的取值为1、2和3。
[0100]
通过对三个或四个头部关键点的计算,从而得到每个头部关键点对应的像素的第三位置坐标值以及每个头部关键点对应的像素的第三位置坐标值,即第三头部关键点信息。
[0101]
接着,执行s403,将第三头部关键点信息和第一躯干关键点信息作为该待归档图片的人体特征信息。
[0102]
在s403中,将s402中得到的例如三个或四个第三头部关键点信息以及s105中得到的例如十二个第一躯干关键点信息作为该待归档图片的人体特征信息。
[0103]
在s104-s106中,通过用不同的方法确定人体图片的头部关键点信息和人体姿态信息并基于这两者来确定人体图片的人体特征信息,使得人体特征信息的识别准确度得以提高,从而提高了图片归档的可靠性。此外,在s104-s106的实施例中,在进行人体姿态识别时,通过目标检测处理和关键点计算处理得到待处理图像的第一头部关键点信息,通过自下而上识别处理得到待处理图像的第二头部关键点信息和第一躯干关键点信息,然后对第一头部关键点信息和第二头部关键点信息进行融合得到第三头部关键点信息,最后将第三头部关键点信息和第一躯干关键点信息作为人体姿态识别结果。由此可见,这些实施例将数据标注方式和人体姿态预测算法能有效的结合起来,借鉴自上而下识别方法的思想,以容易提取的面部特征作为主要目标检测定位特征提取,从而提高了模型的识别精度。
[0104]
至此,对待归档人脸图片和待归档人体图片实现了人脸和人体特征提取。
[0105]
在上面的实施例中,将待归档图片分为待归档人脸图片和待归档人体图片来执行步骤s102-s106,但是,可以理解的是,也可以不经过预先分类,而是在步骤s102-s106的处理过程中进行检测。例如,在步骤s101之后,对于每张待归档图片,首先检测该待归档图片中是否包含人脸和/或人体,如果包含人脸,则进入步骤s102,如果包含人体,则进入步骤s104。同样,对于既包括人脸又包括人体的图片,对其既要进行步骤s102-s103的处理,又要进行步骤s104-s106的处理,对于执行这两部分处理的顺序不作限制。
[0106]
s107,根据人脸特征信息对多张待归档图片进行归档,得到至少一个人脸档案,以及根据人体特征信息对多张待归档图片进行归档,得到至少一个人体档案。
[0107]
在s107中对待归档图片中的人脸图片和人体图片分别进行归档。在一个实施例中,对人脸图片进行归档的步骤包括:
[0108]
计算每两张人脸图片各自的人脸特征信息之间的人脸特征相似度;若人脸特征相似度大于第一预设阈值,则将该两张人脸图片归纳到同一个人脸档案。
[0109]
其中,可以利用欧式距离、马氏距离等距离计算方法计算两张人脸图片各自的人脸特征信息之间的距离,然后用预设数值减去距离得到人脸特征相似度。还可以利用余弦相似度、皮尔斯相关系数和杰卡德相似系数等相似度计算方法计算两张人脸图片各自的人
脸特征信息之间的人脸特征相似度。本技术中不对人脸特征相似度的计算方法做具体限定。
[0110]
实际应用中,经常会出现拍摄出的人脸图片是侧脸。由于侧脸包含的人脸特征信息比正脸包含的人脸特征信息少,因而两张侧脸图片之间的人脸特征相似度可能大于两张正脸图片之间的人脸特征相似度。这种情况下计算出的人脸特征相似度是不准确的。
[0111]
为了解决上述问题,在一个实施例中,对人脸图片进行归档的步骤包括:
[0112]
计算多张人脸图片各自的图像质量值;根据图像质量值和人脸特征信息计算每两张人脸图片之间的人脸融合相似度;根据人脸融合相似度对多张人脸图片进行归档,得到至少一个人脸档案。
[0113]
人脸图片通常存在多种状态,包括角度、图片大小、是否佩戴口罩以及图片清晰度等。将人脸图片的每种状态作为一个用于评估图像质量的质量参数,统计每个质量参数的参数值,然后根据参数值计算人脸图片的图像质量值。
[0114]
以角度为例,参见图4,是本技术实施例提供的人脸角度的示意图。如图4所示,人脸角度包括roll、pitch和yaw三种角度。其中,roll表示沿着头部从前向后的轴向旋转的角度,pitch表示沿着头部从左到右的轴向旋转的角度,yaw表示沿着头部从下到上的轴向旋转的角度。这三种角度可以表示人脸的相对于拍摄装置的旋转角度。
[0115]
可选的,图像质量值的计算方式包括:
[0116]
对于每张人脸图片,获取人脸图片的多个图像质量参数各自的参数值;将参数值加权求和,得到人脸图片的图像质量值。
[0117]
具体的,可以通过公式计算图像质量值。其中,q表示图像质量值,n为质量参数的个数,xi为第i个质量参数的参数值,ωi为第i个质量参数的参数值对应的权重。
[0118]
以上述图4实施例的角度为例,可以将roll、pitch和yaw三个角度值分别作为一个参数值。对于图片大小,可以将图片的长和宽分别作为一个参数值;还可以将图片的面积作为一个参数值。对于是否佩戴口罩,可以为佩戴口罩和未佩戴口罩的情况分别设置参数值,例如,将佩戴口罩的情况的参数值设置为1,未佩戴口罩的情况的参数值设置为0。对于图片清晰度,可以将图片的分辨率作为一个参数值。需要说明的是,除本技术实施例中列举的几种质量参数外,还可以选用其他对图片质量产生影响的质量参数,在此不做具体限定。人脸图片的角度值可由现有的人脸角度识别模型进行识别得到,在此不做具体限定。人脸佩戴口罩的情况可由现有的人脸口罩识别模型进行识别得到,在此不做具体限定。
[0119]
某个质量参数对图像质量的影响越大,其对应的权重越大。例如:图片中人脸的角度对图像质量影响较大,而图片的大小对图像质量的影响较小,那么增加角度对应的权重,减少图片大小对应的权重。
[0120]
为了提高图像质量值的计算精度,可以不断地对权重进行学习。例如,利用图片之间的特征相似度和每张图片的多个质量参数的参数值对权重进行学习。
[0121]
通过上述方法,将人脸图片的图片质量因素考虑到人脸特征相似度的计算中,有效提高了人脸相似度的准确度。
[0122]
基于上述对图像质量值的描述,可选地,人脸融合相似度的计算方式可以包括:将每两张人脸图片之间的人脸特征相似度、以及每两张人脸图片各自的图像质量值加权求
和,得到每两张人脸图片之间的人脸融合相似度。
[0123]
可选地,人脸融合相似度的另一种计算方式包括:
[0124]
根据人脸特征信息计算每两张人脸图片之间的人脸特征相似度;根据图像质量值将多张人脸图片划分为多个图片组;获取预设的系数矩阵,系数矩阵包括每两张人脸图片各自所属的图片组之间的权重系数;根据每两张人脸图片之间的人脸特征相似度和权重系数计算每两张人脸图片之间的人脸融合相似度。
[0125]
图片组的划分方式可以为:预先设定图像质量值的划分范围;将属于划分范围内的图像质量值对应的人脸图片划分为一个图片组。
[0126]
示例性地,假设图像质量值的划分范围为0~50、50~80和80~100。人脸图片a、b、c、d的图像质量值分别为30、60、70和90。人脸图片a属于第一个图片组,人脸图片b和c属于第二个图片组,人脸图片d属于第三个图片组。需要说明的是,上述只是图片组划分的示例,并不对图像质量值的划分范围做具体限定。
[0127]
本技术实施例中,系数矩阵可以是预先人为设定的,也可以是根据实际经验计算出的,还可以随着实际应用过程不断调整。
[0128]
本技术实施例中,可以将人脸相似度和权重系数相乘,以获得人脸融合相似度。示例性的,假设有a、b、c三张人脸图片,a、b、c的图像质量值分别为40、70、90。根据图像质量值将三张人脸图片分为两个图片组,具体的,将图像质量值大于50的人脸图片分到一个图片组(高质量图片组),将图像质量值小于50的人脸图片分到一个图片组(低质量图片组)。即a属于低质量图片组,b和c属于高质量图片组。预设的系数矩阵中,高质量图片组和低质量图片组之间的权重系数为0.9,高质量图片组和高质量图片组之间的权重系数为0.4,低质量图片组和低质量图片组之间的权重系数为0.5。
[0129]
计算a和b之间的人脸融合相似度:计算a和b之间的人脸特征相似度;a所属的低质量图片组和b所属的高质量图片组之间的权重系数为0.9;将a和b之间的人脸特征相似度乘以0.9,得到a和b之间的人脸融合相似度。
[0130]
计算a和c之间的人脸融合相似度:计算a和b之间的人脸特征相似度;a所属的低质量图片组和c所属的高质量图片组之间的权重系数为0.9;将a和c之间的人脸特征相似度乘以0.9,得到a和c之间的人脸融合相似度。
[0131]
计算b和c之间的人脸融合相似度:计算b和c之间的人脸特征相似度;b所属的高质量图片组和c所属的高质量图片组之间的权重系数为0.4;将b和c之间的人脸特征相似度乘以0.4,得到b和c之间的人脸融合相似度。
[0132]
由上述示例可以看出,通过对各个图像质量值的区间内的人脸特征相似度分别进行修正,使得各个不同质量区间的人脸特征相似度的度量得以统一。这样,即可利用统一的阈值对人脸图片进行归档,避免了由于特征相似度的度量不统一而导致的归档结果的不合理。
[0133]
在一个实施例中,对人体图片归档的步骤包括:
[0134]
计算每两张人体图片各自的人体特征信息之间的人体特征相似度;若人体特征相似度大于第二预设阈值,则将该两张人体图片归纳到同一个人体档案。
[0135]
实际应用中,可能存在两个人物穿了相似的服装,这将会导致两张人体图片之间的人体特征相似度较高,导致最后的归档结果不准确。
[0136]
为了解决上述问题,在一个实施例中,对人体图片归档的步骤包括:
[0137]
根据人体特征信息计算每两张人体图片之间的人体特征相似度;计算每两张人体图片之间的时空相似度;根据人体特征相似度和时空相似度计算每两张人体图片之间的人体融合相似度;根据人体融合相似度对多张人体图片进行归档,得到至少一个人体档案。
[0138]
其中,时空相似度包括时间信息上的相似度和空间信息上的相似度。本技术实施例中的时间可以指拍摄装置对目标对象进行抓拍、获得人体图片的时间。由于实际场景中可能存在多个拍摄装置,不同拍摄装置的安装位置不同,导致不同拍摄装置之间存在实际距离。而这个实际距离即构成了空间信息。
[0139]
示例性地,参见图5,是本技术实施例提供的拍摄装置的位置示意图。如图5所示,获取摄像头a和摄像头b的位置点,其中,摄像头a的位置点为摄像头a的视野中心与所照射道路的中线的交点o1,摄像头b的位置点为摄像头b的视野中心与所照射道路的中心的交点o2。摄像头a和b之间的实际距离为由o1到o2之间的实际距离(如图5所示的线段o1m、mn和no2)。
[0140]
可选的,时空相似度的计算方式包括:
[0141]
计算每两张人体图片各自对应的拍摄装置之间的实际距离;计算每两张人体图片各自的拍摄时间之间的时间相似度;根据实际距离和时间相似度计算每两张人体图片之间的时空相似度。
[0142]
计算实际距离的方法,可以为:确定两个拍摄装置在应用场景地图中的位置点,确定应用场景地图中两个位置点之间的路径,计算该路径的实际长度,将该实际长度确定为实际距离。
[0143]
计算时间相似度的方法,可以为:将每两张人体图片各自的拍摄时间相乘,得到每两张人体图片之间的时间相似度。还可以为:计算每两张人体图片各自的拍摄时间之间的相似度,得到时间相似度。例如,计算两个拍摄时间之间的差值,将该差值作为时间相似度;还可以计算两个拍摄时间之间的余弦相似度,将该余弦相似度作为时间相似度。当然,还可以采用其他相似度计算方法,如欧式距离、马氏距离等,在此不做具体限定。
[0144]
可选的,根据实际距离和时间相似度计算两张人体图片之间的时空相似度的一种实现方式可以为:
[0145]
将计算出的实际距离进行归一化处理,将距离缩减到0-1之间,然后用1减去归一化后的距离,得到空间相似度;然后将每两张人体图片之间的空间相似度和时间相似度相乘,得到每两张人体图片之间的时空相似度。
[0146]
根据人体特征相似度和时空相似度计算每两张人体图片之间的人体融合相似度的一种实现方式为:将每两张人体图片之间的人体特征相似度和时空相似度相乘,得到每两张人体图片之间的人体融合相似度。
[0147]
进一步的,根据人体融合相似度对多张人体图片进行归档,得到至少一个人体档案,包括:若两张人体图片之间的人体融合相似度大于第二预设阈值,则将该两张人体图片归纳到同一个人体档案。
[0148]
在s107之中,还可以利用社区图切方法(如infomap、louvain算法等)进行后处理,以提升归档的准确度。
[0149]
s108,根据待归档图片所属的轨迹信息对至少一个人脸档案和至少一个人体档案
进行匹配处理,将相匹配的人脸档案和人体档案合并为一个档案,其中,属于同一组轨迹信息的两张待归档图片中包含相同的拍摄对象。
[0150]
在一个实施例中,人脸档案和人体档案匹配的实现方式包括:
[0151]
对于任意一个人体档案,分别计算人体档案与每个人脸档案之间的匹配值,将最大的匹配值对应的人脸档案和人体档案合并为一个档案。
[0152]
其中,匹配值表示人体档案中属于人脸档案对应的轨迹信息的人脸图片的数量。
[0153]
可选的,也可以将较大的n个匹配值对应的人脸档案和人体档案合并为一个档案。实际应用中,可以根据归档的精确度确定n值的大小。n值越大,归档精度越低;n值越小,归档精度越高。
[0154]
本技术实施例中,在对人体档案和人脸档案进行匹配时,可以利用轨迹信息。在单个拍摄装置下对同一拍摄对象拍摄得到的多张抓拍图片属于同一组轨迹信息。轨迹信息可利用现有的轨迹跟踪技术识别得到,在此不做限定。
[0155]
实际应用中,一个拍摄装置可以利用跟踪算法对某一个拍摄对象进行跟踪拍摄。在跟踪拍摄过程中,获得多张抓拍图片,这些抓拍图片构成了一组轨迹信息。一组轨迹信息的多张抓拍图片中可能包括人脸图片和人体图片。属于同一组轨迹信息的人脸图片和人体图片为相匹配的图片。
[0156]
示例性的,将人体档案a与每个人脸档案进行匹配。假设共有两个人脸档案b和c,其中,人体档案a中包括10张人体图片,人脸档案b和c中各包括10张人脸图片。人体档案a中有8张人体图片与人脸档案b中的8张人脸图片相匹配,即a中有8张人体图片属于b对应的轨迹信息,a与b之间的匹配值为8;人体档案a中有3张人体图片与人脸档案c中的3张人脸图片相匹配,即a中有3张人体图片属于c对应的轨迹信息,a与c之间的匹配值为3。将最大的匹配值(即8)对应的人脸档案和人体档案a合并为一个档案,即将匹配值8对应的人脸档案b与人体档案a合并为一个档案。
[0157]
在上面的实施例中,将待归档图片分为待归档人脸图片和待归档人体图片来执行步骤s102-s106,但是,可以理解的是,也可以不经过预先分类,而是在步骤s102-s106的处理过程中进行检测。例如,在步骤s101之后,对于每张待归档图片,首先检测该待归档图片中是否包含人脸和/或人体,如果包含人脸,则进入步骤s102,如果包含人体,则进入步骤s104。需要注意的是,对于既包括人脸又包括人体的图片,对其既要进行步骤s102-s103的处理,又要进行步骤s104-s106的处理,对于执行这两部分处理的顺序不作限制。
[0158]
参见图6,是本技术实施例提供的图片归档流程的示意图。如图6所示,根据图片质量和人脸图片特征(即人脸特征信息)得到人脸融合相似度,根据人脸融合相似度对人脸图片进行归档,得到人脸档案。根据时空相似度和人体图片特征(即人体特征信息)得到人体融合相似度,根据人体融合相似度对人体图片进行归档,得到人体档案。最后根据轨迹信息对人脸档案和人体档案进行聚档处理。
[0159]
通过上述方法,在人脸特征信息的基础上,考虑了人体特征信息;并且在人脸归档时考虑了图片质量、在人体归档时考虑了时空信息,增加了特征信息的维度,避免了因单一维度的特征信息的不准确导致的相似度的不准确,有效提高了图片归档结果的可靠性。
[0160]
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限
定。
[0161]
对应于上文实施例所述的图片归档方法,图7是本技术实施例提供的图片归档装置的结构框图,为了便于说明,仅示出了与本技术实施例相关的部分。
[0162]
参照图7,该装置包括:
[0163]
图片获取单元71,用于获取多张待归档图片,每张待归档图片中包括人脸和/或人体;
[0164]
质量检测单元72,用于对于包括人脸的待归档图片,检测所包括的人脸图像是否符合预定的质量条件;
[0165]
人脸特征识别单元73,用于在检测到包括符合所述质量条件的第一人脸图像的待归档图片时提取第一人脸图像的人脸特征信息;
[0166]
人体特征识别单元74,用于:对于包括人体的待归档图片,通过目标检测处理识别所述人体的头部以以得到多个第一头部关键点信息;通过对该待归档图片进行自下而上识别处理来对所述人体进行识别,以得到一个或多个第二人体姿态信息;根据所述第一头部关键点信息和所述第二人体姿态信息确定该待归档图片的人体特征信息;
[0167]
第一归档单元75,用于根据所述人脸特征信息对所述多张待归档图片进行归档,得到至少一个人脸档案,以及根据所述人体特征信息对所述多张待归档图片进行归档,得到至少一个人体档案;
[0168]
第二归档单元76,用于根据所述待归档图片所属的轨迹信息对所述至少一个人脸档案和所述至少一个人体档案进行匹配处理,将相匹配的人脸档案和人体档案合并为一个档案,其中,属于同一组轨迹信息的两张待归档图片中包含相同的拍摄对象。
[0169]
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本技术方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
[0170]
另外,图7所示的图片归档装置可以是内置于现有的终端设备内的软件单元、硬件单元、或软硬结合的单元,也可以作为独立的挂件集成到所述终端设备中,还可以作为独立的终端设备存在。
[0171]
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本技术的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0172]
图8是本技术实施例提供的终端设备的结构示意图。如图8所示,该实施例的终端设备8包括:至少一个处理器80(图8中仅示出一个)处理器、存储器81以及存储在所述存储器81中并可在所述至少一个处理器80上运行的计算机程序82,所述处理器80执行所述计算机程序82时实现上述任意各个图片归档方法实施例中的步骤。
[0173]
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。
该终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图8仅仅是终端设备8的举例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
[0174]
所称处理器80可以是中央处理单元(central processing unit,cpu),该处理器80还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0175]
所述存储器81在一些实施例中可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81在另一些实施例中也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储操作系统、应用程序、引导装载程序(bootloader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
[0176]
本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
[0177]
本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时实现可实现上述各个方法实施例中的步骤。
[0178]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质。例如u盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
[0179]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
[0180]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0181]
在本技术所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
[0182]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0183]
以上所述实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围,均应包含在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1