一种社交距离风险预警方法及装置与流程

文档序号:32603800发布日期:2022-12-17 18:34阅读:40来源:国知局
一种社交距离风险预警方法及装置与流程

1.本发明涉及数据处理技术领域,尤其涉及一种社交距离风险预警方法及装置。


背景技术:

2.社交距离风险预警是智能巡检机器人的关键任务之一。主要实现手段是:首先,利用摄像头大量采集数据,在各种公共场合采集行人的图片,包含社交距离正常与社交距离过近的图片。其次,根据大量的数据,训练图像分类的深度卷积神经网络模型。将模型部署在智能巡检机器人中。智能巡检机器人将应用于火车站广场区域,用于检测行人距离是否过近,根据摄像头采集的图片,利用训练好的深度卷积神经网络模型进行检测,得出行人社交距离是否过近的结果。如果社交距离过近,则及时发出预警提示行人社交距离过近。
3.现有技术中行人社交距离的计算需要实际空间人员坐标,通常通过红外传感器实现,而计算机视觉的实现往往依赖于深度相机,而不管是红外传感器还是深度相机都存在成本过高和多传感器混合导致实时性不达标的问题。
4.由上述可得,现有的社交距离风险预警方法存在实时性低下的问题。


技术实现要素:

5.本发明实施例提供一种社交距离风险预警方法及装置,提高了对于存在风险的社交距离的进行预警的实时性。
6.本技术实施例的第一方面提供了一种社交距离风险预警方法,包括:
7.将待检测图片输入至行人检测模型中,以使行人检测模型根据待检测图片得到多个行人的边界框信息;其中,待检测图片中存在多个行人;
8.根据边界框信息,结合byte跟踪算法,计算得到多个行人id信息;
9.根据行人id信息计算多个行人坐标,对多个行人坐标依次进行逆透视变换,分别生成多个第一坐标;
10.计算每两个第一坐标之间的第一距离,当第一距离小于预设数值时,判定行人之间的社交距离存在风险并发出预警。
11.在第一方面的一种可能的实现方式中,行人检测模型根据待检测图片得到多个行人的边界框信息,具体为:
12.将待检测图片输入至backbone模块,输出得到图片特征;
13.将图片特征依次输入至neck模块和panet模块,输出得到预测结果;
14.对预测结果进行非极大值抑制操作,生成多个行人的边界框信息及其对应的置信度信息。
15.在第一方面的一种可能的实现方式中,行人检测模型的训练过程具体为:
16.对训练数据集进行预处理,生成第一数据集;
17.对神经网络模型进行初始化操作后,将第一数据集输入至神经网络模型中,以使神经网络模型输出得到特征列表;其中,特征列表包括:边界框信息及其对应的置信度信息
和目标分类信息;
18.将特征列表和第一数据集中的标签输入至损失函数计算损失,并将损失进行反向传播调整参数,直至神经网络模型收敛,停止训练并生成行人检测模型。
19.在第一方面的一种可能的实现方式中,根据边界框信息,结合byte跟踪算法,计算得到多个行人id信息,具体为:
20.byte跟踪算法根据边界框信息生成跟踪轨迹;
21.根据边界框信息所对应的置信度信息,将边界框信息分成第一类边界框信息和第二类边界框信息;
22.将第一类边界框信息与跟踪轨迹进行匹配,将匹配成功的跟踪轨迹标记为第一跟踪轨迹,并生成第一匹配结果;
23.将第二类边界框信息与第二跟踪轨迹进行匹配,生成第二匹配结果;其中,第二跟踪轨迹为没有与第一类边界框信息匹配成功的跟踪轨迹;
24.将没有匹配成功的第一类边界框信息与新建跟踪轨迹进行匹配,生成第三匹配结果;
25.根据第一匹配结果、第二匹配结果和第三匹配结果,获得多个行人id信息。
26.在第一方面的一种可能的实现方式中,计算每两个第一坐标之间的第一距离,具体为:
27.对待检测图片进行逆透视变换,生成鸟瞰图;
28.将多个第一坐标标注至鸟瞰图中,生成第一标注结果;
29.从第一标注结果中计算每两个第一坐标之间的第一距离。
30.在第一方面的一种可能的实现方式中,当第一距离小于预设数值时,判定行人之间的社交距离存在风险并发出预警,具体为:
31.当第一距离小于预设数值时,判定行人之间的社交距离存在风险,并将鸟瞰图转换回原始格式,并发出预警。
32.在第一方面的一种可能的实现方式中,还包括:获取待检测图片,具体为:
33.实时获取视频帧图像,将视频帧图像裁剪为预设尺寸后,生成待检测图片并获取。
34.在第一方面的一种可能的实现方式中,还包括:
35.使用tensorrt对行人检测模型进行推理加速,具体为:
36.将行人检测模型从pytorch模型转为通用的onnx格式,生成第一模型;
37.将第一模型转换为tensorrt模型,进行反序列化,创建一个runtime engine并输入检测数据,以使tensorrt模型输出检测结果,完成推理加速。
38.本技术实施例的第二方面提供了一种社交距离风险预警装置,包括:检测模块、第一计算模块、第二计算模块和预警模块;
39.其中,检测模块用于将待检测图片输入至行人检测模型中,以使行人检测模型根据待检测图片得到多个行人的边界框信息;其中,待检测图片中存在多个行人;
40.第一计算模块用于根据边界框信息,结合byte跟踪算法,计算得到多个行人id信息;
41.第二计算模块用于根据行人id信息计算多个行人坐标,对多个行人坐标依次进行逆透视变换,分别生成多个第一坐标;
42.预警模块用于计算每两个第一坐标之间的第一距离,当第一距离小于预设数值时,判定行人之间的社交距离存在风险并发出预警。
43.在第二方面的一种可能的实现方式中,行人检测模型根据待检测图片得到多个行人的边界框信息,具体为:
44.将待检测图片输入至backbone模块,输出得到图片特征;
45.将图片特征依次输入至neck模块和panet模块,输出得到预测结果;
46.对预测结果进行非极大值抑制操作,生成多个行人的边界框信息及其对应的置信度信息。
47.相比于现有技术,本发明实施例提供的一种社交距离风险预警方法及装置,所述方法包括:将待检测图片输入至行人检测模型中,以使行人检测模型根据待检测图片得到多个行人的边界框信息;其中,待检测图片中存在多个行人;根据边界框信息,结合byte跟踪算法,计算得到多个行人id信息;根据行人id信息计算多个行人坐标,对多个行人坐标依次进行逆透视变换,分别生成多个第一坐标;计算每两个第一坐标之间的第一距离,当第一距离小于预设数值时,判定行人之间的社交距离存在风险并发出预警。
48.其有益效果在于:本发明实施例从深度学习出发,构建深度神经网络模型来进行行人社交距离的检测,并根据检测结果进行社交距离风险预警。不依赖于传统的传感器、超声波等方法,极大的减少了对硬件系统的依赖,有效地提高了对于存在风险的社交距离的进行预警的实时性。
49.同时,本发明实施例得到多个行人的边界框信息后,再结合byte跟踪算法,采用逆透视变化方法,将二维平面上行人的坐标还原到俯视角度下的坐标,再计算行人之间的距离,能够提高计算行人之间的社交距离的精度,从而提高社交距离风险预警的精度。
50.进一步地,本发明实施例通过巡检机器人代替人工进行行人社交距离检测,可以极大程度节约人力物力,有效降低社交距离检测以及社交距离风险预警的成本,具有很强的实用性。
51.最后,本发明实施例使用tensorrt对行人检测模型进行推理加速,以使行人检测模型可以在智能机器人端达到实时高效的识别效果,能够为巡检机器人提供最优模型,并降低硬件部署成本。
附图说明
52.图1是本发明一实施例提供的一种社交距离风险预警方法的流程示意图;
53.图2是本发明一实施例提供的一种社交距离风险预警装置的结构示意图。
具体实施方式
54.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
55.参照图1,是本发明一实施例提供的一种社交距离风险预警方法的流程示意图,包括s101-s104:
56.s101:将待检测图片输入至行人检测模型中,以使行人检测模型根据待检测图片得到多个行人的边界框信息。
57.其中,待检测图片中存在多个行人。在检测任务中,需要同时预测物体的类别和位置,因此需要引入一些跟位置相关的概念。通常使用边界框(bounding box,bbox)来表示物体的位置,边界框是正好能包含物体的矩形框。
58.在本实施例中,所述行人检测模型根据所述待检测图片得到多个行人的边界框信息,具体为:
59.将所述待检测图片输入至backbone模块,输出得到图片特征;
60.将所述图片特征依次输入至neck模块和panet模块,输出得到预测结果;
61.对所述预测结果进行非极大值抑制操作,生成多个行人的边界框信息及其对应的置信度信息。
62.进一步地,backbone模块、neck模块、panet模块都是目标检测算法的专业术语,是指深度卷积神经网络的某些模块。其中,backbone模块是主干网络模块,用于提取图片特征;neck和panet模块接收backbone模块的输出,能够预测得到目标的位置信息。
63.在一具体实施例中,所述行人检测模型的训练过程具体为:
64.对训练数据集进行预处理,生成第一数据集;
65.对神经网络模型进行初始化操作后,将所述第一数据集输入至所述神经网络模型中,以使所述神经网络模型输出得到特征列表;其中,所述特征列表包括:边界框信息及其对应的置信度信息和目标分类信息;
66.将所述特征列表和所述第一数据集中的标签输入至损失函数计算损失,并将所述损失进行反向传播调整参数,直至所述神经网络模型收敛,停止训练并生成所述行人检测模型。
67.s102:根据边界框信息,结合byte跟踪算法,计算得到多个行人id信息。
68.在本实施例中,所述根据所述边界框信息,结合byte跟踪算法,计算得到多个行人id信息,具体为:
69.所述byte跟踪算法根据所述边界框信息生成跟踪轨迹;
70.根据所述边界框信息所对应的置信度信息,将所述边界框信息分成第一类边界框信息和第二类边界框信息;
71.将所述第一类边界框信息与跟踪轨迹进行匹配,将匹配成功的跟踪轨迹标记为第一跟踪轨迹,并生成第一匹配结果;
72.将所述第二类边界框信息与第二跟踪轨迹进行匹配,生成第二匹配结果;其中,所述第二跟踪轨迹为没有与所述第一类边界框信息匹配成功的跟踪轨迹;
73.将没有匹配成功的所述第一类边界框信息与新建跟踪轨迹进行匹配,生成第三匹配结果;
74.根据所述第一匹配结果、所述第二匹配结果和所述第三匹配结果,获得多个所述行人id信息。
75.进一步地,byte跟踪算法是一种非常经典的目标跟踪算法,该算法可以与任意目标检测算法组合使用。
76.其中,所述第一类边界框信息为高置信度的边界框信息,所述第二类边界框信息
为低置信度的边界框信息。对于图片中的每个像素点,yolo都会预测出若干个bbox,对于每个bbox,yolo都会预测出5个值,其中4个值代表bbox的位置,还有一个代表bbox的置信度。置信度的取值为0-1,基于置信度高低选择bbox的策略非常灵活,依据具体任务而定。在本实施例中,可以将高于0.8地置信度判定为高置信度,否则就是置信度低;也可以按照从高到低排序,将排序第一的置信度判定为高置信度。
77.s103:根据行人id信息计算多个行人坐标,对多个行人坐标依次进行逆透视变换,分别生成多个第一坐标。
78.s104:计算每两个第一坐标之间的第一距离,当第一距离小于预设数值时,判定行人之间的社交距离存在风险并发出预警。
79.在本实施例中,所述计算每两个所述第一坐标之间的第一距离,具体为:
80.对所述待检测图片进行逆透视变换,生成鸟瞰图;
81.将多个所述第一坐标标注至所述鸟瞰图中,生成第一标注结果;
82.从所述第一标注结果中计算每两个所述第一坐标之间的第一距离。
83.在一具体实施例中,所述当所述第一距离小于预设数值时,判定所述行人之间的社交距离存在风险并发出预警,具体为:
84.当所述第一距离小于预设数值时,判定所述行人之间的社交距离存在风险,并将所述鸟瞰图转换回原始格式,并发出预警。
85.在一具体实施例中,还包括:获取所述待检测图片,具体为:
86.实时获取视频帧图像,将所述视频帧图像裁剪为预设尺寸后,生成所述待检测图片并获取。其中,述预设尺寸包括:640*640像素px和320*320像素px。
87.在一具体实施例中,还包括:
88.使用tensorrt对所述行人检测模型进行推理加速,具体为:
89.将所述行人检测模型从pytorch模型转为通用的onnx格式,生成第一模型;
90.将所述第一模型转换为tensorrt模型,进行反序列化,创建一个runtime engine并输入检测数据,以使所述tensorrt模型输出检测结果,完成推理加速。
91.其中,tensorrt的全称是nvidia tensorrt,是nvidia公司开发的一个用于深度学习推理的软件开发套件,其能够加速深度学习模型,使深度学习模型在边缘设备上运行得更快。onnx是tensorrt所需的一种文件格式。
92.进一步地,行人检测模型的训练过程如下所示:
93.step1:初始化分类器网络backbone和多尺度特征提取网络neck,初始化网络参数;
94.step2:将述第一数据集中的图像输入backbone,前向传递给neck模块进行特征提取;
95.step3:图像经neck模块,通过下采样与多尺度融合将数据传入predictionhead;其中,prediction head是深度卷积神经网络的一个模块,用于预测目标的位置信息;
96.step4:prediction head对输入特征图进行通道与空间计算,得到anchor(锚定框)的位置、置信率等信息;
97.step5:prediction head检测的结果进行后处理;
98.step6:prediction head通过反向传递损失值loss,利用加权损失值更新网络权
重;
99.step7:重复step2、step3、step4、step5,step6直到模型收敛。
100.在一优选实施例中提供了一种基于深度学习的智能机器人社交距离风险预警系统,该系统框架运行时的整体工作流程包括s201-s208:
101.s201:选用摄像头以及嵌入式设备作为巡检机器人的组成部分以及该系统的部署平台,搭建系统硬件平台;
102.s202:在特定场景下,通过所述硬件平台对行人进行采样、标注、标准化,收集训练数据并对数据进行预处理,并用这些特定场景数据进行训练,得到适用于特定场景的高精度行人检测模型;
103.s203:摄像头采集实时图片;
104.s204:图片实时传入行检测模型,得到行人边界框信息;
105.s205:行人边界框信息传入多目标跟踪模块,得到行人id信息;
106.s206:行人id信息以及其对应的边界框信息传入空间转换算法,计算二维图像中行人坐标对应的现实坐标;
107.s207:将行人id、行人现实坐标、行人bbox等信息存储,并把行人id、行人bbox送回多目标跟踪模块等待下一张图片的更新;
108.s208:根据行人id、行人现实坐标计算行人间社交距离计算,若距离正常则巡检机器人继续巡逻,若距离过近则发出警报。
109.进一步地,算法实现部分可分为三个模块:行人检测模块、行人多目标跟踪模块和行人间距算法模块。
110.(1)行人检测模块:
111.行人检测通过神经网络模型yolov4来实现,yolov4是一种兼顾精度与实时性的目标检测神经网络框架,该模型包括三个部分:用于在不同图像细粒度上聚合并提取图像特征的backbone部分,yolov4采用cspdarknet53,在darknet53的基础上引入了cspnet,减少了模型的参数量和flops数值(浮点数),既保证了推理速度和准确率,又减小了模型尺寸;组合图像特征并将图像特征传递到预测层的neck部分,yolov4采用spp-net,把多尺寸的特征图进行特征融合并将其传入预测层;对图像特征进行预测,生成边界框和并预测类别的head部分,yolov4采用panet代替fpn进行参数聚合以适用于不同层次的目标检测。因为通常检测的目标有大有小,具有鲜明的层次特征,所以yolo v4使用panet替代fpn结构,以应对此特征。
112.行人检测模型训练时的具体流程:
113.step1.数据加载、预处理以及初始化模型的参数;
114.数据加载:加载图片和图片标签label中的信息-》转为yolo训练的格式-》数据归一化;初始化模型参数:初始化模型的backbone网络cspdarknet53,neck网络spp-net,head网络panet;
115.step2.模型得到数据,输出特征列表,包含bbox、目标分类、置信度这三类信息;
116.step3.特征列表和标签进入ciou-loss损失函数计算损失;
117.step4.反向传播调整参数,直到模型收敛。
118.行人检测模型推理时的流程:
119.step1.读取视频帧,将该帧图像裁剪为(640,640)或(320,320)的尺寸;
120.step2.将裁剪后的图像输入网络backbone模块,提取特征,再将其依次放入neck模块和panet模块得到预测结果;
121.step3.然后对anchor执行nms(非极大值抑制)操作,选取置信度最高的bbox结果;
122.step4.将上一步得到的bbox结果根据比例都还原到原始帧对应的位置上并显示。
123.(2)行人多目标跟踪模块:
124.行人多目标跟踪部分采用byte跟踪算法,以最小的内存消耗得到精度较高的跟踪结果,符合巡检机器人的硬件条件。相较于传统的多目标跟踪算法,该算法无需行人重识别模型,只通过卡尔曼滤波进行预测,通过二分法的策略,先处理检测器置信度高于阈值的行人目标,使其进行匹配,再处理检测器置信度低于于阈值的行人目标,从而使行人跟踪结果更加精确,可以改善有遮挡情况下的目标追踪效果,也减少了目标id跳变的问题,内存消耗极低,在硬件框架下(如nx、agx等硬件框架)也能达到实时运行。
125.行人多目标跟踪算法的流程如下:
126.step1.检测器传入行人边界框信息;
127.step2.根据视频帧中的第一帧生成跟踪轨迹,分配当前图片行人id;
128.step3.从视频帧中的第二帧开始,byte会将每个检测bbox根据得分分成两类,高置信度bbox和低置信度bbox,总共进行两次匹配。
129.step4.第一次使用高置信度bbox和之前的跟踪轨迹进行匹配;其中,可以将高于0.8地置信度判定为高置信度,否则就是置信度低;也可以按照从高到低排序,将排序第一的置信度判定为高置信度。
130.step5.第二次使用低置信度bbox和第一次没有匹配上高置信度bbox的跟踪轨迹(例如在当前帧受到严重遮挡导致得分下降的物体)进行匹配;
131.step6.对于没有匹配上跟踪轨迹,置信度又足够高的bbox,对其新建一个跟踪轨迹。保留30帧没有匹配上bbox的跟踪轨迹,在其再次出现时再进行匹配;
132.step7.每帧新数据传入后,重复step3、step4、step5、step6,直到摄像头停止传输。
133.(3)行人间距算法模块:
134.为了使用单目高速摄像头计算行人间社交距离,从而高时效性地、低成本的应用于巡检机器人,本发明实施例一套基于逆透视(ipm)算法的行人坐标空间转换算法。
135.行人间距算法的流程如下:
136.step1.由跟踪器得到行人id、bbox等信息,计算得到每个行人bbox下方两点的中点作为行人坐标;
137.step2.根据摄像头参数确定逆透视矩阵,用逆透视变换(ipm)把图像转换为鸟瞰图;
138.step3.依次对跟踪器里行人坐标也进行逆透视变换(ipm),并在鸟瞰图标注;
139.step4.依次计算跟踪其中各行人间的在鸟瞰图中坐标的距离,作为人间距,当人间距小于第一距离时,判定所述行人之间的社交距离存在风险,对鸟瞰图进行透射变换使其换回原始格式。
140.step5.巡检机器人发出警报。
141.进一步地,当第一距离大于等于预设数值时,判定行人之间的社交距离不存在风险,控制巡检机器人继续巡查。
142.在一优选实施例中,在部署在机器人端推理时,为了降低成本,会选择在一些嵌入式平台进行部署,部署端也要有与训练时相同的深度学习环境,如pytorch,tensorflow等。由于训练的网络模型可能会很大,参数很多,而且部署端的机器性能存在差异,就会导致推理速度慢,延迟高。这对于高实时性的应用场合是致命的。而tensorrt则是对训练好的模型进行优化,优化加速推理的速度。tensorrt是一个高性能的深度学习推理(inference)优化器,可以为深度学习应用提供低延迟、高吞吐率的部署推理。tensorrt可用于对超大规模数据中心、嵌入式平台或自动驾驶平台进行推理加速。同时通过剪枝对模型进行压缩,去除掉不重要的层和参数,让模型尽可能轻量化也是常用的方法。
143.使用tensorrt对模型进行推理加速,使得巡检机器人能够快速完成垃圾溢满的检测,流程如下所示:
144.step1.tensorrt安装,确认好设备的cuda版本;
145.step2.将训练好的模型从pytorch模型转为通用的onnx格式;
146.step3.bulid阶段:将onnx格式的模型转为tensorrt模型进行加速和部署;
147.在模型转换时会完成前述优化过程中的层间融合,精度校准。这一步的输出是一个针对特定gpu平台和网络模型的优化过的tensorrt模型,这个tensorrt模型可以序列化存储到磁盘或内存中;
148.step4.deploy阶段:测试engine模型,deploy阶段主要完成推理过程,kernel auto-tuning和dynamic tensor memory是在这里完成的。将上面一个步骤中的tensorrt模型文件首先反序列化,并创建一个runtime engine,然后输入数据(比如测试集或数据集之外的图片),然后输出分类向量结果或检测结果。经过部署、优化、测试的流程,最终行人检测模型可以在智能机器人端达到实时高效的识别效果。
149.为了进一步说明社交距离风险预警装置,请参照图2,图2是本发明一实施例提供的一种社交距离风险预警装置的结构示意图,包括:检测模块201、第一计算模块202、第二计算模块203和预警模块204;
150.其中,所述检测模块201用于将待检测图片输入至行人检测模型中,以使所述行人检测模型根据所述待检测图片得到多个行人的边界框信息;其中,所述待检测图片中存在多个所述行人;
151.所述第一计算模块202用于根据所述边界框信息,结合byte跟踪算法,计算得到多个行人id信息;
152.所述第二计算模块203用于根据所述行人id信息计算多个行人坐标,对多个所述行人坐标依次进行逆透视变换,分别生成多个第一坐标;
153.所述预警模块204用于计算每两个所述第一坐标之间的第一距离,当所述第一距离小于预设数值时,判定所述行人之间的社交距离存在风险并发出预警。
154.在本实施例中,所述行人检测模型根据所述待检测图片得到多个行人的边界框信息,具体为:
155.将所述待检测图片输入至backbone模块,输出得到图片特征;
156.将所述图片特征依次输入至neck模块和panet模块,输出得到预测结果;
157.对所述预测结果进行非极大值抑制操作,生成多个行人的边界框信息及其对应的置信度信息。
158.在本实施例中,所述行人检测模型的训练过程具体为:
159.对训练数据集进行预处理,生成第一数据集;
160.对神经网络模型进行初始化操作后,将所述第一数据集输入至所述神经网络模型中,以使所述神经网络模型输出得到特征列表;其中,所述特征列表包括:边界框信息及其对应的置信度信息和目标分类信息;
161.将所述特征列表和所述第一数据集中的标签输入至损失函数计算损失,并将所述损失进行反向传播调整参数,直至所述神经网络模型收敛,停止训练并生成所述行人检测模型。
162.在本实施例中,所述根据所述边界框信息,结合byte跟踪算法,计算得到多个行人id信息,具体为:
163.所述byte跟踪算法根据所述边界框信息生成跟踪轨迹;
164.根据所述边界框信息所对应的置信度信息,将所述边界框信息分成第一类边界框信息和第二类边界框信息;
165.将所述第一类边界框信息与跟踪轨迹进行匹配,将匹配成功的跟踪轨迹标记为第一跟踪轨迹,并生成第一匹配结果;
166.将所述第二类边界框信息与第二跟踪轨迹进行匹配,生成第二匹配结果;其中,所述第二跟踪轨迹为没有与所述第一类边界框信息匹配成功的跟踪轨迹;
167.将没有匹配成功的所述第一类边界框信息与新建跟踪轨迹进行匹配,生成第三匹配结果;
168.根据所述第一匹配结果、所述第二匹配结果和所述第三匹配结果,获得多个所述行人id信息。
169.在一具体实施例中,所述计算每两个所述第一坐标之间的第一距离,具体为:
170.对所述待检测图片进行逆透视变换,生成鸟瞰图;
171.将多个所述第一坐标标注至所述鸟瞰图中,生成第一标注结果;
172.从所述第一标注结果中计算每两个所述第一坐标之间的第一距离。
173.在一具体实施例中,所述当所述第一距离小于预设数值时,判定所述行人之间的社交距离存在风险并发出预警,具体为:
174.当所述第一距离小于预设数值时,判定所述行人之间的社交距离存在风险,并将所述鸟瞰图转换回原始格式,并发出预警。
175.在一具体实施例中,还包括:获取所述待检测图片,具体为:
176.实时获取视频帧图像,将所述视频帧图像裁剪为预设尺寸后,生成所述待检测图片并获取。
177.在一具体实施例中,还包括:
178.使用tensorrt对所述行人检测模型进行推理加速,具体为:
179.将所述行人检测模型从pytorch模型转为通用的onnx格式,生成第一模型;
180.将所述第一模型转换为tensorrt模型,进行反序列化,创建一个runtime engine并输入检测数据,以使所述tensorrt模型输出检测结果,完成推理加速。
181.本发明实施例通过检测模块将待检测图片输入至行人检测模型中,以使行人检测模型根据待检测图片得到多个行人的边界框信息;其中,待检测图片中存在多个行人;通过第一计算模块根据边界框信息,结合byte跟踪算法,计算得到多个行人id信息;通过第二计算模块根据行人id信息计算多个行人坐标,对多个行人坐标依次进行逆透视变换,分别生成多个第一坐标;通过预警模块计算每两个第一坐标之间的第一距离,当第一距离小于预设数值时,判定行人之间的社交距离存在风险并发出预警。
182.本发明实施例从深度学习出发,构建深度神经网络模型来进行行人社交距离的检测,并根据检测结果进行社交距离风险预警。不依赖于传统的传感器、超声波等方法,极大的减少了对硬件系统的依赖,有效地提高了对于存在风险的社交距离的进行预警的实时性。
183.同时,本发明实施例得到多个行人的边界框信息后,再结合byte跟踪算法,采用逆透视变化方法,将二维平面上行人的坐标还原到俯视角度下的坐标,再计算行人之间的距离,能够提高计算行人之间的社交距离的精度,从而提高社交距离风险预警的精度。
184.进一步地,本发明实施例通过巡检机器人代替人工进行行人社交距离检测,可以极大程度节约人力物力,有效降低社交距离检测以及社交距离风险预警的成本,具有很强的实用性。
185.最后,本发明实施例使用tensorrt对行人检测模型进行推理加速,以使行人检测模型可以在智能机器人端达到实时高效的识别效果,能够为巡检机器人提供最优模型,并降低硬件部署成本。
186.以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1