一种基于面部识别的支付方法、装置和计算机设备与流程

文档序号:33247358发布日期:2023-02-17 23:42阅读:32来源:国知局
一种基于面部识别的支付方法、装置和计算机设备与流程

1.本技术涉及计算机技术领域,具体涉及一种基于面部识别的支付方法、装置和计算机设备。


背景技术:

2.交通工具是现代人生活中必不可缺少的一个部分。随着时代的变化和科学技术的发展,人们周围的交通工具越来越多,给每一个人的生活都带来了极大的方便。例如,人们可以借助汽车、地铁、高铁或火车等等的交通工具出行,从而大大地节约了出行时间。其中,当人们借助公共汽车、网约车、高铁或火车等交通工具出行时,往往需要有车票或者乘车卡等才可以乘坐交通工具。此外,当乘坐交通工具需要按照路段进行收费时,还需要乘务人员根据人们的出行路段进行收费。上述的情况都会容易导致人们在乘坐交通工具时造成拥堵现象等等,给人们乘坐交通工具带来不便。


技术实现要素:

3.本技术实施例提出了一种基于面部识别的支付方法、装置和计算机设备,提高了人们乘坐交通工具的便捷性。
4.本技术实施例提供了一种基于面部识别的支付方法,包括:
5.接收交通工具上第二面部采集设备发送的扣费请求,所述扣费请求携带对象的面部图像以及所述对象的第二实时位置信息;
6.根据所述扣费请求对所述面部图像进行身份识别,得到所述对象的身份信息;
7.根据所述对象的身份信息,从预设数据库中提取所述对象的第一实时位置信息,所述第一实时位置信息由第一面部采集设备发送;
8.根据所述第一实时位置信息确定所述对象的起始站信息,以及根据所述第二实时位置信息确定所述对象的终点站信息;
9.根据所述对象的身份信息获取所述对象在支付系统中的支付账号信息;
10.根据所述对象的起始站信息、所述终点站信息和所述支付账号信息进行扣费处理。
11.相应的,本技术实施例还提供了一种基于面部识别的支付装置,包括:
12.接收单元,用于接收交通工具上第二面部采集设备发送的扣费请求,所述扣费请求携带对象的面部图像以及所述对象的第二实时位置信息;
13.身份识别单元,用于根据所述扣费请求对所述面部图像进行身份识别,得到所述对象的身份信息;
14.提取单元,用于根据所述对象的身份信息,从预设数据库中提取所述对象的第一实时位置信息,所述第一实时位置信息由第一面部采集设备发送;
15.确定单元,用于根据所述第一实时位置信息确定所述对象的起始站信息,以及根据所述第二实时位置信息确定所述对象的终点站信息;
16.获取单元,用于根据所述对象的身份信息获取所述对象在支付系统中的支付账号信息;
17.扣费单元,用于根据所述对象的起始站信息、所述终点站信息和所述支付账号信息进行扣费处理。
18.在一实施例中,所述身份识别单元,包括:
19.特征识别子单元,用于对所述面部图像进行特征识别处理,得到所述对象的面部特征;
20.特征匹配子单元,用于将所述对象的面部特征和多个预设面部特征进行匹配;
21.身份确定子单元,用于根据所述对象的面部特征和多个预设面部特征的匹配结果,确定所述对象的身份信息。
22.在一实施例中,所述特征识别子单元,包括:
23.点位生成模块,用于对所述面部图像进行点位生成处理,得到所述面部图像中面部部位特征点的位置信息;
24.联结模块,用于对所述面部部位特征点的位置信息进行联结处理,得到所述面部图像中面部部位的轮廓信息;
25.筛选模块,用于在所述面部部位特征点中筛选出多个目标面部部位特征点;
26.计算模块,用于分别计算所述多个目标面部部位特征点的位置信息之间的空间差异信息;
27.关联模块,用于将所述轮廓信息和所述空间差异信息进行关联处理,得到所述对象的面部特征。
28.在一实施例中,所述点位生成模块,包括:
29.高维特征提取子模块,用于对所述面部图像进行高维特征提取处理,得到所述面部图像的特征信息;
30.特征降维子模块,用于对所述面部图像的特征信息进行特征降维处理,得到降维后特征信息;
31.池化子模块,用于对所述降维后特征信息进行池化处理,得到池化后特征信息;
32.低维特征提取子模块,用于对所述池化后特征信息进行低维特征提取处理,得到所述面部图像中面部部位特征点的位置信息。
33.在一实施例中,所述特征匹配子单元,包括:
34.差异对比模块,用于分别将所述对象的面部特征和所述多个预设面部特征进行差异对比,得到所述面部特征和每个预设面部特征之间的差异值;
35.筛选模块,用于根据所述面部特征和每个预设面部特征之间的差异值,从所述多个预设面部特征中筛选出目标预设面部特征;
36.对比模块,用于将所述面部特征和所述目标预设面部特征之间的差异值和预设差异阈值进行对比。
37.在一实施例中,所述身份确定子单元,包括:
38.获取模块,用于当所述面部特征和所述目标预设面部特征之间的差异值小于或等于所述预设差异阈值时,获取所述目标预设面部特征对应的特征字符串;
39.确定模块,用于将所述特征字符串确定为所述对象的身份信息。
40.在一实施例中,所述提取单元,包括:
41.信息匹配子单元,用于将所述对象的身份信息和预设数据库中的预设身份信息进行匹配;
42.确定子单元,用于当所述对象的身份信息和所述预设身份信息相匹配时,确定所述预设身份信息的信息存储容器;
43.提取子单元,用于利用所述信息存储容器的存储结构,在所述信息存储容器中提取所述对象的第一实时位置信息。
44.在一实施例中,所述确定单元,包括:
45.第一生成子单元,用于根据所述第一实时位置信息,生成包括所述第一实时位置信息的第一区域范围;
46.第一确定子单元,用于在所述第一区域范围内确定所述对象的起始站信息;
47.第二生成子单元,用于根据所述第二实时位置信息,生成包括所述第二实时位置信息的第二区域范围;
48.第二确定子单元,用于在所述第二区域范围内确定所述对象的终点站信息。
49.在一实施例中,所述第一确定子单元,包括:
50.筛选模块,用于根据所述第一实时位置信息,在所述第一区域范围内的多个预设站点位置信息中筛选出目标预设站点位置信息;
51.确定模块,用于将所述目标预设站点位置信息对应的标识信息确定为所述起始站信息。
52.在一实施例中,所述确定模块,包括:
53.距离生成子模块,用于将所述第一实时位置信息和所述第一区域范围内的多个预设站点位置信息进行距离生成处理,得到所述第一实时位置信息和每个预设站点位置信息之间的距离信息;
54.排序子模块,用于将所述第一实时位置信息和每个预设站点位置信息之间的距离信息进行排序,得到排序结果;
55.筛选子模块,用于根据所述排序结果,在所述多个预设站点位置信息中筛选所述目标预设站点位置信息。
56.在一实施例中,所述扣费单元,包括:
57.生成子单元,用于根据所述起始站信息和所述终点站信息,生成所述对象的轨迹信息;
58.匹配子单元,用于将所述对象的轨迹信息和预设价格配置表进行匹配,得到所述对象的扣费信息;
59.扣费子单元,用于调用扣费接口根据所述对象的支付账号信息和扣费信息进行扣费处理。
60.本技术实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述一方面的各种可选方式中提供的方法。
61.相应的,本技术实施例还提供一种存储介质,所述存储介质存储有指令,所述指令
被处理器执行时实现本技术实施例任一提供的基于面部识别的支付方法。
62.本技术实施例可以接收交通工具上第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及对象的第二实时位置信息;根据扣费请求对面部图像进行身份识别,得到对象的身份信息;根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息;根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点站信息;根据对象的身份信息获取对象在支付系统中的支付账号信息;根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理,提高了人们乘坐交通工具的便捷性。
附图说明
63.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
64.图1是本技术实施例提供的基于面部识别的支付方法的场景示意图;
65.图2是本技术实施例提供的基于面部识别的支付方法的流程示意图;
66.图3是本技术实施例提供的基于面部识别的支付方法的又一场景示意图;
67.图4是本技术实施例提供的基于面部识别的支付方法的又一场景示意图;
68.图5是本技术实施例提供的面部部位特征点的场景示意图;
69.图6是本技术实施例提供的面部部位特征点的又一场景示意图;
70.图7是本技术实施例提供的基于面部识别的支付方法的又一流程示意图;
71.图8是本技术实施例提供的基于面部识别的支付系统的场景示意图;
72.图9是本技术实施例提供的第一面部采集设备的结构示意图;
73.图10是本技术实施例提供的第二面部采集设备的结构示意图;
74.图11是本技术实施例提供的基于面部识别的支付装置的结构示意图;
75.图12是本技术实施例提供的终端的结构示意图。
具体实施方式
76.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,然而,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
77.本技术实施例提出了一种基于面部识别的支付方法,该基于面部识别的支付方法可以由基于面部识别的支付装置执行,该基于面部识别的支付装置可以集成在计算机设备中。其中,该计算机设备可以包括终端以及服务器,等等。
78.其中,终端可以为笔记本电脑、个人电脑(personal computer,pc)、车载计算机等等。
79.其中,服务器可以为多个异构系统之间的互通服务器或者后台服务器,还可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以
是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、以及大数据和人工智能平台等基础云计算服务的云服务器等等。
80.在一实施例中,如图1所述,基于面部识别的支付装置可以集成在终端或服务器等计算机设备上,以实施本技术实施例提出的基于面部识别的支付方法。具体地,计算机设备可以接收交通工具上第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及对象的第二实时位置信息;根据扣费请求对面部图像进行身份识别,得到对象的身份信息;根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息,第一实时位置信息由第一面部采集设备发送;根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点站信息;根据对象的身份信息获取对象在支付系统中的支付账号信息;根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理。
81.以下分别进行详细说明,需要说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
82.本技术实施例将从基于面部识别的支付装置的角度进行描述,该基于面部识别的支付装置可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备。
83.如图2所述,提供了一种基于面部识别的支付方法,具体流程包括:
84.101、接收第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及对象的第二实时位置信息。
85.其中,该第二面部采集设备可以设置在交通工具上。
86.其中,交通工具可以包括一切人造的用于人类代步或运输的装置。例如,交通工具可以包括公共汽车、地铁、高铁和火车,等等。
87.其中,面部图像可以包括明显地具有对象面部结构的图像。例如,面部图像可以包括对象的清晰正脸照,等等。
88.其中,第二面部采集设备包括可以采集对象的面部图像的设备。例如,当对象离开交通工具时,第二面部采集设备便可以采集对象的面部图像。例如,当交通工具是公共汽车时,当对象下车时,第二面部采集设备对象的面部图像。
89.在一实施例中,第二面部采集设备上可以集成有视频采集装置,从而使得第二面部采集设备可以通过视频采集装置采集对象的面部视频数据,并从面部视频数据中筛选出面部图像,然后将面部图像发送给基于面部识别的支付装置中。例如,当对象离开交通工具时,第二面部采集设备便可以采集对象的面部视频数据,并从面部视频数据中筛选出面部图像,然后将面部图像发送给基于面部识别的支付装置中。
90.其中,视频采集装置可以包括常规摄像头或3d摄像头,等等。
91.其中,面部视频数据可以包括具有对象面部结构的视频。
92.例如,第二面部采集设备上可以集成有3d摄像头。然后,第二面部采集设备可以通过3d摄像头采集对象的面部视频数据,并从面部视频数据中筛选出面部图像。
93.例如,3d摄像头在采集到对象的面部视频数据之后,可以将面部视频进行拆解成多个视频帧。然后,第二面部采集设备可以在多个视频帧中筛选出最优的其中一个视频帧作为对象的面部图像。譬如,第二面部采集设备可以以人脸大小、人脸角度、图像对比度、图像的亮度和清晰度等系数指标综合评价出最优的其中一个视频帧,并将该视频帧最为对象的面部图像。
94.通过在第二面部采集设备中嵌入视频采集装置,从而使得对象可以刷脸乘坐交通工具,而不需要借助车票或者乘坐卡之类的实物凭证才可以乘坐交通工具,极大地节省了对象乘坐工具的时间,提高了对象乘坐交通工具的便捷性。
95.例如,当交通工具为公共汽车时,人们去乘坐交通工具时可以直接刷脸上车,而不需要刷卡或者投币,从而节省了人们找零钱,或者找公交卡的时间,给人们乘坐公共汽车带了极大的便捷性,提高了人们乘坐公共汽车的体验。
96.在一实施例中,该第二面部采集设备上还可以集成有位置信息采集装置,然后第二面部采集设备可以通过位置信息采集装置采集对象的第二实时位置信息,并将该第二实时位置信息发送给本技术实施例提出的基于面部识别的支付装置。
97.例如,当对象离开交通工具时,第二面部采集设备在采集对象的视频数据的同时还可与采集对象的第二实时位置。例如,当交通工具是公共汽车时,对象下车的时候,第二面部采集设备在采集对象的视频数据的同时还可与采集对象的第二实时位置。
98.其中,位置信息采集装置可以包括全球定位系统(global positioning system,gps),等等。
99.例如,第二面部采集设备上可以集成有gps。然后,第二面部采集设备可以通过gps采集对象的第二实时位置信息,并将该第二实时位置信息发送给本技术实施例提出的基于面部识别的支付装置。
100.其中,对象的第二实时位置信息包括说明对象位置的信息,其中,该信息是和时间同步变化。其中,该第二实时位置信息可以以经纬度的形式表示。例如,对象的第二实时位置信息可以是东经多少度和北纬多少度,等等。
101.在一实施例中,在接收第二面部采集设备发送的扣费请求之前,对象可以从网上购票,并将购票信息和对象的绑定面部图像上传到基于面部识别的支付装置中,从而使得基于面部识别的支付装置可以将对象的购票信息和绑定面部图像存储到预设存储容器中。
102.例如,对象可以通过移动终端上即时通讯应用程序上的小程序购票,支付成功后可以将购票信息和对象的绑定面部图像进行绑定,得到绑定后信息。然后,对象可以将绑定后信息发送至基于面部识别的支付装置。
103.其中,移动终端可以包括智能手机、笔记本电脑、个人电脑或平板,等等。
104.例如,对象可以通过微信上的小程序购票,购票成功后可以将购票信息和对象的面部图像进行绑定,得到绑定后信息。然后,对象可以将绑定后信息发送至基于面部识别的支付装置中。
105.例如,如图3所示,对象可通过对象手机端上的即时通讯应用程序上的购票小程序进行购票,并将自己的绑定面部图像和购票信息进行绑定,得到绑定后信息。然后,对象手机端可以将绑定后信息发送至基于面部识别的支付装置中。基于面部识别的支付装置可以通过面部采集绑定服务对绑定面部图像进行识别,得到绑定面部图像的面部特征,并将该面部特征和购票信息进行关联,得到关联后信息。然后,基于面部识别的支付装置可以将关联后信息存储到预设数据库中。
106.通过上述绑定操作,当对象去乘坐交通工具时,对象便可以通过刷脸乘坐交通工具。而当对象通过刷脸乘坐交通工具时,面部采集设备可以采集对象的面部视频,并从面部视频中优选出最优的一张视频帧作为对象的面部图像。接下来,面部采集设备可以将该面
部图像发送至基于面部识别的支付装置中。然后,基于面部识别的支付装置可以基于对象的面部图像判断对象是否有乘坐交通工具的资格。
107.在一实施例中,对象还可以将自己的购票信息和其他对象进行关联,从而使得对象的购票信息可以和其他对象进行共享。具体的,步骤“接收第二面部采集设备发送的扣费请求之前”,可以包括:
108.接收购票信息绑定请求,基于购票信息绑定请求获取对象的购票信息和绑定面部图像,以及对象的关联对象的绑定面部图像;
109.分别对对象的绑定面部图像和关联对象的绑定面部图像进行特征识别处理,得到对象的绑定面部特征和关联对象的绑定面部特征;
110.将对象的购票信息和绑定面部特征,以及关联对象的绑定面部特征进行关联绑定,得到对象的关联绑定信息;
111.将对象的关联绑定信息存储至预设数据库中。
112.其中,购票信息可以包括能表示对象的票据的信息。例如,购票信息可以包括对象购票后得到的订单标识号(identity document,id)和票据id,等等。
113.其中,绑定面部图像包括对象进行信息绑定时所用到的面部图像。
114.其中,关联对象可以包括和对象具有关联关系的对象。例如,关联对象可以包括用户在即时通讯系统上的好友,等等。例如,关联对象可以包括用户在微信的好友列表上的好友。
115.例如,对象通过手机上的即时通讯应用程序上的小程序购票,购票成功后得到购票信息。然后,对象可以将购票信息和对象的绑定面部图像进行绑定。此外,当对象购买了多张票时,对象可以将这些票分别和对象在即时通讯系统上好友的绑定面部图像进行绑定,得到绑定后信息,并将绑定后信息发送至基于面部识别的支付装置中。然后,对象将其关联对象便可以刷脸乘坐交通工具,而不需要持有票据才可以乘坐交通工具。
116.在一实施例中,在接收到购票信息绑定请求之后,可以基于购票信息绑定请求获取对象的购票信息和绑定面部图像,以及对象的关联对象的绑定面部图像。其中,获取购票信息绑定请求获取对象的购票信息和绑定面部图像,以及对象的关联对象的绑定面部图像时,可以调用预设网关接口,并通过该预设网关接口获取所述对象的购票信息和绑定面部图像,以及所述对象的关联对象的绑定面部图像。具体的,步骤“基于购票信息绑定请求获取对象的购票信息和绑定面部图像,以及对象的关联对象的绑定面部图像”,可以包括:
117.基于购票信息绑定请求,调用预设网关接口;
118.通过预设网关接口获取对象的购票信息和绑定面部图像,以及对象的关联对象的绑定面部图像。
119.其中,该预设网关接口可以包括通用网关接口(common gateway interface,cgi)。其中,cgi可以是服务器和运行在服务器上的应用程序进行“交流”时需要遵循的协议。通过cgi接口,服务器可以获取客户端传输的数据,并转交给服务器端的cgi程序进行处理,然后将结果返回给客户端。简单来说,cgi实际上是一个接口标准。而通常所说的cgi指代其实是cgi程序,也就是实现了cgi接口标准的程序,只要编程语言具有标准输入、标准输出和环境变量,就可以用来编写cgi程序。
120.在一实施例中,基于面部识别的支付设备在获取到对象的购票信息和绑定面部图
像,以及对象的关联对象的绑定面部图像之后,可以分别对对象的绑定面部图像和关联对象的绑定面部图像进行特征识别处理,得到对象的绑定面部特征和关联对象的绑定面部特征。然后,将对象的购票信息和绑定面部特征,以及关联对象的绑定面部特征进行关联绑定,得到对象的关联绑定信息。接下来,将对象的关联绑定信息存储至预设数据库中。
121.例如,对象将购票信息和2个关联对象进行关联。基于面部识别的支付设备获取到对象的票据id为“abc”,然后特征识别得到对象的面部特征为特征1,其中一个关联对象的面部特征为特征2,另一个关联对象的面部特征为特征3。然后,基于面部识别的支付设备可以将票据id、特征1、特征2和特征3进行关联绑定,得到关联绑定信息。其中,关联绑定信息可以类似{票据id:abc,人脸特征列表:[特征1,特征2,特征3]}。
[0122]
在一实施例中,可以将票据id作为关联绑定信息的标识信息,并根据该票据id将关联绑定信息存储到预设数据库中。
[0123]
在一实施例中,对象可以对绑定面部图像进行更新。具体的,本技术实施例提出的方法还包括:
[0124]
接收信息更新请求;
[0125]
根据信息更新请求获取更新后面部图像;
[0126]
对更新后面部图像进行特征提取,得到更新后面部特征;
[0127]
将更新后面部特征替换预设数据库中的绑定面部特征。
[0128]
在一实施例中,面部图像特征提取的方法可以包括两大类,一种是基于知识的表征方法;另外一种是基于代数特征或统计学的表征方法。基于知识的表征方法主要是根据人脸器官的形状描述以及他们之间的距离特性来获得有助于人脸分类的特征数据,其特征分量通常包括特征点间的欧氏距离、曲率和角度等。人脸由眼睛、鼻子、嘴、下巴等局部构成,对这些局部和它们之间结构关系的几何描述,可作为识别人脸的重要特征,这些特征被称为几何特征。基于知识的人脸表征主要包括基于几何特征的方法和模板匹配法。
[0129]
在一实施例中中,如图4所示,对象可通过手机端上的即时通讯应用程序上的购票小程序进行购票,并将购票信息和对象在即时通讯应用程序上的好友进行关联。在对象购票后,手机端可以获得唯一的订单号以及相关票务信息。随后,手机端可以通过即时通讯应用程序的后端提供的cgi拉取对象的好友列表信息,然后对象便可以选择相关的好友进行关联,并一起使用该票。
[0130]
在基于面部识别的支付装置中,订单基础服务可以识别购票信息,并将购票信息和对象以及对象的关联对象进行关联,得到对象的关联绑定信息。然后,基于面部识别的支付装置可以将关联绑定信息存储到预设数据库中中。
[0131]
当对象及其关联对象乘坐交通工具时,该对象和该关联对象便可以刷脸乘坐交通工具。例如,如图4所示,对象和其好友a、好友b以及好友c便可以通过刷脸乘坐交通工具。此时,面部采集设备可以通过摄像头采集对象的面部视频,并在该面部视频中筛选出最优的一帧作为对象的面部图像。
[0132]
在一实施例中,面部采集设备可以对面部图像进行特征提取,得到面部图像的特征信息。然后,面部采集设备可以将对象的面部特征获取对象的购票信息,并将对象的面部特征、购票信息和预设数据库中的数据进行匹配,从而判断该对象及其关联对象是否具有乘坐交通工具的资格。
[0133]
102、根据扣费请求对面部图像进行身份识别,得到对象的身份信息。
[0134]
其中,身份信息可以包括说明对象身份的信息。例如,通过对象的身份信息可以说明对象是谁,等等。
[0135]
在一实施例中,在接收到扣费请求之后,可以根据扣费请求对面部图像进行身份识别,得到对象的身份信息。其中,对面部图像进行身份识别时,可以对面部图像进行特征识别处理,得到对象的面部特征。然后,可以根据对象的面部特征,确定对象的身份信息。具体的,步骤“根据扣费请求对面部图像进行身份识别,得到对象的身份信息”,可以包括:
[0136]
对面部图像进行特征识别处理,得到对象的面部特征;
[0137]
将对象的面部特征和多个预设面部特征进行匹配;
[0138]
根据对象的面部特征和多个预设面部特征的匹配结果,确定对象的身份信息。
[0139]
其中,对象的面部特征包括可以说明对象面部特征的信息。例如,通过对象的面部特征可以说明对象的五官形状、五官之间的位置关系、脸型、面部骨骼的特点,等等。
[0140]
其中,预设面部特征可以包括预先存储在面部特征数据库中的面部特征。
[0141]
在一实施例中,对象在使用本技术实施例提出的方法乘坐交通工具之前,对象可以通过信息采集应用程序将自己的面部图像上传到预设面部特征数据库中,从而使得对象可以刷脸乘坐交通工具。
[0142]
例如,对象在乘坐公共汽车之前,可以通过信息采集应用程序将自己正脸照上传到信息采集应用程序对应的服务器处。然后,信息采集应用程序对应的服务器就可以通过对象的正脸照得到对象的面部特征,并将对象的面部特征存储到预设面部特征数据库中。通过这样,对象便可以通过刷脸乘坐公共汽车。
[0143]
在一实施例中,在对面部图像进行特征识别处理时,可以对面部图像进行点位生成处理,得到面部图像中面部部位特征点的位置信息。然后,根据面部部位特征点的位置信息生成对象的面部特征。具体的,步骤“对面部图像进行特征识别处理,得到对象的面部特征”,可以包括:
[0144]
对面部图像进行点位生成处理,得到面部图像中面部部位特征点的位置信息;
[0145]
对面部部位特征点的位置信息进行联结处理,得到面部图像中面部部位的轮廓信息;
[0146]
在面部部位特征点中筛选出多个目标面部部位特征点;
[0147]
分别计算多个目标面部部位特征点的位置信息之间的空间差异信息;
[0148]
将轮廓信息和空间差异信息进行关联处理,得到对象的面部特征。
[0149]
其中,面部部位包括面部中的部位。例如,面部部位可以包括人脸的脸型、鼻子、眼睛、眉毛和嘴巴,等等。
[0150]
其中,面部部位特征点包括可以描述面部结构特征的点。例如,特征点可以是描述面部的轮廓以及五官之间的差异的点。例如,如图5所示,图像中的点1021便为特征点。
[0151]
其中,面部部位特征点的位置信息可以包括面部部位特征点在面部结构中位置的信息。
[0152]
例如,当在面部图像的中心位置建立一个二维坐标系时,面部部位特征点的位置信息可以是面部部位特征点在该二维坐标系上的信息。又例如,当在面部图像的中心位置建立一个三维坐标系时,面部部位特征点的位置信息可以是面部部位特征点在该三维坐标
系上的信息。
[0153]
其中,面部部位的轮廓信息包括可以说明面部部位轮廓的信息。例如,面部部位的轮廓信息可以包括面部部位的形状,等等。
[0154]
其中,空间差异信息包括可以说明目标面部部位特征点之间的相对位置的信息。例如,空间差异信息可以包括目标面部部位特征点之间的欧式距离、曲率和相对角度,等等。
[0155]
在一实施例中,对面部图像进行点位生成处理时,可以对面部图像进行高维特征提取,得到面部图像的特征信息。然后,可以根据面部图像的特征信息,生成面部部位特征点的位置信息。具体的,步骤“对面部图像进行点位生成处理,得到面部图像中面部部位特征点的位置信息”,可以包括:
[0156]
对面部图像进行高维特征提取处理,得到面部图像的特征信息;
[0157]
对面部图像的特征信息进行特征降维处理,得到降维后特征信息;
[0158]
对降维后特征信息进行池化处理,得到池化后特征信息;
[0159]
对池化后特征信息进行低维特征提取处理,得到面部图像中面部部位特征点的位置信息。
[0160]
其中,图像的特征信息包括能反映图像特征的必不可少的、基本的信息。例如,面部图像的特征信息包括可以反映特征图像的必不可少的、基本的信息。
[0161]
在一实施例中,对面部图像进行高维特征提取可以包括利用多个卷积核对面部图像进行卷积特征提取。
[0162]
其中,在利用多个卷积核对面部图像进行高维特征提取时,可以对面部图像进行信息识别处理,得到面部图像的图像信息。然后利用多个卷积核对面部图像的图像信息进行卷积特征提取,得到面部图像的多个卷积特征信息。接下来,可以对面部图像的多个卷积特征信息进行信息融合,从而得到面部图像的特征信息。
[0163]
其中,面部图像的图像信息可以包括构成特征图像的最小单位。例如,面部图像的图像信息可以包括图像的像素信息、分辨率等等。
[0164]
在一实施例中,由于面部图像的图像信息的信息含量一般十分巨大,即使经过特征提取后,面部图像的特征信息的信息含量也是很巨大。例如,面部图像的像素信息的信息含量往往上百万,得到的特征信息也是上百万量级。此外,特征信息过多有可能包括大量的冗余信息,最终影响了后续处理的问题。
[0165]
因此,可以从众多的特征信息中筛选出最佳的特征信息,而特征降维便是其中一种方式。特征降维可以指用更少维度的特征信息去替代更高维度的特征信息,这样可以在保留有用信息的同时,避免信息冗余的问题。
[0166]
因此,在得到面部图像的特征信息之后,可以对特征信息进行特征降维处理,从而降低计算量,提高点位生成的效率。其中,在对面部图像的特征信息进行降维处理时,可以识别面部图像在各个维度上的特征信息处理,得到特征信息在各个维度上的信息含量。然后,对各个维度上的信息含量进行筛选过滤处理,从而得到降维后特征信息。
[0167]
例如,特征信息的包括三个维度的信息,每个维度的信息含量为512
×
512,只有中心的100
×
100区域有非零值。此时,可以将特征信息的信息维度512
×
512
×
3降维为100
×
100
×
3,从而降低了特征信息的信息含量。
[0168]
在一实施例中,得到面部图像的降维后特征信息之后,可以对降维后特征信息进行池化处理,得到池化后特征信息。其中,池化处理的方式可以包括平均池化处理方式、最大化池化处理方式,等等。
[0169]
例如,当利用平均池化处理方式对降维后特征信息进行池化处理时,可以利用滑动窗口的方式对信息进行覆盖,并计算覆盖到的信息的平均值。通过对滑动窗口进行移动,从而对所有信息都进行覆盖,并计算得到信息的全局平均值,该全局平均值便是池化后特征信息。
[0170]
在一实施例中,在得到池化后特征信息之后,还可以对池化后特征信息进行低维特征提取处理,从而得到面部部位特征点的位置信息。
[0171]
其中,对信息进行低维特征提取处理可以包括利用单个卷积核对信息进行卷积特征提取。例如,直接利用卷积核和池化后特征信息进行加权求和,从而得到一个三维矩阵,该三维矩阵中的矩阵值便是面部部位特征点的位置信息。
[0172]
通过对面部图像进行点位生成处理,可以得到面部图像中多个面部部位特征点的位置信息。例如,通过对面部图像进行点位生成处理,可以得到面部部位图像中73个面部部位特征点的位置信息,等等。
[0173]
在一实施例中,在得到面部图像中多个部位特征点的位置信息之后,可以对面部部位特征点的位置信息进行联结处理,从而得到面部图像中面部部位的轮廓信息。
[0174]
其中,联结处理可以包括根据面部部位特征点的位置信息,将面部部位特征点进行结合的处理。例如,可以根据面部部位特征点的位置信息,将面部部位特征点进行连线,从而得到面部部位的轮廓信息。
[0175]
其中,在对面部部位特征点的位置信息进行联结处理时,可以根据面部部位特征点的位置信息将多个面部部位特征点进行分类。然后,可以将同类的面部部位特征点进行联结处理,从而得到面部部位的轮廓信息。
[0176]
例如,可以根据面部部位特征点的位置信息,将多个面部部位特征点划分为眼睛特征点、眉毛特征点、鼻子特征点、嘴巴特征点和脸型特征点。然后,可以将眼睛特征点进行连线,得到对象眼睛的形状;可以将眉毛特征点进行连线,得到对象眉毛的形状;可以将鼻子特征点进行连线,得到对象鼻子的形状;可以将嘴巴特征点进行连线,得到对象嘴巴的形状;可以将脸型特征点进行连线,得到对象脸型的形状。接下来,可以将对象眼睛、眉毛、鼻子、嘴巴和脸型的形状集合在一起,从而得到对象面部部位的轮廓信息。
[0177]
在一实施例中,还可以在面部部位特征点中筛选出多个目标面部部位特征点,并分别计算多个目标面部部位特征点的位置信息之间的空间差异信息。
[0178]
其中,目标面部部位特征点包括在最可以体现出对象各个面部部位之间的关系的点。例如,目标面部部位特征点可以包括眼睛的边缘点、眉的边缘点和鼻子的最高点,等等。
[0179]
例如,如图6所示,目标面部部位特征点可以包括眉毛特征点1022、眉毛特征点1023、眼睛特征点1024、眼睛特征点1025和鼻子特征点1026。
[0180]
在筛选出多个目标面部部位特征点之后,便可以分别利用目标面部部位特征点的位置信息,计算多个目标面部部位特征点之间的空间差异信息。
[0181]
例如,通过眉毛特征点1022和眉毛特征点1023,可以计算眉距;通过眼睛特征点1024和眼睛特征点1025,可以计算眼距;通过鼻子特征点1026可以计算对象的鼻子和眼睛
以及眉毛之间的相对位置。
[0182]
在一实施例中,在得到对象面部部位的轮廓信息和空间差异信息之后,可以将轮廓信息和空间差异信息进行关联处理,从而得到对象的面部特征。
[0183]
例如,可以将轮廓信息和空间差异信息进行打包,从而得到对象的面部特征。又例如,可以将轮廓信息和空间差异信息都添加上相同的记号,从而说明这两者构成了对象的面部特征。
[0184]
在一实施例中,轮廓信息可以说明对象面部五官的整体轮廓。例如,轮廓信息可以说明对象脸型、鼻子、眼睛、眉毛和嘴巴等轮廓。通过轮廓信息,可以勾勒出对象的大致形象。而空间差异信息可以说明对象五官之间的关系。例如,空间差异信息可以说明对象五官之间的相对位置,等等。通过空间差异信息,可以从更细的维度出发勾勒对象的形象。通过将轮廓信息和空间差异信息结合在一起,得到对象的面部特征,可以使得对象的面部特征既体现了对象面部的全局特点,又体现了对象面部的局部特点,提高了对象的面部特征的准确性和可靠性。
[0185]
在一实施例中,在得到对象的面部特征之后,便可以根据对象的面部特征,确定对象的身份信息。具体的,步骤“将对象的面部特征和多个预设面部特征进行匹配”,可以包括:
[0186]
分别将对象的面部特征和多个预设面部特征进行差异对比,得到面部特征和每个预设面部特征之间的差异值;
[0187]
根据面部特征和每个预设面部特征之间的差异值,从多个预设面部特征中筛选出目标预设面部特征;
[0188]
将面部特征和目标预设面部特征之间的差异值和预设差异阈值进行对比。
[0189]
其中,预设面部特征可以是预先存储在预设面部特征数据库中的面部特征。例如,当对象通过信息采集应用程序将自己的面部图像上传到预设面部特征数据库中时,服务器可以将对象的面部图像进行特征识别,得到对象的面部特征,并将对象的面部特征存储到预设面部特征数据库中,形成预设面部特征数据库中的预设面部特征。
[0190]
在一实施例中,由于面部特征可以包括轮廓信息和空间差异信息,因此,在将对象的面部特征和多个预设面部特征进行差异对比时,可以从轮廓信息和空间差异信息两个维度上进行对比。例如,可以将面部特征的轮廓信息和预设面部特征的轮廓信息进行对比,得到面部特征的轮廓信息和预设面部特征的轮廓信息的差异值。例如,可以将面部特征的轮廓信息和预设面部特征的轮廓信息进行相减,从而得到两者的差异值。又例如,也可以将面部特征的空间差异信息和预设面部特征的空间差异信息进行相减,从而得到两者的差异值。
[0191]
然后,分别将两个差异值进行相加,从而得到面部特征和每个预设面部特征之间的差异值。例如,面部特征的轮廓信息和预设面部特征的轮廓信息之间的差异值为a1。又例如,面部特征的空间差异信息和预设面部特征的空间差异信息之间的差异值为a2。则可以将a1和a2进行相加,从而得到面部特征和预设面部特征之间的差异值。
[0192]
在一实施例中,得到面部特征和每个预设面部特征之间的差异值之后,可以从多个预设面部特征中筛选出目标预设面部特征。
[0193]
例如,可以将面部特征和每个预设面部特征之间的差异值进行排序,然后选择差
异值最小的预设面部特征为目标预设面部特征。
[0194]
在一实施例中,在筛选出目标预设面部特征之后,还可以将面部特征和目标预设面部特征之间的差异值和预设差异阈值进行对比,从而提高匹配的准确度。在将面部特征和目标预设面部特征之间的差异值和预设差异阈值进行对比之后,便可以根据对比的结果确定对象的身份信息。具体的,步骤“根据对象的面部特征和多个预设面部特征的匹配结果,确定对象的身份信息”,可以包括:
[0195]
当面部特征和目标预设面部特征之间的差异值小于或等于预设差异阈值时,获取目标预设面部特征对应的特征字符串;
[0196]
将特征字符串确定为对象的身份信息。
[0197]
其中,特征字符串包括对预设面部特征的唯一标识。
[0198]
在一实施例中,预设面部特征数据库中的预设面部特征都有对应的特征字符串。该特征字符串是预设面部特征的唯一标识。通过该特征字符串,不仅可以知道该预设面部特征是谁的面部特征,还可以知道该预设面部特征在服务器中的其他信息。例如,通过该特征字符串,还可以知道该预设面部特征对应的面部图像是哪张。
[0199]
因此,当面部特征和目标预设面部特征之间的差异值小于或等于预设差异阈值时,说明面部特征和目标预设面部特征之间的相似度十分高。此时,可以将目标预设面部特征对应的特征字符串确定为对象的身份信息。
[0200]
在一实施例中,本技术实施例提出的基于面部识别的支付方法,还可以包括:
[0201]
当面部特征和所述目标预设面部特征之间的差异值大于预设差异阈值时,将对象的面部特征和预设异常对象数据库中的面部特征进行匹配;
[0202]
当对象的面部特征和预设异常对象数据库中的面部特征相匹配时,获取预设异常对象数据库中的面部特征对应的特征字符串;
[0203]
将特征字符串确定为对象的身份信息;
[0204]
将对象的身份信息和第二实时位置信息上报公安系统。
[0205]
其中,预设异常对象数据库中包括异常对象的面部特征。其中,异常对象可以包括犯罪嫌疑人和失信人员,等等。
[0206]
其中,当面部特征和所述目标预设面部特征之间的差异值大于预设差异阈值时,说明面部特征和目标预设面部特征不属于同一个人。此时,可以将对象的面部特征和预设异常对象数据库中的面部特征进行匹配。而当对象的面部特征和预设异常对象数据库中的面部特征相匹配时,说明该对象可能是异常对象,此时,便可以将对象的身份信息和第二实时位置信息上报公安系统,以使得公安人员可以根据对象的身份信息和第二实时位置信息对该对象进行逮捕。
[0207]
103、根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息,第一实时位置信息由第一面部采集设备发送。
[0208]
其中,对象的第一实时位置信息可以包括说明对象位置的信息,其中,该信息是和时间同步变化。其中,该第一实时位置信息可以以经纬度的形式表示。例如,对象的第一实时位置信息可以是东经多少度和北纬多少度,等等。
[0209]
在一实施例中,对象的第一实时位置信息可以是对象乘坐上交通工具时的位置信息,而第一实时位置信息可也是对象离开交通工具时的位置信息。
[0210]
例如,当交通工具上公共汽车或者网约车时,第一实时位置信息可以是对象上车时的位置信息,而第二实时位置信息可以是对象下车时的位置信息。
[0211]
又例如,当交通工具是高铁时,第一实时位置信息可以是对象登上高铁时的位置信息,而第二实时位置信息可以是对象离开高铁时的位置信息。
[0212]
其中,网约车可以包括网络预约出租汽车经营服务的简称。例如,网约车可以指以互联网技术为依托构建服务平台,接入符合条件的车辆和驾驶员,通过整合供需信息,提供非巡游的预约出租汽车服务的经营活动。
[0213]
在一实施例中,第一面部采集设备包括可以采集对象的面部图像的设备。例如,对象登录交通工具时,第二面部采集设备便可以采集对象的面部图像。例如,当交通工具是公共汽车时,当对象上车时,第二面部采集设备对象的面部图像。
[0214]
其中,第一面部采集设备也可以集成有视频采集装置和位置信息采集装置。因此,第一面部采集设备可以通过视频采集设备采集对象的面部视频数据,并从面部视频数据中筛选出面部图像,然后将面部图像发送给基于面部识别的支付装置中。此外,第一面部采集设备可以通过位置信息采集装置采集对象的第一实时位置信息。
[0215]
例如,当对象登上交通工具时,第一面部采集设备可以通过视频采集装置采集对象的面部视频数据。此外,第一面部采集设备还可以通过位置信息采集装置采集对象的第一实时位置信息。
[0216]
在一实施例中,第一面部采集设备采集到对象的第一实时位置信息和面部图像之后,可以将对象的第一实时位置信息和面部图像发送到基于面部识别的支付装置中。然后基于面部识别的支付装置可以根据对象的面部图像得到对象的身份信息,并将对象的身份信息存储到预设数据库中,作为预设数据库中预设身份信息。此外,基于面部识别的支付装置还可以将预设身份信息和第一实时位置信息关联,并存储到预设数据库中。
[0217]
例如,当对象上车时,第一面部采集设备便可以采集到对象的第一实时位置和面部图像,并将对象的第一实时位置和面部图像发送至基于面部识别的支付装置中。接下来,基于面部识别的支付装置可以根据对象的面部图像得到对象的身份信息,从而知道上车的人是谁。此外,基于面部识别的支付装置还可以根据对象的第一实时位置信息知道对象在哪里上车。然后,基于面部识别的支付装置可以将对象的身份信息存储到预设数据库中,作为预设身份信息。此外,基于面部识别的支付装置还可以将对象的第一实时位置信息存储到预设数据库中,并和预设身份信息关联。
[0218]
通过这样,当基于面部识别的支付装置得到对象的第二实时位置信息和面部图像之后,便可以根据对象的面部图像提取到对象的第一实时位置信息,然后将对象的第一实时位置信息和第二实时位置信息进行结合之后,便可以知道对象登上交通工具的位置和离开交通工具的位置,并根据第一实时位置信息和第二实时位置信息对对象进行扣费。
[0219]
在一实施例中,在提取对象的第一实时位置信息时,可以将对象的身份信息和预设数据库中的预设身份信息进行匹配。具体的,步骤“根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息”,可以包括:
[0220]
将对象的身份信息和预设数据库中的预设身份信息进行匹配;
[0221]
当对象的身份信息和预设身份信息相匹配时,确定预设身份信息的信息存储容器;
[0222]
利用信息存储容器的存储结构,在信息存储容器中提取对象的第一实时位置信息。
[0223]
在一实施例中,预设数据库可以有多个信息存储容器构成,其中,每个预设身份信息都对应一个信息存储容器。
[0224]
其中,信息存储容器可以是栈或数组,等等。
[0225]
因此,基于面部识别的支付装置在将预设身份信息和第一实时位置信息关联,并存储到预设数据库中时,可以将第一实时位置存储到预设身份信息对应的信息存储容器当中。
[0226]
所以,当根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息时,可以将对象的身份信息和预设数据库中的预设身份信息进行匹配。当在预设数据库中有预设身份信息和对象的身份信息相匹配时,可以确定该预设身份信息的信息存储容器,并利用信息存储容器的存储结构,在信息存储容器中提取对象的第一实时位置信息。
[0227]
例如,当信息存储容器为栈,根据栈先进后出的存储结构,可以将栈最新存储的信息作为对象的第一实时位置信息。
[0228]
104、根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点站信息。
[0229]
在一实施例中,第一实时位置信息和第二实时位置信息可以是从经纬度出发描述对象的位置,而起始站信息和终点站信息则可以是从更具体的角度出发描述对象的位置。例如,例如,该第二实时位置信息可以包括兴趣点(point of interest,poi)信息。又例如,起始站信息和终点站信息分别可以是某个具体位置的名称,等等。
[0230]
例如,当交通工具是公共汽车时,起始站信息和终点站信息可以是公交车站的名称。又例如,当交通工具是网约车时,起始站信息和终点站信息可以是建筑的名称或者具体地址,等等。例如,起始站信息可以是xxx大厦。又例如,起始站信息可以是xx省xx市xx区xx街道xx路第xx号。又例如,起始站信息可以是xx站。
[0231]
通过将第一实时位置信息转换为起始站信息,以及将第二实时位置转换为终点站信息,可以更加便捷地表示对象的出行情况。此外,当交通工具是公共汽车、网约车、高铁和火车等根据路段进行收费的交通工具时,通过将第一实时位置信息转换为起始站信息,以及将第二实时位置转换为终点站信息,便可以根据起始站信息和终点站信息对对象进行扣费,提高了扣费的便捷性和扣费效率。
[0232]
在一实施例中,由于起始站信息和终点站信息都是预先存在的。例如,建筑物的名称,或者建筑物在地图上的地址都是预先存在的。因此,在根据第一实时位置信息确定对象的起始站信息时,可以是确定和第一实时位置信息最近的建筑的名称或者地址。同理,在根据第二实时位置信息确定对象的终点站信息时,可以是确定和第二实时位置信息最近的建筑的名称或者地址。具体的,步骤“根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点站信息”,可以包括:
[0233]
根据第一实时位置信息,生成包括第一实时位置信息的第一区域范围;
[0234]
在第一区域范围内确定对象的起始站信息;
[0235]
根据第二实时位置信息,生成包括第二实时位置信息的第二区域范围;
[0236]
在第二区域范围内确定对象的终点站信息。
[0237]
在一实施例中,在根据第一实时位置信息确定对象的起始站信息时,可以根据第一实时位置信息生成第一区域范围,然后在第一区域范围内确定对象的起始站位置。
[0238]
其中,第一区域范围是根据第一实时位置信息生成的,并且第一区域范围内包括多个预设站点位置信息。
[0239]
其中,预设站点位置信息可以包括预先设置好的站点的位置信息。例如,预设站点信息可以是建筑物的经纬度信息,等等。
[0240]
例如,可以以第一实时位置信息为原点,生成一个半径为若干米的圆,并将该圆作为第一区域范围,其中该第一区域范围内可以包括多个建筑物的经纬度信息。例如,可以以第一实时位置信息为圆点,生成一个半径为5米的圆,等等。
[0241]
同理,第二区域范围是根据第二实时位置信息生成的,并且第一区域范围内包括多个预设站点位置信息。
[0242]
在一实施例中,在第一区域范围内确定对象的起始站信息时,可以将对象的第一实时位置信息和预设站点位置信息进行匹配,从而确定起始站信息,具体的,步骤“在第一区域范围内确定对象的起始站信息”,可以包括:
[0243]
根据第一实时位置信息,在第一区域范围内的多个预设站点位置信息中筛选出目标预设站点位置信息;
[0244]
将目标预设站点位置信息对应的标识信息确定为起始站信息。
[0245]
其中,预设站点位置信息的标识信息可以是该预设站点位置信息对应的名称。例如,当预设站点位置信息为东经xx度,北纬xx度时,该预设站点位置信息的标识信息可以是xx大厦或者xx站。
[0246]
在一实施例中,步骤“根据第一实时位置信息,在第一区域范围内的多个预设站点位置信息中筛选出目标预设站点位置信息”,可以包括:
[0247]
将第一实时位置信息和所述第一区域范围内的多个预设站点位置信息进行距离生成处理,得到第一实时位置信息和每个预设站点位置信息之间的距离信息;
[0248]
将第一实时位置信息和每个预设站点位置信息之间的距离信息进行排序,得到排序结果;
[0249]
根据排序结果,在多个预设站点位置信息中筛选所述目标预设站点位置信息。
[0250]
例如,可以计算第一实时位置信息和第一区域范围内的每个预设站点位置信息之间的距离,从而得到第一实时位置信息和每个预设站点信息之间的距离信息。
[0251]
其中,可以采用多种方式计算第一实时位置信息和第一区域范围内的每个预设站点位置信息之间的距离。例如,可以利用欧氏距离或者余弦距离等方式计算第一实时位置信息和第一区域范围内的每个预设站点位置信息之间的距离,从而得到第一实时位置信息和每个预设站点位置信息之间的距离信息。
[0252]
接下来,可以根据从小到大的原则将第一实时位置信息和每个预设站点位置信息之间的距离信息进行排序,并将距离最近的预设站点位置信息最为目标预设站点位置信息。
[0253]
在一实施例中,在确定目标预设站点位置信息之后,便可以获取目标预设站点的标识信息,并将目标预设站点位置信息对应的标识信息确定为起始站信息。
[0254]
在一实时中,步骤“根据第二实时位置信息,生成包括第二实时位置信息的第二区
域范围”可以参考步骤“根据第一实时位置信息,生成包括第一实时位置信息的第一区域范围”此处不再重复阐述。
[0255]
在一实施例中,步骤“在第二区域范围内确定对象的终点站信息”也可以参考步骤“在第一区域范围内确定对象的起始站信息”,此处也不再重复阐述。
[0256]
105、根据对象的身份信息获取对象在支付系统中的支付账号信息。
[0257]
在一实施例,因为本技术实施例可以根据对象的面部特征对对象的乘坐交通工具的过程进行收费,所以在得到对象的身份信息之后,可以根据对象的身份信息获取对象在支付系统中的支付账号信息。
[0258]
其中,对象的支付账号信息可以包括对象的银行账号或者支付二维码,等等。
[0259]
在一实施例中,可以将对象的身份信息和支付系统中的预设身份信息进行匹配,从而得到对象的支付账号信息。
[0260]
在一实施例中,步骤105和步骤103以及步骤104并无执行时序上的限制。例如,可以先执行步骤105,再执行步骤103和步骤104。又例如,可以先执行步骤103和步骤104,再执行步骤105。
[0261]
106、根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理。
[0262]
在一实施例中,可以根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理。具体的,步骤“根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理”,可以包括:
[0263]
根据起始站信息和终点站信息,生成对象的轨迹信息;
[0264]
将对象的轨迹信息和预设价格配置表进行匹配,得到对象的扣费信息;
[0265]
调用扣费接口根据对象的支付账号信息和扣费信息进行扣费处理。
[0266]
其中,对象的轨迹信息包括可以对象的乘坐交通工具的路线。例如,对象的轨迹信息可以说明对象在哪里乘坐交通工具去到哪里,乘坐了多少距离,途径了什么,等等。例如,当交通工具为公共汽车时,对象的轨迹信息可以包括对象在哪里上下车,途径了什么站和途径了多少站。又例如,当交通工具为网约车时,对象的轨迹信息可以是对象从什么建筑物到了什么建筑物,乘坐路程为多少公里,等等。
[0267]
在一实施例中,在得到对象的轨迹信息之后,可以将对象的轨迹信息和预设价格配置表进行匹配,从而得到对象的扣费信息。
[0268]
例如,当交通工具为公共汽车时,对象的轨迹信息可以是对象乘坐公共汽车途径了多少站。例如,对象的轨迹信息可以是对象乘坐公共汽车途径了5站。然后,便可以将对象乘坐的站数和预设价格配置表进行匹配,得到对象的扣费信息。例如,当预设价格配置表上规定了5站需要收费3元时,则对象的扣费信息为3。又例如,当预设价格配置表上规定了5站需要收费5元时,则对象的扣费信息为5。
[0269]
又例如,当交通工具为网约车时,对象的轨迹信息可以是对象乘坐网约车经过了多少路程。例如,对象的轨迹信息可以是对象乘坐网约车经过了15千米。然后,可以将对象的乘坐路程和预设价格配置表进行匹配,从而得到对象的扣费信息。例如,当预设价格配置表上规定15千米需要收费30元时,对象的扣费信息为30。
[0270]
接下来,便可以调用扣费接口根据对象的支付账号信息和扣费信息进行扣费处理。
[0271]
本技术实施例提出了一种基于面部识别的支付方法,该方法包括接收交通工具上第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及对象的第二实时位置信息;根据扣费请求对面部图像进行身份识别,得到对象的身份信息;根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息,第一实时位置信息由第一面部采集设备发送;根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点站信息;根据对象的身份信息获取对象在支付系统中的支付账号信息;根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理。本技术实施例可以实现用户通过刷脸乘坐交通工具,提高了人们乘坐交通工具的便捷性。此外,本技术实施例还可以根据对象的起始站信息和终点信息对对象进行收费,从而使得需要根据乘务人员根据路程进行收费的交通工具可以实现自动化收费,而不需要人工进行收费,提高了对对象进行收费的效率,为人们乘坐交通工具的便捷性。
[0272]
根据上面实施例所描述的方法,以下将举例作进一步详细说明。
[0273]
本技术实施例将以基于面部识别的支付方法集成在服务器上为例来介绍本技术实施例方法。
[0274]
在一实施例中,如图7所示,一种基于面部识别的支付方法,具体流程如下:
[0275]
201、服务器接收交通工具上第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及对象的第二实时位置信息。
[0276]
例如,服务器接收到公共汽车上第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及对象的第二实时位置信息。例如,服务器接收到对象的清晰正脸照,以及对象是在下车位置的经纬度。
[0277]
202、服务器根据扣费请求对面部图像进行身份识别,得到对象的身份信息。
[0278]
203、服务器根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息,第一实时位置信息由第一面部采集设备发送。
[0279]
例如,服务器根据对象的身份信息,可以从预设数据库中提取对象的上车位置的经纬度。
[0280]
204、服务器根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点站信息。
[0281]
例如,服务器根据对象上车位置的经纬度,确定对象上车位置的名称。例如,对象是在哪个公交车站上车。
[0282]
同理,服务器根据对象下车位置的经纬度,确定对象下车位置的名称。例如,对象是在哪里公交车站下车。
[0283]
205、服务器根据对象的身份信息获取对象在支付系统中的支付账号信息。
[0284]
例如,服务器根据对象的身份信息获取对象在支付系统中的支付二维码。
[0285]
206、服务器根据对象的起始站信息、终点站信息和支付账号信息进行扣费处理。
[0286]
在本技术实施例中,服务器接收交通工具上第二面部采集设备发送的扣费请求,扣费请求携带对象的面部图像以及所述对象的第二实时位置信息;服务器根据扣费请求对面部图像进行身份识别,得到对象的身份信息;服务器根据对象的身份信息,从预设数据库中提取对象的第一实时位置信息,第一实时位置信息由第一面部采集设备发送;服务器根据第一实时位置信息确定对象的起始站信息,以及根据第二实时位置信息确定对象的终点
站信息;服务器根据对象的身份信息获取对象在支付系统中的支付账号信息;服务器根据对象的起始站信息、所述终点站信息和所述支付账号信息进行扣费处理,提高了人们乘坐交通工具的便捷性。
[0287]
在一实施例中,本技术实施例还提出了一种基于面部识别的支付系统,该支付系统可以包括第一面部采集设备301、第二面部采集设备302和集成了基于面部识别的支付装置的服务器303,例如,如图8所示。
[0288]
其中,如图9所示,第一面部采集设备301可以包括面部信息采集单元3011,该面部信息采集单元可以采集对象登上交通公交的视频数据,并生成对象的面部图像。此外,第一面部采集设备还可以包括位置信息采集单元3012,用于采集对象的第一实时位置信息。然后,第一面部采集设备可以将对象的面部图像和第一实时位置信息发送到服务器中。
[0289]
其中,如图10所示,第二面部采集设备302可以包括面部信息采集单元,该面部信息采集单元3021可以采集对象离开交通公交的视频数据,并生成对象的面部图像。此外,第二面部采集设备还可以包括位置信息采集单元3022,用于采集对象的第二实时位置信息。然后,第二面部采集设备可以将对象的面部图像和第二实时位置信息发送到服务器中。
[0290]
然后,如图8所示,服务器303便可以根据对象的面部图像识别出对象的身份信息,以及根据对象的第一实时位置信息和第二实时位置信息得到对象的扣费信息。然后,服务器可以根据对象的身份信息,得到对象的支付账号信息。最后,对象可以根据对象的扣费信息和支付账号信息进行扣费处理。
[0291]
为了更好地实施本技术实施例提供的基于面部识别的支付方法,在一实施例中还提供了一种基于面部识别的支付装置,该基于面部识别的支付装置可以集成于计算机设备中。其中名词的含义与上述基于面部识别的支付方法中相同,具体实现细节可以参考方法实施例中的说明。
[0292]
在一实施例中,提供了一种基于面部识别的支付装置,该基于面部识别的支付装置具体可以集成在计算机设备中,如图11所示,该基于面部识别的支付装置包括:接收单元401、身份识别单元402、提取单元403、确定单元404、获取单元405和扣费单元406,具体如下:
[0293]
接收单元401,用于接收交通工具上第二面部采集设备发送的扣费请求,所述扣费请求携带对象的面部图像以及所述对象的第二实时位置信息;
[0294]
身份识别单元402,用于根据所述扣费请求对所述面部图像进行身份识别,得到所述对象的身份信息;
[0295]
提取单元403,用于根据所述对象的身份信息,从预设数据库中提取所述对象的第一实时位置信息,所述第一实时位置信息由第一面部采集设备发送;
[0296]
确定单元404,用于根据所述第一实时位置信息确定所述对象的起始站信息,以及根据所述第二实时位置信息确定所述对象的终点站信息;
[0297]
获取单元405,用于根据所述对象的身份信息获取所述对象在支付系统中的支付账号信息;
[0298]
扣费单元406,用于根据所述对象的起始站信息、所述终点站信息和所述支付账号信息进行扣费处理。
[0299]
在一实施例中,所述身份识别单元402,包括:
[0300]
特征识别子单元,用于对所述面部图像进行特征识别处理,得到所述对象的面部特征;
[0301]
特征匹配子单元,用于将所述对象的面部特征和多个预设面部特征进行匹配;
[0302]
身份确定子单元,用于根据所述对象的面部特征和多个预设面部特征的匹配结果,确定所述对象的身份信息。
[0303]
在一实施例中,所述特征识别子单元,包括:
[0304]
点位生成模块,用于对所述面部图像进行点位生成处理,得到所述面部图像中面部部位特征点的位置信息;
[0305]
联结模块,用于对所述面部部位特征点的位置信息进行联结处理,得到所述面部图像中面部部位的轮廓信息;
[0306]
筛选模块,用于在所述面部部位特征点中筛选出多个目标面部部位特征点;
[0307]
计算模块,用于分别计算所述多个目标面部部位特征点的位置信息之间的空间差异信息;
[0308]
关联模块,用于将所述轮廓信息和所述空间差异信息进行关联处理,得到所述对象的面部特征。
[0309]
在一实施例中,所述点位生成模块,包括:
[0310]
高维特征提取子模块,用于对所述面部图像进行高维特征提取处理,得到所述面部图像的特征信息;
[0311]
特征降维子模块,用于对所述面部图像的特征信息进行特征降维处理,得到降维后特征信息;
[0312]
池化子模块,用于对所述降维后特征信息进行池化处理,得到池化后特征信息;
[0313]
低维特征提取子模块,用于对所述池化后特征信息进行低维特征提取处理,得到所述面部图像中面部部位特征点的位置信息。
[0314]
在一实施例中,所述特征匹配子单元,包括:
[0315]
差异对比模块,用于分别将所述对象的面部特征和所述多个预设面部特征进行差异对比,得到所述面部特征和每个预设面部特征之间的差异值;
[0316]
筛选模块,用于根据所述面部特征和每个预设面部特征之间的差异值,从所述多个预设面部特征中筛选出目标预设面部特征;
[0317]
对比模块,用于将所述面部特征和所述目标预设面部特征之间的差异值和预设差异阈值进行对比。
[0318]
在一实施例中,所述身份确定子单元,包括:
[0319]
获取模块,用于当所述面部特征和所述目标预设面部特征之间的差异值小于或等于所述预设差异阈值时,获取所述目标预设面部特征对应的特征字符串;
[0320]
确定模块,用于将所述特征字符串确定为所述对象的身份信息。
[0321]
在一实施例中,所述提取单元403,包括:
[0322]
信息匹配子单元,用于将所述对象的身份信息和预设数据库中的预设身份信息进行匹配;
[0323]
确定子单元,用于当所述对象的身份信息和所述预设身份信息相匹配时,确定所述预设身份信息的信息存储容器;
[0324]
提取子单元,用于利用所述信息存储容器的存储结构,在所述信息存储容器中提取所述对象的第一实时位置信息。
[0325]
在一实施例中,所述确定单元404,包括:
[0326]
第一生成子单元,用于根据所述第一实时位置信息,生成包括所述第一实时位置信息的第一区域范围;
[0327]
第一确定子单元,用于在所述第一区域范围内确定所述对象的起始站信息;
[0328]
第二生成子单元,用于根据所述第二实时位置信息,生成包括所述第二实时位置信息的第二区域范围;
[0329]
第二确定子单元,用于在所述第二区域范围内确定所述对象的终点站信息。
[0330]
在一实施例中,所述第一确定子单元,包括:
[0331]
筛选模块,用于根据所述第一实时位置信息,在所述第一区域范围内的多个预设站点位置信息中筛选出目标预设站点位置信息;
[0332]
确定模块,用于将所述目标预设站点位置信息对应的标识信息确定为所述起始站信息。
[0333]
在一实施例中,所述确定模块,包括:
[0334]
距离生成子模块,用于将所述第一实时位置信息和所述第一区域范围内的多个预设站点位置信息进行距离生成处理,得到所述第一实时位置信息和每个预设站点位置信息之间的距离信息;
[0335]
排序子模块,用于将所述第一实时位置信息和每个预设站点位置信息之间的距离信息进行排序,得到排序结果;
[0336]
筛选子模块,用于根据所述排序结果,在所述多个预设站点位置信息中筛选所述目标预设站点位置信息。
[0337]
在一实施例中,所述扣费单元406,包括:
[0338]
生成子单元,用于根据所述起始站信息和所述终点站信息,生成所述对象的轨迹信息;
[0339]
匹配子单元,用于将所述对象的轨迹信息和预设价格配置表进行匹配,得到所述对象的扣费信息;
[0340]
扣费子单元,用于调用扣费接口根据所述对象的支付账号信息和扣费信息进行扣费处理。
[0341]
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
[0342]
通过上述的基于面部识别的支付装置可以提高人们乘坐交通工具的便捷性。
[0343]
本技术实施例还提供一种计算机设备,该计算机设备可以包括终端或服务器,比如,计算机设备可以作为基于面部识别的支付终端,该终端可以为手机、平板电脑等等;又比如计算机设备可以为服务器,如基于面部识别的支付服务器等。如图12所示,其示出了本技术实施例所涉及的终端的结构示意图,具体来讲:
[0344]
该计算机设备可以包括一个或者一个以上处理核心的处理器501、一个或一个以上计算机可读存储介质的存储器502、电源503和输入单元504等部件。本领域技术人员可以
理解,图12中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
[0345]
处理器501是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器502内的软件程序和/或模块,以及调用存储在存储器502内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体监控。可选的,处理器501可包括一个或多个处理核心;优选的,处理器501可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户页面和应用程序等,调制解调处理器主要处理无线通讯。可以理解的是,上述调制解调处理器也可以不集成到处理器501中。
[0346]
存储器502可用于存储软件程序以及模块,处理器501通过运行存储在存储器502的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器502可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器502还可以包括存储器控制器,以提供处理器501对存储器502的访问。
[0347]
计算机设备还包括给各个部件供电的电源503,优选的,电源503可以通过电源管理系统与处理器501逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源503还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
[0348]
该计算机设备还可包括输入单元504,该输入单元504可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
[0349]
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器501会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器502中,并由处理器501来运行存储在存储器502中的应用程序,从而实现各种功能,如下:
[0350]
接收交通工具上第二面部采集设备发送的扣费请求,所述扣费请求携带对象的面部图像以及所述对象的第二实时位置信息;
[0351]
根据所述扣费请求对所述面部图像进行身份识别,得到所述对象的身份信息;
[0352]
根据所述对象的身份信息,从预设数据库中提取所述对象的第一实时位置信息,所述第一实时位置信息由第一面部采集设备发送;
[0353]
根据所述第一实时位置信息确定所述对象的起始站信息,以及根据所述第二实时位置信息确定所述对象的终点站信息;
[0354]
根据所述对象的身份信息获取所述对象在支付系统中的支付账号信息;
[0355]
根据所述对象的起始站信息、所述终点站信息和所述支付账号信息进行扣费处理。
[0356]
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
[0357]
根据本技术的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程
序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中各种可选实现方式中提供的方法。
[0358]
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过计算机程序来完成,或通过计算机程序控制相关的硬件来完成,该计算机程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
[0359]
为此,本技术实施例还提供一种存储介质,其中存储有计算机程序,该计算机程序能够被处理器进行加载,以执行本技术实施例所提供的任一种基于面部识别的支付方法中的步骤。例如,该计算机程序可以执行如下步骤:
[0360]
接收交通工具上第二面部采集设备发送的扣费请求,所述扣费请求携带对象的面部图像以及所述对象的第二实时位置信息;
[0361]
根据所述扣费请求对所述面部图像进行身份识别,得到所述对象的身份信息;
[0362]
根据所述对象的身份信息,从预设数据库中提取所述对象的第一实时位置信息,所述第一实时位置信息由第一面部采集设备发送;
[0363]
根据所述第一实时位置信息确定所述对象的起始站信息,以及根据所述第二实时位置信息确定所述对象的终点站信息;
[0364]
根据所述对象的身份信息获取所述对象在支付系统中的支付账号信息;
[0365]
根据所述对象的起始站信息、所述终点站信息和所述支付账号信息进行扣费处理。
[0366]
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
[0367]
由于该存储介质中所存储的计算机程序,可以执行本技术实施例所提供的任一种基于面部识别的支付方法中的步骤,因此,可以实现本技术实施例所提供的任一种基于面部识别的支付方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
[0368]
以上对本技术实施例所提供的一种基于面部识别的支付方法、装置、计算机设备和存储介质进行了详细介绍,本文中应用了具体个例对本技术的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本技术的方法及其核心思想;同时,对于本领域的技术人员,依据本技术的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本技术的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1