基于图像的操作引导方法、装置、设备及可读存储介质与流程

文档序号:26790739发布日期:2021-09-28 23:18阅读:73来源:国知局
基于图像的操作引导方法、装置、设备及可读存储介质与流程

1.本技术涉及图像处理领域,尤其涉及一种基于图像的操作引导方法、装置、设备及可读存储介质。


背景技术:

2.目前的图像合成软件利用ar技术将使用者的脸部进行渲染,并展现虚拟的妆后效果图像。使用者可以参照妆后效果图像化妆,但是妆后效果图像展示的是所有化妆流程完成后的最终的妆后效果,无法显示中间效果图,更无法引导使用者分步骤化妆。可见,现有化妆软件的功能单一。


技术实现要素:

3.本技术提供了一种基于图像的操作引导方法、装置、设备及可读存储介质,如下:
4.一种基于图像的操作引导方法,包括:
5.获取第一图像,所述第一图像为预设的对象的成像;
6.将获取的所述第一图像进行预设处理后,得到多个图像并显示;
7.接收从所述多个图像中选择目标图像的指令后,输出所述目标图像对应的分解步骤的信息,所述分解步骤的信息至少包括所述分解步骤的效果图像;
8.接收目标分解步骤完成指令后,获取第二图像,所述第二图像为按照所述目标分解步骤对所述对象进行操作后的成像;所述目标分解步骤为任意一条所述分解步骤。
9.可选地,在所述获取第二图像之后,还包括:
10.从所述第二图像中提取预设区域,得到第一区域;
11.从所述效果图像中提取所述预设区域,得到第二区域;
12.若所述第一区域与所述第二区域的差异值大于预设的阈值,在所述第二图像中,显示所述第一区域的位置的提示信息。
13.可选地,分解步骤的信息还包括:操作指示信息;和/或颜色指示信息和操作部位指示信息的至少一项。
14.可选地,分解步骤为将预设的操作流程划分为预设数值后形成的步骤;所述预设数值由所述对象的操作者预先配置。
15.可选地,接收目标分解步骤完成指令,包括:
16.接收所述对象的操作者对预设的界面的控件进行操作触发的指令;或者,
17.接收按照预设周期触发的指令。
18.可选地,预设区域包括:所述目标分解步骤对应的操作部位划分得到的区域。
19.可选地,本方法还包括:
20.若第一区域与第二区域的差异值不大于所述预设的阈值,获取第三图像,所述第三图像为按照所述目标分解步骤之外的其它步骤,对所述对象进行操作后的成像。
21.一种基于图像的操作引导装置,包括:
22.第一图像获取单元,用于获取第一图像,所述第一图像为预设的对象的成像;
23.图像显示单元,用于将获取的所述第一图像进行预设处理后,得到多个图像并显示;
24.步骤信息输出单元,用于接收从所述多个图像中选择目标图像的指令后,输出所述目标图像对应的分解步骤的信息,所述分解步骤的信息至少包括所述分解步骤的效果图像;
25.第二图像获取单元,用于接收目标分解步骤完成指令后,获取第二图像,所述第二图像为按照所述目标分解步骤对所述对象进行操作后的成像,所述目标分解步骤为任意一条所述分解步骤。
26.一种基于图像的操作引导设备,包括:存储器和处理器;
27.所述存储器,用于存储程序;
28.所述处理器,用于执行所述程序,实现如上所述的基于图像的操作引导方法的各个步骤。
29.一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上所述的基于图像的操作引导方法的各个步骤。
30.一种基于图像的化妆系统,包括:
31.基于图像的操作引导设备,用于实现如上所述的基于图像的操作引导方法的各个步骤;
32.化妆机器人,用于依据所述基于图像的操作引导设备输出的信息,完成化妆操作。
33.由上述技术方案可以看出,本技术实施例提供一种基于图像的操作引导方法、装置、设备及可读存储介质,将获取的第一图像进行预设处理后,得到多个图像并显示,接收从多个图像中选择目标图像的指令后,输出目标图像对应的分解步骤的信息,分解步骤的信息至少包括分解步骤的效果图像,接收目标分解步骤完成指令后,获取第二图像,第二图像为按照目标分解步骤对对象进行操作后的成像,目标分解步骤为任意一条分解步骤。可见,相对于现有技术中展示最终效果图的方法,本方法可以获取目标图像对应的预设的分解步骤的信息,并且,分解步骤的信息至少包括分解步骤的效果图像,由此,本方法可以显示化妆流程中的中间效果图,也即分解步骤的效果图像,从而指导对象的操作者分步骤完成操作流程。
附图说明
34.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
35.图1为本技术实施例提供的一种基于图像的操作引导方法的具体实施方法的流程示意图;
36.图2为本技术实施例提供的一种图像展示效果示意图;
37.图3为本技术实施例提供的一种分解步骤的信息输出效果示意图;
38.图4为本技术实施例提供的一种人脸语义分割技术的效果图;
39.图5a为本技术实施例提供的分解步骤的效果图像中的眉毛部位的划分示意图;
40.图5b本技术实施例提供的第二图像中的眉毛部位的划分示意图;
41.图6为本技术实施例提供的一种基于图像的操作引导方法的流程示意图;
42.图7为本技术实施例提供的一种基于图像的操作引导装置的结构示意图;
43.图8为本技术实施例提供的一种基于图像的操作引导设备的结构示意图。
具体实施方式
44.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
45.本技术实施例提供的基于图像的操作引导方法适用于但不限于具有拍摄及显示功能的智能电子设备,例如智能手机、ipad、以及笔记本电脑。需要说明的是,本方法的应用场景包括但不限于用户需要被指导完成化妆的场景。
46.图1为本技术实施例提供的一种基于图像的操作引导方法的流程示意图,如图1所示,本方法具体可以包括:
47.s101、获取第一图像。
48.本实施例中,第一图像为预设的对象的成像,例如,预设的对象为待完成化妆的人脸正面或侧面,即第一图像为人脸的正面照或侧面照。
49.需要说明的是,第一图像的获取方法可以包括多种,在实际应用中,本实施例可以依据预先设置的工作模式,获取第一图像。其中,工作模式可以依据对象的操作者的使用需求进行预设。为便于表述,本实施例将对象的操作者记为用户。
50.例如,工作模式为实时模式,第一图像的获取方法为响应于获取第一图像的指令(例如用户点击拍摄按钮发出的指令)获取摄像头拍摄的图像。再例如,工作模式为记忆模式(即从已经存储的图像中获取),则第一图像的获取方法可以为,从图库中获取图像选择指令指示的图像为第一图像。其中,图像选择指令由用户触发。在记忆模式下,本方法可以预先存储多个第一图像至图库中。
51.s102、将获取的第一图像进行预设处理后,得到多个图像并显示。
52.本实施例中,预设处理的过程包括:依据预设的效果,对第一图像通过人工智能技术进行直接的效果合成,生成效果图像。需要说明的是,多个图像包括经过预设处理后的至少一个效果图像,其中,每一效果图像展示一种化妆风格。
53.本实施例中,将多个图像与对应的模板图像对应显示,并且本实施例中还可以显示第一图像,例如图2示例的一种图像展示效果示意图,如图2所示,201为第一图像,202为模板图像,203第一图像经过预设处理后的图像(即效果图像),其中,模板图像与效果图像一一对应,相对应的模板图像和效果图像属于相同化妆风格。
54.需要说明的是,图2仅示例了一种可选的显示效果,还可以有其他的显示经过预设处理后的多个图像方法,本实施例不作限定。
55.s103、接收从多个图像中选择目标图像的指令后,输出目标图像对应的分解步骤的信息。
56.本实施例中,从多个图像中选择目标图像的指令可以为用户对预设的界面的控件进行操作触发的选择指令,例如用户点击目标图像触发选择指令,表示用户选中指令指示的效果图像为目标图像。本实施例中,目标图像对应于预设数值的分解步骤,分解步骤为将预设的操作流程划分为预设数值后形成的步骤,其中预设数值由对象的操作者预先配置,例如,预设数值可以包括5、10、或15。
57.任一分解步骤的信息包括:分解步骤的效果图像、操作指示信息、颜色指示信息、以及操作部位指示信息。其中,操作指示信息用于指示完成当前分解步骤的操作流程,例如,分解步骤的操作指示信息为涂口红,用于指导对象的操作者在当前分解步骤下的操作流程为涂口红。颜色指示信息指示操作流程所需化妆品的颜色,可选地,颜色指示信息可以为化妆品品牌及色号,例如口红品牌以及色号。操作部位指示信息,用于指示操作的部位,例如,嘴唇部位。
58.输出目标图像对应的预设的分解步骤的信息包括:显示每一分解步骤的分解效果图,并输出操作指示信息、颜色指示信息、以及操作部位指示信息。需要说明的是,输出方法可以包括但不限于语音提示、高亮显示和/或文字展示。
59.本实施例以化妆流程为画眉毛为例,对输出目标图像对应的分解步骤的信息的方法进行介绍,图3示例了画眉毛对应的分解步骤的信息输出示意图。如图3所示,301为分解步骤的分解效果图,302为文字展示的分解步骤的操作指示信息,303为文字展示的分解步骤的颜色指示信息,304为以框线标出的操作部位指示信息。需要说明的是,图3示例的分解步骤的信息输出示意图仅为一种可选的输出方案,其中,305为目标图像的效果名称,306为分解步骤指示按钮,图3以预设数值为5为例,当前的分解步骤画眉毛为其中的第三个分解步骤,307为显示框,用于显示对象的实时成像(这里未画出)。需要强调的是,在其他的可选方案中,305~307均为可选的显示界面。
60.需要说明的是,本实施例通过将目标图像对应的分解步骤的信息输出,使得用户能够看到完成妆容的中间步骤的效果图像,又因为,分解步骤的信息包括分解步骤的效果图像、操作指示信息、颜色指示信息、以及操作部位指示信息,所以实现精细指导操作者按照中间步骤的信息进行操作的目的。
61.进一步需要说明的是,本方法预设的分解步骤的个数(即预设数值)由对象的操作者预先配置,预设数值越大,步骤的分解越细,完成分解步骤的难度越小。可见,本实施例考虑到实际应用中操作者的化妆水平或对妆容复杂度的需求等因素,使得使用者可以自行设置分解步骤的个数,提高了本方法的灵活性以及个性化程度。
62.s104、接收目标分解步骤完成指令后,获取第二图像。
63.本实施例中,目标分解步骤为任意一条分解步骤,第二图像为按照目标分解步骤对对象进行操作后的成像。
64.为便于描述,以预设的对象为面部,目标分解步骤为第一分解步骤(第一分解步骤的操作指示信息为打粉底,颜色指示信息为象牙白,以及操作部位指示信息为脸颊)为例,对象的操作者按照第一分解步骤对面部进行打粉底操作的同时,本方法按照预设周期获取操作后的面部的成像作为第二图像。
65.需要说明的是,预设周期可以由用户预先配置,例如,配置为5秒。则,以第一分解步骤为例,在对象的操作者按照第一分解步骤对面部进行打粉底操作的同时,本方案每5秒
接收一次自动触发的目标分解步骤完成指令,并获取一次对象的操作者对面部进行打粉底操作过程中对象的成像。使用预设的周期自动采集分步操作的结果成像,有利于用户专注于妆面,而无需手动触发操作结果成像的更新。
66.s105、判断第一区域与第二区域的差异值是否大于预设的阈值。
67.本实施例中,第一区域通过从第二图像中提取预设区域得到,第二区域通过从效果图像中提取预设区域得到。预设区域为目标分解步骤对应的操作部位划分得到的区域,目标分解步骤对应的操作部位为目标分解步骤的操作部位指示信息指示的部位。
68.本实施例中,对于对象中各个部位的区域划分可以预先进行,针对任一部位,划分方法包括:
69.a1、使用计算机视觉语义分割技术(包括但不限于unet,deeplabv3算法)分别对分解步骤的效果图像中的部位以及第二图像中的部位进行划分,得到预设数量的子区域。
70.图4示例了人脸语义分割技术的效果图,人脸语义分割技术通过计算机视觉技术对图像的每个区域进行像素级的分割,如图4所示,通过人脸语义分割技术把面部图像的各个部位进行了分割,得到眉毛区域和眼睛区域分割区域。
71.以分解步骤为画眉毛且预设数量为5为例,本实施例中,可以使用计算机视觉语义分割技术进一步将分解步骤的效果图像中的眉毛部位以及第二图像中的眉毛部位划分,在效果图像以及第二图像中分别得到的眉毛部位划分的5个子区域,如图5a和图5b所示,图5a示例了分解步骤的效果图像中的眉毛部位的划分示意图,图5b示例了第二图像中的眉毛部位的划分示意图。
72.a2、分别对子区域进行标号。
73.本实施例中,对各个部位按预设的顺序进行标号。
74.以眉毛部位为例,可以将眉毛部位分为8个区域(可以根据实际需求选择分割的具体数目),并编号,如图5a和图5b所示,需要说明的是,由于额头部位、侧脸部位面积较大,因此,进行划分时可以以多种方式进行划分。
75.本实施例中,第一区域为第二图像中,目标分解步骤对应的操作部位划分得到的任一区域,第二区域为目标分解步骤的效果图像中,与第一区域标号相同的区域。
76.如图5a所示,第一区域为第二图像中的眉毛部位划分得到的标号为01的区域,如图5b所示,第二区域为第二图像中的眉毛部位划分得到的标号为01的区域。可以理解的是,由于划分方式以及标号顺序相同,则,第一区域和第二区域指示对象的相同位置,例如,图5a和图5b中,标号为01的区域均为对象中的左眉头区域。
77.第一区域和第二区域的差异值可以为第一区域像素的平均值与第二区域像素的平均值的差值,需要说明的是,区域(第一区域或第二区域)像素的平均值的计算方法可以进一步将区域划分为像素块,先计算每一像素块的平均值,再计算整个区域的像素平均值。例如,可选的一种具体的计算方式为:假设区域(或子区域)为100x100大小的像素块,可以将该效果图像中的该区域以及第二图像中的该区域分成4x4的像素块,计算每个4x4的像素块的像素平均值的差异。
78.需要说明的是,本实施例中,预设区域由目标分解步骤对应的操作部位划分得到,本方法划分方法为,利用计算机视觉技术对人脸进行语义分割,并对分割后的部位进行细分标号,由此,实现更精确的对比操作者的操作效果与目标分解步骤的效果之间的区别的
同时,提高了处理速度。
79.例如,本方法对人脸进行语义分割后,计算第一区域与第二区域的差异值时,相当于将操作部位对应的像素块划分为子像素块,计算第二图像中每一子像素块的像素平均值,并将其与效果图像中对应的子像素块的像素平均值计算差异值,可见相对于计算每一像素值的差异,本方法提高了处理速度。
80.s106、若第一区域与第二区域的差异值大于预设的阈值,在第二图像中,显示第一区域的位置的提示信息。
81.当第一区域与第二区域的差异值大于预设的阈值,则表示用户按照目标分解步骤对第一区域进行操作未完成,则本方案以高亮或闪动的方式突出显示第一区域,以提示用户第一区域为完成目标分解步骤。
82.可见,本方法可以提示用户未完成操作流程的区域,进一步达到指导用户完成当前分解步骤的目的。
83.需要说明的是,按照上述划分方法,目标分解步骤对应的操作部位划分得到的区域可以包括多个,本实施例执行s105时,将每个第一区域与对应的第二区域进行差异值的判断,将与对应的第二区域的差异值大于预设的阈值的第一区域,在第二图像中进行高亮或闪动提示。直至第二图像中,目标分解步骤对应的操作部位划分得到的所有第一区域与对应的效果图像中的第二区域的差异值均不大于预设的阈值。
84.当第二图像中,目标分解步骤对应的操作部位划分得到的所有第一区域与对应的效果图像中的第二区域的差异值均不大于预设的阈值差异值,说明目标分解步骤的操作已经被用户执行得满足要求,因此,本实施例中,进一步获取按照目标分解步骤之后的分解步骤对对象进行操作后的对象的成像,即第三图像,并按照上述s105~s106,判断第一区域与第二区域的差异值是否大于预设的阈值。直至第三图像中,下一步骤对应的操作部位划分得到的所有第一区域与对应的步骤效果图像中的第二区域的差异值均不大于预设的阈值。
85.需要说明的是,当任一分解步骤对应的操作部位划分得到的所有第一区域与对应的效果图像中的第二区域的差异值均不大于预设的阈值差异值,说明该分解步骤的操作已经被用户执行得满足要求,所以本实施例按照分解步骤的顺序,针对按照分解步骤对对象进行操作后的对象的成像,判断第一区域与第二区域的差异值是否大于预设的阈值,若第一区域与第二区域的差异值大于预设的阈值,在图像中,显示第一区域的位置的提示信息,若第一区域与第二区域的差异值不大于预设的阈值,则获取按照下一个分解步骤对对象进行操作后的对象的成像,直至所有分解步骤均被用户执行得满足要求。
86.由上述技术方案可以看出,本技术实施例提供一种基于图像的操作引导方法,基于分解步骤的效果图像,对化妆过程进行操作引导以及操作提示,使得用户能够看到完成妆容的中间步骤的效果图像,按照中间步骤的信息进行操作,并进行及时的修正。相对于现有技术中仅展示最终效果图的方法,本方法的指导过程更加细致,且具有实时性。
87.需要说明的是,图1仅示例了本技术实施例提供的一种基于图像的操作引导方法的具体实施方式,可选的,本技术实施例还包括其他实施方式,例如本方法还可以接收对象的操作者对预设的界面的控件进行操作触发的跳转指令,跳转至任一分解步骤,如图2所示,对象的操作者可以在界面中,点击306中任一步骤触发跳转指令。图6为本技术实施例提供的基于图像的操作引导方法的流程示意图。图6将本技术实施例提供的一种基于图像的
操作引导方法概括总结为下述s601~s604。
88.s601、获取第一图像。
89.本实施例中,第一图像为预设的对象的成像,具体的,预设的对象指的是待完成化妆的对象,例如当预设的对象为待完成化妆的面部,则第一图像为面部的正面照或侧面照。第一图像的获取方法可以包括多种,例如,获取摄像头拍摄的图像或获取预先存储的图像,具体参见s101。
90.s602、将获取的第一图像进行预设处理后,得到多个图像并显示。
91.本实施例中,第一图像经过预设处理后的图像为对第一图像通过人工智能技术进行直接的效果合成,生成的预设效果的效果图像。需要说明的是,效果图像包括至少一个。
92.本实施例中,显示多个图像的方法可以参见s102,需要说明的是,显示多个图像的方式不限于s102中的方法,可选的,还可以逐个显示多个图像,直至对象的操作者选中当前显示的效果图像,对此本实施例不作赘述。
93.s603、接收从多个图像中选择目标图像的指令后,输出目标图像对应的分解步骤的信息。
94.其中,从多个图像中选择目标图像的指令由对象的操作者输入,可以为对象的操作者对预设的界面的控件进行操作触发的选择指令。
95.本实施例中,分解步骤的信息至少包括分解步骤的效果图像,输出目标图像对应的预设的分解步骤的信息至少包括,显示每一分解步骤的效果图像,每一分解步骤的效果图像展示了在该分解步骤完成后的效果。
96.需要说明的是,分解步骤的信息还可以包括其他信息,例如操作指示信息,具体可以参见s103。
97.s604、接收目标分解步骤完成指令后,获取第二图像。
98.本实施例中,目标分解步骤为任意一条分解步骤,第二图像为按照目标分解步骤对对象进行操作后的成像,目标分解步骤为任意一条分解步骤。
99.需要说明的是,接收目标分解步骤完成指令的方法可以为,接收按照预设周期触发的目标分解步骤完成指令,具体可以参见上述s104。
100.可选地,接收目标分解步骤完成指令的方法还可以包括其他方法,例如,接收对象的操作者对预设的界面的控件进行操作触发的指令,具体地,当完成目标分解步骤后,对象的操作者可以对预设的界面的控件进行操作触发完成指令,本方法在接收目标分解步骤完成指令后获取第二图像。
101.由上述技术方案可以看出,本技术实施例提供一种基于图像的操作引导方法、装置、设备及可读存储介质,由上述技术方案可以看出,本技术实施例提供一种基于图像的操作引导方法、装置、设备及可读存储介质,将获取的第一图像进行预设处理后,得到多个图像并显示,接收从多个图像中选择目标图像的指令后,输出目标图像对应的分解步骤的信息,分解步骤的信息至少包括分解步骤的效果图像,接收目标分解步骤完成指令后,获取第二图像,第二图像为按照目标分解步骤对对象进行操作后的成像,目标分解步骤为任意一条分解步骤。可见,相对于现有技术中展示最终效果图的方法,本方法可以获取目标图像对应的预设的分解步骤的信息,并且,分解步骤的信息至少包括分解步骤的效果图像,由此,本方法可以显示化妆流程中的中间效果图,也即分解步骤的效果图像,从而指导对象的操
作者分步骤完成操作流程。
102.本实施例以将本技术实施例提供的基于图像的操作引导方法应用于智能手机为例,对指导用户(即对象的操作者为人)完成化妆的场景下的人机交互过程进行介绍。需要说明的是,本方法需要用户预先下载并安装手机化妆软件。具体的人机交互过程包括:
103.a1、用户启动化妆软件,点击拍摄按钮,以拍摄待化妆的对象。
104.a2、化妆软件通过手机摄像头拍摄用户的正面照,并显示用户的正面照,以及正面照经过预设处理后的图像,其中,预设处理后的图像为多个化装软件内置的不同妆容后的正面照。
105.a3、用户从多个经过预设处理后的图像中点击任一图像,即目标图像,并选择分解步骤的数目n。
106.a4、化妆软件按照分解步骤的数目n,将操作流程划分为n个分解步骤,并按照分解步骤的顺序逐一输出目标图像对应的分解步骤的信息。
107.为描述方便,以输出第一个分解步骤为涂口红为例,手机软件显示该分解步骤的信息的方式为:手机屏幕显示分解步骤的效果图像、显示操作指示信息的文字提示(涂口红)、显示颜色指示信息的文字提示(色号为红色)、以及高光显示操作部位指示信息指示的部位(高光显示唇部)。
108.a5、用户按照分解步骤的信息进行操作。
109.a6、化妆软件通过摄像头实时拍摄操作过程中的用户的实时正面照,即第二图像,并判断实时正面照中唇部区域划分得到的区域与对应的效果图像的唇部区域划分得到区域的差异值是否大于预设的阈值。
110.在实时正面照中唇部区域得到的区域与对应的效果图像的唇部区域划分得到区域的差异值大于预设的阈值的情况下,高光显示实时正面照中唇部区域得到的区域,例如比对实时正面照中唇峰部位与效果图像中的唇峰部位的差异值,若差异值大于预设阈值,则高光显示唇峰部位。
111.在实时正面照中唇部区域得到的区域与对应的效果图像的唇部区域划分得到区域的差异值均不大于预设的阈值的情况下,显示下一分解步骤的信息。
112.a7、用户在看到显示的高光区域后,按照分解步骤的信息继续完成分解步骤,直至屏幕显示下一分解步骤的信息,再继续按照下一分解步骤的信息进行操作,直至完成所有分解步骤。
113.综上可见,本方法基于分解步骤的效果图像,对化妆过程进行操作引导以及操作提示,使得用户能够看到完成妆容的中间步骤的效果图像,按照中间步骤的信息进行操作,并进行及时的修正。相对于现有技术中仅展示最终效果图的方法,本方法的指导过程更加细致,且具有实时性,进一步,用户可以选择分解步骤的数目,预设数值越大,步骤的分解越细,完成分解步骤的难度越小,由此,丰富了化装软件的功能。
114.需要说明的是,本技术实施例仅以本技术提供的基于图像的操作引导方法应用于手机软件为例,对可选的一种应用场景下的人机交互过程进行说明,本方法还可以应用于pc客户端、ipad软件等,对此,本技术实施例不做限定。
115.需要说明的是,本技术实施例提供的基于图像的操作引导方法还可以应用于一种基于图像的化妆系统,具体的,本技术实施例还提供了一种基于图像的化妆系统,包括:基
于图像的操作引导设备以及化妆机器人。
116.其中,基于图像的操作引导设备,用于实现本技术实施例提供的一种基于图像的操作引导方法的各个步骤,化妆机器人,用于依据基于图像的操作引导设备输出的信息,完成化妆操作。
117.本实施例中,基于图像的操作引导设备与化妆机器人预先建立通信(不限于无线通信或有线通信),图像的操作引导设备可以执行上述实施例中的基于图像的操作引导方法,并输出信息,其中,输出的信息用于指导化妆机器人完成化妆操作,例如,将a1~a7中用户与智能手机的交互过程替换为化妆机器人与基于图像的操作引导设备的交互过程即可。
118.需要说明的是,在基于图像的化妆系统的实际应用中,可以由用户(人)以及化妆机器人共同完成化妆过程,例如,a3中,由用户按照需求执行,选择目标图像,a5中,化妆机器人按照分解步骤的信息进行操作。
119.可见,本技术实施例提供的基于图像的化妆系统,化妆机器人可以依据基于图像的操作引导设备输出的信息,完成化妆操作,其中输出的信息为图像的操作引导设备执行基于图像的操作引导方法的各个步骤得到的用于指导化妆的信息。因此,基于图像的操作引导设备基于分解步骤的效果图像,对化妆过程进行操作引导以及操作提示,使得化妆机器人能够按照中间步骤的信息进行操作,并进行及时的修正。
120.本技术实施例还提供了一种基于图像的操作引导装置,下面对本技术实施例提供的基于图像的操作引导装置进行描述,下文描述的基于图像的操作引导装置与上文描述的基于图像的操作引导方法可相互对应参照。
121.请参阅图7,示出了本技术实施例提供的一种基于图像的操作引导装置的结构示意图,如图7所示,该装置可以包括:
122.第一图像获取单元701,用于获取第一图像,所述第一图像为预设的对象的成像;
123.图像显示单元702,用于将获取的所述第一图像进行预设处理后,得到多个图像并显示;
124.步骤信息输出单元703,用于接收从所述多个图像中选择目标图像的指令后,输出所述目标图像对应的分解步骤的信息,所述分解步骤的信息至少包括所述分解步骤的效果图像;
125.第二图像获取单元704,用于接收目标分解步骤完成指令后,获取第二图像,所述第二图像为按照所述目标分解步骤对所述对象进行操作后的成像,所述目标分解步骤为任意一条所述分解步骤。
126.可选地,还包括:
127.区域获取单元,用于在获取第二图像之后,从所述第二图像中提取预设区域,得到第一区域,从所述效果图像中提取所述预设区域,得到第二区域。
128.提示信息显示单元,用于若所述第一区域与所述第二区域的差异值大于预设的阈值,在所述第二图像中,显示所述第一区域的位置的提示信息。
129.可选地,分解步骤的信息还包括:
130.操作指示信息;和/或
131.颜色指示信息和操作部位指示信息的至少一项。
132.可选地,分解步骤为将预设的操作流程划分为预设数值后形成的步骤;所述预设
数值由所述对象的操作者预先配置。
133.可选地,还包括:指令接收单元,用于接收目标分解步骤完成指令,
134.可选地,指令接收单元具体用于:接收所述对象的操作者对预设的界面的控件进行操作触发的指令;或者,接收按照预设周期触发的指令。
135.可选的,预设区域包括:目标分解步骤对应的操作部位划分得到的区域。
136.可选地,还包括:第三图像获取单元,用于若第一区域与第二区域的差异值不大于所述预设的阈值,获取第三图像,所述第三图像为按照所述目标分解步骤之外的其它步骤,对所述对象进行操作后的成像。
137.本技术实施例还提供了一种基于图像的操作引导设备,请参阅图8,示出了该基于图像的操作引导设备的结构示意图,该设备可以包括:至少一个处理器801,至少一个通信接口802,至少一个存储器803和至少一个通信总线804;
138.在本技术实施例中,处理器801、通信接口802、存储器803、通信总线804的数量为至少一个,且处理器801、通信接口802、存储器803通过通信总线804完成相互间的通信;
139.处理器801可能是一个中央处理器cpu,或者是特定集成电路asic(application specific integrated circuit),或者是被配置成实施本发明实施例的一个或多个集成电路等;
140.存储器803可能包含高速ram存储器,也可能还包括非易失性存储器(non-volatile memory)等,例如至少一个磁盘存储器;
141.其中,存储器存储有程序,处理器可执行存储器存储的程序,实现本技术实施例提供的基于图像的操作引导方法,包括:
142.获取第一图像,所述第一图像为预设的对象的成像;
143.将获取的所述第一图像进行预设处理后,得到多个图像并显示;
144.接收从所述多个图像中选择目标图像的指令后,输出所述目标图像对应的分解步骤的信息,所述分解步骤的信息至少包括所述分解步骤的效果图像;
145.接收目标分解步骤完成指令后,获取第二图像,所述第二图像为按照所述目标分解步骤对所述对象进行操作后的成像;所述目标分解步骤为任意一条所述分解步骤。
146.可选地,在所述获取第二图像之后,还包括:
147.从所述第二图像中提取预设区域,得到第一区域;
148.从所述效果图像中提取所述预设区域,得到第二区域;
149.若所述第一区域与所述第二区域的差异值大于预设的阈值,在所述第二图像中,显示所述第一区域的位置的提示信息。
150.可选地,分解步骤的信息还包括:操作指示信息;和/或颜色指示信息和操作部位指示信息的至少一项。
151.可选地,分解步骤为将预设的操作流程划分为预设数值后形成的步骤;所述预设数值由所述对象的操作者预先配置。
152.可选地,接收目标分解步骤完成指令,包括:
153.接收所述对象的操作者对预设的界面的控件进行操作触发的指令;或者,
154.接收按照预设周期触发的指令。
155.可选地,预设区域包括:所述目标分解步骤对应的操作部位划分得到的区域。
156.可选地,本方法还包括:
157.若第一区域与第二区域的差异值不大于所述预设的阈值,获取第三图像,所述第三图像为按照所述目标分解步骤之外的其它步骤,对所述对象进行操作后的成像。
158.本技术实施例还提供一种可读存储介质,该可读存储介质可存储有适于处理器执行的计算机程序,计算机程序被处理器执行时,实现本技术实施例提供的基于图像的操作引导方法,包括:
159.获取第一图像,所述第一图像为预设的对象的成像;
160.将获取的所述第一图像进行预设处理后,得到多个图像并显示;
161.接收从所述多个图像中选择目标图像的指令后,输出所述目标图像对应的分解步骤的信息,所述分解步骤的信息至少包括所述分解步骤的效果图像;
162.接收目标分解步骤完成指令后,获取第二图像,所述第二图像为按照所述目标分解步骤对所述对象进行操作后的成像;所述目标分解步骤为任意一条所述分解步骤。
163.可选地,在所述获取第二图像之后,还包括:
164.从所述第二图像中提取预设区域,得到第一区域;
165.从所述效果图像中提取所述预设区域,得到第二区域;
166.若所述第一区域与所述第二区域的差异值大于预设的阈值,在所述第二图像中,显示所述第一区域的位置的提示信息。
167.可选地,分解步骤的信息还包括:操作指示信息;和/或颜色指示信息和操作部位指示信息的至少一项。
168.可选地,分解步骤为将预设的操作流程划分为预设数值后形成的步骤;所述预设数值由所述对象的操作者预先配置。
169.可选地,接收目标分解步骤完成指令,包括:
170.接收所述对象的操作者对预设的界面的控件进行操作触发的指令;或者,
171.接收按照预设周期触发的指令。
172.可选地,预设区域包括:所述目标分解步骤对应的操作部位划分得到的区域。
173.可选地,本方法还包括:
174.若第一区域与第二区域的差异值不大于所述预设的阈值,获取第三图像,所述第三图像为按照所述目标分解步骤之外的其它步骤,对所述对象进行操作后的成像。
175.最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
176.本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
177.对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的
一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1