智能眼镜终端的头动交互方法、装置、设备及存储介质与流程

文档序号:33162510发布日期:2023-02-04 00:54阅读:19来源:国知局
智能眼镜终端的头动交互方法、装置、设备及存储介质与流程

1.本技术涉及vr或ar技术领域,尤其涉及一种智能眼镜终端的头动交互方法、装置、设备及存储介质。


背景技术:

2.人类进入信息时代以来,计算平台在不断演变,pc和智能手机两大计算平台造就了互联网史上的两个黄金时代。pc和智能手机经过多年的发展,产业已基本成熟,行业增长和性能提升空间非常有限,用户期待越来越少。拥有先进近眼光学显示的智能眼镜显示终端,将会成为下一代个人计算平台和显示屏幕,给用户带来颠覆式的创新体验。
3.现有的可穿戴眼镜设备的交互方式目前主要使用触摸板,按钮等方式进行交互,依旧需要使用到双手来完成交互,以及依赖外部设备,存在着交互不便的技术问题。


技术实现要素:

4.本技术提供了一种智能眼镜终端的头动交互方法、装置、设备及存储介质,解决了现有的可穿戴眼镜设备的交互方式目前主要使用触摸板,按钮等方式进行交互,依旧需要使用到双手来完成交互,以及依赖外部设备,存在着交互不便的技术问题。
5.有鉴于此,本技术第一方面提供了一种智能眼镜终端的头动交互方法,所述方法包括:
6.s1、获取佩戴智能眼镜终端的用户的当前视野中心;
7.s2、根据所述当前视野中心对应显示视野光标;
8.s3、接收在预设时间内,所述用户通过平移转头带动所述视野光标向目标图标执行的预设次数的动作信息;
9.s4、根据所述预设次数的动作信息对应的预设事件,对所述目标图标执行预设操作。
10.可选地,所述步骤s2之后还包括:
11.s5、当所述视野光标位于应用窗口的预设滑动区域内时,接收所述用户通过顺时针或逆时针转头生成的第一头动光标轨迹;
12.s6、当所述第一头动光标轨迹形成闭合图形时,根据所述用户转头的方向确定对所述应用窗口的滑动方向;
13.s7、所述第一头动光标轨迹形成闭合图形后,若检测到所述用户的头继续向所述滑动方向移动,则将所述应用窗口朝所述滑动方向滑动,直到检测到所述用户的头向所述滑动方向的逆向移动,则停止滑动所述应用窗口,并停止展示所述第一头动光标轨迹。
14.可选地,所述步骤s4之后还包括:
15.s8、当所述视野光标位于输入框的预设输入区域内,且在预设时间内,所述用户通过平移转头带动所述视野光标向目标图标执行的预设次数的动作信息对应的预设事件为选中事件时,生成头动写字板;
16.s9、当所述视野光标位于所述头动手写板对应区域内时,接收所述用户通过移动头部生成的第二头动光标轨迹;
17.s10、当所述视野光标离开所述头动手写板对应区域内时,根据所述第二头动光标轨迹进行文字识别,并将文字识别结果输入至所述输入框内。
18.可选地,所述步骤s2之后还包括:
19.s11、当所述视野光标静置悬停于应用窗口或图标的时间大于第一预设时间阈值时,选中所述应用窗口或图标;
20.s12、根据所述用户通过移动头部的目标位置,将所述应用窗口或图标拖动至所述目标位置;
21.s13、当所述视野光标静置悬停于应用窗口或图标的时间大于第二预设时间阈值时,取消对所述应用窗口或图标的选中状态。
22.可选地,所述步骤s11或s13还包括:
23.当所述视野光标静置悬停于应用窗口或图标时,在预设显示区域内展示倒计时提示。
24.本技术第二方面提供一种智能眼镜终端的头动交互装置,所述装置包括:
25.获取单元,用于获取佩戴智能眼镜终端的用户的当前视野中心;
26.显示单元,用于根据所述当前视野中心对应显示视野光标;
27.第一接收单元,用于接收在预设时间内,所述用户通过平移转头带动所述视野光标向目标图标执行的预设次数的动作信息;
28.第一处理单元,用于根据所述预设次数的动作信息对应的预设事件,对所述目标图标执行预设操作。
29.可选地,还包括:
30.第二接收单元,用于当所述视野光标位于应用窗口的预设滑动区域内时,接收所述用户通过顺时针或逆时针转头生成的第一头动光标轨迹;
31.第二处理单元,用于当所述第一头动光标轨迹形成闭合图形时,根据所述用户转头的方向确定对所述应用窗口的滑动方向;
32.第三处理单元,用于所述第一头动光标轨迹形成闭合图形后,若检测到所述用户的头继续向所述滑动方向移动,则将所述应用窗口朝所述滑动方向滑动,直到检测到所述用户的头向所述滑动方向的逆向移动,则停止滑动所述应用窗口,并停止展示所述第一头动光标轨迹。
33.可选地,还包括:
34.第四处理单元,用于当所述视野光标位于输入框的预设输入区域内,且在预设时间内,所述用户通过平移转头带动所述视野光标向目标图标执行的预设次数的动作信息对应的预设事件为选中事件时,生成头动写字板;
35.第三接收单元,用于当所述视野光标位于所述头动手写板对应区域内时,接收所述用户通过移动头部生成的第二头动光标轨迹;
36.第五处理单元,用于当所述视野光标离开所述头动手写板对应区域内时,根据所述第二头动光标轨迹进行文字识别,并将文字识别结果输入至所述输入框内。
37.本技术第三方面提供一种智能眼镜终端的头动交互设备,所述设备包括处理器以
及存储器:
38.所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
39.所述处理器用于根据所述程序代码中的指令,执行如上述第一方面所述的智能眼镜终端的头动交互方法的步骤。
40.本技术第四方面提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行上述第一方面所述的智能眼镜终端的头动交互方法的步骤。
41.从以上技术方案可以看出,本技术实施例具有以下优点:
42.本技术中,提供了一种智能眼镜终端的头动交互方法、装置、设备及存储介质,通过获取到佩戴智能眼镜终端的用户的当前视野中心,从而显示对应的视野光标,完全基于用户通过平移转头的方式带动视野光标向目标图像执行预设次数的动作,根据动作信息对应的预设事件来执行对目标图像的预设操作,解放双手,完全依靠头动来实现与应用程序的交互,从而解决了现有的可穿戴眼镜设备的交互方式目前主要使用触摸板,按钮等方式进行交互,依旧需要使用到双手来完成交互,以及依赖外部设备,存在着交互不便的技术问题。
附图说明
43.图1为本技术实施例中一种智能眼镜终端的头动交互方法的第一个方法流程图;
44.图2为本技术实施例中一种智能眼镜终端的头动交互方法的第二个方法流程图;
45.图3为本技术实施例中一种智能眼镜终端的头动交互方法的第三个方法流程图;
46.图4为本技术实施例中一种智能眼镜终端的头动交互方法的第四个方法流程图;
47.图5为本技术实施例中一种智能眼镜终端的头动交互装置的结构示意图;
48.图6为本技术实施例中一种智能眼镜终端的头动交互设备的结构示意图。
具体实施方式
49.为了使本技术领域的人员更好地理解本技术方案,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
50.本技术设计了一种智能眼镜终端的头动交互方法、装置、设备及存储介质,解决了现有的可穿戴眼镜设备的交互方式目前主要使用触摸板,按钮等方式进行交互,依旧需要使用到双手来完成交互,以及依赖外部设备,存在着交互不便的技术问题。
51.为了便于理解,请参阅图1,图1为本技术实施例中一种智能眼镜终端的头动交互方法的第一个方法流程图,如图1所示,具体为:
52.s1、获取佩戴智能眼镜终端的用户的当前视野中心;
53.需要说明的是,虚拟大屏指的是一块大于当前视野范围的桌面,虚拟大屏桌面上停放有应用图标,导航栏等功能组件。虚拟大屏会相对现实空间静止,开启头动交互模式后,可以任意方向转头来查看虚拟大屏不同区域内容。
54.s2、根据当前视野中心对应显示视野光标;
55.需要说明的是,确定了用户的当前视野中心后,在对应位置显示视野光标,视野光标相当于鼠标光标。
56.s3、接收在预设时间内,用户通过平移转头带动视野光标向目标图标执行的预设次数的动作信息;
57.需要说明的是,例如,在1s的预设时间内,用户通过平移转头带动视野光标穿过两次目标图标,将对应生成动作信息。
58.穿过目标图标的方式可以分为从上之下穿越,上下至上穿越,从左至右穿越以及从右至左穿越。
59.s4、根据预设次数的动作信息对应的预设事件,对目标图标执行预设操作。
60.需要说明的是,不同组合的穿越动作,可以生成不同的动作信息,动作信息将对应预设事件,例如:
61.上穿+下穿事件1;
62.左穿+右穿事件2;
63.两次上穿事件3;
64.两次下穿事件4;
65.两次左穿事件5;
66.两次右穿事件6;
67.事件可以包括但不限于单击、双击、右键、选中、删除、重命名等,具体的动作信息对应哪一个预设事件可以由用户进行自定义的设置。
68.请参阅图2,图2为本技术实施例中一种智能眼镜终端的头动交互方法的第二个方法流程图,如图2所示,具体为:
69.步骤s2之后还包括:
70.s5、当视野光标位于应用窗口的预设滑动区域内时,接收用户通过顺时针或逆时针转头生成的第一头动光标轨迹;
71.s6、当第一头动光标轨迹形成闭合图形时,根据用户转头的方向确定对应用窗口的滑动方向;
72.s7、第一头动光标轨迹形成闭合图形后,若检测到用户的头继续向滑动方向移动,则将应用窗口朝滑动方向滑动,直到检测到用户的头向滑动方向的逆向移动,则停止滑动应用窗口,并停止展示第一头动光标轨迹。
73.需要说明的是,在需要上下滑动的应用窗口,普通的是用鼠标拖动应用窗口的滑轨来实现。在本技术技术方案中,则通过用户通过顺时针或逆时针转头,来判断是进行向上滑动、向下滑动、向左滑动或向右滑动。在用户转头后形成一个闭合图形时,例如圆圈,确定滑动的方向,在闭合图形的基础上,用户通过平移头继续向滑动方向移动,来决定滑动的距离,若是向滑动方向的逆向移动则代表停止窗口的滑动。
74.请参阅图3,图3为本技术实施例中一种智能眼镜终端的头动交互方法的第三个方法流程图,如图3所示,具体为:
75.步骤s4之后还包括:
76.s8、当视野光标位于输入框的预设输入区域内,且在预设时间内,用户通过平移转头带动视野光标向目标图标执行的预设次数的动作信息对应的预设事件为选中事件时,生
成头动写字板;
77.s9、当视野光标位于头动手写板对应区域内时,接收用户通过移动头部生成的第二头动光标轨迹;
78.s10、当视野光标离开头动手写板对应区域内时,根据第二头动光标轨迹进行文字识别,并将文字识别结果输入至输入框内。
79.需要说明的是,在输入文字信息时,可以将视野光标基于动作信息对应的预设事件识别为选中视野光标所在位置对应的输入框,显示生成的头动写字板,在头动写字板对应区域内通过转动头部来编写文字。
80.请参阅图4,图4为本技术实施例中一种智能眼镜终端的头动交互方法的第四个方法流程图,如图4所示,具体为:
81.步骤s2之后还包括:
82.s11、当视野光标静置悬停于应用窗口或图标的时间大于第一预设时间阈值时,选中应用窗口或图标;
83.s12、根据用户通过移动头部的目标位置,将应用窗口或图标拖动至目标位置;
84.s13、当视野光标静置悬停于应用窗口或图标的时间大于第二预设时间阈值时,取消对应用窗口或图标的选中状态。
85.需要说明的是,视野光标停留在某个应用窗口或者图标超过3s的第一预设时间,则选中当前应用窗口或图标。
86.通过转动头部可以把应用图标或者窗口拖动到虚拟大屏任意位置。
87.当放到可停放区域后,头部静止3s的第二预设时间,则取消选中状态;
88.若在不可放区域,3s后恢复原来位置或者到拖动的极限值(比如虚拟大屏边界)后自动取消选中拖动状态。
89.其中选中和在取消选中时均可以有倒计时的提示窗口。
90.请参阅图5,图5为本技术实施例中一种智能眼镜终端的头动交互装置的结构示意图,如图5所示,具体为:
91.获取单元501,用于获取佩戴智能眼镜终端的用户的当前视野中心;
92.显示单元502,用于根据当前视野中心对应显示视野光标;
93.第一接收单元503,用于接收在预设时间内,用户通过平移转头带动视野光标向目标图标执行的预设次数的动作信息;
94.第一处理单元504,用于根据预设次数的动作信息对应的预设事件,对目标图标执行预设操作。
95.进一步地,还包括:
96.第二接收单元505,用于当视野光标位于应用窗口的预设滑动区域内时,接收用户通过顺时针或逆时针转头生成的第一头动光标轨迹;
97.第二处理单元506,用于当第一头动光标轨迹形成闭合图形时,根据用户转头的方向确定对应用窗口的滑动方向;
98.第三处理单元507,用于第一头动光标轨迹形成闭合图形后,若检测到用户的头继续向滑动方向移动,则将应用窗口朝滑动方向滑动,直到检测到用户的头向滑动方向的逆向移动,则停止滑动应用窗口,并停止展示第一头动光标轨迹。
99.进一步地,还包括:
100.第四处理单元508,用于当视野光标位于输入框的预设输入区域内,且在预设时间内,用户通过平移转头带动视野光标向目标图标执行的预设次数的动作信息对应的预设事件为选中事件时,生成头动写字板;
101.第三接收单元509,用于当视野光标位于头动手写板对应区域内时,接收用户通过移动头部生成的第二头动光标轨迹;
102.第五处理单元510,用于当视野光标离开头动手写板对应区域内时,根据第二头动光标轨迹进行文字识别,并将文字识别结果输入至输入框内。
103.本技术实施例还提供了另一种智能眼镜终端的头动交互设备,如图6所示,为了便于说明,仅示出了与本技术实施例相关的部分,具体技术细节未揭示的,请参照本技术实施例方法部分。该终端可以为包括手机、平板电脑、个人数字助理(英文全称:personal digital assistant,英文缩写:pda)、销售终端(英文全称:point of sales,英文缩写:pos)、车载电脑、智能眼镜等任意终端设备,以终端为智能眼镜为例:
104.图6示出的是与本技术实施例提供的终端相关的智能眼镜的部分结构的框图。参考图6,智能眼镜包括:射频(英文全称:radio frequency,英文缩写:rf)电路1010、存储器1020、输入单元1030、显示单元1040、传感器 1050、音频电路1060、无线保真(英文全称:wireless fidelity,英文缩写: wifi)模块1070、处理器1080、以及电源1090等部件。本领域技术人员可以理解,图6中示出的智能眼镜结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
105.下面结合图6对智能眼镜的各个构成部件进行具体的介绍:
106.rf电路1010可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1080处理;另外,将设计上行的数据发送给基站。通常,rf电路1010包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(英文全称:low noise amplifier,英文缩写:lna)、双工器等。此外,rf电路1010还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(英文全称:global system of mobile communication,英文缩写:gsm)、通用分组无线服务(英文全称:general packet radio service, gprs)、码分多址(英文全称:code division multiple access,英文缩写: cdma)、宽带码分多址(英文全称:wideband code division multiple access, 英文缩写:wcdma)、长期演进(英文全称:long term evolution,英文缩写:lte)、电子邮件、短消息服务(英文全称:short messaging service,sms) 等。
107.存储器1020可用于存储软件程序以及模块,处理器1080通过运行存储在存储器1020的软件程序以及模块,从而执行智能眼镜的各种功能应用以及数据处理。存储器1020可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据智能眼镜的使用所创建的数据 (比如音频数据)等。此外,存储器1020可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
108.输入单元1030可用于接收输入的数字或字符信息,以及产生与智能眼镜的用户设
置以及功能控制有关的键信号输入。具体地,输入单元1030可包括触控面板1031以及其他输入设备1032。触控面板1031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1031上或在触控面板1031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1080,并能接收处理器1080发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1031。除了触控面板1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆、颈环等中的一种或多种。
109.显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及智能眼镜的各种菜单。显示单元1040可包括显示面板1041,可选的,可以采用液晶显示器(英文全称:liquid crystal display,英文缩写:lcd)、有机发光二极管(英文全称:organic light-emitting diode,英文缩写:oled)等形式来配置显示面板1041。进一步的,触控面板1031可覆盖显示面板1041,当触控面板1031检测到在其上或附近的触摸操作后,传送给处理器1080以确定触摸事件的类型,随后处理器1080根据触摸事件的类型在显示面板1041 上提供相应的视觉输出。虽然在图6中,触控面板1031与显示面板1041是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1031与显示面板1041集成而实现智能眼镜的输入和输出功能。
110.智能眼镜还可包括至少一种传感器1050,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1041的亮度,接近传感器可在佩戴智能眼镜时自动唤醒显示面板1041。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别智能眼镜姿态的应用(比如抬头、低头、转头)、振动识别相关功能(比如计步器、敲击)等;至于智能眼镜还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
111.音频电路1060、扬声器1061,传声器1062可提供用户与智能眼镜之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062 将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经rf电路1010以发送给比如另一智能眼镜,或者将音频数据输出至存储器1020以便进一步处理。
112.wifi属于短距离无线传输技术,智能眼镜通过wifi模块1070可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图6示出了wifi模块1070,但是可以理解的是,其并不属于智能眼镜的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
113.处理器1080是智能眼镜的控制中心,利用各种接口和线路连接整个智能眼镜的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行智能眼镜的各种功能和处理数据,从而对智能眼镜进行整体监控。可
选的,处理器1080可包括一个或多个处理单元;优选的,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1080中。
114.智能眼镜还包括给各个部件供电的电源1090(比如电池),优选的,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
115.尽管未示出,智能眼镜还可以包括摄像头、蓝牙模块等,在此不再赘述。
116.在本技术实施例中,该终端所包括的处理器1080还具有以下功能:
117.s1、获取佩戴智能眼镜终端的用户的当前视野中心;
118.s2、根据当前视野中心对应显示视野光标;
119.s3、接收在预设时间内,用户通过平移转头带动视野光标向目标图标执行的预设次数的动作信息;
120.s4、根据预设次数的动作信息对应的预设事件,对目标图标执行预设操作。
121.本技术实施例还提供一种计算机可读存储介质,用于存储程序代码,该程序代码用于执行前述各个实施例的一种智能眼镜终端的头动交互方法中的任意一种实施方式。
122.本技术实施例中,提供了一种智能眼镜终端的头动交互方法、装置、设备及存储介质,通过获取到佩戴智能眼镜终端的用户的当前视野中心,从而显示对应的视野光标,完全基于用户通过平移转头的方式带动视野光标向目标图像执行预设次数的动作,根据动作信息对应的预设事件来执行对目标图像的预设操作,解放双手,完全依靠头动来实现与应用程序的交互,从而解决了现有的可穿戴眼镜设备的交互方式目前主要使用触摸板,按钮等方式进行交互,依旧需要使用到双手来完成交互,以及依赖外部设备,存在着交互不便的技术问题。
123.所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
124.本技术的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
125.应当理解,在本技术中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“a和/或b”可以表示:只存在a,只存在b以及同时存在a和b三种情况,其中a,b可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b 或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
126.在本技术所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
127.所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
128.另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
129.所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(英文全称: read-only memory,英文缩写:rom)、随机存取存储器(英文全称: random access memory,英文缩写:ram)、磁碟或者光盘等各种可以存储程序代码的介质。
130.以上所述,以上实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1