食材处理推荐方法、食材处理模型的训练方法及相关装置与流程

文档序号:20488912发布日期:2020-04-21 21:53阅读:169来源:国知局
食材处理推荐方法、食材处理模型的训练方法及相关装置与流程

本申请涉及人工智能技术领域,特别是涉及一种食材处理推荐方法、食材处理模型的训练方法及相关装置。



背景技术:

随着生活节奏的加快,越来越多的人选择在外就餐,特别是一些年轻人和上班族。造成这一现象的原因不仅是因为他们不会做饭这么简单。

现在,人们的生活理念发生了变化,就算是普通的小康之家,饭桌上也不太可能只有一道菜。那么,菜品数目的增加导致做饭的时间成倍的增加,其中耗时最多的体现在食材准备这一步骤。为了节省这一步骤的耗时,出现了许多的智能切菜设备,用以实现自动切菜食材处理。然而,无论是人工对食材进行加工处理还是通过智能切菜设备对食材进行进行加工处理,都是需要用户自行决定对食材的处理方式,而无法实现自主智能化生成对食材进行加工的方式。



技术实现要素:

基于此,有必要针对上述技术问题,提供一种能够提高切菜智能化的食材处理推荐方法、食材处理模型的训练方法及相关装置。

根据本申请的第一个方面,提供了一种食材处理推荐方法,所述方法包括:获取预设菜品信息及用户信息;对所述预设菜品信息进行解析,得到所述菜品的食材信息;将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息,其中,所述食材指导信息用于指导对所述菜品对应食材进行相应方式的食材处理。

可选的,所述用户信息包括以下各项中的一项或多项:用户所处位置的天气信息、用户的医疗信息、用户的口味信息及用户对所述菜品对应食材的历史处理信息。

可选的,将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息之后,所述方法还包括:将所述食材指导信息发送至切菜设备,以供所述切菜设备根据所述食材指导信息对所述菜品对应食材进行相应的食材处理。

可选的,所述食材处理模型通过以下步骤进行训练:获取关于预设菜品的用户评价信息;对所述评价信息进行预处理,得到样本更新数据,所述样本更新数据包括:所述菜品的食材信息以及用户信息;基于所述样本更新数据对当前样本库进行更新,并根据更新后的样本库对当前食材处理模型进行训练,经训练后的食材处理模型作为用于输出食材指导信息的食材处理模型。

可选的,所述食材处理包括以下各项中的一项或多项:对食材进行预设方式的切菜处理、以及进行切菜处理后的食材的存放方式、配置烹饪时所需的调料种类以及各种调料的添加时间。

可选的,所述食材处理模型包括:bp神经网络模型。

根据本申请的第二个方面,提供了一种食材处理模型的训练方法,所述方法包括:获取关于预设菜品的用户评价信息;对所述评价信息进行预处理,得到样本更新数据,所述样本更新数据包括:所述菜品的食材信息以及用户信息;基于所述样本更新数据对当前样本库进行更新,并根据更新后的样本库对当前食材处理模型进行训练,经训练后的食材处理模型作为输出食材指导信息的食材处理模型。

可选的,基于所述样本更新数据对当前样本库进行更新,包括:通过所述样本更新数据将所述当前样本库中最早获取的样本数据进行替换。

可选的,在基于所述样本更新数据对当前样本库进行更新之后,且在根据更新后的样本库对当前食材处理模型进行训练之前,所述方法还包括:判断所述样本更新数据的数量是否大于预设数量阈值;在判定所述样本更新数据的数量大于预设数量阈值的情况下,则确定根据更新后的样本库对当前食材处理模型进行训练。

可选的,基于所述样本更新数据对当前样本库进行更新之后,且在根据更新后的样本库对当前食材处理模型进行训练之前,所述方法还包括:将当前食材处理模型的初始权值及阈值设置为经训练后的食材处理模型的初始权值及阈值。

可选的,在根据更新后的样本库对当前食材处理模型进行训练之后,所述方法还包括:判断训练过程中的学习精度是否已收敛至设定的最小值;在判定学习精度已收敛至设定的最小值的情况下,则确定所述食材处理模型的训练完成。

可选的,在确定学习精度未收敛至设定的最小值的情况下,所述方法还包括:判断训练过程中的迭代次数是否达到设定的迭代次数;若是,则确定所述食材处理模型的训练完成;否则,继续根据更新后的样本库对当前食材处理模型进行训练。

可选的,所述用户信息包括以下各项中的一项或多项:用户所处位置的天气信息、用户的医疗信息、用户的口味信息及用户对所述预设菜品对应食材的历史食材处理信息。

根据本申请的第三个方面,提供了一种食材处理推荐系统,所述系统包括:菜品信息获取模块,用于获取预设菜品信息;解析模块,用于对所述预设菜品信息进行解析,得到所述菜品的食材信息以及用户信息;指导信息生成模块,用于将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息,其中,所述食材指导信息用于指导对所述菜品对应食材进行相应方式的食材处理。

根据本申请的第四个方面,提供了一种食材处理模型的训练系统,所述系统包括:评价信息获取模块,用于获取关于预设菜品的用户评价信息;预处理模块,用于对所述评价信息进行预处理,得到样本更新数据,所述样本更新数据包括:所述菜品的食材信息以及用户信息;更新模块,用于基于所述样本更新数据对当前样本库进行更新;训练模块,用于根据更新后的样本库对当前食材处理模型进行训练,经训练后的食材处理模型作为输出食材指导信息的食材处理模型。

根据本申请的第五个方面,提供了一种计算机设备,包括处理器和存储器;所述存储器用于存储计算机指令,所述处理器用于运行所述存储器存储的计算机指令,以实现上述的食材处理推荐方法。

根据本申请的第六个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述的食材处理推荐方法。

根据本申请的第七个方面,提供了一种计算机设备,包括处理器和存储器;所述存储器用于存储计算机指令,所述处理器用于运行所述存储器存储的计算机指令,以实现上述的食材处理模型的训练方法。

根据本申请的第八个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述的食材处理模型的训练方法。

本申请有益效果如下:通过获取预设菜品信息,并将预设菜品信息进行解析,得到该菜品的食材信息及用户信息,再通过将该食材信息及用户信息输入值食材处理模型,则可以得到食材指导信息。又因为该食材指导信息是用于指导用户或者切菜设备对菜品对应食材进行相应方式的食材处理。所以,通过该方法,可以结合食材信息及用户信息以实现自动智能化的生成食材指导信息,从而自主的决定对该菜品对应食材的处理加工方式。

附图说明

图1为第一实施例中食材处理推荐方法的应用环境图;

图2为第一实施例中食材处理推荐方法的流程示意图;

图3为第二实施例中食材处理模型的训练方法的流程示意图;

图4为第三实施例中食材处理推荐方法的流程示意图;

图5为第三实施例中食材处理模型的结构示意图;

图6为第一实施例中食材处理推荐系统的结构示意图;

图7为第一实施例中食材处理模型的训练系统的结构示意图;

图8为第六及八实施例中计算机设备的内部结构图。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。

本申请第一实施例提供了一种食材处理推荐方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。终端102获取预设菜品信息及用户信息,并将预设菜品信息及用户信息传输至服务器104,服务器104对所述预设菜品信息进行解析,得到所述菜品的食材信息;并将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息。其中,所述食材指导信息用于指导对所述菜品对应食材进行相应方式的食材处理。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。

在一个实施例中,如图2所示,提供了一种食材处理推荐方法,以该方法应用于图1中的服务器104为例进行说明,包括以下步骤:

步骤s201:获取预设菜品信息及用户信息;

步骤s202:对所述预设菜品信息进行解析,得到所述菜品的食材信息;

步骤s203:将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息。

其中,该食材处理模型包括但不限于:bp神经网络模型。食材指导信息用于指导对所述菜品对应食材进行相应方式的食材处理。

此外,上述食材处理包括但不限于以下各项中的一项或多项:对食材进行预设方式的切菜处理、以及进行切菜处理后的食材的存放方式、配置烹饪时所需的调料种类以及各种调料的添加时间。

上述食材处理推荐方法,通过获取预设菜品信息,并将预设菜品信息进行解析,得到该菜品的食材信息及用户信息,再通过将该食材信息及用户信息输入值食材处理模型,则可以得到食材指导信息。又因为该食材指导信息是用于指导用户或者切菜设备对菜品对应食材进行相应方式的食材处理。所以,通过该方法,可以结合食材信息及用户信息以实现自动智能化的生成食材指导信息,从而自主的决定对该菜品对应食材的处理加工方式。

在另一实施例中,上述的用户信息包括但不限于以下各项中的一项或多项:用户所处位置的天气信息、用户的医疗信息、用户的口味信息及用户对所述菜品对应食材的历史处理信息。

当然,该预设菜品信息包括但不限于:菜品名称和/或菜谱名录。

当然,在本实施例中,这些用户信息以及食材信息均可由用户输入,也可直接从数据中调取,当然,还可以有用户输入部分信息且从数据库中调取另一部分信息或者从线上网络获取该另一部分信息。

如:该预设菜品信息可由用户输入,而以上的用户信息可为从数据库中直接调取或者实时从线上网络获取。

所以,上述步骤s203的一种实现方式包括:

步骤s2031:将所述食材信息以及一种或多种所述用户信息均输入至所述食材处理模型,得到所述食材指导信息。

如:将食材信息及全部的用户信息均输入值食材处理模型,得到食材指导信息。具体的,获取的预设菜品信息为“黄瓜烧排骨”,从而通过解析可以获知该菜品对应食材为黄瓜和排骨。示范性针对该黄瓜,根据该用户的医疗信息可知该用户需要补充“粗纤维”,而且,用户喜欢吃辣食,用户所处地区正下雨,天气潮湿,而且,用户以前喜欢吃块状黄瓜,所以,将这些信息全部输入值食材处理模型后,会生成推荐用户不对黄瓜进行削皮,黄瓜直接切块,而且,做菜时可以放置少量辣的食材指导信息。

在另一实施例中,在上述步骤s203之后,该方法还包括以下内容:

步骤s2041:将所述食材指导信息发送至切菜设备,以供所述切菜设备根据所述食材指导信息对所述菜品对应食材进行相应的食材处理。

型产生当前输入情况下的最优食材指导信息(切菜形状,切菜厚薄等)后返回至用户app或者智能切菜设备,用户或切菜设备根据此策略进行切菜。

当然,在另一实施例中,在上述步骤s203之后,该方法还包括以下内容:

步骤s2042:将所述食材指导信息发送至用户终端,以供用户根据所述食材指导信息确定对所述菜品对应食材进行相应方式的食材处理。

上述步骤s2041及步骤s2041可以同时执行,当然,也可以择一执行。

该方法可以在做菜前为用户提供当前最优的食材指导信息,或者结合当前市面上存在的一些智能切菜设备,在每次用户有食材处理需求时,为切菜设备提供当前最优的食材指导信息,如:指导切菜设备自动进行刀片距离等参数的调整。

在另一实施例中,该方法还包括:获取用户评价信息,并基于所述用户评价信息对所述食材处理模型进行优化训练。具体的,在本实施例中,并不对该步骤的执行时机进行限定,只需在获取到用户评价信息后,即可根据该用户评价信息对该食材处理模型进行优化训练。

应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

此外,为使得食材处理模型更贴合用户需要,需要实时更新该食材处理模型。具体的,本申请第二实施例提供了一种食材处理模型的训练方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。终端102获取关于预设菜品的用户评价信息,并将预设菜品的用户评价信息传输至服务器104,服务器104对所述评价信息进行预处理,得到样本更新数据,所述样本更新数据包括:所述菜品的食材信息以及用户信息;然后,还基于所述样本更新数据对当前样本库进行更新,并根据更新后的样本库对当前食材处理模型进行训练,该经训练后的食材处理模型作为输出食材指导信息的食材处理模型。其中,所述食材指导信息用于指导对所述菜品对应食材进行相应方式的食材处理。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。

在本申请第二实施例中,如图3所示,提供了一种食材处理模型的训练方法,以该方法应用于图1中的服务器104为例进行说明,包括以下步骤:

步骤s301:获取关于预设菜品的用户评价信息;

用户会在每次根据食材指导信息对食材进行处理之后,将对食材指导信息的用户评价信息进行反馈。这些用户评价信息为新近产生的样本更新数据提供了用户偏好行为的最新信息。

步骤s302:对所述评价信息进行预处理,得到样本更新数据;

其中,所述样本更新数据包括:所述菜品的食材信息以及用户信息;

步骤s303:基于所述样本更新数据对当前样本库进行更新;

步骤s304:根据更新后的样本库对当前食材处理模型进行训练。

其中,该经训练后的食材处理模型作为输出食材指导信息的食材处理模型。

具体的,在本实施例中,通过获取关于预设菜品的用户评价信息;通过对所述评价信息进行预处理,以得到样本更新数据,而且,该样本更新数据包括:所述菜品的食材信息以及用户信息;所以,在有样本更新数据加入当前样本库时,通过该样本更新数据对当前样本库进行更新,并根据更新后的样本库对当前食材处理模型进行训练。其中,该经训练后的食材处理模型作为输出食材指导信息的食材处理模型。所以,在本实施例中,可以根据用户评价信息对食材处理模型进行更新训练,使训练之后的食材处理模型越来越贴合用户的使用需求。

在另一实施例中,步骤s303的一种实现方式包括:

步骤s3031:通过所述样本更新数据将所述当前样本库中最早获取的样本数据进行替换。

具体的,在有新的样本更新数据加入当前样本库时,为对当前数据库进行更新,在本实施例中,并不对该当前样本库的更新方式进行限定,只需其满足本实施例的要求即可。故,该更新方式的一种方式为:通过样本更新数据将所述当前样本库中最早获取的样本数据进行替换。

在另一实施例中,将当前样本库的训练样本集中最早产生的样本数据用该新加入当前样本库中的样本更新数据进行替换,这样就可以得到更新后的样本库,即:可以得到新的训练样本集。就此,可以提高该食材处理模型训练的准确性。

此外,在上述步骤s303-步骤s304之间,该食材处理模型的训练方法还包括:

步骤s3032:判断所述样本更新数据的数量是否大于预设数量阈值,若是,则执行步骤s3033,否则,执行步骤s3034;

步骤s3033:确定根据更新后的样本库对当前食材处理模型进行训练。

步骤s3034:不作处理。

具体的,在本实施例中,为对食材处理模型进行训练的时机进行选择,一种实现方式为设定以下条件:当有预设数量的样本更新数据加入当前样本库中时才启动训练程序,而样本更新数据的数量可根据实际情况进行实验确定,当然,也可以由用户或训练系统进行自行设定。

如:假定当前的食材处理模型为net(i),当有n个样本更新数据加入当前样本库时,需要对该加入的样本更新数据的数量是否满足预设数量阈值进行判断,在判定该样本更新数据的数量满足预设数量阈值的情况下,该食材处理模型的训练条件才会被满足,从而启动该食材处理模型的训练行动,得到经训练后的食材处理模型net(i+1)。当然,如果判定该样本更新数据的数量不满足预设数量阈值,则食材处理模型的训练启动停止。

在另一实施例中,在上述步骤s303-步骤s304之间,该食材处理模型的训练方法还包括:

s3035:将当前食材处理模型的初始权值及阈值设置为经训练后的食材处理模型的初始权值及阈值。

即:对于经训练后的食材处理模型net(i+1)的初始权值和阈值,设置为当前的食材处理模型为net(i)的权值和阈值。这样对于经训练后的食材处理模型net(i+1)的训练,相当于是在当前的食材处理模型为net(i)的基础上对权值和值进行微调,能够提高经训练后的食材处理模型net(i+1)的训练速度。

在另一实施例中,在上述步骤s304之后,该食材处理模型的训练方法还包括:

步骤s305:判断训练过程中的学习精度是否已收敛至设定的最小值;若是,则执行以下步骤s306,否则,执行步骤s307;

步骤s306:确定所述食材处理模型的训练完成。

步骤s307:判断训练过程中的迭代次数是否达到设定的迭代次数;若是,则执行以下步骤s306;否则,则执行以下步骤s308;

步骤s308:继续根据更新后的样本库对当前食材处理模型进行训练。

为了更好说明本实施例所述方法的实施过程,下面结合一个具体应用示例-第三实施例,对本实施例所述方法进行说明。

其中,因为bp神经网络具有网络结构简单、易于训练等优点,且可以根据预测结果进行逆向优化,所以,在第三实施例中,该食材处理模型以bp神经网络模型以及食材处理方式仅以切菜为例进行方案叙述。

如图4,以用户所处位置的天气信息、用户的医疗信息、用户的口味信息、用户对所述菜品对应食材的历史处理信息、当前食材的菜谱作为数据来训练模型。以这些数据训练模型可以使模型在产生食材指导信息时既能考虑到用户的健康状况,又能满足用户的口味,使系统更加智能化和人性化。

执行上述食材处理推荐方法及食材处理模型的训练方法的运行系统可以通过手机app与用户进行交互,在用户做菜前为其提供当前最优的食材指导信息。或者结合当前市面上存在的一些智能切菜设备,在每次用户有切菜需求时,系统产生食材指导信息,指导该切菜设备自动进行刀片距离等参数的调整。该系统的工作流程如图4所示,当用户输入切菜需求(食材名,菜品名)后,该系统结合用户手机或切菜设备的gps定位联网采集用户所在地当前的天气状况等实时数据,结合用户健康,历史切菜习惯等数据输入到食材处理模型中。该模型产生当前输入情况下的最优食材指导信息(切菜形状,切菜厚薄等)后返回至用户app或者智能切菜设备,用户或切菜设备根据此策略进行切菜。例如:用户输入食材名称为“土豆”、菜谱名称为“土豆烧排骨”,系统识别出用户口味较重,但身体健康状况较差,此时系统可能会提示用户将土豆切小块一点、需要在凉水中浸泡十分钟等。若用户输入“黄瓜”,系统根据用户健康数据发现其需要补充“粗纤维”,此时会推荐用户不对黄瓜进行削皮。系统也可以根据用户定位学习到当地的天气情况,夏天推荐使食物口感更加清爽的策略等。

同时,用户也可以将对每次食材指导信息的评价反馈至系统,系统根据用户的反馈信息更新食材处理模型,使食材处理模型越来越贴合用户的使用需求。

而且,根据图5所示,食材处理模型通过输出层进行食材指导信息推荐的同时,可通过输入层得到用户对新食材指导信息的用户评价信息,这样当前样本库就可以得到新的样本数据。这些新近产生的样本(样本更新数据)提供了用户偏好行为的最新信息,应该很好地加以利用。如此,需要实时更新用户的食材处理模型,即当有新的样本更新数据加入当前样本库时,隐藏层需根据新的样本库重新进行食材处理模型的神经网络训练,改善已有的模型。对食材处理模型的神经网络重新进行训练的条件可设定为当有一定数量的(这里设定为n)新样本加入时启动训练程序,n的具体值可根据实际情况进行实验确定。假定当前的神经网络模型为net(i),当有n个新样本加入样本库时,推荐系统对食材处理模型的神经网络重新进行训练的条件满足,启动食材处理模型的神经网络训练行动,得到新的神经网络模型net(i+1)。实际上,该神经网络模型可从上一个神经网络net(i)中得到很多的信息。因此我们在训练新的神经网络模型net(i+l)时可做如下的处理:样本方面,为了训练的准确性,需要调整训练的样本集,将训练样本集中最早产生的n个样本用新加入样本库中的n个样本进行替换,这样得到新的训练样本集。对于net(i+1)的初始权值和阈值,设置为神经网络net(i)的权值和阈值。这样对于神经网络net(i+1)的训练,相当于是在以前网络net(i)的基础上对权值和值进行微调,能够改善net(i+1)的训练速度。如此,得到一个在线bp神经网络net(i+1)训练步骤。

而且,食材处理模型的神经网络在线训练步骤:

(1)设定该神经网络的样本数据库。将net(i)的样本数据库中最早产生的n个样本用新加入样本库的n个样本进行替换,得到net(i+1)的训练样本集。

(2)设定输入层,输出层和隐层,并初始化。

(3)设定网络net(i+1)的初始权值和阈值。使net(i+1)的初始权值和阈值等于网络net(i)的权值和阈值。

(4)按照食材处理模型对应的算法对网络进行训练。

(5)判定学习精度是否收敛到最小值:是,转(7),否,转(6);

(6)判定迭代步数是否超过规定的步数:是,转(7);否,转(4);

(7)算法终止。

当然,在另一实施例中,该食材处理模型的验证可以采用交叉验证法完成。

根据图6所示,本申请第四实施例提供了一种食材处理推荐系统,该系统包括:

菜品信息获取模块110,用于获取预设菜品信息;

解析模块120,用于对所述预设菜品信息进行解析,得到所述菜品的食材信息以及用户信息;

指导信息生成模块130,用于将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息,其中,所述食材指导信息用于指导对所述菜品对应食材进行相应方式的食材处理。

可选的,所述用户信息包括以下各项中的一项或多项:用户所处位置的天气信息、用户的医疗信息、用户的口味信息及用户对所述菜品对应食材的历史处理信息。

可选的,将所述食材信息以及一种或多种所述用户信息均输入至所述食材处理模型,得到所述食材指导信息。

可选的,所述系统还包括:切菜设备模块,用于在将所述食材信息及所述用户信息均输入至食材处理模型,得到食材指导信息之后,将所述食材指导信息发送至切菜设备,以供所述切菜设备根据所述食材指导信息对所述菜品对应食材进行相应的食材处理。

可选的,所述系统还包括:评价信息获取模块,用于获取用户评价信息,并基于所述用户评价信息对所述食材处理模型进行优化训练。

可选的,所述食材处理包括以下各项中的一项或多项:对食材进行预设方式的切菜处理、以及进行切菜处理后的食材的存放方式、配置烹饪时所需的调料种类以及各种调料的添加时间。

可选的,所述系统还包括:所述食材处理模型包括:bp神经网络模型。

根据图7所示,本申请第五实施例提供了一种食材处理模型的训练系统,该系统包括:

评价信息获取模块210,用于获取关于预设菜品的用户评价信息;

预处理模块220,用于对所述评价信息进行预处理,得到样本更新数据,所述样本更新数据包括:所述菜品的食材信息以及用户信息;

更新模块230,用于基于所述样本更新数据对当前样本库进行更新;

训练模块240,用于根据更新后的样本库对当前食材处理模型进行训练,经训练后的食材处理模型作为输出食材指导信息的食材处理模型。

可选的,更新模块具体用于:通过所述样本更新数据将所述当前样本库中最早获取的样本数据进行替换。

可选的,该系统还包括:判断模块,用于在基于所述样本更新数据对当前样本库进行更新之后,且在根据更新后的样本库对当前食材处理模型进行训练之前,判断所述样本更新数据的数量是否大于预设数量阈值;而且,在判定所述样本更新数据的数量大于预设数量阈值的情况下,则确定根据更新后的样本库对当前食材处理模型进行训练。

可选的,该系统还包括:权值设置模块,用于在基于所述样本更新数据对当前样本库进行更新之后,且在根据更新后的样本库对当前食材处理模型进行训练之前,将当前食材处理模型的初始权值及阈值设置为经训练后的食材处理模型的初始权值及阈值。

可选的,该系统还包括:学习精度模块,用于在根据更新后的样本库对当前食材处理模型进行训练之后,判断训练过程中的学习精度是否已收敛至设定的最小值;并在判定学习精度已收敛至设定的最小值的情况下,则确定所述食材处理模型的训练完成。

可选的,该系统还包括:迭代模块,用于在确定学习精度未收敛至设定的最小值的情况下,判断训练过程中的迭代次数是否达到设定的迭代次数;若是,则确定所述食材处理模型的训练完成;否则,继续根据更新后的样本库对当前食材处理模型进行训练。

可选的,所述用户信息包括以下各项中的一项或多项:用户所处位置的天气信息、用户的医疗信息、用户的口味信息及用户对所述预设菜品对应食材的历史食材处理信息。

关于上述两个系统的具体限定可以参见上文中对于两个方法的限定,在此不再赘述。上述两个装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。

本申请第六实施例提供了一种计算机设备,包括处理器和存储器;其内部结构图可以如图8所示,所述存储器用于存储计算机指令,所述处理器用于运行所述存储器存储的计算机指令,以实现上述的食材处理推荐方法。

本申请第六实施例中的一种计算机设备所涉及的名词及实现原理具体可以参照本申请实施例中的第一实施例的食材处理推荐方法,在此不再赘述。

本申请第七实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述食材处理推荐方法。

本申请第七实施例中的一种计算机可读存储介质所涉及的名词及实现原理具体可以参照本申请实施例中的第一实施例的食材处理推荐方法,在此不再赘述。

本申请第八实施例提供了一种计算机设备,包括处理器和存储器;其内部结构图可以如图8所示,所述存储器用于存储计算机指令,所述处理器用于运行所述存储器存储的计算机指令,以实现上述的食材处理模型的训练方法。

本申请第八实施例中的一种计算机设备所涉及的名词及实现原理具体可以参照本申请实施例中的第二实施例的食材处理模型的训练方法,在此不再赘述。

本申请第九实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述的食材处理模型的训练方法。

本申请第九实施例中的一种计算机可读存储介质所涉及的名词及实现原理具体可以参照本申请实施例中的第一实施例的食材处理模型的训练方法,在此不再赘述。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦除可编程rom(eeprom)或闪存。易失性存储器可包括随机存取存储器(ram)或者外部高速缓冲存储器。作为说明而非局限,ram以多种形式可得,诸如静态ram(sram)、动态ram(dram)、同步dram(sdram)、双数据率sdram(ddrsdram)、增强型sdram(esdram)、同步链路(synchlink)dram(sldram)、存储器总线(rambus)直接ram(rdram)、直接存储器总线动态ram(drdram)、以及存储器总线动态ram(rdram)等。

以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1