用于处理数据的方法、装置、系统、服务器和介质与流程

文档序号:26905068发布日期:2021-10-09 13:50阅读:59来源:国知局
1.本公开的实施例涉及计算机
技术领域
:,具体涉及用于处理数据的方法、装置、系统、服务器和介质。
背景技术
::2.随着互联网的飞速发展,需要处理的数据规模也越来越大。对于关系型数据库同步到大数据(bigdata)环境中这一技术需求,现有技术提供了一种通过关系型数据库的binlog(binarylog)日志文件进行解析,将解析结果直接写入大数据的文件系统的方法。3.为了在关系型数据库binlog解析过程中确保下游数据的处理顺序性和时效性,以及为了尽量保证数据的一致性,现有技术在处理binlog过程时往往采用串行的方法,并且在binlog解析后均采用异步的消息队列进行后续的数据处理文件生成,导致在海量的binlog解析场景下会受到串行处理的制约,引起数据同步的延迟。技术实现要素:4.本公开的实施例提出了用于处理数据的方法、装置、系统、服务器和介质。5.第一方面,本公开的实施例提供了一种用于处理数据的方法,该方法包括:获取基于并行处理的目标日志文件的解析结果集合,其中,目标日志文件用于记录第一数据库的变更;根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图。6.在一些实施例中,上述获取基于并行处理的目标日志文件的解析结果集合,包括:接收目标分布式消息队列系统中的至少两个消费端并发写入的目标日志文件的解析结果;基于所接收到的解析结果,生成解析结果集合。7.在一些实施例中,上述解析结果根据所提取的消息主题分别写入预设的大数据文件系统中相对应的文件。8.在一些实施例中,上述根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序,包括:生成预设的大数据文件系统中的文件与预设元数据表之间的关联关系;根据预设元数据表中的数据时间关联字段进行数据的开窗处理,其中,数据时间关联字段与第一数据库中的数据的时间信息相匹配;对经过开窗处理后的数据进行时间排序。9.在一些实施例中,该方法还包括:基于逻辑视图中的数据和数据对应的时间信息,创建目标时间段的临时数据表,其中,目标时间段与数据对应的时间信息相匹配,临时数据表中的数据包括上一次数据处理后的结果和本次增量处理结果。10.第二方面,本公开的实施例提供了一种用于处理数据的装置,该装置包括:获取单元,被配置成获取基于并行处理的目标日志文件的解析结果集合,其中,目标日志文件用于记录第一数据库的变更;排序单元,被配置成根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;生成单元,被配置成基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图。11.在一些实施例中,上述获取单元被进一步配置成:接收目标分布式消息队列系统中的至少两个消费端并发写入的目标日志文件的解析结果;基于所接收到的解析结果,生成解析结果集合。12.在一些实施例中,上述解析结果根据所提取的消息主题分别写入预设的大数据文件系统中相对应的文件。13.在一些实施例中,上述排序单元可以被进一步配置成:生成预设的大数据文件系统中的文件与预设元数据表之间的关联关系;根据预设元数据表中的数据时间关联字段进行数据的开窗处理,其中,数据时间关联字段与第一数据库中的数据的时间信息相匹配;对经过开窗处理后的数据进行时间排序。14.在一些实施例中,该装置还包括:创建单元,被配置成基于逻辑视图中的数据和数据对应的时间信息,创建目标时间段的临时数据表,其中,目标时间段与数据对应的时间信息相匹配,临时数据表中的数据包括上一次数据处理后的结果和本次增量处理结果。15.第三方面,本技术实施例提供了一种用于处理数据的系统,该系统包括:解析端,被配置成基于并行处理,将所获取的目标日志文件进行解析后的解析结果写入目标文件系统,其中,目标日志文件用于记录第一数据库的变更;数据处理端,被配置成根据解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图。16.在一些实施例中,上述解析端包括:获取单元,被配置成获取用于记录第一数据库的变更的日志文件作为目标日志文件;解析单元,被配置成利用至少两个线程对目标日志文件进行解析,生成解析结果;写单元,被配置成将所生成的解析结果写入目标文件系统。17.在一些实施例中,上述解析单元被进一步配置成:利用至少两个线程对目标日志文件中命中预设过滤词的语句进行过滤,生成过滤后的目标日志文件;利用至少两个线程对过滤后的目标日志文件进行解析,生成解析结果。18.在一些实施例中,上述解析端进一步被配置成:从所获取的目标日志文件进行解析后的解析结果中提取消息主题;根据所提取的消息主题,将解析结果并发写入预设的大数据文件系统中相对应的文件。19.第四方面,本技术实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。20.第五方面,本技术实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面中任一实现方式描述的方法。21.本公开的实施例提供的用于处理数据的方法、装置、系统、服务器和介质,通过在日志解析阶段开放数据并行处理,而在后续处理环节中依据数据的时间信息进行数据排序,再基于时间最近的数据生成逻辑视图,从而通过“以空间换时间”实现既提升了数据的处理效率,又保证了数据的一致性的效果。附图说明22.通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:23.图1是本公开的一个实施例可以应用于其中的示例性系统架构图;24.图2是根据本公开的用于处理数据的方法的一个实施例的流程图;25.图3是根据本公开的实施例的用于处理数据的方法的一个应用场景的示意图;26.图4是根据本公开的用于处理数据的方法的又一个实施例的流程图;27.图5是根据本公开的用于处理数据的装置的一个实施例的结构示意图;28.图6是根据本技术的用于处理数据的系统的一个实施例中各个设备之间交互的时序图。29.图7是适于用来实现本技术的实施例的电子设备的结构示意图。具体实施方式30.下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。31.需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。32.图1示出了可以应用本公开的用于处理数据的方法或用于处理数据的装置的示例性架构100。33.如图1所示,系统架构100可以包括服务器101、102、103和网络104、105。网络104、105用以分别在服务器101和服务器102之间以及服务器102和服务器103之间提供通信链路的介质。网络104、105可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。34.服务器102可以分别通过网络104、105与服务器101和服务器103交互,以接收或发送消息等。35.服务器101、102、103可以是提供各种服务的服务器。作为示例,服务器101可以是数据库服务器。服务器102可以是用于执行日志解析的服务器。服务器103可以是大数据服务器,其可以提供大数据环境下的文件系统服务和计算服务。36.需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。37.需要说明的是,本公开的实施例所提供的用于处理数据的方法一般由服务器103执行,相应地,用于处理数据的装置一般设置于服务器103中。38.应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。39.继续参考图2,示出了根据本公开的用于处理数据的方法的一个实施例的流程200。该用于处理数据的方法包括以下步骤:40.步骤201,获取基于并行处理的目标日志文件的解析结果集合。41.在本实施例中,用于处理数据的方法的执行主体(如图1所示的服务器103)可以通过有线连接方式或者无线连接方式获取基于并行处理的目标日志文件的解析结果集合。其中,上述目标日志文件可以用于记录第一数据库的变更。上述第一数据库的变更可以包括数据库表的结构变更(例如create、altertable等)和数据修改(例如insert、update、delete等)中的至少一项。作为示例,上述目标日志文件可以是binlog文件。42.在本实施例中,上述执行主体(如图1所示的服务器103)可以获取预先存储于本地的基于并行处理的目标日志文件的解析结果集合,也可以获取与之通信连接的电子设备(例如图1所示的服务器102)发送的基于并行处理的目标日志文件的解析结果集合。43.在本实施例的一些可选的实现方式中,上述执行主体还可以通过以下步骤获取基于并行处理的目标日志文件的解析结果集合:44.第一步,接收目标分布式消息队列系统中的至少两个消费端并发写入的目标日志文件的解析结果。45.在这些实现方式中,作为示例,上述目标分布式消息队列系统可以是kafka。具体地,上述执行主体可以在上述目标分布式消息队列系统中的消费端开启并发消费,从而可以允许至少两个消费端向其中并发写入目标日志文件的解析结果。46.基于上述可选的实现方式,本方案可以忽略消费的顺序及重复消费的限制,从而能够最大限度地开启并发处理速度,极大地减轻了解析后消息的积压。47.可选地,上述解析结果可以根据所提取的消息主题分别写入预设的大数据文件系统中相对应的文件。48.在这些实现方式中,上述预设的大数据文件系统中可以按照不同的消息主题设置有不同的文件。从而,用于写入上述解析结果的执行主体可以根据所提取的消息主题将解析结果分别写入预设的大数据文件系统中相对应的文件。作为示例,上述大数据文件系统可以是hdfs(hadoopdistributedfilesystem,hadoop分布式文件系统)。49.基于上述可选的实现方式,本方案可以直接获取写入相应文件的解析结果,从而为文件后续的快速写入和加载提供数据基础。50.第二步,基于所接收到的解析结果,生成解析结果集合。51.在这些实现方式中,基于上述第一步所接收到的解析结果,上述执行主体可以通过各种方式生成解析结果集合。作为示例,上述执行主体可以直接将所接收到的多个解析结果形成解析结果集合。52.步骤202,根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序。53.在本实施例中,根据步骤201所获取的基于并行处理的目标日志文件的解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,上述执行主体可以通过各种方式对至少一条数据进行排序。54.在本实施例中,上述执行主体可以直接根据上述步骤201所获取的基于并行处理的目标日志文件的解析结果集合中的解析结果对应的第一数据库中的数据的时间信息所指示的时间先后顺序对上述第一数据库中的数据进行排序。55.在本实施例的一些可选的实现方式中,根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,上述执行主体可以通过以下步骤对至少一条数据进行排序:56.第一步,生成预设的大数据文件系统中的文件与预设元数据表之间的关联关系。57.在这些实现方式中,上述执行主体可以通过各种方式生成上述预设的大数据文件系统中的文件与预设元数据表之间的关联关系。作为示例,上述执行主体可以通过hive(一种基于hadoop的数据仓库工具)的元数据管理创建文件与预设元数据表之间的关联关系。58.第二步,根据预设元数据表中的数据时间关联字段进行数据的开窗处理。59.在这些实现方式中,根据预设元数据表中的数据时间关联字段,上述执行主体可以通过各种方式进行数据的开窗处理。其中,上述数据时间关联字段通常与上述第一数据库中的数据的时间信息相匹配。作为示例,上述执行主体可以根据上述预设元数据表的主键(例如数据的id)进行数据的开窗处理。其中,上述数据的id可以是上述数据时间关联字段(例如modified_date)。60.第三步,对经过开窗处理后的数据进行时间排序。61.在这些实现方式中,上述执行主体可以通过各种方式对经过上述第二步开窗处理后的数据进行时间排序。作为示例,上述执行主体可以通过函数row_number()over(partitionbyidorderbymodified_datedesc)进行数据的时间排序,从而可以得到按照数据的时间顺序进行排列的数据结果。62.基于上述可选的实现方式,本方案可以基于预设的大数据文件系统各种的文件与表之间的关联关系和数据的开窗处理对数据进行时间排序,由于将排序转移至预设的大数据文件系统中进行处理,避免了在数据写入时强制顺序写入而带来的串行瓶颈,从而提升了数据处理效率。63.步骤203,基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图。64.在本实施例中,基于步骤202时间信息所指示的时间最近的数据,上述执行主体可以通过各种方式生成与上述第一数据库中的数据关联的逻辑视图。作为示例,上述执行主体可以首先将步骤202所得到的时间排序结果中时间信息所指示的时间最近的数据进行保存。而后,上述执行主体可以利用所保存的数据创建逻辑视图,从而可以通过sql(structuredquerylanguage,结构化查询语言)进行文件数据的读取和查询。65.在本实施例中,上述执行主体可以通过上述逻辑视图供用户端进行数据查询和读取。66.继续参见图3,图3是根据本公开的实施例的用于处理数据的方法的应用场景的一个示意图。在图3的应用场景中,服务器301可以获取基于并行处理的目标日志文件304的解析结果集合302。可选地,上述解析结果集合302可以由服务器303利用多线程对目标日志文件304并行解析生成。而后,服务器301可以根据上述解析结果集合302中的解析结果对应的第一数据库中的数据的时间信息进行排序,生成排序结果303。接下来,基于时间信息所指示的时间最近的数据(例如图中所示“数据x”),服务器301可以生成与上述第一数据库中的数据关联的逻辑视图305,以供其他设备进行数据读取和查询。67.目前,现有技术之一通常是在处理binlog过程时采用串行的方法,并且在binlog解析后均采用异步的消息队列进行后续的数据处理文件生成,从而保证在关系型数据库binlog解析过程中下游数据处理的顺序性和时效性,导致在海量的binlog解析场景下因为了保证数据的一致性而受到串行处理的制约,从而引起数据同步的延迟。而本公开的上述实施例提供的方法,通过在日志解析阶段开放数据并行处理,而在后续处理环节中依据数据的时间信息进行数据排序,再基于时间最近的数据生成逻辑视图,从而通过“以空间换时间”实现既提升了数据的处理效率,又保证了数据的一致性的效果。68.进一步参考图4,其示出了用于处理数据的方法的又一个实施例的流程400。该用于处理数据的方法的流程400,包括以下步骤:69.步骤401,获取基于并行处理的目标日志文件的解析结果集合。70.步骤402,根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序。71.步骤403,基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图。72.上述步骤401、步骤402、步骤403分别与前述实施例中的步骤201、步骤202、步骤203及其可选的实现方式一致,上文针对步骤201、步骤202、步骤203及其可选的实现方式的描述也适用于步骤401、步骤402和步骤403,此处不再赘述。73.步骤404,基于逻辑视图中的数据和数据对应的时间信息,创建目标时间段的临时数据表。74.在本实施例中,基于逻辑视图中的数据和数据对应的时间信息,用于处理数据的方法的执行主体(例如图1所示的服务器103)可以通过各种方式创建目标时间段的临时数据表。其中,上述目标时间段通常与上述数据对应的时间信息相匹配,上述临时数据表中的数据通常包括上一次数据处理后的结果和本次增量处理结果。75.在本实施例中,作为示例,上述执行主体可以根据上述步骤403中所生成的逻辑视图中的数据定期创建临时表。其中,上述执行主体可以通过时间窗口来使得上述临时表对应的目标时间段与临时表中的数据对应的时间信息相匹配,即上述临时表中的数据对应的时间信息所指示的时间通常落入上述目标时间段。76.从图4中可以看出,本实施例中的用于处理数据的方法的流程400体现了基于逻辑视图中的数据和数据对应的时间信息,创建目标时间段的临时数据表的步骤。由此,本实施例描述的方案可以通过所创建的目标时间段的临时表来避免过多的数据导致影响数据的读取和查询速度,同时,由于每一次查询都是基于上一次数据处理后的结果集合,可以提升后期数据的查询速度提升使用效率,在数据频繁读取和查询的情况下可以显著提升效率。77.进一步参考图5,作为对上述各图所示方法的实现,本公开提供了用于处理数据的装置的一个实施例,该装置实施例与图2或图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。78.如图5所示,本实施例提供的用于处理数据的装置500包括获取单元501、排序单元502和生成单元503。其中,获取单元501,被配置成获取基于并行处理的目标日志文件的解析结果集合,其中,目标日志文件用于记录第一数据库的变更;排序单元502,被配置成根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;生成单元503,被配置成基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图。79.在本实施例中,用于处理数据的装置500中:获取单元501、排序单元502和生成单元503的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202和步骤203的相关说明,在此不再赘述。80.在本实施例的一些可选的实现方式中,上述获取单元501可以被进一步配置成:接收目标分布式消息队列系统中的至少两个消费端并发写入的目标日志文件的解析结果;基于所接收到的解析结果,生成解析结果集合。81.在本实施例的一些可选的实现方式中,上述解析结果可以根据所提取的消息主题分别写入预设的大数据文件系统中相对应的文件。82.在本实施例的一些可选的实现方式中,上述排序单元502可以被进一步配置成:生成预设的大数据文件系统中的文件与预设元数据表之间的关联关系;根据预设元数据表中的数据时间关联字段进行数据的开窗处理,其中,数据时间关联字段与第一数据库中的数据的时间信息相匹配;对经过开窗处理后的数据进行时间排序。83.在本实施例的一些可选的实现方式中,上述用于处理数据的装置500还可以包括:创建单元(图中未示出),被配置成基于逻辑视图中的数据和数据对应的时间信息,创建目标时间段的临时数据表。其中,上述目标时间段可以与上述数据对应的时间信息相匹配。上述临时数据表中的数据可以包括上一次数据处理后的结果和本次增量处理结果。84.本公开的上述实施例提供的装置,通过获取单元501获取的在日志解析阶段开放数据并行处理的日志文件的解析结果集合,排序单元502依据数据的时间信息进行数据排序,再通过生成单元503基于时间最近的数据生成逻辑视图,从而通过“以空间换时间”实现既提升了数据的处理效率,又保证了数据的一致性的效果。85.进一步参考图6,其示出了用于处理数据的系统的一个实施例中各个设备之间交互的时序600。该用于处理数据的系统可以包括:解析端(例如图1所示的服务器102),数据处理端(例如图1所示的服务器103)。其中,上述解析端,可以被配置成基于并行处理,将所获取的目标日志文件进行解析后的解析结果写入目标文件系统,其中,目标日志文件用于记录第一数据库的变更。上述数据处理端,可以被配置成根据解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图写入目标文件系统的解析结果。86.在本实施例的一些可选的实现方式中,上述解析端可以包括:获取单元,被配置成获取用于记录第一数据库的变更的日志文件作为目标日志文件;解析单元,被配置成利用至少两个线程对目标日志文件进行解析,生成解析结果;写单元,被配置成将所生成的解析结果写入目标文件系统。87.在本实施例的一些可选的实现方式中,上述解析单元可以被进一步配置成:利用至少两个线程对目标日志文件中命中预设过滤词的语句进行过滤,生成过滤后的目标日志文件;利用至少两个线程对过滤后的目标日志文件进行解析,生成解析结果。88.在本实施例的一些可选的实现方式中,上述解析端可以进一步被配置成:从所获取的目标日志文件进行解析后的解析结果中提取消息主题;根据所提取的消息主题,将解析结果并发写入预设的大数据文件系统中相对应的文件。89.如图6所示,在步骤601中,解析端基于并行处理,将所获取的目标日志文件进行解析后的解析结果写入目标文件系统。90.在本实施例中,解析端(例如图1中的服务器102)可以基于各种并行处理方式将所获取的目标日志文件进行解析后的解析结果写入目标文件系统。其中,上述目标日志文件可以与前述实施例中的描述一致,此处不再赘述。91.在本实施例的一些可选的实现方式中,上述解析端可以通过以下步骤将所获取的目标日志文件进行解析后的解析结果写入目标文件系统:92.步骤6011,获取用于记录第一数据库的变更的日志文件作为目标日志文件。93.在这些实现方式中,上述解析端可以通过有线或无线连接的方式从通信连接的电子设备或本地获取用于记录第一数据库的变更的日志文件作为目标日志文件。94.步骤6012,利用至少两个线程对目标日志文件进行解析,生成解析结果。95.在这些实现方式中,上述解析端可以利用至少两个线程对上述步骤6011所获取的目标日志文件进行解析,生成解析结果。作为示例,上述解析端可以开启多线程模式进行数据解析,从而由现有的顺序文件解析修改为并发文件解析。96.需要说明的是,上述解析端还可以根据预先配置的参数来确定对多个文件进行解析处理。97.基于上述可选的实现方式,本方案可以在解析端并行解析目标日志文件,从而显著提升日志解析效率。98.可选地,上述解析端可以通过以下步骤生成解析结果:99.步骤60121,利用至少两个线程对目标日志文件中命中预设过滤词的语句进行过滤,生成过滤后的目标日志文件。100.在这些实现方式中,上述解析端可以利用上述至少两个线程对上述步骤6011所获取的目标日志文件中命中预设过滤词的语句进行过滤,生成过滤后的目标日志文件。作为示例,上述解析端可以在上述所要解析的每个目标日志文件处理过程中根据预设过滤词的设置对语句进行过滤。其中,上述预设过滤词可以包括但不限于以下至少一项:insert,update,delete,alert。101.基于上述可选的实现方式,本方案可以根据实际应用场景的需要在语句解析过程中对不必要的语句进行屏蔽,从而可以显著减少解析的数据量,进而可以明显提升解析文件处理的实时性。102.步骤60122,利用至少两个线程对过滤后的目标日志文件进行解析,生成解析结果。103.在这些实现方式中,上述解析端可以利用至少两个线程,采用相应的日志解析方式对上述步骤60121过滤后的目标日志文件进行解析,生成解析结果。104.步骤6013,将所生成的解析结果写入目标文件系统。105.在这些实现方式中,解析端可以通过各种方式将步骤6012所生成的解析结果写入目标文件系统。作为示例,上述解析端可以直接将所生成的解析结果利用多个线程写入目标文件系统。作为又一示例,上述解析端还可以是开启了并发消费的kafka系统。那么,上述kafka系统的生产者(producer)可以首先将上述所生成的解析结果存入消息队列。而后,上述kafka系统的多个消费者(consumer)可以并发消费上述消息队列中的解析结果写入任务。106.在本实施例的一些可选的实现方式中,上述解析端可以通过以下步骤将所生成的解析结果写入上述目标文件系统:107.步骤60131,从所获取的目标日志文件进行解析后的解析结果中提取消息主题。108.在这些实现方式中,上述解析端可以通过各种方式从所获取的目标日志文件进行解析后的解析结果中提取消息主题。其中,上述消息主题可以是包含于上述解析结果的字段。上述解析端也可以利用至少两个线程并行提取上述消息主体。109.步骤60132,根据所提取的消息主题,将解析结果并发写入预设的大数据文件系统中相对应的文件。110.在这些实现方式中,根据所提取的消息主题,上述解析端可以通过各种方式将解析结果并发写入预设的大数据文件系统中相对应的文件。其中,上述预设的大数据文件系统中可以按照不同的消息主题设置有不同的文件。从而,上述解析端可以根据步骤60131所提取的消息主题将解析结果分别写入预设的大数据文件系统中相对应的文件。作为示例,上述大数据文件系统可以是hdfs(hadoopdistributedfilesystem,hadoop分布式文件系统)。111.在步骤602中,根据解析结果对应的第一数据库中的数据的时间信息,数据处理端对至少一条数据进行排序。112.在步骤603中,基于时间信息所指示的时间最近的数据,数据处理端生成与第一数据库中的数据关联的逻辑视图。113.上述步骤602和步骤603分别与前述实施例中的步骤201至步骤203及其可选的实现方式一致,上文针对步骤201至步骤203及其可选的实现方式的描述也适用于步骤602和步骤603,此处不再赘述。114.本技术的上述实施例提供的用于处理数据的系统,首先,基于并行处理,解析端将所获取的目标日志文件进行解析后的解析结果写入目标文件系统,其中,上述目标日志文件用于记录第一数据库的变更;而后,数据处理端根据解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;最后,基于时间信息所指示的时间最近的数据,数据处理端生成与第一数据库中的数据关联的逻辑视图。从而可以利用解析端并行写入解析结果,提升处理效率;并且通过数据处理端对数据按照时间顺序进行排序进而生成逻辑视图来避免因无序写入数据造成的数据不一致,从而实现以空间换取并行数据处理的时间,提升数据处理效率。115.下面参考图7,其示出了适于用来实现本技术的实施例的电子设备(例如图1中的服务器103)700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本技术的实施例的功能和使用范围带来任何限制。116.如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(rom)702中的程序或者从存储装置708加载到随机访问存储器(ram)703中的程序而执行各种适当的动作和处理。在ram703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、rom702以及ram703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。117.通常,以下装置可以连接至i/o接口705:包括例如触摸屏、触摸板、键盘、鼠标、等的输入装置706;包括例如液晶显示器(lcd,liquidcrystaldisplay)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。118.特别地,根据本技术的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本技术的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从rom702被安装。在该计算机程序被处理装置701执行时,执行本技术的实施例的方法中限定的上述功能。119.需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd‑rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(radiofrequency,射频)等等,或者上述的任意合适的组合。120.上述计算机可读介质可以是上述服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取基于并行处理的目标日志文件的解析结果集合,其中,目标日志文件用于记录第一数据库的变更;根据解析结果集合中的解析结果对应的第一数据库中的数据的时间信息,对至少一条数据进行排序;基于时间信息所指示的时间最近的数据,生成与第一数据库中的数据关联的逻辑视图121.可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”、python语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。122.附图中的流程图和框图,图示了按照本公开的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。123.描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括获取单元、排序单元、生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取基于并行处理的目标日志文件的解析结果集合的单元,其中,目标日志文件用于记录第一数据库的变更”。124.以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1