一种主机运维分析方法与流程

文档序号:18414150发布日期:2019-08-13 19:07阅读:240来源:国知局
一种主机运维分析方法与流程

本发明涉及一种主机运维分析方法,特别涉及一种整合数据采集、处理,实现数据全面的运维分析的主机运维分析方法,属于主机运维分析领域。



背景技术:

目前主机系统的运维还是基于传统的监控工具,包括传统的界面以及未经整合的、孤立的工具,平台端的运维管理工具各自为政,比如rmf,db2都有平台端监控,但是只能监控各自产品。第三方传统的监控工具,比如tmon,bmc,ca等监控工具系统消耗大,并且每种工具都有自己的报告和数据,由不同专业人员负责数据的处理和分析。目前的运维方式,普遍存在以下缺陷:⑴界面不友好,操作需要使用大量命令,操作门槛较高;⑵平台工具各自为政,无法整合,不利于大数据跨界发掘和分析;⑶目前的平台端工具过于死板,远远不能满足客户灵活且不断发展的运维需求;⑷大多数为非实时数据,多数用于事后分析,无法实时监控并提供预警;⑸占用昂贵的主机资源,如cpu和存储资源。



技术实现要素:

本发明主机运维分析方法公开了新的方案,采用flume结合kafka的数据采集和分发模式,将多种类型的主机性能和运维数据整合到开放平台大数据中,然后进行后续的分析、处理,解决了现有方案过度占用系统资源以及运维效率低的问题。

本发明主机运维分析方法,主机运维分析方法基于服务器运行,服务器包括数据采集模块、实时流处理模块、数据存储检索分析模块、web服务模块,数据采集模块包括flume数据采集传输模块、kafka数据采集分发模块,数据存储检索分析模块包括hbase数据库、mysql关系数据库、hdfs分布式文件系统,包括过程:flume数据采集传输模块采集主机的smf数据、日志类数据经聚合后传输给hdfs分布式文件系统,kafka数据采集分发模块将收到的数据经实时流处理后传送给hbase数据库,数据存储检索分析模块将收到的主机运维数据进行分析、整理后创建数据搜索引擎供web服务模块调取使用。

进一步,本方案的方法的数据采集模块还包括数据搜索模块,数据搜索模块从主机搜索smf数据、日志类数据发送给flume数据采集传输模块。

进一步,本方案的方法的数据采集模块还包括脚本解析模块,主机的自定义格式数据经脚本解析模块处理后发送给flume数据采集传输模块。

进一步,本方案的方法的实时流处理模块包括redis数据库,redis数据库存储流处理数据。

进一步,本方案的方法的web服务模块包括实时事件告警模块、问题原因自动分析模块、实时系统监控模块、实时交易性能分析模块、实时系统日志分析模块、在线交易性能分析模块、db2运维分析建议模块、趋势分析模块、配置分析模块、容量分析模块、变更管理模块、健康检查模块、安全审计模块、问题管理模块、报表模块、知识库,web服务模块调取数据存储检索分析模块的数据后根据设定的算法实现数据加工结果输出。

本发明主机运维分析方法采用flume结合kafka的数据采集和分发模式,将多种类型的主机性能和运维数据整合到开放平台大数据中,然后进行后续的分析、处理,具有数据整合以及运维效率高的特点。

附图说明

图1是基于flume结合kafka的数据采集的流程简图。

图2是kafka整合各类数据的流程简图。

具体实施方式

本发明主机运维分析方法,主机运维分析方法基于服务器运行,服务器包括数据采集模块、实时流处理模块、数据存储检索分析模块、web服务模块,数据采集模块包括flume数据采集传输模块、kafka数据采集分发模块,数据存储检索分析模块包括hbase数据库、mysql关系数据库、hdfs分布式文件系统,包括过程:flume数据采集传输模块采集主机的smf数据、日志类数据经聚合后传输给hdfs分布式文件系统,kafka数据采集分发模块将收到的数据经实时流处理后传送给hbase数据库,数据存储检索分析模块将收到的主机运维数据进行分析、整理后创建数据搜索引擎供web服务模块调取使用。上述方案采用flume结合kafka的数据采集和分发模式,将多种类型的主机性能和运维数据整合到开放平台大数据中,然后进行后续的分析、处理,满足了全面运维的需求。

如图1所示,为了进一步整合各类数据,提高数据采集效率,本方案的方法的数据采集模块还包括数据搜索模块,数据搜索模块从主机搜索smf数据、日志类数据发送给flume数据采集传输模块。本方案的方法的数据采集模块还包括脚本解析模块,主机的自定义格式数据经脚本解析模块处理后发送给flume数据采集传输模块。本方案的方法的实时流处理模块包括redis数据库,redis数据库存储流处理数据。为了实现web服务以及展现,本方案的方法的web服务模块包括实时事件告警模块、问题原因自动分析模块、实时系统监控模块、实时交易性能分析模块、实时系统日志分析模块、在线交易性能分析模块、db2运维分析建议模块、趋势分析模块、配置分析模块、容量分析模块、变更管理模块、健康检查模块、安全审计模块、问题管理模块、报表模块、知识库,web服务模块调取数据存储检索分析模块的数据后根据设定的算法实现数据加工结果输出。

本方案公开了一种主要用于主机运维分析平台的全面数据采集和处理,最终用于主机全面的运维分析与展现以及管理的自动化处理方法。主机运维分析面对的是大量的不同类型数据,最常见的如下:⑴系统运行日志(operlog);⑵smf性能数据;⑶中间件cics的性能分析数据(pa);⑷数据库db2系统表中的数据;⑸各种配置文件;⑹作业运行的输出。等等。以上数据对于全面的运维分析都是必不可少的,通常必须花费大量的人力,分门别类的把各种数据打印成格式化好的报表,然后凭借多年的运维经验找到其中的关联,对发生的问题进行分析判断,或者对系统的运行进行检查。本方案全面采集了主机运维的各类数据,可以满足用户各类需求,本方案的核心就是各种数据的集成整合,所有的数据处理都集中于平台端(服务器),减轻了主机端昂贵资源的负担。如图1所示,系统使用主机自带软件ioaz(数据搜索模块)可以直接收集operlog,smf数据,并直接与flume模块对接。部分自定义格式的数据需要经过脚本解析处理后导入flume模块。基于flume模块的数据处理特性,可以将数据直接输出到hdfs(分布式文件系统)。kafka模块经过流处理输出到hbase数据库。基于全面而完整的主机运维大数据,后续的数据分析、发掘、展现就有了坚实的基础。

本方案的主机运维分析平台基于flume结合kafka完成数据集成,以及相应的流数据集成,将主机上各种实时信息以及非准实时信息传输至开放平台端的主机运维管理平台,具体说就是flume模块主要完成数据采集,kafka模块完成数据分发,如图2所示,最终实现以下主要功能:实时系统监控;实时交易分析;历史数据分析,趋势分析;kpi关联分析;报表的自动生成;事件告警/通知/预警,事件管理;问题分析,问题管理;批量运行分析;安全审计;配置管理;容量管理;变更管理。等等。因此,本方案采用flume模块结合kafka模块的数据采集和分发模式,将多种类型的主机性能和运维数据整合到开放平台大数据中,然后进行后续的分析、处理,以满足全面的运维需求,各类运维数据在开放平台的大数据整合,可以实现实时的性能展示和分析,同时各类数据可以方便的协同工作,比如配置管理中的长期cpu权重变化结合相同时期smf数据中的交易性能的变化,分析其中的内在联系和影响。

本方案主机运维分析方法并不限于具体实施方式中公开的内容,实施例中出现的技术方案可以基于本领域技术人员的理解而延伸,本领域技术人员根据本方案结合公知常识作出的简单替换方案也属于本方案的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1