分享

转存Druid监控记录到日志文件

 WindySky 2016-06-17

转存Druid监控记录到日志文件

[摘要:Druid的监控纪录正在是缓存的,重启以后没法找回,以是须要做长期化,活期把监控纪录转存到日记文件中,完成步调以下: 1、DataSource中增添设置装备摆设: !-- 每隔10分钟把监控数据输出到日记]

Druid的监控记录在是缓存的,重启之后无法找回,所以需要做持久化,定期把监控记录转存到日志文件中,实现步骤如下:

1、DataSource中增加配置:
<!-- 每隔10分钟把监控数据输出到日志中 -->
< property name ="timeBetweenLogStatsMillis" value ="600000" />
<!-- 自定义实现输入监控数据到日志 -->
< property name ="statLogger" ref ="localStatLogger" />
2、定义bean
< bean id ="localStatLogger" class ="com.asia.druid.LocalStatLogger" ></ bean>
3、类LocalStatLogger,重写API中的方法实现自定义的日志存储
(源码也是输出到日志文件,但是用的是自己的Log库,通过读取System.properties中的druid.stat.loggerName来定义到相应的日志类库,如log4j等,由于我不知道druid.stat.loggerName怎么指定,就直接重写了╮(╯▽╰)╭)
public class LocalStat Logger extends DruidDataSourceStat LoggerAdapter implementsDruidDataSourceStatLogger
public void log(DruidDataSourceStatValue statValue)
4、log4j.properties,定义转存日志文件位置及名称
log4j.appender.druid= org.apache.log4j.DailyRollingFileAppender 
log4j.appender.druid.layout= org.apache.log4j.PatternLayout 
log4j.appender.druid.layout.ConversionPattern= [druid] %d [%-15.15t] %-5p %-30.30c {1} - %m%n   
log4j.appender.druid.file= ../logs/my_druid_
log4j.appender.druid.DatePattern= yyyy-MM-dd'.log'
log4j.appender.druid.append= true 
log4j.appender.druid.ImmediateFlush= true

log4j.logger.com.mycompany.druid= info,druid
>DailyRollingFileAppender是可以按日期生成日志,当天的文件名为file对应的名字,第二天给前一天的文件重命名,加上指定的后缀
>log4j.logger.后面加的是包名,对包下的logger.info等方法生效,后面的日志级别与log4j.rootLogger无关
>../logs指定的是相对路径,相对的是部署工程的位置,如tomcat就是在tomcat下的logs文件夹下

相关推荐

感谢关注 Ithao123精品文库频道,是专门为互联网人打造的学习交流平台,全面满足互联网人工作与学习需求,更多互联网资讯尽在 IThao123!

关键词: log4j druid

文章点评:


精选专题

Laravel是一套简洁、优雅的PHP Web开发框架(PHP Web Framework)。它可以让你从面条一样杂乱的代码中解脱出来;它可以帮你构建一个完美的网络APP,而且每行代码都可以简洁、富于表达力。

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。 Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

产品设计是互联网产品经理的核心能力,一个好的产品经理一定在产品设计方面有扎实的功底,本专题将从互联网产品设计的几个方面谈谈产品设计

随着国内互联网的发展,产品经理岗位需求大幅增加,在国内,从事产品工作的大部分岗位为产品经理,其实现实中,很多从事产品工作的岗位是不能称为产品经理,主要原因是对产品经理的职责不明确,那产品经理的职责有哪些,本专题将详细介绍产品经理的主要职责

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多