日志收集在互联网企业尤其是大数据时代是一件非常重要的事情,日志记录着用户行为和系统行为,是一种重要的数据来源。Log4j是Java应用程序使用的最多的一种日志收集工作。目前大量的Java应用程序都使用着Lo4j 1.2.X版本,Log4j 1.X版本饱受诟病的原因是使用了大量的锁,在高并发的情况下影响了系统的性能。这篇简单提供一种思路,说说如何扩展一下Log4j,提升一下Log4j的性能。
网上有很多分析Log4j源码的文章,这里不重复说了,只简单分析一下最重要的几个组件。
先看一下Log4j的配置文件log4j.xml
- <?xml version="1.0" encoding="UTF-8" ?>
- <!DOCTYPE log4j:configuration SYSTEM "log4j.dtd">
-
- <log4j:configuration xmlns:log4j="http://jakarta./log4j/">
- <appender name="rootAppender" class="org.apache.log4j.DailyRollingFileAppender">
- <param name="File" value="test.log" />
- <param name="DatePattern" value="'.'yyyy-MM-dd" />
- <layout class="org.apache.log4j.PatternLayout">
- <param name="ConversionPattern" value="%d{yyyy-MM-dd HH:mm:ss.SSS} %5p %c{1}:%L - %m%n" />
- </layout>
- </appender>
- <logger name="com.test" additivity="false">
- <level value="debug" />
- <appender-ref ref="rootAppender" />
- </logger>
- <root>
- <level value="debug" />
- <appender-ref ref="rootAppender" />
- </root>
- </log4j:configuration>
从log4j.xml里面我们就可以看到Log4j最主要的几个组件
1. Logger,表示日志收集器,包含了各种Level下收集日志的方法,比如debug, info, error等。Logger的一个重要属性是additivity,表示是否附加到父Logger。Logger被设置成单根的树形结构,根就是Root,收集日志时,可以从叶子Logger一直往上直到Root。
Logger还包含了level表示级别,包含了一个appender列表,一个Logger可以对应多个Appender
2. Appender,表示如何处理日志,可以写本地文件,可以写远程文件,也可以输出到消息队列,等等。最常见的场景就是写本地文件。写文件的抽象是WriterAppender,封装了一个过滤器流QuietWriter。既然是过滤器流,那么可以包装节点流,默认的就是FileOutputStream流。Log4j也支持Buffer流,在WriterAppender的子类FileAppender里面有bufferedIO属性,如果采用Buffer流,就会在FileOutputStream外包一层BufferedWriter,最后在包到QuietWriter中。
- public
- synchronized
- void setFile(String fileName, boolean append, boolean bufferedIO, int bufferSize)
- throws IOException {
- LogLog.debug("setFile called: "+fileName+", "+append);
-
- if(bufferedIO) {
- setImmediateFlush(false);
- }
-
- reset();
- FileOutputStream ostream = null;
- try {
- ostream = new FileOutputStream(fileName, append);
- } catch(FileNotFoundException ex) {
- String parentName = new File(fileName).getParent();
- if (parentName != null) {
- File parentDir = new File(parentName);
- if(!parentDir.exists() && parentDir.mkdirs()) {
- ostream = new FileOutputStream(fileName, append);
- } else {
- throw ex;
- }
- } else {
- throw ex;
- }
- }
- Writer fw = createWriter(ostream);
- if(bufferedIO) {
- fw = new BufferedWriter(fw, bufferSize);
- }
- this.setQWForFiles(fw);
- this.fileName = fileName;
- this.fileAppend = append;
- this.bufferedIO = bufferedIO;
- this.bufferSize = bufferSize;
- writeHeader();
- LogLog.debug("setFile ended");
- }
关于Appender,尤其是基于文件的FileAppender,一定要理解,一个FileAppender实例表示的是一个打开文件对象,在计算机底层知识拾遗(四)理解文件系统 中我们说了从Linux的角度来说,open调用就创建了一个打开文件对象,并返回了一个文件描述符,其他系统调用都用文件描述符来引用这个打开文件对象。打开文件对象包含了当前的读写位置,文件长度等等。
而在Java中并没有提供open操作,在Java中,new一个FileInputStream/FileOutputStream实例表示创建了一个打开文件对象。FileInputStream/FileOutputStream维护着当前的读写位置,还维护了文件描述符FileDescriptor对象和FileChannel对象。随便提一下,日志收集操作基本上都是对文件的Append,FileOutputStream支持文件的append打开方式。
可以看到, new一个FileOutputStream会创建一个FileDescriptor对象,并支持open和openAppend方式。这和Linux的open系统调用完成的功能是一样的。
- public
- class FileOutputStream extends OutputStream
- {
- /**
- * The system dependent file descriptor. The value is
- * 1 more than actual file descriptor. This means that
- * the default value 0 indicates that the file is not open.
- */
- private FileDescriptor fd;
-
- private FileChannel channel= null;
-
- private boolean append = false;
-
- public FileOutputStream(File file, boolean append)
- throws FileNotFoundException
- {
- String name = (file != null ? file.getPath() : null);
- SecurityManager security = System.getSecurityManager();
- if (security != null) {
- security.checkWrite(name);
- }
- if (name == null) {
- throw new NullPointerException();
- }
- fd = new FileDescriptor();
- fd.incrementAndGetUseCount();
- this.append = append;
- if (append) {
- openAppend(name);
- } else {
- open(name);
- }
- }
- }
理解了一个FileOutputStream对象实例表示了一个打开文件之后,我们再来看一下操作系统内部为进程维护运行时文件数据结构的图。可以看到文件描述符指向了打开文件对象,打开文件对象又指向了inode对象,inode对象代表了一个文件在操作系统中的实例。
对于Java来说,JVM采用了单进程多线程的方式来支持并发,进程打开的所有文件对象对所有线程都是共享的。既然是共享,就涉及到多线程并发安全问题。在这里涉及到到3个地方存在并发安全问题。
1. 一个new FileOutputStream对象表示一个打开文件对象。那么当多个线程使用同一个FileOutputStream对象写文件时,就需要进行同步操作。
2. 当多个线程new了多个FileOutputStream对象对同一个文件进行写操作时,会出现并发问题,写入的顺序和位置都是不确定的。这种情况比较难同步,因为多个FileOutputStream对象是分散的,难以加锁。尽量避免这样写文件。当然也有解决方案,比如采用集中的地方来对外提供FileOutputStream对象,使用文件锁对inode对象加锁等等。
3. 当有另外的JVM进程对同一个文件进行操作时。这种情况只能通过加文件锁的方式来解决
Java提供了文件锁的支持,FileChannel提供了lock方法,并返回一个FileLock对象。
对于Log4j的使用场景,肯定是多线程并发的情况。第3种情况不用考虑。第二种情况比较复杂,所以只有第一种情况是适合的。Log4j也是采用了这一种方式。
可以把一个FileAppender对象理解成维护了一个打开文件对象,当Logger在多线程情况下把日志写入文件时,需要对Appender进行同步,也就是说对Logger加锁,保证使用同一个Logger对象时,一次只有一个线程使用这个FileAppender来写文件,避免了多线程情况下写文件错误。
就是下面这两段代码进行的同步操作,但是这也是Log4j被诟病最多的地方
- Hierarchy.java
-
- // 多个线程使用同一个Logger时,加锁
-
- public
- void callAppenders(LoggingEvent event) {
- int writes = 0;
-
- for(Category c = this; c != null; c=c.parent) {
- // Protected against simultaneous call to addAppender, removeAppender,...
- synchronized(c) {
- if(c.aai != null) {
- writes += c.aai.appendLoopOnAppenders(event);
- }
- if(!c.additive) {
- break;
- }
- }
- }
-
- if(writes == 0) {
- repository.emitNoAppenderWarning(this);
- }
- }
-
-
- AppenderSkeleton.java
-
- // 多个线程使用同一个Appender时,对Appender加锁
-
- public
- synchronized
- void doAppend(LoggingEvent event) {
- if(closed) {
- LogLog.error("Attempted to append to closed appender named ["+name+"].");
- return;
- }
-
- if(!isAsSevereAsThreshold(event.getLevel())) {
- return;
- }
-
- Filter f = this.headFilter;
-
- FILTER_LOOP:
- while(f != null) {
- switch(f.decide(event)) {
- case Filter.DENY: return;
- case Filter.ACCEPT: break FILTER_LOOP;
- case Filter.NEUTRAL: f = f.getNext();
- }
- }
-
- this.append(event);
- }
这几个锁在高并发的情况下对系统的性能影响很大,会阻塞掉业务进程。而日志收集工作应该是作为一个辅助功能,不能影响主业务功能。
所以可以考虑从几个方面对Log4j进行扩展
1. 同步操作改异步操作,将对业务线程的影响减到最小。比如使用一个缓冲队列,Logger.debug操作只将LoggingEvent放入缓冲队列就结束,然后用单独的线程做消费者去消费缓冲队列
2. 使用阻塞队列来做缓冲,可以用基于数组的有界队列的,内存可控,但是在高并发下可能会阻塞生产者线程,也可以用基于链表的无界队列,用内存空间换性能
3. 消费这个缓冲队列时,可以持续消费,也可以采用定时批量消费的方式。持续消费就是使用一个无限循环的线程,只要缓冲队列不空,就从队列中取LoggingEvent来写文件。由于FileAppender维护了一个打开的FileOutputStream对象实例,不会重复执行打开文件操作,也就是说只打开一次,然后一直写,性能也可以接受。
定时批量消费就是采用一个定时的线程,一个时间段消费一次,一次消费一批数据。
Log4j本身就提供一个AsyncAppender类来异步收集日志。
1. 它采用阻塞式的有界缓冲队列,但是没有采用基于管城的BlockingQueue,而是使用了普通的ArrayList,并结合条件队列操作wait, notifty来实现阻塞队列。默认容量是128个LoggingEvent
2. 包含了一个AppenderAttachableImpl,这是一个Appender的列表结构,可以包含多个Appender
3. 使用了Dispatcher线程来做消费者
4. 消费者采用持续消费的方式,只要缓冲队列不为空,就唤醒消费者,先将buffer填充到一个数组中,然后单独对这个数组消费,buffer可以继续给生产者使用。
- public class AsyncAppender extends AppenderSkeleton
- implements AppenderAttachable {
-
- public static final int DEFAULT_BUFFER_SIZE = 128;
- private final List buffer = new ArrayList();
- private final Map discardMap = new HashMap();
- private int bufferSize = DEFAULT_BUFFER_SIZE;
- /** Nested appenders. */
- AppenderAttachableImpl aai;
-
- private final AppenderAttachableImpl appenders;
-
- public AsyncAppender() {
- appenders = new AppenderAttachableImpl();
- aai = appenders;
-
- dispatcher =
- new Thread(new Dispatcher(this, buffer, discardMap, appenders));
- dispatcher.setDaemon(true);
- dispatcher.setName("AsyncAppender-Dispatcher-" + dispatcher.getName());
- dispatcher.start();
- }
-
- private static class Dispatcher implements Runnable {
- private final AsyncAppender parent;
- private final List buffer;
- private final Map discardMap;
- private final AppenderAttachableImpl appenders;
-
- }
AsyncAppender的代码比较老,可以使用ArrayBlockingQueue对其进行改写,减少条件队列的操作。也可以进一步优化,采用无界的LinkedBlockingQueue,采用空间换性能的方式,这样不会阻塞生产者线程,也就是不阻塞业务线程。只有当LinedBlockingQueue为空时才会阻塞消费线程。这是可以接受的,因为消费线程不是业务线程,也防止了消费线程的空转。
还可以使用定时批量处理的生产者消费者模式来异步处理线程,下面是一个简单的基于定时线程池的定时批量异步日志收集器实现
1. 使用ScheduledExecutorService 定时线程池
2. 使用LinkedBlockingQueue无界阻塞队列做缓冲,不会阻塞生产者线程
3. 定时执行Dispatcher线程,每次把缓冲队列填充到一个局部的列表,只对局部列表中的数据处理,缓冲队列可以继续被生产者使用
4. appenders上的锁是防止添加删除appender时出并发问题,实际上Logger一旦创建,很少会在运行时取修改appenders,所以这个锁基本没有影响
具体采用持续消费,还是定时批量消费,可以根据实际情况进行选择。定时批量消费时还可以优化,比如先把批量的日志日志变成一个大日志,一次只写一次文件文件,减少写文件的次数。
最后看一下如何运行时创建Logger,而不是使用log4j.xml配置文件的方式
- static{
- Layout patternLayout = new PatternLayout();
- Appender appender = null;
- String fileName = Configuration.getInstance().getLogFileName();
- try {
- appender = new DailyRollingFileAppender(patternLayout, fileName, "'.'yyyy-MM-dd");
- } catch (IOException e) {
- e.printStackTrace();
- }
- log.addAppender(rtracerAppender);
- log.setLevel(Level.DEBUG);
- log.setAdditivity(false);
- }
|