Logback配置文件这么写,还说你不会整理日志?

 更新时间:2020年07月28日 17:29:20   作者:Louis_Liu_Oneself  
logback框架会默认加载classpath下命名为logback-spring.xml或logback.xml的配置文件。这篇文章主要介绍了Logback配置文件写法,需要的朋友可以参考下

摘要:

1.日志输出到文件并根据LEVEL级别将日志分类保存到不同文件

2.通过异步输出日志减少磁盘IO提高性能

3.异步输出日志的原理

1、配置文件logback-spring.xml

SpringBoot工程自带logback和slf4j的依赖,所以重点放在编写配置文件上,需要引入什么依赖,日志依赖冲突统统都不需要我们管了。

logback框架会默认加载classpath下命名为logback-spring.xmllogback.xml的配置文件。

如果将所有日志都存储在一个文件中,文件大小也随着应用的运行越来越大并且不好排查问题,正确的做法应该是将error日志和其他日志分开,并且不同级别的日志根据时间段进行记录存储。

配置文件:

<?xml version="1.0" encoding="UTF-8"?>
<configuration debug="true">
  <!-- 项目名称 -->
  <property name="PROJECT_NAME" value="project-api" />
  <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径-->
  <property name="LOG_HOME" value="logs" />

  <!-- 控制台输出 -->
  <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">    
    <withJansi>true</withJansi>
    <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
      <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
      <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
  </appender>

  <!-- ERROR日志文件,记录错误日志 -->
  <appender name="ERROR_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
    <file>${LOG_HOME}/${PROJECT_NAME}/error.log</file>
    <!-- 过滤器,只打印ERROR级别的日志 -->
    <filter class="ch.qos.logback.classic.filter.LevelFilter">
      <level>ERROR</level>
      <onMatch>ACCEPT</onMatch>
      <onMismatch>DENY</onMismatch>
    </filter>
    <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
      <!--日志文件输出的文件名-->
      <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/error.%i.zip</FileNamePattern>
      <!--日志文件保留天数-->
      <MaxHistory>3650</MaxHistory>
      <!--日志文件最大的大小-->
      <MaxFileSize>100MB</MaxFileSize>
    </rollingPolicy>
    <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
      <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
      <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
  </appender>

  <!-- INFO日志文件,用于记录重要日志信息 -->
  <appender name="INFO_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
    <file>${LOG_HOME}/${PROJECT_NAME}/info.log</file>
    <!-- 过滤器,只打印INFO级别的日志 -->
    <filter class="ch.qos.logback.classic.filter.LevelFilter">
      <level>INFO</level>
      <onMatch>ACCEPT</onMatch>
      <onMismatch>DENY</onMismatch>
    </filter>
    <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
      <!--日志文件输出的文件名-->
      <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/info.%i.zip</FileNamePattern>
      <!--日志文件保留天数-->
      <MaxHistory>3650</MaxHistory>
      <!--日志文件最大的大小-->
      <MaxFileSize>100MB</MaxFileSize>
    </rollingPolicy>
    <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
      <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
      <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
  </appender>
  
  <!-- 打印的SQL日志文件,用于执行的SQL语句和参数信息 -->
  <appender name="SQL_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
    <file>${LOG_HOME}/${PROJECT_NAME}/sql.log</file>
      <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
        <!--日志文件输出的文件名-->
        <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/sql.%i.zip</FileNamePattern>
        <!--日志文件保留天数-->
       <MaxHistory>3650</MaxHistory>
        <!--日志文件最大的大小-->
        <MaxFileSize>100MB</MaxFileSize>
      </rollingPolicy>
      <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
      <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
        <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line] - %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
  </appender>

  <!-- API请求被访问的日志文件,记录请求的URL和携带的参数 -->
  <appender name="REQUEST_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
    <file>${LOG_HOME}/${PROJECT_NAME}/request.log</file>
    <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy">
      <!--日志文件输出的文件名-->
        <FileNamePattern>${LOG_HOME}/${PROJECT_NAME}/%d{yyyy-MM-dd}/request.%i.zip</FileNamePattern>
        <!--日志文件保留天数-->
       <MaxHistory>3650</MaxHistory>
        <!--日志文件最大的大小-->
        <MaxFileSize>100MB</MaxFileSize>
    </rollingPolicy>
    <encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
        <!-- 格式化输出: %d: 日期; %-5level: 级别从左显示5个字符宽度; %thread: 线程名; %logger: 类名; %M: 方法名; %line: 行号; %msg: 日志消息; %n: 换行符 -->
        <pattern>[%d{yyyy-MM-dd HH:mm:ss.SSS}] [%-5level] [%thread] [%logger{50}] [%M] [%line]- %msg%n</pattern>
      <charset>UTF-8</charset>
    </encoder>
  </appender>

  <!-- 异步输出INFO_FILE -->
  <appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="INFO_FILE"/>
  </appender>

  <!-- 异步输出ERROR_FILE -->
  <appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="ERROR_FILE"/>
  </appender>

  <!-- 异步输出SQL_FILE -->
  <appender name="ASYNC_SQL_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="SQL_FILE"/>
  </appender>

  <!-- 异步输出REQUEST_FILE -->
  <appender name="ASYNC_REQUEST_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="REQUEST_FILE"/>
  </appender>

  <!-- 输出error信息到文件-->
  <logger name="error" additivity="true">
    <appender-ref ref="ERROR_FILE"/>
  </logger>
  
  <!-- 输出info信息到文件-->
  <logger name="info" additivity="true">
    <appender-ref ref="INFO_FILE"/>
  </logger>
  
  <!-- 输出request信息到文件-->
  <logger name="request" level="INFO" additivity="false">
    <appender-ref ref="REQUEST_FILE" />
  </logger>

  <!-- 输出SQL到控制台和文件-->
  <logger name="org.hibernate.SQL" additivity="false">
    <level value="DEBUG" />
    <appender-ref ref="SQL_FILE" />
  </logger>

  <!-- 输出SQL的参数到控制台和文件-->
  <logger name="org.hibernate.type.descriptor.sql.BasicBinder" additivity="false" level="TRACE">
    <level value="TRACE" />
    <appender-ref ref="SQL_FILE" />
  </logger>

  <!-- 开发环境下的日志配置 -->
  <springProfile name="dev">
    <root level="INFO">
      <appender-ref ref="CONSOLE" />
      <appender-ref ref="ERROR_FILE" />
      <appender-ref ref="INFO_FILE" />
    </root>
  </springProfile>

  <!-- 测试环境下的日志配置 -->
  <springProfile name="test">
    <root level="INFO">
      <appender-ref ref="CONSOLE" />
      <appender-ref ref="ERROR_FILE" />
      <appender-ref ref="INFO_FILE" />
    </root>
  </springProfile>

  <!-- 生产环境下的日志配置 -->
  <springProfile name="prod">
    <root level="INFO">
      <appender-ref ref="CONSOLE" />
      <appender-ref ref="ERROR_FILE" />
      <appender-ref ref="INFO_FILE" />
    </root>
  </springProfile>
</configuration>

标签说明:

<root>标签,必填标签,用来指定最基础的日志输出级别
<appender-ref>标签,添加append
<append>标签,通过使用该标签指定日志的收集策略
<filter>标签,通过使用该标签指定过滤策略
<level>标签指定过滤的类型
<encoder>标签,使用该标签下的<pattern>标签指定日志输出格式
<rollingPolicy>标签指定收集策略,比如基于时间进行收集
<fileNamePattern>标签指定生成日志保存地址,通过这样配置已经实现了分类分日期收集日志的目标了

name属性指定appender命名
class属性指定输出策略,通常有两种,控制台输出和文件输出,文件输出就是将日志进行一个持久化
ConsoleAppender将日志输出到控制台

部分截图展示:

目录:

error.log

info.log

sql.log

request.log

2、logback 高级特性异步输出日志

如果不配置异步输出规则,那么默认日志配置方式是基于同步的,每次日志输出到文件都会进行一次磁盘IO。

采用异步写日志的方式而不让此次写日志发生磁盘IO,阻塞线程从而造成不必要的性能损耗。

异步输出日志的方式很简单,添加一个基于异步写日志的appender,并指向原先配置的appender即可。

异步输出配置:

<!-- 异步输出INFO_FILE -->
  <appender name="ASYNC_INFO_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="INFO_FILE"/>
  </appender>

  <!-- 异步输出ERROR_FILE -->
  <appender name="ASYNC_ERROR_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="ERROR_FILE"/>
  </appender>

  <!-- 异步输出SQL_FILE -->
  <appender name="ASYNC_SQL_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="SQL_FILE"/>
  </appender>

  <!-- 异步输出REQUEST_FILE -->
  <appender name="ASYNC_REQUEST_FILE" class="ch.qos.logback.classic.AsyncAppender">
    <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
    <queueSize>256</queueSize>
    <!-- 默认情况下,当阻塞队列的剩余容量为20%时,它将丢弃TRACE,DEBUG和INFO级别的事件,仅保留WARN和ERROR级别的事件。要保留所有事件,请将discardingThreshold设置为0。 -->
    <discardingThreshold>0</discardingThreshold>
    <!-- 添加附加的appender,使用前面定义的name,最多只能添加一个 -->
    <appender-ref ref="REQUEST_FILE"/>
  </appender>

参数配置:

参数名称     参数类型     建议值     说明
queueSize int queueSize计算

example:假设IO影响30s,日志和qps比例是1:1,单容器压测值1500 qps则可以推算出queue size的值,queueSize的设置公式:30 *1500=45000。
阻塞队列的最大容量。默认情况下,queueSize设置为256。
discardingThreshold int

使用默认值20,或者设置大于0。

如果设置discardingThreshold=0,表示queue 满了,不丢弃,block线程。

默认情况下,当阻塞队列剩余20%的容量时,它将丢弃级别跟踪、调试和信息事件,只保留级别警告和错误事件。要保留所有事件,请将discardingThreshold设置为0。
neverBlock boolean true 如果为false(默认值),则追加程序将阻止追加到完整队列,而不是丢失消息。设置为true时,附加程序只会丢弃消息,不会阻止您的应用程序。

官方文档链接:http://logback.qos.ch/manual/appenders.html

3、异步日志输出原理

异步输出日志中最关键的就是配置文件中ch.qos.logback.classic包下AsyncAppenderBase类中的append方法,查看该方法的源码:

@Override
protected void append(E eventObject) {
  if (isQueueBelowDiscardingThreshold() && isDiscardable(eventObject)) {
    return;
  }
  preprocess(eventObject);
  put(eventObject);
}

通过队列情况判断是否需要丢弃日志,不丢弃的话将它放到阻塞队列中,通过查看代码,这个阻塞队列为queueSize,默认大小为256,可以通过配置文件进行修改。

/**
 * The default buffer size.
 */
public static final int DEFAULT_QUEUE_SIZE = 256;
int queueSize = DEFAULT_QUEUE_SIZE;

Logger.info(...)到append(...)就结束了,只做了将日志塞入到阻塞队列的事,然后继续执行Logger.info(...)下面的语句了。在AsyncAppenderBase类中定义了一个Worker线程,run()方法中的代码如下:

class Worker extends Thread {

  public void run() {
    AsyncAppenderBase<E> parent = AsyncAppenderBase.this;
    AppenderAttachableImpl<E> aai = parent.aai;

    // loop while the parent is started
    while (parent.isStarted()) {
      try {
        E e = parent.blockingQueue.take();
        aai.appendLoopOnAppenders(e);
      } catch (InterruptedException ie) {
        break;
      }
    }

    addInfo("Worker thread will flush remaining events before exiting. ");

    for (E e : parent.blockingQueue) {
      aai.appendLoopOnAppenders(e);
      parent.blockingQueue.remove(e);
    }

    aai.detachAndStopAllAppenders();
  }
}

从阻塞队列中取出一个日志,并调用AppenderAttachableImpl类中的appendLoopOnAppenders方法维护一个Append列表。

最主要的两个方法就是encode和write方法,前一个法方会根据配置文件中encode指定的方式转化为字节码,后一个方法将转化成的字节码写入到文件中去。

所以写文件是通过新起一个线程去完成的,主线程将日志放到阻塞队列中,然后又去执行其他任务。

到此这篇关于Logback配置文件这么写,还说你不会整理日志?的文章就介绍到这了,更多相关Logback配置文件内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:

相关文章

  • 基于Java的Scoket编程

    基于Java的Scoket编程

    本文详细讲解了基于Java的Scoket编程,文中通过示例代码介绍的非常详细。对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2021-12-12
  • SpringBoot如何使用Undertow做服务器

    SpringBoot如何使用Undertow做服务器

    这篇文章主要介绍了SpringBoot如何使用Undertow做服务器,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2022-07-07
  • java中volatile不能保证线程安全(实例讲解)

    java中volatile不能保证线程安全(实例讲解)

    下面小编就为大家带来一篇java中volatile不能保证线程安全(实例讲解)。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-09-09
  • Java实现多层文件夹压缩功能

    Java实现多层文件夹压缩功能

    这篇文章主要为大家详细介绍了如何利用Java语言进行多层文件夹压缩功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下
    2022-08-08
  • java实现多线程之定时器任务

    java实现多线程之定时器任务

    本篇文章主要介绍了java实现多线程之定时器任务,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-02-02
  • java与js代码互调示例代码

    java与js代码互调示例代码

    用到java和js方法互调,在用HTML5做跨平台应用开发时经常会用到,在这里分享一些自己在实际开发过程中的用法,希望对初学者有所帮助
    2013-07-07
  • SpringBoot实现单文件与多文件上传

    SpringBoot实现单文件与多文件上传

    本次例子不基于第三方存储(如七牛云对象存储、阿里云对象存储、腾讯云对象存储等),仅基于本地存储。本文主要内容如下:公共文件存储代码;单文件上传代码;多文件上传代码
    2021-05-05
  • java使用多线程读取超大文件

    java使用多线程读取超大文件

    这篇文章主要为大家详细介绍了java使用多线程读取超大文件,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2019-08-08
  • 在已经使用mybatis的项目里引入mybatis-plus,结果不能共存的解决

    在已经使用mybatis的项目里引入mybatis-plus,结果不能共存的解决

    这篇文章主要介绍了在已经使用mybatis的项目里引入mybatis-plus,结果不能共存的解决方案,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2023-03-03
  • SpringBoot添加富文本编辑器操作步骤

    SpringBoot添加富文本编辑器操作步骤

    富文本编辑器是一种能够编辑和展示富文本内容的工具或程序,与纯文本编辑器不同,富文本编辑器可以处理文本的格式、样式、布局等方面,使文本更加丰富多样,本文给大家介绍了SpringBoot添加富文本编辑器操作步骤,需要的朋友可以参考下
    2024-01-01

最新评论