项目日志记录优化(一)

今天做了抽时间把项目的日志记录简单的做了一下调整,大致思路就是将主要业务日志在service层记录
dao层做数据库存储 。
对于service层的日志记录,采用了log4j分包记录的方式 直接将service层的日志记录单独记录至一个独立的文件中
由于项目使用druid做jdbc驱动 所以dao日志记录这块采用了druid的日志,仍然单独记录至一个独立的文件中
这样一个简单的分层日志记录就做好了,我们只要将service层的日志记录清楚,相信也可以处理大部分程序问题了。
贴下log4j配置文件代码

###set log levels
log4j.rootLogger =info,stdout,E
log4j.logger.com.yunji.ebms.services = stdout,A1
#druid sqllog4j.logger.druid.sql=debug,stdout,A2
log4j.logger.druid.sql.DataSource=warn,stdout,A2
log4j.logger.druid.sql.Connection=warn,stdout,A2
log4j.logger.druid.sql.Statement=debug,stdout,A2
log4j.logger.druid.sql.ResultSet=debug,stdout,A2

log4j.appender.stdout = org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target = System.out
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern =  %d{ABSOLUTE} %5p %c{1}:%L - %m%n
log4j.logger.org.quartz=INFO

log4j.appender.E= org.apache.log4j.DailyRollingFileAppender
log4j.appender.E.File =/logs/ebms.log
log4j.appender.E.DatePattern=yyyy-MM-dd'.log'
log4j.appender.E.Threshold =INFO
log4j.appender.E.layout = org.apache.log4j.PatternLayout
log4j.appender.E.layout.ConversionPattern = %-d{yyyy-MM-dd HH:mm:ss}[%c] [%t:%r] - [%p]  %m%n

log4j.appender.A1=org.apache.log4j.DailyRollingFileAppender
log4j.appender.A1.File =/logs/ebmsService.log
log4j.appender.A1.DatePattern=yyyy-MM-dd'.log'
log4j.appender.A1.Threshold =INFO
log4j.appender.A1.layout = org.apache.log4j.PatternLayout
log4j.appender.A1.layout.ConversionPattern = %-d{yyyy-MM-dd HH:mm:ss}[%c] [%t:%r] - [%p]  %m%n

log4j.appender.A2=org.apache.log4j.DailyRollingFileAppender
log4j.appender.A2.File =/logs/druid.log
log4j.appender.A2.DatePattern=yyyy-MM-dd'.log'
log4j.appender.A2.Threshold =debug
log4j.appender.A2.layout = org.apache.log4j.PatternLayout
log4j.appender.A2.layout.ConversionPattern = %-d{yyyy-MM-dd HH:mm:ss}[%c] [%t:%r] - [%p]  %m%n

针对druid的日志记录,可以这样配置:

<bean id="stat-filter" class="com.alibaba.druid.filter.stat.StatFilter">
    <property name="slowSqlMillis" value="10000"/>
    <property name="logSlowSql" value="true"/>
    <property name="mergeSql" value="true"/>

</bean>
<!--只做格式化的sql语句和返回值输出-->
<bean id="log-filter" class="com.alibaba.druid.filter.logging.Log4jFilter">
    <property name="statementLogEnabled" value="false"/>
    <property name="statementCloseAfterLogEnabled" value="false"/>
    <property name="statementCreateAfterLogEnabled" value="false"/>
    <property name="statementExecuteAfterLogEnabled" value="false"/>
    <property name="statementExecuteBatchAfterLogEnabled" value="false"/>
    <property name="statementExecuteQueryAfterLogEnabled" value="false"/>
    <property name="statementExecuteUpdateAfterLogEnabled" value="false"/>
    <property name="statementLogErrorEnabled" value="true"/>
    <property name="statementExecutableSqlLogEnable" value="true"/>
    <property name="resultSetLogEnabled" value="true"/>

</bean>
<bean id="dataSource" destroy-method="close" init-method="init"
      class="com.alibaba.druid.pool.DruidDataSource">
    <property name="url" value="${jdbc.url}"></property>
    <property name="username" value="${jdbc.username}"></property>
    <property name="password" value="${jdbc.password}"></property>
    <property name="initialSize" value="1"></property>
    <property name="maxActive" value="20"></property>
    <!-- 配置获取连接等待超时的时间 -->
    <property name="maxWait" value="60000"/>
    <!-- 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 -->
    <property name="timeBetweenEvictionRunsMillis" value="60000"/>

    <!-- 配置一个连接在池中最小生存的时间,单位是毫秒 -->
    <property name="minEvictableIdleTimeMillis" value="300000"/>

    <property name="validationQuery" value="SELECT 'x'"/>
    <property name="testWhileIdle" value="true"/>
    <property name="testOnBorrow" value="false"/>
    <property name="testOnReturn" value="false"/>

    <!-- 打开PSCache,并且指定每个连接上PSCache的大小 -->
    <property name="poolPreparedStatements" value="false"/>
    <property name="maxPoolPreparedStatementPerConnectionSize" value="20"/>
    <property name="proxyFilters">
        <list>
            <ref bean="stat-filter"/>
            <ref bean="log-filter"/>
        </list>
    </property>

</bean>

这样一个简单的分层日志记录就做好了

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Jenkins是目前最流行的开源持续集成和持续交付工具之一。优化Jenkins项目可以提高构建和部署的效率,减少错误,提高开发团队的生产力。以下是一些Jenkins项目优化的建议: 1. 使用分布式构建:将构建任务分配到多个节点上,可以加快构建速度,提高并行性。 2. 管理构建历史记录:定期清理旧的构建数据,减少磁盘使用和数据库负载,提高系统性能。 3. 编写优化的Jenkinsfile:使用Jenkinsfile可以将构建过程定义为代码,可以更好地管理和重复使用构建逻辑。同时,优化Jenkinsfile可以减少构建时间。 4. 配置Jenkins节点:配置节点的内存、CPU和存储等硬件资源,可以提高构建的效率和可靠性。 5. 使用缓存和增量构建:使用缓存和增量构建可以减少不必要的构建时间和资源消耗,提高构建效率。 6. 管理Jenkins插件:定期更新和删除不必要的插件,可以减少Jenkins的负载和升级成本。 7. 集成测试和质量保证工具:集成测试和质量保证工具可以自动化测试和检查代码质量,减少错误和缺陷,提高代码的可维护性。 8. 使用Jenkins API:使用Jenkins API可以自动化和批量化构建和部署任务,提高效率和可靠性。 9. 监控和日志记录:定期监控Jenkins系统的性能和健康状况,并记录日志以便排查问题。 10. 使用Jenkins的扩展功能:Jenkins提供了很多扩展功能,如Blue Ocean、Pipeline等,可以帮助开发团队更好地管理和优化构建过程。 以上是一些Jenkins项目优化的建议。实际优化过程中,需要根据具体情况进行调整和改进。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值