java随笔

线程异步执行结果汇总

import lombok.Data;
import lombok.extern.slf4j.Slf4j;
import org.junit.Test;

import java.util.Arrays;
import java.util.List;
import java.util.concurrent.*;

/**
 * @program: eil-project
 * @description:
 * @author: fujl
 * @create: 2018-09-27 09:02
 **/
@Slf4j
public class ThreadTest {

  //线程池中核心线程数
 private final static int THREAD_POOL_SIZE = 3;
 //线程最大数
 private static final int MAX_THREAD_POOL_SIZE = 5;

 @Test
 public void testMyThread() throws ExecutionException, InterruptedException {
        testMethod();
 }

    public void testMethod() throws InterruptedException, ExecutionException {
        BlockingQueue<Runnable> workQuene = new ArrayBlockingQueue<>(10);

 ThreadPoolExecutor executor = new ThreadPoolExecutor(THREAD_POOL_SIZE, MAX_THREAD_POOL_SIZE,
 0, TimeUnit.MICROSECONDS, workQuene);

 CompletionService completionService = new ExecutorCompletionService(executor);
 List<String> list = Arrays.asList("A", "B", "C");
 for (String type : list) {
            //将任务提交到阻塞队列
 completionService.submit(new CumputerRu(type));
 }
        //不在接收新的任务
 executor.shutdown();
 final long start = System.nanoTime();
 double computerResult = 0.0d;
 for (String type : list) {
            //如果有任务完成那么就从take中返回
 Future<Double> f = completionService.take();
 computerResult += f.get();
 log.info("result:" + f.get() + "----after" + (System.nanoTime() - start) / 1000 / 1000 + "秒");
 }
        log.info("computerResult:" + computerResult);
 }

    @Data
 class CumputerRu implements Callable {

        private String type;

 private double result;

 public CumputerRu(String type) {
            this.type = type;
 }

        @Override
 public Object call() throws Exception {
            switch (type) {
                case "A":
                    result = 1.1;
 log.info("sleep 1 mills");
 Thread.sleep(1000);
 break;
 case "B":
                    result = 2.2;
 log.info("sleep 2 mills");
 Thread.sleep(2000);
 break;
 case "C":
                    result = 3.3;
 log.info("sleep 3 mills");
 Thread.sleep(3000);
 break;
 default:
                    break;
 }
            return result;
 }
    }

}

=========================================================================================

编辑

Spring5.0以上log4j2配置

以前在spring4.x上的配置文件不能打印日志,查找资料发现:

升级到spring5.0,发现之前web.xml 里配置的log监听Log4jConfigListener被spring废弃了

 

现在的配置如下:

pom.xml配置:

<!-- log -->
<dependency>
 <groupId>org.apache.logging.log4j</groupId>
 <artifactId>log4j-slf4j-impl</artifactId>
 <version>2.9.1</version>
</dependency>
<dependency>
 <groupId>org.apache.logging.log4j</groupId>
 <artifactId>log4j-api</artifactId>
 <version>2.10.0</version>
</dependency>
<dependency>
 <groupId>org.apache.logging.log4j</groupId>
 <artifactId>log4j-core</artifactId>
 <version>2.10.0</version>
</dependency>
<dependency>
 <groupId>log4j</groupId>
 <artifactId>log4j</artifactId>
 <version>1.2.17</version>
</dependency>
<dependency>
 <groupId>org.apache.logging.log4j</groupId>
 <artifactId>log4j-web</artifactId>
 <version>2.9.1</version>
</dependency>
<dependency>
 <groupId>commons-logging</groupId>
 <artifactId>commons-logging</artifactId>
 <version>1.2</version>
</dependency>

log4j.xml配置:

<?xml version="1.0" encoding="UTF-8"?>
<!-- status : 这个用于设置log4j2自身内部的信息输出,可以不设置,当设置成trace时,会看到log4j2内部各种详细输出 monitorInterval
 : Log4j能够自动检测修改配置文件和重新配置本身, 设置间隔秒数。 注:本配置文件的目标是将不同级别的日志输出到不同文件,最大2MB一个文件,
 文件数据达到最大值时,旧数据会被压缩并放进指定文件夹 -->
<Configuration status="WARN" monitorInterval="600">

 <Properties> <!-- 配置日志文件输出目录,此配置将日志输出到tomcat根目录下的指定文件夹 -->
 <Property name="LOG_HOME">${sys:catalina.home}/WebAppLogs/ProjectLog
        </Property>
 </Properties>

 <Appenders>

 <!-- 优先级从高到低分别是 OFF、FATAL、ERROR、WARN、INFO、DEBUG、ALL -->
 <!-- 单词解释: Match:匹配 DENY:拒绝 Mismatch:不匹配 ACCEPT:接受 -->
 <!-- DENY,日志将立即被抛弃不再经过其他过滤器; NEUTRAL,有序列表里的下个过滤器过接着处理日志; ACCEPT,日志会被立即处理,不再经过剩余过滤器。 -->
 <!--输出日志的格式
 %d{yyyy-MM-dd HH:mm:ss, SSS} : 日志生产时间
 %p : 日志输出格式
 %c : logger的名称
 %m : 日志内容,即 logger.info("message")
 %n : 换行符
 %C : Java类名
 %L : 日志输出所在行数
 %M : 日志输出所在方法名
 hostName : 本地机器名
 hostAddress : 本地ip地址 -->

 <!--这个输出控制台的配置,这里输出除了warn和error级别的信息到System.out -->
 <Console name="console_out_appender" target="SYSTEM_OUT">
 <!-- 控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch) . -->
 <ThresholdFilter level="DEBUG" onMatch="ACCEPT"
 onMismatch="DENY" />
 <!-- 输出日志的格式 -->
 <PatternLayout pattern="%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n" />
 </Console>
 <!-- 这个输出控制台的配置,这里输出error级别的信息到System.err,在eclipse控制台上看到的是红色文字 -->
 <Console name="console_err_appender" target="SYSTEM_ERR">
 <ThresholdFilter level="ERROR" onMatch="ACCEPT"
 onMismatch="DENY" />
 <PatternLayout pattern="%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n" />
 </Console>


 <!-- TRACE级别日志 ; 设置日志格式并配置日志压缩格式,压缩文件独立放在一个文件夹内, 日期格式不能为冒号,否则无法生成,因为文件名不允许有冒号,此appender只输出trace级别的数据到trace.log -->
 <RollingFile name="trace_appender" immediateFlush="true"
 fileName="${LOG_HOME}/trace.log" filePattern="${LOG_HOME}/trace/trace - %d{yyyy-MM-dd HH_mm_ss}.log.gz">
 <PatternLayout>
 <pattern>%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n</pattern>
 </PatternLayout>
 <Policies>
 <!-- 每个日志文件最大2MB -->
 <SizeBasedTriggeringPolicy size="2MB" />

 </Policies>
 <Filters>
 <!-- 此Filter意思是,只输出TRACE级别的数据 DENY,日志将立即被抛弃不再经过其他过滤器; NEUTRAL,有序列表里的下个过滤器过接着处理日志;
 ACCEPT,日志会被立即处理,不再经过剩余过滤器。 -->
 <ThresholdFilter level="debug" onMatch="DENY"
 onMismatch="NEUTRAL" />
 <ThresholdFilter level="trace" onMatch="ACCEPT"
 onMismatch="DENY" />
 </Filters>
 </RollingFile>

 <!-- DEBUG级别日志 设置日志格式并配置日志压缩格式,压缩文件独立放在一个文件夹内, 日期格式不能为冒号,否则无法生成,因为文件名不允许有冒号,此appender只输出debug级别的数据到debug.log; -->
 <RollingFile name="debug_appender" immediateFlush="true"
 fileName="${LOG_HOME}/debug.log" filePattern="${LOG_HOME}/debug/debug - %d{yyyy-MM-dd HH_mm_ss}.log.gz">
 <PatternLayout>
 <pattern>%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n</pattern>
 </PatternLayout>
 <Policies><!-- 每个日志文件最大2MB ; -->
 <SizeBasedTriggeringPolicy size="2MB" />

 <!-- 如果启用此配置,则日志会按文件名生成新压缩文件, 即如果filePattern配置的日期格式为 %d{yyyy-MM-dd HH}
 ,则每小时生成一个压缩文件, 如果filePattern配置的日期格式为 %d{yyyy-MM-dd} ,则天生成一个压缩文件 -->
 <TimeBasedTriggeringPolicy interval="1"
 modulate="true" />

 </Policies>
 <Filters><!-- 此Filter意思是,只输出debug级别的数据 -->
 <ThresholdFilter level="info" onMatch="DENY"
 onMismatch="NEUTRAL" />
 <ThresholdFilter level="debug" onMatch="ACCEPT"
 onMismatch="DENY" />
 </Filters>
 </RollingFile>

 <!-- INFO级别日志 -->
 <RollingFile name="info_appender" immediateFlush="true"
 fileName="${LOG_HOME}/info.log" filePattern="${LOG_HOME}/info/info - %d{yyyy-MM-dd HH_mm_ss}.log.gz">
 <PatternLayout>
 <pattern>%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n</pattern>
 </PatternLayout>
 <Policies>
 <SizeBasedTriggeringPolicy size="2MB" />
 </Policies>
 <Filters>
 <ThresholdFilter level="warn" onMatch="DENY"
 onMismatch="NEUTRAL" />
 <ThresholdFilter level="info" onMatch="ACCEPT"
 onMismatch="DENY" />
 </Filters>
 </RollingFile>

 <!-- WARN级别日志 -->
 <RollingFile name="warn_appender" immediateFlush="true"
 fileName="${LOG_HOME}/warn.log" filePattern="${LOG_HOME}/warn/warn - %d{yyyy-MM-dd HH_mm_ss}.log.gz">
 <PatternLayout>
 <pattern>%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n</pattern>
 </PatternLayout>
 <Policies>
 <SizeBasedTriggeringPolicy size="2MB" />
 </Policies>
 <Filters>
 <ThresholdFilter level="error" onMatch="DENY"
 onMismatch="NEUTRAL" />
 <ThresholdFilter level="warn" onMatch="ACCEPT"
 onMismatch="DENY" />
 </Filters>
 </RollingFile>

 <!-- ERROR级别日志 -->
 <RollingFile name="error_appender" immediateFlush="true"
 fileName="${LOG_HOME}/error.log" filePattern="${LOG_HOME}/error/error - %d{yyyy-MM-dd HH_mm_ss}.log.gz">
 <PatternLayout>
 <pattern>%5p [%t] %d{yyyy-MM-dd HH:mm:ss} (%F:%L) %m%n</pattern>
 </PatternLayout>
 <Policies>
 <SizeBasedTriggeringPolicy size="2MB" />
 </Policies>
 <Filters>
 <ThresholdFilter level="error" onMatch="ACCEPT"
 onMismatch="DENY" />
 </Filters>
 </RollingFile>
 </Appenders>

 <Loggers>
 <!-- 配置日志的根节点 -->
 <!-- 定义logger,只有定义了logger并引入了appender,appender才会生效 -->
 <root level="trace">
 <appender-ref ref="console_out_appender" />
 <appender-ref ref="console_err_appender" />
 <appender-ref ref="trace_appender" />
 <appender-ref ref="debug_appender" />
 <appender-ref ref="info_appender" />
 <appender-ref ref="warn_appender" />
 <appender-ref ref="error_appender" />
 </root>

 <!-- 第三方日志系统 -->
 <logger name="org.springframework.core" level="info" />
 <logger name="org.springframework.beans" level="info" />
 <logger name="org.springframework.context" level="info" />
 <logger name="org.springframework.web" level="info" />
 <logger name="org.jboss.netty" level="warn" />
 <logger name="org.apache.http" level="warn" />

 </Loggers>

</Configuration>
 

web.xml 的配置:

 

<!-- log4j2-begin -->
<listener>
 <listener-class>org.apache.logging.log4j.web.Log4jServletContextListener</listener-class>
</listener>
<filter>
 <filter-name>log4jServletFilter</filter-name>
 <filter-class>org.apache.logging.log4j.web.Log4jServletFilter</filter-class>
</filter>
<filter-mapping>
 <filter-name>log4jServletFilter</filter-name>
 <url-pattern>/*</url-pattern>
 <dispatcher>REQUEST</dispatcher>
 <dispatcher>FORWARD</dispatcher>
 <dispatcher>INCLUDE</dispatcher>
 <dispatcher>ERROR</dispatcher>
</filter-mapping>
<!-- log4j2-end -->

 

=============================================================================================

 

编辑

1.正则匹配双大括号中的内容

@Test
public void testRegx() {
 String content = "您有{{cusName}}新合同{{hetongcode}}待审核";
 List<String> nlist = new ArrayList<>();
 Pattern p = Pattern.compile("(?<=\\{\\{)[^\\}\\}]+");
 Matcher m = p.matcher(content);
 while (m.find()) {
        System.out.println(m.group());
 nlist.add(m.group());
 }
    for (int i = 0; i < nlist.size(); i++) {
        System.out.println(i + "-->" + nlist.get(i));
 }
}

输出:

cusName
hetongcode
0-->cusName
1-->hetongcode

==========================================================================================

编辑

REDIS安装配置及部署修改

 

1.下载地址:
https://github.com/MicrosoftArchive/redis/releases

2.基础配置:
在 redis.windows-service.conf中 配置 允许访问ip,和访问密码

 

配置bind 为x.x.x.x

 

配置开启密码访问 (123456为访问密码)

 

3.验证是否成功

进入reids安装目录 运行redis-cli 登陆客户端,然后执行auth 123456进行验证

4.应用程序配置文件增加redis配置信息

5.REDIS封装工具类

6.springcontext配置文件注入Mycacheutil

 

7.使用方法事例:

========================================================================================

编辑

配置文件的加密解密

为了数据库的信息保密,对数据库的用户名密码进行加密和解密

1.创建加密解密工具类

package cc.shencai.erp.common.utils;

import cn.hutool.core.util.CharsetUtil;
import cn.hutool.crypto.Mode;
import cn.hutool.crypto.Padding;
import cn.hutool.crypto.symmetric.DES;

/**
 * @Date: 2018/6/7 10:57
 * @Description:加密工具类
 */
public class DESUtils {

 private static final String FIRST_KEY = "0CoJUm6Qyw8W8jud";
 private static final String SECOND_KEY = "01020304";
 private static final DES des = new DES(Mode.PCBC, Padding.PKCS5Padding, FIRST_KEY.getBytes(), SECOND_KEY.getBytes());

 public static void main(String[] args) {
        String name = "sa";
 String password = "sckj.123";
 String encryname = getEncryptString(name);
 String encrypassword = getEncryptString(password);
 System.out.println(encryname);
 System.out.println(encrypassword);
 System.out.println(getDecryptString(encryname));
 System.out.println(getDecryptString(encrypassword));
 String mysqlName = "root";
 String mysqlPassword = "root";
 System.out.println("mysql用户名:"+getEncryptString(mysqlName));
 System.out.println("mysql密码:"+getEncryptString(mysqlPassword));
 }

    /**
 * 对字符串进行加密
 *
 * @param content 要加密的字符串
 * @return 加密后的字符串
 */
 public static String getEncryptString(String content) {
        byte[] encrypt = des.encrypt(content);

 return des.encryptHex(encrypt);
 }

    /**
 * 对字符串进行解密
 *
 * @param content 要解密的字符串
 * @return 解密后的字符串
 */
 public static String getDecryptString(String content) {
        byte[] decrypt = des.decrypt(content);

 return des.decryptStr(decrypt, CharsetUtil.CHARSET_UTF_8);
 }
}

 

2.对配置文件进行加密解密,继承spring的PropertyPlaceholderConfigurer 

package cc.shencai.erp.common.utils;

import org.springframework.beans.factory.config.PropertyPlaceholderConfigurer;

/**
 
 * @Date: 2018/6/7 10:52
 * @Description:对配置文件中的加密信息进行解密
 */
public class EncryptPropertyPlaceholderConfigurer extends PropertyPlaceholderConfigurer {

    private String[] encryptPropNames = {"jdbc.username", "jdbc.password",
 "mysql.jdbc.username","mysql.jdbc.password"};

 @Override
 protected String convertProperty(String propertyName, String propertyValue) {
        //如果在加密属性名单中发现该属性
 if (isEncryptProp(propertyName)) {
            return DESUtils.getDecryptString(propertyValue);
 } else {
            return propertyValue;
 }
    }

    private boolean isEncryptProp(String propertyName) {
        for (String encryptName : encryptPropNames) {
            if (encryptName.equals(propertyName)) {
                return true;
 }
        }
        return false;
 }

}

3.spring加载配置文件

<!-- 加载配置文件 -->
<bean id="propertyConfigurer"
 class="cc.shencai.erp.common.utils.EncryptPropertyPlaceholderConfigurer">
 <property name="locations">
 <list>
 <!-- 数据库配置 -->
 <value>classpath:db/db.properties</value>
 <!-- 服务地址配置 -->
 <value>classpath:outSideApiConfig.properties</value>
 </list>
 </property>
 <property name="fileEncoding">
 <value>UTF-8</value>
 </property>
</bean>

4.db配置文件中存放已经用加密工具类生成的加密信息

jdbc.url=jdbc:sqlserver://xxxxx:1433;DatabaseName=xxxx

jdbc.driver=com.microsoft.sqlserver.jdbc.SQLServerDriver
jdbc.username=e882c6285aa7f1771b0c6c8bdb0f3530
jdbc.password=67c3de24eddadac676232c5fb8e2f044

#mysql 数据库
mysql.jdbc.url=mysql://localhost:3306/scdev_epdp_dev
mysql.jdbc.driver=com.mysql.jdbc.Driver
mysql.jdbc.username=2eb85cb002cfb885f0206aefde93488f
mysql.jdbc.password=2eb85cb002cfb885f0206aefde93488f

=============================================================================================

编辑

Spring配置多数据源

1.自定义类继承spring的AbstractRoutingDataSource类.

AbstractRoutingDataSource获取数据源之前会先调用determineCurrentLookupKey方法查找当前的lookupKey,这个lookupKey就是数据源标识,

因此通过重写这个查找数据源标识的方法就可以让spring切换到指定的数据源了。

package cc.shencai.erp.common;

import cc.shencai.erp.common.dbsource.DynamicDataSourceHolder;
import org.springframework.jdbc.datasource.lookup.AbstractRoutingDataSource;

/**
 * @Author: fujl
 * @Date: 2018/7/13 10:29
 * @Description:多数据源管理;
 */
public class MultipleDataSource extends AbstractRoutingDataSource {

    public static void setDataSourceKey(String dataSource) {
        DynamicDataSourceHolder.setDataSource(dataSource);
 }

    @Override
 protected Object determineCurrentLookupKey() {
        logger.info("数据源:"+DynamicDataSourceHolder.getDataSource());
 return DynamicDataSourceHolder.getDataSource();
 }
}

2.自定义数据源帮助类DynamicDataSourceHolder

创建DynamicDataSourceHolder用于持有当前线程中使用的数据源标

package cc.shencai.erp.common.dbsource;

/**
 * @Date: 2018/7/13 13:07
 * @Description:
 */
public class DynamicDataSourceHolder {
    private static final ThreadLocal<String> THREAD_DATA_SOURCE = new ThreadLocal<String>();

 public static String getDataSource() {
        return THREAD_DATA_SOURCE.get();
 }

    public static void setDataSource(String dataSource) {
        THREAD_DATA_SOURCE.set(dataSource);
 }

    public static void clearDataSource() {
        THREAD_DATA_SOURCE.remove();
 }
}

3.配置多个数据源和第一步里创建的DynamicDataSource的bean,并配置默认数据源defaultTargetDataSource

 

<!-- 数据源配置 -->
<bean id="dataSource" class="com.jolbox.bonecp.BoneCPDataSource" destroy-method="close" >
<!-- 数据库驱动 -->
<property name="driverClass" value="${jdbc.driver}" />
<!-- 相应驱动的jdbcUrl-->
<property name="jdbcUrl" value="${jdbc.url}" />
<!-- 数据库的用户名 -->
<property name="username" value="${jdbc.username}" />
<!-- 数据库的密码 -->
<property name="password" value="${jdbc.password}" />
<!-- 检查数据库连接池中空闲连接的间隔时间,单位是分,默认值:240,如果要取消则设置为0 -->
<property name="idleConnectionTestPeriodInMinutes" value="${bonecp.idleConnectionTestPeriodInMinutes}" />
<!-- 连接池中未使用的链接最大存活时间,单位是分,默认值:60,如果要永远存活设置为0 -->
<property name="idleMaxAgeInMinutes" value="${bonecp.idleMaxAgeInMinutes}" />
<!-- 每个分区最小的连接数 -->
<property name="minConnectionsPerPartition" value="${bonecp.minConnectionsPerPartition}" />
<!-- 每个分区最大的连接数 -->
<property name="maxConnectionsPerPartition" value="${bonecp.maxConnectionsPerPartition}" />
<!-- 分区数 ,默认值2,最小1,推荐3-4,视应用而定-->
<property name="partitionCount" value="${bonecp.partitionCount}" />
<!-- 每次去拿数据库连接的时候一次性要拿几个,默认值:2 -->
<property name="acquireIncrement" value="${bonecp.acquireIncrement}" />
<!-- 缓存prepared statements的大小,默认值:0 -->
<property name="statementsCacheSize" value="${bonecp.statementsCacheSize}" />
<property name="disableConnectionTracking" value="${bonecp.disableConnectionTracking}" />
<!-- 每个分区释放链接助理进程的数量,默认值:3,除非你的一个数据库连接的时间内做了很多工作,不然过多的助理进程会影响你的性能 -->
<property name="releaseHelperThreads" value="${bonecp.releaseHelperThreads}" />
<!-- keep-alive的时候的SQL语句 -->
<property name="connectionTestStatement" value="select GETDATE()" />
</bean>
<!-- end -->
<!-- 数据源配置 -->
<bean id="dataSourceSecond" class="com.jolbox.bonecp.BoneCPDataSource" destroy-method="close" >
<!-- 数据库驱动 -->
<property name="driverClass" value="${jdbc.driver}" />
<!-- 相应驱动的jdbcUrl-->
<property name="jdbcUrl" value="${other.jdbc.url}" />
<!-- 数据库的用户名 -->
<property name="username" value="${jdbc.username}" />
<!-- 数据库的密码 -->
<property name="password" value="${jdbc.password}" />
<property name="idleConnectionTestPeriodInMinutes" value="${bonecp.idleConnectionTestPeriodInMinutes}" />
<!-- 连接池中未使用的链接最大存活时间,单位是分,默认值:60,如果要永远存活设置为0 -->
<property name="idleMaxAgeInMinutes" value="${bonecp.idleMaxAgeInMinutes}" />
<!-- 每个分区最小的连接数 -->
<property name="minConnectionsPerPartition" value="${bonecp.minConnectionsPerPartition}" />
<!-- 每个分区最大的连接数 -->
<property name="maxConnectionsPerPartition" value="${bonecp.maxConnectionsPerPartition}" />
<!-- 分区数 ,默认值2,最小1,推荐3-4,视应用而定-->
<property name="partitionCount" value="${bonecp.partitionCount}" />
<!-- 每次去拿数据库连接的时候一次性要拿几个,默认值:2 -->
<property name="acquireIncrement" value="${bonecp.acquireIncrement}" />
<!-- 缓存prepared statements的大小,默认值:0 -->
<property name="statementsCacheSize" value="${bonecp.statementsCacheSize}" />
<property name="disableConnectionTracking" value="${bonecp.disableConnectionTracking}" />
<!-- 每个分区释放链接助理进程的数量,默认值:3,除非你的一个数据库连接的时间内做了很多工作,不然过多的助理进程会影响你的性能 -->
<property name="releaseHelperThreads" value="${bonecp.releaseHelperThreads}" />
<!-- keep-alive的时候的SQL语句 -->
<!-- keep-alive的时候的SQL语句 -->
<property name="connectionTestStatement" value="select GETDATE()" />
</bean>

<bean id="multipleDataSource" class="cc.shencai.erp.common.MultipleDataSource">
<property name="defaultTargetDataSource" ref="dataSource"/>
<property name="targetDataSources">
<map>
<entry key="dataSource" value-ref="dataSource"/>
<entry key="dataSourceSecond" value-ref="dataSourceSecond"/>
</map>
</property>
</bean>
<!-- mybatis配置相关 <start> --> 
<bean name="fw_sqlSessionFactory" class="com.baomidou.mybatisplus.spring.MybatisSqlSessionFactoryBean">
<!-- 注入数据源 --> 
<property name="dataSource" ref="multipleDataSource"></property>
<!-- 指定mybatis配置文件 -->
<property name="configLocation" value="classpath:db/mybatis.xml"/>
</bean>

<bean class="org.mybatis.spring.mapper.MapperScannerConfigurer">
<!--指定要扫描的包,在此包之下的映射器都会被搜索到。可指定多个包,用逗号或分号分隔--> 
<property name="basePackage" value="fw.m.*.dal, cc.shencai.erp.**.mapper"></property>
<!-- 如果有多个sqlSessionFactory,需配置否则可置为空 --> 
<property name="sqlSessionFactoryBeanName" value="fw_sqlSessionFactory"></property>
</bean>


<!-- mybatis配置相关 <end> --> 

<!-- 事务配置 <start> -->
<bean id="transactionManager" 
class="org.springframework.jdbc.datasource.DataSourceTransactionManager"> 
<property name="dataSource" ref="multipleDataSource" />
</bean>

 

4.编写测试类

手动设置数据源

/**
*手动数据源配置
*/
@Test
public void shouldFindTest(){
List<String> list = Arrays.asList( "p1", "2","p1","KBGFRJ0102");
MultipleDataSource.setDataSourceKey("dataSourceSecond");
System.out.println(pointOfOtherSqlService.findPointByCodes(list));
System.out.println("===========================================");
BaseUnitEntity baseUnitEntity = baseUnitMapper.queryMSWMBaseUnitById("1");
System.out.println("啊"+baseUnitEntity.getCode()+","+baseUnitEntity.getCreateempID());
}

==========================================================================================

编辑

开发的工具类

 lombok

        描述:

    是一个可以通过简单的注解形式来帮助我们简化消除一些必须有但显得很臃肿的Java代码的工具,通过使用对应的注解,可以在编译源码的时候生成对应的方法.

   简单来说,我们平时开发过程中总是要花很多时间为Java Bean 去创建gettersetter方法,当类里面的属性很多时则创建的gettersetter就很多,代码就很长。而lombok就可以为我们省去创建gettersetter方法的麻烦,代码也会更加简洁。

       使用方法:

        1.安装插件(idea)

           操作步骤:File -> Settings... -> Plugins -> Browse repositories... -> 输入Lombok搜索并安装,安装完成后重启IntelliJ IDEA

        2.maven引用

     <!-- lombok -->

 <dependency>
 <groupId>org.projectlombok</groupId>
 <artifactId>lombok</artifactId>
 <version>1.18.0</version>
 <scope>provided</scope>
 </dependency>

      

  • jmockdata

       描述:

    单元测试的时候用于模拟数据

     使用方法:

      maven引用:

<!-- 模拟数据 -->
 <dependency>
 <groupId>com.github.jsonzou</groupId>
 <artifactId>jmockdata</artifactId>
 <version>3.1.0</version>
 </dependency>
  •   hutool

       描述:

    java常用工具类

    maven引用:

<!-- 工具类-->
<dependency>
 <groupId>cn.hutool</groupId>
 <artifactId>hutool-all</artifactId>
 <version>4.1.5</version>
</dependency>

 

================================================================================================

     

编辑  · 

List小技巧

  • 取随机值
    @Test
    public void should(){
        List<Long> longs =Arrays.asList(5088L,5055L,9822L,7158L,5708L,947L,1172L,3042L,41L,644L,4629L,
                4901L,1708L,4071L,9736L,1209L,2939L,8869L,2075L,1887L);
        for (Long aLong : longs) {
            logger.info(String.valueOf(((int)(Math.random()*longs.size()))));
            logger.info(String.valueOf(longs.get((int) (Math.random() * longs.size()))));
        }
    }

     

     

  • 去重复

    List list= new ArrayList<>(new HashSet<>(要去重复的集合));
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值