java 消息队列_调度器_线程池,可靠事件实现微服务下最终一致性事务

通过《消费者实现应用内分布式事务》、《生产者实现应用内分布式事务管理》、《实现持久订阅消费者》三个章节的实践,其实我们已经可以通过消息队列实现多应用的分布式事务,应用内的事务保证了消息不会被重复生产消费、持久化订阅保证了消息一定会被消费(进入死信队列特殊处理),但其对于业务来说耦合性还是太强,在进行业务处理的同时消息处理名,其采用的仍然是应用内的事务处理,并不适合在大型高性能高并发系统实践,那么本章将通过本地事务+消息队列+外部事件定义表+定时任务实现解耦。

(目前主要实现微服务下最终一致性事务的方案主要是:可靠事件;补偿模式;TCC(Try-Confirm-Cancel);三种,本案例为可靠事件方式)

场景描述:

本场景就拿最常用的转账业务阐述:

在工行ICBC有账号Card001,其中存于500元;

在中行BOC有账号Card002,其中也存有500元;

此时从Card001账号转账至Card002账号300元。

系统设计:

工行系统ICBCPro,该工程主要实现两个功能(实现转出金额生成转账事件;定时任务发出转账事件至消息队列),主要参考《生产者实现应用内分布式事务管理》实现;

中行系统BOCPro,该工程主要实现两个功能(从消息队列下载转账事件;定时任务对转账事件处理并更新转入账号金额),主要参考《消费者实现应用内分布式事务》实现;

此场景仅需要通过P2P消息模式即可。

构建ICBCPro工程

A、实现转出金额生成转账事件

1、构建数据库相关表以及基础数据:

转出账号数据

116380899_1_20171116103942844

转出事件记录

116380899_2_20171116103942922

消息队列

116380899_3_2017111610394316

消息控制台

116380899_4_20171116103943141

2、执行单元测试代码实现转账,此时账户扣除与转账事件记录均在本地事务内:

//ICBC中账户card001转出300元

@Test

public void tranfer(){

EventLog eventLog = new EventLog();

eventLog.setAmount(new BigDecimal(300));

eventLog.setFromcard("card001");

eventLog.setTocard("card002");

eventLog.setEventstate(EventState.NEW);

eventLog.setTransferDate(new Date());

eventLogService.transfer(eventLog,new BigDecimal(300));

}

账户信息:

116380899_5_20171116103943235

事件记录

116380899_6_20171116103943438

B、定时任务发出转账事件至消息队列

对于事件记录表,我们可以定义一个定时任务,将所有的NEW状态事件全部发出,此时需要保证消息的可靠性,采用XA事务实现,但已经不影响我们业务的响应了,实现解耦、快速响应,下面贴出核心实现代码:

1、首选实现数据排它锁场景下的查询与更新:

/**

* 在排它锁场景下数据更新,保证数据的可靠性

*/

@Override

public void updateEventstateById(String id, EventState eventState) {

EventLog eventLog=findEventLog4Update(id);

eventLog.setEventstate(eventState);

emJ1.merge(eventLog);

}

/**

* 实现排它锁查询

*/

@Override

public EventLog findEventLog4Update(String id){

EventLog eventLog=emJ1.find(EventLog.class, id, LockModeType.PESSIMISTIC_WRITE);

return eventLog;

}

2、在service定义查询所有NEW状态的事件、并采用XA事务管理NEW状态事件的发送与更新(为了验证了事务生效,设定了一个fromcard为空的数据触发异常),在异常情况下我们也需要保证countDownLatch执行,避免线程阻塞:

@Service

public class EventLogService {

@Autowired

private EventLogRepository eventLogRepository;

@Resource(name="jmsQueueMessagingTemplate")

private JmsMessagingTemplate jmsQueueMessagingTemplate;

@Autowired

@Qualifier("icbc2boc")

private Queue icbc2boc;

....

/**

* 根据eventstate获取EventLog数据集

* @param eventstate

* @return

*/

@Transactional(transactionManager="transactionManager1",propagation=Propagation.SUPPORTS,readOnly=true)

public List findByEventState(EventState eventstate){

return eventLogRepository.findByEventstate(eventstate);

}

/**

* XA事务

* @param id

* @param eventstate

*/

@Transactional(transactionManager="transactionManagerJTA",propagation=Propagation.REQUIRES_NEW)

public void transferToMQ(EventLog eventLog,EventState eventstate,CountDownLatch countDownLatch){

try {

System.out.println(Thread.currentThread().getName()+"本次处理数据:"+eventLog.getFromcard()+"、"+eventLog.getEventstate());

//再次数据库查询判断,此时用到排它锁--在两个定时任务连续执行,一旦出现程序提交事务命令至数据库,

//但数据库还未执行,此时我们全表查询的结果中当前数据行仍为修改前数据,故会造成重复消费

eventLog=eventLogRepository.findEventLog4Update(eventLog.getId());

if(EventState.Publish.equals(eventLog.getEventstate())){

System.out.println(Thread.currentThread().getName()+"数据:"+eventLog.getFromcard()+"无需处理");

return;

}

//payload

jmsQueueMessagingTemplate.convertAndSend(icbc2boc,eventLog);

eventLogRepository.updateEventstateById(eventLog.getId(), eventstate);

//构造异常场景验证XA事务

if(eventLog.getFromcard()==null){

System.out.println(Thread.currentThread().getName()+"数据异常,不处理");

System.out.println(1/0);

}else{

System.out.println(Thread.currentThread().getName()+":"+eventLog.getFromcard()+"数据处理成功");

}

} finally {

countDownLatch.countDown();

}

}

}

3、定义Job,实现转出任务,并通过线程池异步处理待处理事件集合,通过并发提高处理性能,通过countDownLatch保证了每个任务所有线程处理完成后启动下一次任务;

/**

* 转出任务

* @author song

*/

@PersistJobDataAfterExecution

@DisallowConcurrentExecution //保证每次任务执行完毕,设置为串行执行

public class TransferJob  extends QuartzJobBean {

private Logger logger=LoggerFactory.getLogger(TransferJob.class);

@Autowired

@Qualifier("quartzThreadPool")

private ThreadPoolTaskExecutor quartzThreadPool;

@Autowired

private EventLogService eventLogService;

@Override

protected void executeInternal(JobExecutionContext jobExecutionContext) throws JobExecutionException {

logger.info("本次批处理开始");

//获取所有未发送状态的Event

List list=eventLogService.findByEventState(EventState.NEW);

//

final CountDownLatch countDownLatch=new CountDownLatch(list.size());

//遍历发送

for(final EventLog eventLog:list){

//通过线程池提交任务执行,大大提高处理集合效率

quartzThreadPool.submit(new Runnable() {

@Override

public void run() {

eventLogService.transferToMQ(eventLog,EventState.Publish,countDownLatch);

}

});

}

//保证所有线程执行完成后退出

try {

countDownLatch.await();

} catch (InterruptedException e) {

e.printStackTrace();

}

logger.info("本次批处理完成");

}

}

4、定义转出任务、触发器、调度器以及处理线程池:

@Bean(name="tranferJob")

public JobDetailFactoryBean tranferJob(){

JobDetailFactoryBean factoryBean=new JobDetailFactoryBean();

//定义任务类

factoryBean.setJobClass(TransferJob.class);

//表示任务完成之后是否依然保留到数据库,默认false

factoryBean.setDurability(true);

//为Ture时当Quartz服务被中止后,再次启动或集群中其他机器接手任务时会尝试恢复执行之前未完成的所有任务,默认false

factoryBean.setRequestsRecovery(true);

return factoryBean;

}

/**

* 注册job1的触发器

* @return

*/

@Bean(name="transferJobTrigger")

public CronTriggerFactoryBean transferJobTrigger(){

//触发器

CronTriggerFactoryBean cronTriggerFactoryBean = new CronTriggerFactoryBean();

cronTriggerFactoryBean.setCronExpression("*/5 * * * * ?");

cronTriggerFactoryBean.setJobDetail(tranferJob().getObject());

//调度工厂实例化后,经过5秒开始执行调度

cronTriggerFactoryBean.setStartDelay(30000);

cronTriggerFactoryBean.setGroup("tranfer");

cronTriggerFactoryBean.setName("tranfer");

return cronTriggerFactoryBean;

}

/**

* 调度工厂,加载触发器,并设置自动启动、启动时延

* @return

*/

@Bean(name="transferSchedulerFactoryBean")

public SchedulerFactoryBean transferSchedulerFactoryBean(){

//调度工厂

SchedulerFactoryBean schedulerFactoryBean= new SchedulerFactoryBean();

schedulerFactoryBean.setConfigLocation(new ClassPathResource("quartz.properties"));

schedulerFactoryBean.setApplicationContextSchedulerContextKey("applicationContextKey");

//集群Cluster下设置dataSource

//      schedulerFactoryBean.setDataSource(dataSource);

//QuartzScheduler启动时更新己存在的Job,不用每次修改targetObject后删除qrtz_job_details表对应记录了

schedulerFactoryBean.setOverwriteExistingJobs(true);

//QuartzScheduler延时启动20S,应用启动完后 QuartzScheduler 再启动

schedulerFactoryBean.setStartupDelay(20);

//自动启动

schedulerFactoryBean.setAutoStartup(true);

schedulerFactoryBean.setTriggers(transferJobTrigger().getObject());

//自定义的JobFactory解决job中service的bean注入

schedulerFactoryBean.setJobFactory(jobFactory);

return schedulerFactoryBean;

}

/**

* 用于处理待转账数据发至消息队列的线程池

* @return

*/

@Bean(name="quartzThreadPool")

public ThreadPoolTaskExecutor getThreadPoolTaskExecutor(){

ThreadPoolTaskExecutor pool=new ThreadPoolTaskExecutor();

pool.setCorePoolSize(10);

pool.setQueueCapacity(100);

pool.setMaxPoolSize(10);

pool.setKeepAliveSeconds(10);

//避免应用关闭,任务没有执行完成,起到shutdownhook钩子的作用

pool.setWaitForTasksToCompleteOnShutdown(true);

//空闲时核心线程也不退出

pool.setAllowCoreThreadTimeOut(false);

//设置拒绝策略,不可执行的任务将被抛弃

pool.setRejectedExecutionHandler(new ThreadPoolExecutor.DiscardPolicy());

return pool;

}

小结

特别注意:

1、周期时间刚好两个定时任务连续执行,出现java程序提交事务紧接第二个任务启动,但数据库未完成命令,此时后续任务已经查询数据,全表过滤能够再次获取未提交数据行原始数据,会造成二次消费,故需要对其采用排它锁方式,二次查询判断后决定是否消费,从而规避二次消费问题;

2、注意在Service中不能随便catch异常,避免分布式事务未回滚,造成重复消费;

3、通过CountDownLatch,实现任务线程等待所有的子任务线程执行完毕后方可退出本次任务,执行下一个任务,故其一定要在finally中实现countdown,避免造成任务线程阻塞;

4、需要设置OpenEntityManagerInViewInterceptor拦截器,避免提示session过早关闭问题;

5、数据库DataSource必须定义好destroyMethod,避免程序关闭,事务还未提交的情况下出现连接池已经关闭;

6、设置好连接池需要等待已提交任务完成后方可shutdown;

优化空间:

1、根据数据特征进行任务分割,比如自增ID场景下,根据0、1、2等最后一位尾数分割不同的定时任务,配置任务集群,从而实现分布式高可用集群处理;

2、在数据查询处理过程中,优化sql,提高单次查询性能;

3、添加独立的定时任务,将Publish已消费数据转储,减轻单表压力;

4、目前已经加入线程池异步处理数据集合,提高单次任务执行效率;

5、一旦数据库压力比较大的情况下,也可以将Event分库操作,减轻服务器数据库连接、IO压力;

6、采用微服务模式,将两个功能实现服务分离;

7、也可以在定时任务中添加比如50MS的sleep时长,保证数据库服务器端事务提交成功,取消排它锁将进一步提高性能较小数据库死锁问题;

遗留问题:

1、在开发环境下,手动关闭程序MQ连接会过早关闭,修改数据后事务未提交,出现MySQL数据库行已经被执行排他锁;

构建BOCPro工程

A、从消息队列下载转账事件

1、构建数据库BOC数据库相关表以及基础数据:

116380899_7_20171116103943547

事件表暂时为空

116380899_8_20171116103943625

消息队列,有一条转账数据

116380899_9_20171116103943750

2、配置队列消息模板:

@Configuration

public class JmsMessageConfiguration {

@Autowired

@Qualifier(value="jmsQueueTemplate")

private JmsTemplate jmsQueueTemplate;

/**

* 定义点对点队列

* @return

*/

@Bean(name="icbc2boc")

public Queue queue() {

return new ActiveMQQueue("icbc2boc");

}

/**

* 创建处理队列消息模板

* @return

*/

@Bean(name="jmsQueueMessagingTemplate")

public JmsMessagingTemplate jmsQueueMessagingTemplate() {

JmsMessagingTemplate jmsMessagingTemplate =new JmsMessagingTemplate(jmsQueueTemplate);

//通过MappingJackson2MessageConverter实现Object转换

jmsMessagingTemplate.setMessageConverter(new MappingJackson2MessageConverter());

return new JmsMessagingTemplate(jmsQueueTemplate);

}

}

3、配置监听器,监听转账事件消息:

@Component

public class TraferIn {

@Autowired

@Qualifier("icbc2boc")

private Queue queue;

@Autowired

@Qualifier("jmsQueueMessagingTemplate")

private JmsMessagingTemplate jmsQueueMessagingTemplate;

@Autowired

private EventLogService eventLogService;

/**

* 定义监听转账事件监听

* @param text

* @throws Exception

*/

@JmsListener(destination = "icbc2boc",containerFactory="jmsListenerContainerFactory4Queue")//ActiveMQ.DLQ

public void receiveQueue(EventLog eventLog) throws Exception {

System.out.println("接受到的事件数据:"+eventLog.toString());

eventLogService.mq2transfer(eventLog, new BigDecimal(300));

}

}

4、采用分布式事务管理下载的消息队列事件,模拟事务失效,验证成功:

/**

*  XA事务

* @param eventLog

* @param amount

*/

@Transactional(transactionManager="transactionManagerJTA",propagation=Propagation.REQUIRED)

public void mq2transfer(EventLog eventLog,BigDecimal amount){

//保存事件日志

eventLogRepository.saveEvetLog(eventLog);

//      System.out.println(1/0);

}

5、需要采用XA事务,故我们不能直接通过EventLogRepository保存数据,定义自定义保存方法:

/**

* 采用分布式事务数据源保存事件

*/

@Override

public EventLog saveEvetLog(EventLog eventLog) {

return emJ1.merge(eventLog);

}

6、启动程序监听后,收到事件

116380899_10_20171116103943875

数据库添加了一条NEW状态事件

116380899_11_20171116103943985

消费后消息队列被清空

116380899_12_2017111610394463

B、定时任务对转账事件处理并更新转入账号金额

通过定时任务扫描下载的所有事件,并启动线程池异步快速处理所有的转账事件,可能一批次事件中会出现同个账号多次记录的场景,更新操作为非幂等操作,故我们需要采用排它锁的方式对数据行更新。并且通过本地事务的方式管理事件和账号表更新,从而大大提高了业务处理速度。通过此方式也实现了业务和事件的解耦。

1、本地为本地事务处理,故我们可以很方便在EventLogRepository通过接口定义即可解决查询、更新,主要包含查询所有的NEW状态事件、查询单个t_card表实现排它锁(解决多线程下的幂等性)、更新事件状态,特别关注在接口中如何实现原生SQL排它锁查询的注解定义:

/**

* 实现排它锁

* @param id

* @return

*/

@Query(value="select t.id from t_card t where t.id=:id for update",nativeQuery=true)

void findCard4UpdateById(@Param("id")String id);

/**

* 更新EventLog状态

* @param id

* @param eventstate

* @return

*/

@Modifying

@Query(value = "update EventLog e set e.eventstate=:eventstate  where e.id = :id ")

int updateEventstateById(@Param("id")String id,@Param("eventstate")EventState eventstate);

/**

* 根据EventState查询所有EventLog

* @param EventState

* @return

*/

List findByEventstate(EventState eventState);

2、采用ICBCCPro项目中一样的原生SQL更新语句,主要处理账号金额调整,其实也可以通过接口定义实现,多个方式玩玩:

/**

* 执行原生语句实现更新

*/

@Override

public int executeUpdateNativeSQL(String strSQL) {

return em1.createNativeQuery(strSQL, Integer.class).executeUpdate();

}

3、定义service中真正处理转账事件的逻辑,在其中我们在多线程的场景下,对事件表和Card表采用了不一样的锁机制,事件表通过乐观锁避免重复消费,保证事件处理幂等性:

/**

* 本地事务

* @param id

* @param eventstate

*/

@Transactional(transactionManager="transactionManager1",propagation=Propagation.REQUIRES_NEW)

public void transfer(EventLog eventLog,EventState eventstate,CountDownLatch countDownLatch){

try {

System.out.println(Thread.currentThread().getName()+"本次处理数据转入账号:"+eventLog.getTocard()+"、"+eventLog.getEventstate());

//通过乐观锁方式再次判断,保证事件的可靠消息,仅在极端情况下会出现重复消费,故采用乐观锁

int updateCount=eventLogRepository.updateEventstateById(eventLog.getId(),eventstate);

//如果等于则表明已经处理过

if(updateCount==0){

System.out.println(Thread.currentThread().getName()+"数据收款卡号:"+eventLog.getTocard()+"无需处理");

return;

}

//没有被处理过需要继续更新账户金额

//更新查询,采用排它锁方式,避免在多线程任务下,出现多个线程修改同一个卡号,从而事务幂等性

eventLogRepository.findCard4UpdateById(eventLog.getTocard());

//更新账户信息,转入累加,属于非幂等操作

eventLogRepository.executeUpdateNativeSQL("update t_card set amount=amount+"+eventLog.getAmount()+" where id='"+eventLog.getTocard()+"'");

//          System.out.println(1/0);

System.out.println(Thread.currentThread().getName()+":"+eventLog.getFromcard()+"数据处理成功");

} finally {

countDownLatch.countDown();

}

}

4、定义定时任务,其主要注入了一个线程池协助我们快速异步处理所有事件,通过CountDownLatch 保证了同一次任务所有事件处理完成后方可退出任务线程,然后启动下一次任务,保证任务串行执行:

@PersistJobDataAfterExecution

@DisallowConcurrentExecution //保证每次任务执行完毕,设置为串行执行

public class TransferJob  extends QuartzJobBean {

private Logger logger=LoggerFactory.getLogger(TransferJob.class);

@Autowired

@Qualifier("quartzThreadPool")

private ThreadPoolTaskExecutor quartzThreadPool;

@Autowired

private EventLogService eventLogService;

@Override

protected void executeInternal(JobExecutionContext jobExecutionContext) throws JobExecutionException {

logger.info("本次批处理开始");

//获取所有未发送状态的Event

List list=eventLogService.findByEventState(EventState.NEW);

//

final CountDownLatch countDownLatch=new CountDownLatch(list.size());

//遍历发送

for(final EventLog eventLog:list){

//通过线程池提交任务执行,大大提高处理集合效率

quartzThreadPool.submit(new Runnable() {

@Override

public void run() {

eventLogService.transfer(eventLog, EventState.Publish, countDownLatch);

}

});

}

//保证所有线程执行完成后退出

try {

countDownLatch.await();

} catch (InterruptedException e) {

e.printStackTrace();

}

logger.info("本次批处理完成");

}

}

5、启动定时任务后

116380899_13_20171116103944172

数据库,事件表状态更新:

116380899_14_20171116103944344

金额中card金额累计:

116380899_15_20171116103944469

小结

特别注意:

1、对应不同的表和操作,我们需要采用不一样的锁机制,首先判断操作是否具有幂等性;

2、注意在Service中不能随便catch异常,避免分布式事务未回滚,造成重复消费;

3、通过CountDownLatch,实现任务线程等待所有的子任务线程执行完毕后方可退出本次任务,执行下一个任务,故其一定要在finally中实现countdown,避免造成任务线程阻塞;

4、需要设置OpenEntityManagerInViewInterceptor拦截器,避免提示session过早关闭问题;

5、数据库DataSource必须定义好destroyMethod,避免程序关闭,事务还未提交的情况下出现连接池已经关闭;

6、设置好连接池需要等待已提交任务完成后方可shutdown;

优化空间:

1、采用微服务模式,将两个功能实现服务分离;

2、A功能:根据队列消息的特性,在有多个消费者的情况下,其也仅仅会被消费一次,故我们可以构建多个消费者服务器,从而实现异步下载压力水平分摊;

3、设定合理的数据库连接池大小,从而实现限流作用,避免数据库服务器压力过大;

4、B功能:根据数据特征进行任务分割,比如自增ID场景下,根据0、1、2等最后一位尾数分割不同的定时任务,配置任务集群,从而实现分布式高可用集群处理;

5、在数据查询处理过程中,优化sql,提高单次查询性能;

6、添加独立的定时任务,将Publish已消费数据转储,减轻单表压力;

7、目前已经加入线程池异步处理数据集合,提高单次任务执行效率;

8、一旦数据库压力比较大的情况下,也可以根据账号的分库情况将Event分库操作,减轻服务器数据库连接、IO压力;

总结

1、通过微服务理念,实现服务分离,更加容易进行服务治理与水平扩展;

2、通过本地事务处理业务实现高性能;

3、通过P2P模式消息+Mysql+排它锁+分布式事务+串行任务保证了事件不会重复发送、不会重复消费(可靠传递),并且实现了系统解耦、异步处理、流量销峰;

4、通过对事件的生产+消费实现了最终一致性事务;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值