1. 我们通过Scheduler调度Quartz任务
2. 我们通过scheduler管理Job,如果需要停止Job,那么我们调用停止方法
3. 如何添加新的Job到调度器里面呢?
我可以把一个Trigger加到对应的Scheduler里面,但是一旦Scheduler启动,我是否有办法增加新的Job到Scheduler上面去呢?
现在需要处理两种类型的任务,
1. 为文件传输任务
2. 为实时传输任务
如果收到实时传输任务,那么系统应该立刻运行
Trigger trigger = TriggerUtils.makeImmediateTrigger(0, 0);
如果收到文件传输任务,那么系统应该判断是否有正在运行的实时传输任务。
那么现有的传输框架将会这样处理
JOB作为具体的任务的执行
JOBDetail作为任务执行的需要的参数注入
StatBean作为任务执行中产生的统计数据,由另外的JOB框架发送给客户端(此处需要优化)。
同时增加三个缓存,支持数据的接受,传输和记录。
现在的困难在于数据接收的时候需要解析数据,这样可能会导致处理的速度和接收的速度存在差距,产生内存的泄漏。
也可以开启一个新的线程,处理这部分的功能。
现在已经完成了系统的迁移,然而难点在于大量数据的快速处理。
1) 修改结构,把数据和具体任务绑定
2)应用高速的cache的框架。
2. 我们通过scheduler管理Job,如果需要停止Job,那么我们调用停止方法
3. 如何添加新的Job到调度器里面呢?
我可以把一个Trigger加到对应的Scheduler里面,但是一旦Scheduler启动,我是否有办法增加新的Job到Scheduler上面去呢?
现在需要处理两种类型的任务,
1. 为文件传输任务
2. 为实时传输任务
如果收到实时传输任务,那么系统应该立刻运行
Trigger trigger = TriggerUtils.makeImmediateTrigger(0, 0);
如果收到文件传输任务,那么系统应该判断是否有正在运行的实时传输任务。
那么现有的传输框架将会这样处理
JOB作为具体的任务的执行
JOBDetail作为任务执行的需要的参数注入
StatBean作为任务执行中产生的统计数据,由另外的JOB框架发送给客户端(此处需要优化)。
同时增加三个缓存,支持数据的接受,传输和记录。
现在的困难在于数据接收的时候需要解析数据,这样可能会导致处理的速度和接收的速度存在差距,产生内存的泄漏。
也可以开启一个新的线程,处理这部分的功能。
现在已经完成了系统的迁移,然而难点在于大量数据的快速处理。
1) 修改结构,把数据和具体任务绑定
2)应用高速的cache的框架。