首页 >> 网络技术 > 服务器技术 >> 详细内容
服务器技术 >> 正文
多节点服务器定时任务重复处理的问题
日期:2017/9/26 
项目中有使用Spring定时执行任务的需求,用户可以自定义时间(半小时或整点)去生成需要的报表并发送邮件到用户自己的邮箱。
项目里面提供的时间是半小时或整点去执行Spring定时任务,查询数据库中有哪些Schedule是满足要求的,然后去执行那些符合条件的任务。
一切功能表现正常,但是项目部署在服务器上后,用户反映在同一时间会收到两封相同的邮件。我们检查了代码和Spring Schedule本身的机制后,发现这并不是代码层面的问题,于是我们将目光转移到了服务器上。

公司使用的服务器是Websphere,我们检查服务器的配置后发现。为了提高用户响应效率,服务器本身使用了两个节点(node)来实现负载均衡。也就是说用户的请求会随机分配到两个节点的任意一个节点上,从而达到优化的目的。但是对于Spring定时任务的这种情况,其实是脱离的负载均衡的概念,反而会导致每个节点上都会在同一时间执行相同的代码。

我们想要达成的目标是:对于一个用户任务,如果当前任务已经被某一个节点处理后,另外一个几点就不需要执行这个任务了
每个节点都是一个独立的Server,它们的JVM是相互独立的。也就是说在内存方面我们是没办法做到节点之间的相互通信。所以需要一个第三方的媒介去完成两个节点的通信。查询了一些相关的资料后,发现要么太复杂,要么代价太昂贵。所以,我们将切入点放在数据库上,因为两个节点都是连接同一个数据库,如果在处理的过程中,给数据库里的任务标记相应的标签,那么就可以变相的实现两个节点的通信。

所以,我做了如下如下尝试
1)在数据库的scheuleTask表中,添加了execute_flag字段,用来存放执行代码的节点生成的UUID
2)在代码层面,在执行任务的时候,首先生成一个UUID,然后将UUID存储在当前任务的记录上。然后再从数据库里查询当前记录的UUID,如果数据库中的UUID与当前节点生成UUID相匹配,则执行任务的具体逻辑,反之,则什么都不做处理。
伪代码如下:
[java] view plain copy
  1. String uuid = UUIDGenerator.getUUID();  
  2.   
  3. userTaskDao.markFlag(taskId, uuid);  
  4.   
  5. Thread.sleep(100);  
  6.   
  7. String existUuid = userTaskDao.getExecuteFlag(taskId);  
  8.   
  9. if(uuid.equals(existUuid)) {  
  10.   
  11.     // execute the task logic  
  12.   
  13.    ....  
  14.   
  15. }  


这么处理之后,情况有了好转。但是还是会出现某个客户有可能收到两封相同的邮件的情况。我检查了Log日志,发现某些情况下,某些任务并不是在定点时间去执行的,由于每个服务器的具体情况不一样,比如线程消费情况,在执行上述代码时会有几秒钟的时间差。从而导致了如下情况:
node1: 标记Flag-> 查询数据库中的Flag-> 发现Flag相匹配,执行用户任务
node2:.............................获取可用线程或其他原因....->标记Flag->查询数据库中的Flag->发现Flag相匹配,执行用户任务

这样还是无法避免多个节点处理同一个用户任务的请求。针对于之前的上面的特殊情况,我们又做了一些改进,考虑到两个节点执行时相差的时间不会很多,我就定了一个粗略的阈值5min.又做了如下改动
1)在scheduleTask表中,又添加了executeTime字段,用于记录标记时的时间戳,也可以大致理解为上一次任务执行的时间戳
2)在做标记前,首先检查当前任务的上一次执行时间离当前时间超过阈值,如果超过则表明还没有其他节点执行该任务,然后为task保存标签和当前运行时间。当然如果上一次运行时间为空的情况下,也是允许标记的
3)从数据库里查询当前记录的UUID,如果数据库中的UUID与当前节点生成UUID相匹配,则执行任务的具体逻辑

伪代码如下:
[java] view plain copy
  1. String uuid = UUIDGenerator.getUUID();  
  2.   
  3.   
  4. Date stamp = new Date();  
  5.   
  6.   
  7. Task task = userTaskDao.getTask(taskId);  
  8.   
  9. if(task.getExecuteTime() == null || Math.abs(stamp.getTime() -  task.getExecuteTime().getTime())  > 300 * 1000)) {  
  10.   
  11.     userTaskDao.markFlag(taskId, uuid, stamp);  
  12.   
  13. else {  
  14.   
  15.   log.info("task :" + taskId +" has been executed by other nodes");  
  16.   
  17. }  
  18.   
  19. Thread.sleep(1000);  
  20.   
  21. String existUuid = userTaskDao.getExecuteFlag(taskId);  
  22.   
  23. if(uuid.equals(existUuid)) {  
  24.   
  25.     // execute the task logic  
  26.   
  27.    ....  
  28.   
  29. }  


为了处理node1,node2同时在执行标记的过程中,先完成标记的node读到是无效的数据,这里在执行读的操作前休眠1秒的时间,用来解决可能出现的Race Condition问题。

这样就达到了自己预期的效果。