优雅实现延时任务之zookeeper篇

这篇具有很好参考价值的文章主要介绍了优雅实现延时任务之zookeeper篇。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

在《优雅实现延时任务之Redis篇》一文中提到,实现延时任务的关键点,是要存储任务的描述和任务的执行时间,还要能根据任务执行时间进行排序,那么我们可不可以使用zookeeper来实现延时任务呢?答案当然是肯定的。要知道,zookeeper的znode同样可以用来存储数据,那么我们就可以利用这一点来实现延时任务。实际上,著名的zookeeper客户端curator就提供了基于zookeeper的延时任务API,今天就从源码的角度带大家了解下curator是如何使用zookeeper实现延时任务的。不过需要提前说明的是,使用zookeeper实现延时任务不是一个很好的选择,至少称不上优雅,标题中的优雅实现延时任务只是为了和前文呼应,关于使用zookeeper实现延时任务的弊端,后文我会详细解释。

上手curator

关于zookeeper的安装和使用这里就不介绍了,之前也推送过相关文章了,如果对zookeeper不了解的,可以翻下历史记录看下。接下来直接进入主题,首先来体验一把curator的延时任务API。

首先是任务消费者:

public class DelayTaskConsumer  implements QueueConsumer<String>{
 @Override
 public void consumeMessage(String message) throws Exception {
     System.out.println(MessageFormat.format("发布资讯。id - {0} , timeStamp - {1} , " +
             "threadName - {2}",message,System.currentTimeMillis(),Thread.currentThread().getName()));
 }
 @Override
 public void stateChanged(CuratorFramework client, ConnectionState newState) {
     System.out.println(MessageFormat.format("State change . New State is - {0}",newState));
 }
}

curator的消费者需要实现QueueConsumer接口,在这里我们做的逻辑就是拿到任务描述(这里简单起见,任务描述就是资讯id),然后发布相应的资讯。

接下来看下任务生产者:

public class DelayTaskProducer {

   private static final String CONNECT_ADDRESS="study-machine:32783";

   private static final int SESSION_OUTTIME = 5000;

   private static final String NAMESPACE = "delayTask";

   private static final String QUEUE_PATH = "/queue";

   private static final String LOCK_PATH = "/lock";

   private CuratorFramework curatorFramework;

   private DistributedDelayQueue<String> delayQueue;

   {
       RetryPolicy retryPolicy = new ExponentialBackoffRetry(1000, 10);
       curatorFramework= CuratorFrameworkFactory.builder().connectString(CONNECT_ADDRESS)
               .sessionTimeoutMs(SESSION_OUTTIME).retryPolicy(retryPolicy)
               .namespace(NAMESPACE).build();
       curatorFramework.start();
       delayQueue= QueueBuilder.builder(curatorFramework, new DelayTaskConsumer(),
               new DelayTaskSerializer(), QUEUE_PATH).lockPath(LOCK_PATH).buildDelayQueue();
       try {
           delayQueue.start();
       }catch (Exception e){
           e.printStackTrace();
       }
   }

   public void produce(String id,long timeStamp){
       try {
           delayQueue.put(id,timeStamp);
       }catch (Exception e){
           e.printStackTrace();
       }
   }

}

任务生产者主要有2个逻辑,一个是在构造代码块中初始化curator的延时任务队列,另一个是提供一个produce方法供外部往队列里放延时任务。

在初始化延时任务时,需要传入一个字节数组与任务描述实体之间的序列化器,这里简单地将任务描述处理成字符串:

public class DelayTaskSerializer implements QueueSerializer<String> {
   @Override
   public byte[] serialize(String item) {
       return item.getBytes();
   }
   @Override
   public String deserialize(byte[] bytes) {
       return new String(bytes);
   }
}

最后写一个客户端测一下:

public class DelayTaskTest {

   public static void main(String[] args) throws Exception{
       DelayTaskProducer producer=new DelayTaskProducer();
       long now=new Date().getTime();
       System.out.println(MessageFormat.format("start time - {0}",now));
       producer.produce("1",now+TimeUnit.SECONDS.toMillis(5));
       producer.produce("2",now+TimeUnit.SECONDS.toMillis(10));
       producer.produce("3",now+TimeUnit.SECONDS.toMillis(15));
       producer.produce("4",now+TimeUnit.SECONDS.toMillis(20));
       producer.produce("5",now+TimeUnit.SECONDS.toMillis(2000));
       TimeUnit.HOURS.sleep(1);
   }
}

客户端比较简单,就是往延时队列里放5个任务,其中最后一个任务的执行时间比较晚,主要是为了观察curator到底往zookeeper里放了些啥。运行程序,结果如下:

接下来我们看下zookeeper里到底存了哪些信息:

[zk: localhost(CONNECTED) 2] ls /
[delayTask, zookeeper]

其中,zookeeper节点是zookeeper自带的,除了zookeeper之后,还有一个delayTask节点,这个节点就是我们在生产者里设置的命名空间NAMESPACE。因为同一个zookeeper集群可能会被用于不同的延时队列,NAMESPACE的作用就是用来区分不同延时队列的。再看看NAMESPACE里是啥:

[zk: localhost(CONNECTED) 3] ls /delayTask
[lock, queue]

可以看到,有2个子节点:lock跟queue,分别是我们在生产者中设置的分布式锁路径LOCK_PATH和队列路径QUEUE_PATH。因为同一个延时队列可能会被不同线程监听,所以为了保证任务只被一个线程执行,zookeeper在任务到期的时候需要申请到分布式锁后才能执行任务。接下来我们重点看下queue节点下有什么:

[zk: localhost(CONNECTED) 7] ls /delayTask/queue
[queue-|165B92FCD69|0000000014]

发现里面只有一个子节点,我们猜想应该就是我们刚刚放到延时队列里面的还未执行的任务,我们接着看看这个子节点下面还有没有子节点:

[zk: localhost(CONNECTED) 8] ls /delayTask/queue/queue-|165B92FCD69|0000000014
[]

发现没有了。

那我们就看看queue-|165B92FCD69|0000000014这个节点里面放了什么数据:

[zk: localhost(CONNECTED) 9] get /delayTask/queue/queue-|165B92FCD69|0000000014
5
cZxid = 0x3d
ctime = Sat Sep 08 12:20:41 GMT 2018
mZxid = 0x3d
mtime = Sat Sep 08 12:20:41 GMT 2018
pZxid = 0x3d
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 11
numChildren = 0

可以发现放的是任务描述,也就是资讯id——5。到这里我们就会知道了,zookeeper把任务描述放到了相应任务节点下了,那么任务执行时间放到哪里了呢?由于queue-|165B92FCD69|0000000014并没有子节点,所以我们可以猜想任务执行时间放在了节点名称上了。观察节点名称,queue只是一个前缀,没什么信息量。0000000014应该是节点序号(这里也可以猜测zookeeper用来存放任务的节点是顺序节点)。那么就只剩下165B92FCD69了,这个看上去并不像时间戳或者日期,但是里面有字母,可以猜测会不会是时间戳的十六进制表示。我们将其转化为十进制看下:

@Test
   public void test(){
       long number = Long.parseLong("165B92FCD69", 16);
       System.out.println(number);
       System.out.println(new Date(number));
   }

可以转化为十进制,然后将十进制数转化成日期,确实也是我们在一开始设置的任务执行时间。这样一来就大概清楚了curator是怎么利用zookeeper来存储延时任务的了:将任务执行时间存储在节点名称中,将任务描述存储在节点相应的数据中。

那么到底是不是这样的呢?接下来我们看下curator的源码就知道了。

curator源码解析

1.DistributedDelayQueue类

curator延时任务的入口就是DistributedDelayQueue类的start方法了。我们先不说start方法,先来看看DistributedDelayQueue类有哪些属性:

private final DistributedQueue<T>      queue;


   DistributedDelayQueue
       (
           CuratorFramework client,
           QueueConsumer<T> consumer,
           QueueSerializer<T> serializer,
           String queuePath,
           ThreadFactory threadFactory,
           Executor executor,
           int minItemsBeforeRefresh,
           String lockPath,
           int maxItems,
           boolean putInBackground,
           int finalFlushMs
       )
   {
       Preconditions.checkArgument(minItemsBeforeRefresh >= 0, "minItemsBeforeRefresh cannot be negative");

       queue = new DistributedQueue<T>
       (
           client,
           consumer,
           serializer,
           queuePath,
           threadFactory,
           executor,
           minItemsBeforeRefresh,
           true,
           lockPath,
           maxItems,
           putInBackground,
           finalFlushMs
       )
       {
           @Override
           protected long getDelay(String itemNode)
           {
               return getDelay(itemNode, System.currentTimeMillis());
           }

           private long getDelay(String itemNode, long sortTime)
           {              
               long epoch = getEpoch(itemNode);
               return epoch - sortTime;
           }

           @Override
           protected void sortChildren(List<String> children)
           {
               final long sortTime = System.currentTimeMillis();
               Collections.sort
               (
                   children,
                   new Comparator<String>()
                   {
                       @Override
                       public int compare(String o1, String o2)
                       {
                           long        diff = getDelay(o1, sortTime) - getDelay(o2, sortTime);
                           return (diff < 0) ? -1 : ((diff > 0) ? 1 : 0);
                       }
                   }
               );
           }
       };
   }

这里截取一部分代码出来。实际上DistributedDelayQueue里只有一个queue属性,queue属性是DistributedQueue类的实例,从名字可以看到其是一个分布式队列。不过DistributedDelayQueue里的queue比较特殊,其是DistributedQueue类的匿名内部类的实例,这个匿名子类重写了DistributedQueue的部分方法,如:getDelay、sortChildren等。这一点很重要,后面的代码会用到这2个方法。

2.DistributedDelayQueue的入口start方法

接下来我们就来看下DistributedDelayQueue的入口start方法:

/**
    * Start the queue. No other methods work until this is called
    *
    * @throws Exception startup errors
    */
   @Override
   public void     start() throws Exception
   {
       queue.start();
   }

可以看到,其调用的是queue的start方法。我们跟进去看看:

@Override
   public void     start() throws Exception
   {
       if ( !state.compareAndSet(State.LATENT, State.STARTED) )
       {
           throw new IllegalStateException();
       }

       try
       {
           client.create().creatingParentContainersIfNeeded().forPath(queuePath);
       }
       catch ( KeeperException.NodeExistsException ignore )
       {
           // this is OK
       }
       if ( lockPath != null )
       {
           try
           {
               client.create().creatingParentContainersIfNeeded().forPath(lockPath);
           }
           catch ( KeeperException.NodeExistsException ignore )
           {
               // this is OK
           }
       }

       if ( !isProducerOnly || (maxItems != QueueBuilder.NOT_SET) )
       {
           childrenCache.start();
       }

       if ( !isProducerOnly )
       {
           service.submit
               (
                   new Callable<Object>()
                   {
                       @Override
                       public Object call()
                       {
                           runLoop();
                           return null;
                       }
                   }
               );
       }
   }

这个方法首先是检查状态,然后创建一些必须的节点,如前面的queue节点和lock节点就是在这里创建的。

由于我们创建queue的时候有传入了消费者,所以这里isProducerOnly为true,故以下2个分支的代码都会执行:

if ( !isProducerOnly || (maxItems != QueueBuilder.NOT_SET) )
       {
           childrenCache.start();
       }

       if ( !isProducerOnly )
       {
           service.submit
               (
                   new Callable<Object>()
                   {
                       @Override
                       public Object call()
                       {
                           runLoop();
                           return null;
                       }
                   }
               );
       }

2.1.childrenCache.start()

先来看看第一个分支:

childrenCache.start();

从名字上看,这个childrenCache应该是子节点的缓存,我们进到start方法里看看:

void start() throws Exception
   {
       sync(true);
   }

调的是sync方法,我们跟进去看看:

private synchronized void sync(boolean watched) throws Exception
   {
       if ( watched )
       {
           client.getChildren().usingWatcher(watcher).inBackground(callback).forPath(path);
       }
       else
       {
           client.getChildren().inBackground(callback).forPath(path);
       }
   }

这里watched为true,所以会走第一个分支。第一个分支代码的作用是在后台去拿path路径下的子节点,这里的path就是我们配置的queue_path。拿到子节点后,会调用callback里的回调方法。我们看下这里的callback做了什么:

private final BackgroundCallback  callback = new BackgroundCallback()
   {
       @Override
       public void processResult(CuratorFramework client, CuratorEvent event) throws Exception
       {
           if ( event.getResultCode() == KeeperException.Code.OK.intValue() )
           {
               setNewChildren(event.getChildren());
           }
       }
   };

可以看到,当有子节点时,会去调用setNewChildren方法。我们继续跟进去:

private synchronized void setNewChildren(List<String> newChildren)
   {
       if ( newChildren != null )
       {
           Data currentData = children.get();

           children.set(new Data(newChildren, currentData.version + 1));
           notifyFromCallback();
       }
   }

这里就是把子节点放到缓存里,并调用notifyFromCallback方法:

private synchronized void notifyFromCallback()
   {
       notifyAll();
   }

这里就是唤醒所有等待线程。既然有唤醒,那么就一定有等待。继续看ChildrenCache类的其他方法,发现在blockingNextGetData方法中,调用了wait方法:

synchronized Data blockingNextGetData(long startVersion, long maxWait, TimeUnit unit) throws InterruptedException
   {
       long            startMs = System.currentTimeMillis();
       boolean         hasMaxWait = (unit != null);
       long            maxWaitMs = hasMaxWait ? unit.toMillis(maxWait) : -1;
       while ( startVersion == children.get().version )
       {
           if ( hasMaxWait )
           {
               long        elapsedMs = System.currentTimeMillis() - startMs;
               long        thisWaitMs = maxWaitMs - elapsedMs;
               if ( thisWaitMs <= 0 )
               {
                   break;
               }
               wait(thisWaitMs);
           }
           else
           {
               wait();
           }
       }
       return children.get();
   }

当blockingNextGetData方法被调用时,会先睡眠,当有子节点到来时,等待线程才会被唤醒,进而返回当前的子节点。这个blockingNextGetData方法后面还会看到。

2.2.runLoop方法

接下来我们看下start方法的最后一段代码:

service.submit
               (
                   new Callable<Object>()
                   {
                       @Override
                       public Object call()
                       {
                           runLoop();
                           return null;
                       }
                   }
               );

这段代码主要是向线程池提交了一个Callable,主要逻辑是runLoop方法。我们进到runLoop方法里看看:

private void runLoop()
   {
       long         currentVersion = -1;
       long         maxWaitMs = -1;
       try
       {
           while ( state.get() == State.STARTED  )
           {
               try
               {
                   ChildrenCache.Data      data = (maxWaitMs > 0) ? childrenCache.blockingNextGetData(currentVersion, maxWaitMs, TimeUnit.MILLISECONDS) : childrenCache.blockingNextGetData(currentVersion);
                   currentVersion = data.version;

                   List<String>        children = Lists.newArrayList(data.children);
                   sortChildren(children); // makes sure items are processed in the correct order

                   if ( children.size() > 0 )
                   {
                       maxWaitMs = getDelay(children.get(0));
                       if ( maxWaitMs > 0 )
                       {
                           continue;
                       }
                   }
                   else
                   {
                       continue;
                   }

                   processChildren(children, currentVersion);
               }
               catch ( InterruptedException e )
               {
                   // swallow the interrupt as it's only possible from either a background
                   // operation and, thus, doesn't apply to this loop or the instance
                   // is being closed in which case the while test will get it
               }
           }
       }
       catch ( Exception e )
       {
           log.error("Exception caught in background handler", e);
       }
   }

可以看到,runLoop方法就是一个死循环,只要与服务器的状态一直是STARTED,这个循环就不会退出。

首先看这句代码:

ChildrenCache.Data      data = (maxWaitMs > 0) ?
childrenCache.blockingNextGetData(currentVersion, maxWaitMs, TimeUnit.MILLISECONDS) :
childrenCache.blockingNextGetData(currentVersion);

这行代码比较长,我把他拆成多行了。这句代码主要是去获取子节点,前面说了,当调用blockingNextGetData方法时,会先等待,直到有新的子节点时,才会调用notifyAll唤醒等待线程。

拿到子节点后就对子节点列表进行排序:

sortChildren(children); // makes sure items are processed in the correct order

sortChildren方法是DistributedQueue类的方法,在一开始分析DistributedDelayQueue类的时候说到,DistributedDelayQueue类中的queue是一个匿名内部类实例,其重写了getDelay和sortChildren等方法,因此我们要看经过重写的getDelay和sortChildren是怎样的,由于sortChildren方法依赖getDelay方法,因此我们先看看getDelay方法:

@Override
           protected long getDelay(String itemNode)
           {
               return getDelay(itemNode, System.currentTimeMillis());
           }

其会去调用getDelay私有方法,同时传入当前时间戳:

private long getDelay(String itemNode, long sortTime)
           {              
               long epoch = getEpoch(itemNode);
               return epoch - sortTime;
           }

getDelay私有方法又会去调用getEpoch方法:

private static long getEpoch(String itemNode)
   {
       int     index2 = itemNode.lastIndexOf(SEPARATOR);
       int     index1 = (index2 > 0) ? itemNode.lastIndexOf(SEPARATOR, index2 - 1) : -1;
       if ( (index1 > 0) && (index2 > (index1 + 1)) )
       {
           try
           {
               String  epochStr = itemNode.substring(index1 + 1, index2);
               return Long.parseLong(epochStr, 16);
           }
           catch ( NumberFormatException ignore )
           {
               // ignore
           }
       }
       return 0;
   }

getEpoch方法其实就是去解析子节点名称的,前面带大家看了zookeeper队列路径下的子节点名称,是这种形式的:queue-|165B92FCD69|0000000014。这个方法的作用就是将其中的任务执行的时间戳给解析出来,也就是中间的那段字符串。拿到字符串后再将十六进制转化为十进制:

Long.parseLong(epochStr, 16);

这样验证了我们之前的猜想:curator会把任务执行时间编码成十六进制放到节点名称里。至于为什么要编码成十六进制,个人认为应该是为了节省字符串长度。

我们再回到私有方法getDelay:

private long getDelay(String itemNode, long sortTime)
           {              
               long epoch = getEpoch(itemNode);
               return epoch - sortTime;
           }

拿到延时任务执行时间戳后,再跟当前时间戳相减,得出任务执行时间戳跟当前时间戳的差值,这个差值决定了这个任务要不要立即执行,如果说这个差值小于或等于0,说明任务已经到了执行时间,那么就会执行相应的任务。当然这个差值还有一个用途,就是用于排序,具体在sortChildren方法里面:

@Override
           protected void sortChildren(List<String> children)
           {
               final long sortTime = System.currentTimeMillis();
               Collections.sort
               (
                   children,
                   new Comparator<String>()
                   {
                       @Override
                       public int compare(String o1, String o2)
                       {
                           long        diff = getDelay(o1, sortTime) - getDelay(o2, sortTime);
                           return (diff < 0) ? -1 : ((diff > 0) ? 1 : 0);
                       }
                   }
               );
           }

这个sortChildren方法是经过重写了的匿名内部类的方法,其根据任务执行时间与当前时间戳的差值进行排序,越早执行的任务排在前面,这样就可以保证延时任务是按执行时间从早到晚排序的了。

分析完了getDelay和sortChildren,我们再回到runLoop方法:

ChildrenCache.Data      data = (maxWaitMs > 0) ? childrenCache.blockingNextGetData(currentVersion, maxWaitMs, TimeUnit.MILLISECONDS) : childrenCache.blockingNextGetData(currentVersion);
                   currentVersion = data.version;

                   List<String>        children = Lists.newArrayList(data.children);
                   sortChildren(children); // makes sure items are processed in the correct order

                   if ( children.size() > 0 )
                   {
                       maxWaitMs = getDelay(children.get(0));
                       if ( maxWaitMs > 0 )
                       {
                           continue;
                       }
                   }
                   else
                   {
                       continue;
                   }

                   processChildren(children, currentVersion);

在对子节点按执行时间进行升序排序后,会先拿到排在最前面的子节点,判断该子节点的执行时间与当前时间戳的差值是否小于0,如果小于0,则说明到了执行时间,那么就会调用下面这行代码:

processChildren(children, currentVersion);

我们跟进去看看:

private void processChildren(List<String> children, long currentVersion) throws Exception
   {
       final Semaphore processedLatch = new Semaphore(0);
       final boolean   isUsingLockSafety = (lockPath != null);
       int             min = minItemsBeforeRefresh;
       for ( final String itemNode : children )
       {
           if ( Thread.currentThread().isInterrupted() )
           {
               processedLatch.release(children.size());
               break;
           }

           if ( !itemNode.startsWith(QUEUE_ITEM_NAME) )
           {
               log.warn("Foreign node in queue path: " + itemNode);
               processedLatch.release();
               continue;
           }

           if ( min-- <= 0 )
           {
               if ( refreshOnWatch && (currentVersion != childrenCache.getData().version) )
               {
                   processedLatch.release(children.size());
                   break;
               }
           }

           if ( getDelay(itemNode) > 0 )
           {
               processedLatch.release();
               continue;
           }

           executor.execute
           (
               new Runnable()
               {
                   @Override
                   public void run()
                   {
                       try
                       {
                           if ( isUsingLockSafety )
                           {
                               processWithLockSafety(itemNode, ProcessType.NORMAL);
                           }
                           else
                           {
                               processNormally(itemNode, ProcessType.NORMAL);
                           }
                       }
                       catch ( Exception e )
                       {
                           ThreadUtils.checkInterrupted(e);
                           log.error("Error processing message at " + itemNode, e);
                       }
                       finally
                       {
                           processedLatch.release();
                       }
                   }
               }
           );
       }

       processedLatch.acquire(children.size());
   }

这里用信号量Semaphore保证了只有当所有子节点都被遍历并处理了或者线程被中断了,这个方法才会返回。如果这段程序是单线程执行的,那么不需要使用信号量也能做到这一点。但是大家看代码就知道,这个方法在执行到期的延时任务的时候是放到线程池里面执行的,所以才需要使用信号量来保证当所有任务被遍历并处理了,这个方法才返回。

我们重点关注延时任务的执行部分:

executor.execute
           (
               new Runnable()
               {
                   @Override
                   public void run()
                   {
                       try
                       {
                           if ( isUsingLockSafety )
                           {
                               processWithLockSafety(itemNode, ProcessType.NORMAL);
                           }
                           else
                           {
                               processNormally(itemNode, ProcessType.NORMAL);
                           }
                       }
                       catch ( Exception e )
                       {
                           ThreadUtils.checkInterrupted(e);
                           log.error("Error processing message at " + itemNode, e);
                       }
                       finally
                       {
                           processedLatch.release();
                       }
                   }
               }
           );

由于我们在初始化延时队列的时候传入了lockPath ,所以实际上会走到下面这个分支:

processWithLockSafety(itemNode, ProcessType.NORMAL);

从方法名可以看到,这个方式是使用锁的方式来处理延时任务。这里顺便提一句,好的代码是自解释的,我们仅仅看方法名就可以大概知道这个方法是做什么的,这一点大家平时在写代码的时候要时刻牢记,因为我在公司的老系统上已经看到不少method1、method2之类的方法命名了。这里略去1万字……

我们进到processWithLockSafety方法里面去:

@VisibleForTesting
   protected boolean processWithLockSafety(String itemNode, ProcessType type) throws Exception
   {
       String      lockNodePath = ZKPaths.makePath(lockPath, itemNode);
       boolean     lockCreated = false;
       try
       {
           client.create().withMode(CreateMode.EPHEMERAL).forPath(lockNodePath);
           lockCreated = true;

           String  itemPath = ZKPaths.makePath(queuePath, itemNode);
           boolean requeue = false;
           byte[]  bytes = null;
           if ( type == ProcessType.NORMAL )
           {
               bytes = client.getData().forPath(itemPath);
               requeue = (processMessageBytes(itemNode, bytes) == ProcessMessageBytesCode.REQUEUE);
           }

           if ( requeue )
           {
               client.inTransaction()
                   .delete().forPath(itemPath)
                   .and()
                   .create().withMode(CreateMode.PERSISTENT_SEQUENTIAL).forPath(makeRequeueItemPath(itemPath), bytes)
                   .and()
                   .commit();
           }
           else
           {
               client.delete().forPath(itemPath);
           }

           return true;
       }
       catch ( KeeperException.NodeExistsException ignore )
       {
           // another process got it
       }
       catch ( KeeperException.NoNodeException ignore )
       {
           // another process got it
       }
       catch ( KeeperException.BadVersionException ignore )
       {
           // another process got it
       }
       finally
       {
           if ( lockCreated )
           {
               client.delete().guaranteed().forPath(lockNodePath);
           }
       }

       return false;
   }

这个方法首先会申请分布式锁:

client.create().withMode(CreateMode.EPHEMERAL).forPath(lockNodePath);

这里申请锁是通过创建临时节点的方式实现的,一个任务只对应一个节点,所以只有一个zk客户端能够创建成功,也就是说只有一个客户端可以拿到锁。

拿到锁后就是处理任务了,最后在finally块中释放分布式锁。

我们重点看下处理任务那一块:

requeue = (processMessageBytes(itemNode, bytes) == ProcessMessageBytesCode.REQUEUE);

我们进到processMessageBytes里面去:

private ProcessMessageBytesCode processMessageBytes(String itemNode, byte[] bytes) throws Exception
   {
       ProcessMessageBytesCode     resultCode = ProcessMessageBytesCode.NORMAL;
       MultiItem<T>                items;
       try
       {
           items = ItemSerializer.deserialize(bytes, serializer);
       }
       catch ( Throwable e )
       {
           ThreadUtils.checkInterrupted(e);
           log.error("Corrupted queue item: " + itemNode, e);
           return resultCode;
       }

       for(;;)
       {
           T       item = items.nextItem();
           if ( item == null )
           {
               break;
           }

           try
           {
               consumer.consumeMessage(item);
           }
           catch ( Throwable e )
           {
               ThreadUtils.checkInterrupted(e);
               log.error("Exception processing queue item: " + itemNode, e);
               if ( errorMode.get() == ErrorMode.REQUEUE )
               {
                   resultCode = ProcessMessageBytesCode.REQUEUE;
                   break;
               }
           }
       }
       return resultCode;
   }

千呼万唤始出来,总算看到任务消费的代码了:

consumer.consumeMessage(item);

这里的consumer就是我们初始化延时任务队列时传入的任务消费者了。到这里curator延时任务的处理逻辑就全部讲完了。其他细节大家可以自己去看下源码,这里就不细讲了。

总结

这里简单回顾下curator实现延时任务的逻辑:首先在生产任务的时候,将所有任务都放到同一个节点下面,其中任务执行时间放到子节点的名称中,任务描述放到子节点的data中。后台会有一个线程去扫相应队列节点下的所有子节点,客户端拿到这些子节点后会将执行时间和任务描述解析出来,再按任务执行时间从早到晚排序,再依次处理到期的任务,处理完再删除相应的子节点。这就是curator处理延时任务的大致流程了。

前面说了,curator实现延时任务不是很优雅,具体不优雅在哪里呢?首先,curator对任务执行时间的排序不是在zookeeper服务端完成的,而是在客户端进行,假如说有人一次性往zookeeper里放了100万个延时任务,那么curator也会全部拿到客户端进行排序,这在任务数多的时候肯定是有问题的。再者,zookeeper的主要用途不是用于存储的,他不像MySQL或者Redis一样,被设计成存储系统,zookeeper更多地是作为分布式协调系统,存储不是他的强项,所以如果你要存储的延时任务很多,用zookeeper来做也是不合适的。

之所以花了这么大的篇幅来介绍curator如何利用zookeeper来实现延时任务,是为了告诉大家,不是只要有轮子就可以直接拿来用的,如果不关心轮子是怎么实现的,那有一天出了问题就无从下手了。

{
resultCode = ProcessMessageBytesCode.REQUEUE;
break;
}
}
}
return resultCode;
}


千呼万唤始出来,总算看到任务消费的代码了:

consumer.consumeMessage(item);

这里的consumer就是我们初始化延时任务队列时传入的任务消费者了。到这里curator延时任务的处理逻辑就全部讲完了。其他细节大家可以自己去看下源码,这里就不细讲了。

总结

这里简单回顾下curator实现延时任务的逻辑:首先在生产任务的时候,将所有任务都放到同一个节点下面,其中任务执行时间放到子节点的名称中,任务描述放到子节点的data中。后台会有一个线程去扫相应队列节点下的所有子节点,客户端拿到这些子节点后会将执行时间和任务描述解析出来,再按任务执行时间从早到晚排序,再依次处理到期的任务,处理完再删除相应的子节点。这就是curator处理延时任务的大致流程了。

前面说了,curator实现延时任务不是很优雅,具体不优雅在哪里呢?首先,curator对任务执行时间的排序不是在zookeeper服务端完成的,而是在客户端进行,假如说有人一次性往zookeeper里放了100万个延时任务,那么curator也会全部拿到客户端进行排序,这在任务数多的时候肯定是有问题的。再者,zookeeper的主要用途不是用于存储的,他不像MySQL或者Redis一样,被设计成存储系统,zookeeper更多地是作为分布式协调系统,存储不是他的强项,所以如果你要存储的延时任务很多,用zookeeper来做也是不合适的。

之所以花了这么大的篇幅来介绍curator如何利用zookeeper来实现延时任务,是为了告诉大家,不是只要有轮子就可以直接拿来用的,如果不关心轮子是怎么实现的,那有一天出了问题就无从下手了。

关于延时任务之zookeeper,你学废了么?


真诚地邀请您加入我们的大家庭.
在这里不仅有技术知识分享,还有博主们之间的互帮互助
不定期发红包,每月更有抽奖环节,游戏机和实体书相赠(包邮)
让我们抱团取暖,抱团内卷.打造美好C站.期待您的加入.
备注 : CSDN-xxxxxx (xxxxxx代表你csdn的昵称)文章来源地址https://www.toymoban.com/news/detail-793165.html

到了这里,关于优雅实现延时任务之zookeeper篇的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Redis实现延迟任务队列(一)

    业务里面需要文章的定时发布功能,因此打算采用mq和redis来实现一下定时发布的功能。mq之前用过了。基于一些私信交换机地信息过期策略实现。所以这次采用redis。并且打算将这个延迟任务的服务集成在一个微服务里面,提供对外的feign的远程调用接口,这样就可以一劳永逸

    2024年01月16日
    浏览(40)
  • zookeeper1==zookeeper源码阅读,源码启动ZK集群

    下载源码 Tags · apache/zookeeper · GitHub https://codeload.github.com/apache/zookeeper/zip/refs/tags/release-3.9.1 JDK8 MAVEN3.8.6 mvn -DskipTests=true package 配置ZK1 zkServer.cmd中指出了启动类是 QuorumPeerMain QuorumPeer翻译成集群成员比较合理,Quorum集群Peer成员 在代码目录下新建data文件夹和log文件夹 并在dat

    2024年02月05日
    浏览(47)
  • 鸿蒙原生应用/元服务开发-延迟任务开发实现(二)

    接口名 接口描述 startWork(work: WorkInfo): void; 申请延迟任务 stopWork(work: WorkInfo, needCancel?: boolean): void; 取消延迟任务 getWorkStatus(workId: number, callback: AsyncCallback): void; 获取延迟任务状态(Callback形式) getWorkStatus(workId: number): Promise; 获取延迟任务状态(Promise形式) obtainAllWorks(callba

    2024年01月18日
    浏览(57)
  • Zookeeper源码分析——ZK服务端加载数据源码解析

    (1)zk 中的数据模型,是一棵树,DataTree,每个节点,叫做DataNode (2)zk 集群中的DataTree 时刻保持状态同步 (3)Zookeeper 集群中每个zk 节点中,数据在内存和磁盘中都有一份完整的数据。 ⚫ 内存数据:DataTree ⚫ 磁盘数据:快照文件 + 编辑日志 ZK服务端初始化源码解析 启动

    2023年04月24日
    浏览(56)
  • 支付超时取消订单实现方案 - 定时任务、延迟队列、消息队列等

    在实际业务场景中,我们经常会碰到类似一下场景: 淘宝等购物平台在订单支付时,如果30分钟内未支付自动取消。 腾讯会议预约会议后,在会议开始前15分钟提醒。 未使用的优惠券有效期结束后,自动将优惠券状态更新为已过期。 等等。。。 像这种支付超时取消的场景需

    2024年04月22日
    浏览(42)
  • JavaScript:延迟访问和延时执行函数

    在java中线程有sleep函数可以延迟执行,但是在js中并没有这样的函数。 唯一有的就是setTimeout延迟执行函数,但是这个函数也是有很多坑。 场景:由于js是单线程异步执行的,当调用第三方API接口时,如果对方没有提供批量操作的接口,我们就需要多次请求相同的API,但是在

    2024年02月12日
    浏览(40)
  • Spring Boot Dubbo Zookeeper(含ZK安装脚本)

    Common 公共依赖 定义接口(用户服务注册使用) Provider 首先需要依赖Common yml 实现定义的接口(Service是apache.dubbo) 启动类(@EnableDubbo) Consumer 首先需要依赖Common Controller(@Reference注解) 安装脚本

    2024年02月10日
    浏览(45)
  • ZooKeeper(zk)与 Eureka 的区别及集群模式比较分析

    作者:zhaokk 在分布式系统中,服务注册与发现是一项至关重要的技术,它能够有效地管理和维护服务实例的状态,提供负载均衡和高可用性支持。ZooKeeper(以下简称 zk)和 Eureka 都是广泛应用于服务注册与发现领域的工具,本文将对它们的特点进行比较分析,重点关注 CAP 理

    2024年02月12日
    浏览(43)
  • Zookeeper启动报错常见问题以及常用zk命令

    Zk常规启动的命令如下 启动过程如果存在失败,是没办法直接看出什么问题,只会报出来 Starting zookeeper … FAILED TO START 可以用如下命令启动,便于查看zk启动过程中的详细错误  Invaild config, exiting abnormally 需要检查zoo.cfg配置文件 使用client port端口是否被占用或者未配置 #找到

    2024年01月17日
    浏览(42)
  • 布局传输延迟该怎么计算?PCB中布线的传播延时公式

    传播延时(tPD)是信号从一个点传播到另一个点所需要的时间。传输线传播延时是材料相对介电常数的函数。 微带布局传播延时 您可以使用公式 5 来计算微带线布局传播延时。 公式 5: 带状线布局传播延时 您可以使用公式 6 来计算带状线布局传播延时。 公式 6: 图 9 显示了微

    2024年02月07日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包