背景
许久没有分享 Java 相关的问题排查了,最近帮同事一起排查了一个问题:
在使用 Pulsar 消费时,发生了同一条消息反复消费的情况。
排查
当他告诉我这个现象的时候我就持怀疑态度,根据之前使用的经验 Pulsar 在官方文档以及 API 中都解释过:
只有当设置了消费的 ackTimeout 并超时消费时才会重复投递消息,默认情况下是关闭的,查看代码也确实没有开启。
那会不会是调用了 negativeAcknowledge() 方法呢(调用该方法也会触发重新投递),因为我们使用了一个第三方库 https://github.com/majusko/pulsar-java-spring-boot-starter 只有当抛出异常时才会调用该方法。
查阅代码之后也没有地方抛出异常,甚至整个过程中都没看到异常产生;这就有点诡异了。
复现
为了捋清楚整个事情的来龙去脉,详细了解了他的使用流程;
其实也就是业务出现了 bug,他在消息消费时 debug 然后进行单步调试,当走完一次调试后,没多久马上又收到了同样的消息。
但奇怪的是也不是每次 debug 后都能重复消费,我们都说如果一个 bug 能 100% 完全复现,那基本上就解决一大半了。
所以我们排查的第一步就是完全复现这个问题。
为了排除掉是 IDEA 的问题(虽然极大概率不太可能)既然是 debug 的时候产生的问题,那其实转换到代码也就是 sleep 嘛,所以我们打算在消费逻辑里直接 sleep 一段时间看能否复现。
经过测试,sleep 几秒到几十秒都无法复现,最后索性 sleep 一分钟,神奇的事情发生了,每次都成功复现!
既然能成功复现那就好说了,因为我自己的业务代码也有使用到 Pulsar 的地方,为了方便调试就准备在自己的项目里再复现一次。
结果诡异的事情再次发生,我这里又不能复现了。
虽然这才是符合预期的,但这就没法调了呀。
本着相信现代科学的前提,我们俩唯一的区别就是项目不一样了,为此我对比了两边的代码。
@PulsarConsumer(
topic = xx,
clazz = Xx.class,
subscriptionType = SubscriptionType.Shared
)
public void consume(Data msg) {
log.info("consume msg:{}", msg.getOrderId());
Lock lock = redisLockRegistry.obtain(msg.getOrderId());
if (lock.tryLock()) {
try {
orderService.do(msg.getOrderId());
} catch (Exception e) {
log.error("consumer msg:{} err:", msg.toString(), e);
} finally {
lock.unlock();
}
}
}
结果不出所料,同事那边的代码加了锁;一个基于 Redis 的分布式锁,这时我一拍大腿不会是解锁的时候超时了导致抛了异常吧。
为了验证这个问题,在能复现的基础上我在框架的 Pulsar 消费处打了断点:
果然破案了,异常提示已经非常清楚了:加锁已经过了超时时间。
进入异常后直接 negative 消息,同时异常也被吃掉了,所以之前没有发现。
查阅了 RedisLockRegistry 的源码,默认超时时间正好是一分钟,所以之前我们 sleep 几十秒也无法复现这个问题。
总结
事后我向同事了解了下为啥这里要加锁,因为我看下来完全没有加锁的必要;结果他是因为从别人那里复制的代码才加上的,压根没想那么多。
所以这事也能得出一些教训:
- ctrl C/V 虽然方便,但也得充分考虑自己的业务场景。
- 使用一些第三方 API 时,需要充分了解其作用、参数。