情景回顾
我们在上一篇 JVM FULL GC 生产问题笔记 中提出了如何更好的实现一个多线程消费的实现方式。
没有看过的小伙伴建议看一下。
本来以为一切都可以结束的,不过又发生了一点点意外,这里记录一下,避免自己和小伙伴们踩坑。
生产-消费者模式
简介
上一节中我们尝试了多种多线程方案,总会有各种各样奇怪的问题。
于是最后决定使用生产-消费者模式去实现。
实现如下:
这里使用 AtomicLong 做了一个简单的计数。
userMapper.handle2(Arrays.asList(user)); 这个方法是同事以前的方法,当然做了很多简化。
就没有修改,入参是一个列表。这里为了兼容,使用 Arrays.asList() 简单封装了一下。
- import com.github.houbb.thread.demo.dal.entity.User;
- import com.github.houbb.thread.demo.dal.mapper.UserMapper;
- import com.github.houbb.thread.demo.service.UserService;
- import java.util.Arrays;
- import java.util.List;
- import java.util.concurrent.*;
- import java.util.concurrent.atomic.AtomicLong;
- /**
- * 分页查询
- * @author binbin.hou
- * @since 1.0.0
- */
- public class UserServicePageQueue implements UserService {
- // 分页大小
- private final int pageSize = 10000;
- private static final int THREAD_NUM = 20;
- private final Executor executor = Executors.newFixedThreadPool(THREAD_NUM);
- private final ArrayBlockingQueue<User> queue = new ArrayBlockingQueue<>(2 * pageSize, true);
- // 模拟注入
- private UserMapper userMapper = new UserMapper();
- /**
- * 计算总数
- */
- private AtomicLong counter = new AtomicLong(0);
- // 消费线程任务
- public class ConsumerTask implements Runnable {
- @Override
- public void run() {
- while (true) {
- try {
- // 会阻塞直到获取到元素
- User user = queue.take();
- userMapper.handle2(Arrays.asList(user));
- long count = counter.incrementAndGet();
- } catch (InterruptedException e) {
- e.printStackTrace();
- }
- }
- }
- }
- // 初始化消费者进程
- // 启动五个进程去处理
- private void startConsumer() {
- for(int i = 0; i < THREAD_NUM; i++) {
- ConsumerTask task = new ConsumerTask();
- executor.execute(task);
- }
- }
- /**
- * 处理所有的用户
- */
- public void handleAllUser() {
- // 启动消费者
- startConsumer();
- // 充值计数器
- counter = new AtomicLong(0);
- // 分页查询
- int total = userMapper.count();
- int totalPage = total / pageSize;
- for(int i = 1; i <= totalPage; i++) {
- // 等待消费者处理已有的信息
- awaitQueue(pageSize);
- System.out.println(UserMapper.currentTime() + " 第 " + i + " 页查询开始");
- List<User> userList = userMapper.selectList(i, pageSize);
- // 直接往队列里面扔
- queue.addAll(userList);
- System.out.println(UserMapper.currentTime() + " 第 " + i + " 页查询全部完成");
- }
- }
- /**
- * 等待,直到 queue 的小于等于 limit,才进行生产处理
- *
- * 首先判断队列的大小,可以调整为0的时候,才查询。
- * 不过因为查询也比较耗时,所以可以调整为小于 pageSize 的时候就可以准备查询
- * 从而保障消费者不会等待太久
- * @param limit 限制
- */
- private void awaitQueue(int limit) {
- while (true) {
- // 获取阻塞队列的大小
- int size = queue.size();
- if(size >= limit) {
- try {
- // 根据实际的情况进行调整
- Thread.sleep(1000);
- } catch (InterruptedException e) {
- e.printStackTrace();
- }
- } else {
- break;
- }
- }
- }
- }
测试验证
当然这个方法在集成环境跑没有任何的问题。
于是就开始直接上生产验证,结果开始很快,然后就可以变慢了。
一看 GC 日志,梅开二度,FULL GC。
可恶,圣斗士竟然会被同一招打败 2 次吗?
FULL GC 的产生
一般要发现 full gc,最直观的感受就是程序很慢。
这时候你就需要添加一下 GC 日志打印,看一下是否有 full gc 即可。
这个最坑的地方就在于,性能问题是测试一般无法验证的,除非你进行压测。
压测还要同时满足两个条件:
(1)数据量足够大,或者说 QPS 足够高。持续压
(2)资源足够少,也就是还想马儿跑,还想马儿不吃草。
好巧不巧,我们同时赶上了两点。
那么问题又来了,如何定位为什么 FULL GC 呢?
内存泄露
程序变慢并不是一开始就慢,而是开始很快,然后变慢,接着就是不停的 FULL GC。
这就和自然的想到是内存泄露。
如何定位内存泄露呢?
你可以分成下面几步:
(1)看代码,是否有明显存在内存泄露的地方。然后修改验证。如果无法解决,则找出可能存在问题的地方,执行第二步。
(2)把 FULL GC 时的堆栈信息 dump 下来,分析到底是什么数据过大,然后结合 1 去解决。
接下来,让我们一起看一下这个过程的简化版本记录。
问题定位
看代码
最基本的生产者-消费者模式确认了即便,感觉没啥问题。
于是就要看一下消费者模式中调用其他人的方法问题。
方法的核心目的
(1)遍历入参列表,执行业务处理。
(2)把当前批次的处理结果写入到文件中。
方法实现
简化版本如下:
- /**
- * 模拟用户处理
- *
- * @param userList 用户列表
- */
- public void handle2(List<User> userList) {
- String targetDir = "D:\\data\\";
- // 理论让每一个线程只读写属于自己的文件
- String fileName = Thread.currentThread().getName()+".txt";
- String fullFileName = targetDir + fileName;
- FileWriter fileWriter = null;
- BufferedWriter bufferedWriter = null;
- User userExample;
- try {
- fileWriter = new FileWriter(fullFileName);
- bufferedWriter = new BufferedWriter(fileWriter);
- StringBuffer stringBuffer = null;
- for(User user : userList) {
- stringBuffer = new StringBuffer();
- // 业务逻辑
- userExample = new User();
- userExample.setId(user.getId());
- // 如果查询到的结果已存在,则跳过处理
- List<User> userCountList = queryUserList(userExample);
- if(userCountList != null && userCountList.size() > 0) {
- return;
- }
- // 其他处理逻辑
- // 记录最后的结果
- stringBuffer.append("用户")
- .append(user.getId())
- .append("同步结果完成");
- bufferedWriter.newLine();
- bufferedWriter.write(stringBuffer.toString());
- }
- // 处理结果写入到文件中
- bufferedWriter.newLine();
- bufferedWriter.flush();
- bufferedWriter.close();
- fileWriter.close();
- } catch (Exception exception) {
- exception.printStackTrace();
- } finally {
- try {
- if (null != bufferedWriter) {
- bufferedWriter.close();
- }
- if (null != fileWriter) {
- fileWriter.close();
- }
- } catch (Exception e) {
- }
- }
- }
这种代码怎么说呢,大概就是祖传代码吧,不晓得大家有没有见过,或者写过呢?
我们可以不看文件部分,核心部分实际上只有:
- User userExample;
- for(User user : userList) {
- // 业务逻辑
- userExample = new User();
- userExample.setId(user.getId());
- // 如果查询到的结果已存在,则跳过处理
- List<User> userCountList = queryUserList(userExample);
- if(userCountList != null && userCountList.size() > 0) {
- return;
- }
- // 其他处理逻辑
- }
代码存在的问题
你觉得上面的代码有哪些问题?
什么地方可能存在内存泄露呢?
有应该如何改进呢?
看堆栈
如果你看代码已经确定了疑惑的地方,那么接下来就是去看一下堆栈,验证下自己的猜想。
堆栈的查看方式
jvm 堆栈查看的方式很多,我们这里以 jmap 命令为例。
(1)找到 java 进程的 pid
你可以执行 jps 或者 ps ux 等,选择一个你喜欢的。
我们 windows 本地测试了下(实际生产一般是 linux 系统):
- D:\Program Files\Java\jdk1.8.0_192\bin>jps
- 11168 Jps
- 3440 RemoteMavenServer36
- 4512
- 11660 Launcher
- 11964 UserServicePageQueue
UserServicePageQueue 是我们执行的测试程序,所以 pid 是 11964
(2)执行 jmap 获取堆栈信息
命令:
- jmap -histo 11964
效果如下:
- D:\Program Files\Java\jdk1.8.0_192\bin>jmap -histo 11964
- num #instances #bytes class name
- ----------------------------------------------
- 1: 161031 20851264 [C
- 2: 157949 3790776 java.lang.String
- 3: 1709 3699696 [B
- 4: 3472 3688440 [I
- 5: 139358 3344592 com.github.houbb.thread.demo.dal.entity.User
- 6: 139614 2233824 java.lang.Integer
- 7: 12716 508640 java.io.FileDescriptor
- 8: 12714 406848 java.io.FileOutputStream
- 9: 7122 284880 java.lang.ref.Finalizer
- 10: 12875 206000 java.lang.Object
- ...
当然下面还有很多,你可以使用 head 命令过滤。
当然,如果服务器不支持这个命令,你可以把堆栈信息输出到文件中:
- jmap -histo 11964 >> dump.txt
堆栈分析
我们可以很明显发现不合理的地方:
[C 这里指的是 chars,有 161031。
String 是字符串,有 157949。
当然还有 User 对象,有 139358。
我们每一次分页是 1W 个,queue 中最多是 19999 个,这么多对象显然不合理。
代码中的问题
chars 和 String 为什么这么多
代码给人的第一感受,就是和业务逻辑没啥关系的写文件了。
很多小伙伴肯定想到了可以使用 TWR 简化一下代码,不过这里存在两个问题:
(1)最后文件中能记录所有的执行结果吗?
(2)有没有更好的方式呢?
对于问题1,答案是不能。虽然我们为每一个线程创建一个文件,但是实际测试,发现文件会被覆盖。
实际上比起我们自己写文件,更应该使用 log 去记录结果,这样更加优雅。
于是,最后把代码简化如下:
- //日志
- User userExample;
- for(User user : userList) {
- // 业务逻辑
- userExample = new User();
- userExample.setId(user.getId());
- // 如果查询到的结果已存在,则跳过处理
- List<User> userCountList = queryUserList(userExample);
- if(userCountList != null && userCountList.size() > 0) {
- // 日志
- return;
- }
- // 其他处理逻辑
- // 日志记录结果
- }
user 对象为什么这里多?
我们看一下核心业务代码:
- User userExample;
- for(User user : userList) {
- // 业务逻辑
- userExample = new User();
- userExample.setId(user.getId());
- // 如果查询到的结果已存在,则跳过处理
- List<User> userCountList = queryUserList(userExample);
- if(userCountList != null && userCountList.size() > 0) {
- return;
- }
- // 其他处理逻辑
- }
这里在判断是否存在的时候构建了一个 mybatis 中常用的 User 查询条件,然后判断查询的列表大小。
这里有两个问题:
(1)判断是否存在,最好使用 count,而不是判断列表结果大小。
(2)User userExample 的作用域尽量小一点。
调整如下:
- for(User user : userList) {
- // 业务逻辑
- User userExample = new User();
- userExample.setId(user.getId());
- // 如果查询到的结果已存在,则跳过处理
- int count = selectCount(userExample);
- if(count > 0) {
- return;
- }
- // 其他业务逻辑
- }
调整之后的代码
这里的 System.out.println 实际使用时用 log 替代,这里只是为了演示。
- /**
- * 模拟用户处理
- *
- * @param userList 用户列表
- */
- public void handle3(List<User> userList) {
- System.out.println("入参:" + userList);
- for(User user : userList) {
- // 业务逻辑
- User userExample = new User();
- userExample.setId(user.getId());
- // 如果查询到的结果已存在,则跳过处理
- int count = selectCount(userExample);
- if(count > 0) {
- System.out.println("如果查询到的结果已存在,则跳过处理");
- continue;
- }
- // 其他业务逻辑
- System.out.println("业务逻辑处理结果");
- }
- }
生产验证
全部改完之后,重新部署验证,一切顺利。
希望不会有第三篇。:)
小结
当然验证的过程中还发生过一点小插曲,比如开发没有权限看堆栈信息,执行命令时程序已经假死等等。
生产 full gc 是一个比较麻烦的问题,一个是难以复现,另一个是如果是偶发性的,又是实时链路,可能也不好执行 dump 命令。
所以写代码还是写的尽可能简单的好,不然会有各种问题。
能复用已有的工具、中间件尽量复用。
这样看来,我们自己写的生产-消费者模式也不太好,因为复用性不强,所以建议使用公司已有的 mq 工具,不过如何选择,还是看具体的业务场景。
架构,就是权衡。
希望本文对你有所帮助!