给我1万字,也讲Java不清内存排查。1万不行来2万~.~

开发 后端
对于内存问题排查来说,搞理论的痛苦,搞实践的也痛苦,没有一片清净之地。

[[337132]]

本文转载自微信公众号「小姐姐味道」,可以通过以下二维码关注。转载本文请联系小姐姐味道公众号。

对于内存问题排查来说,搞理论的痛苦,搞实践的也痛苦,没有一片清净之地。

why?因为内存溢出是Java码农永远的伤。

溢出有很多种解释,有精满自溢,有缓冲区溢出攻击,还有另外一种叫做领导的溢出。不知道什么叫作溢出理论,xjjdog在此普及一下。

《领导看了会炸毛的溢出理论》

内存溢出什么最重要?其实,内存溢出就像是一场交通事故。事故的发生方,就是具体的服务;事故的处理方,就是相关的程序员。其中有一个最重要的环节,就是在事故现场需要拍照取证。

如果没有照片没有行车记录仪没有证据,就只能靠那张嘴,怎么说都是不可信的。

**这句话很重要很重要:内存问题排查什么最重要?当然是信息收集,留下一些为我们的排查提供支持的依据。**千万不要舍本逐末,对内存问题排查本身感兴趣,那是自虐行为。

有很多工具可以帮助我们定位问题,但前提是你得把它留下来。下面这篇文章是xjjdog很久之前留下来的,由于标题的缘故,你可能忽略了,但这些工具能够快速帮我们定位问题。

  1. ss -antp > $DUMP_DIR/ss.dump 2>&1 
  2. netstat -s > $DUMP_DIR/netstat-s.dump 2>&1 
  3. top -Hp $PID -b -n 1 -c >  $DUMP_DIR/top-$PID.dump 2>&1 
  4. sar -n DEV 1 2 > $DUMP_DIR/sar-traffic.dump 2>&1 
  5. lsof -p $PID > $DUMP_DIR/lsof-$PID.dump 
  6. iostat -x > $DUMP_DIR/iostat.dump 2>&1 
  7. free -h > $DUMP_DIR/free.dump 2>&1 
  8. jstat -gcutil $PID > $DUMP_DIR/jstat-gcutil.dump 2>&1 
  9. jstack $PID > $DUMP_DIR/jstack.dump 2>&1 
  10. jmap -histo $PID > $DUMP_DIR/jmap-histo.dump 2>&1 
  11. jmap -dump:format=b,file=$DUMP_DIR/heap.bin $PID > /dev/null  2>&1 

GC日志配置

但并不是每次出现故障,你都在机器的身边。靠人工也不能保证实时性。所以,强烈建议你把GC日志输出的详细一些,那么出现问题的时候就舒坦一些。

实际上,这个要求在我看来是强制的。

很多同学上来就说,我的内存溢出了。但你和它要一些日志信息,要堆栈,要现场保存的快照。都没有。这就是纯粹来搞笑的。

下面是JDK8或者以下的GC日志参数,可以看到还是很长的。

  1. #!/bin/sh 
  2. LOG_DIR="/tmp/logs" 
  3. JAVA_OPT_LOG=" -verbose:gc" 
  4. JAVA_OPT_LOG="${JAVA_OPT_LOG} -XX:+PrintGCDetails" 
  5. JAVA_OPT_LOG="${JAVA_OPT_LOG} -XX:+PrintGCDateStamps" 
  6. JAVA_OPT_LOG="${JAVA_OPT_LOG} -XX:+PrintGCApplicationStoppedTime" 
  7. JAVA_OPT_LOG="${JAVA_OPT_LOG} -XX:+PrintTenuringDistribution" 
  8. JAVA_OPT_LOG="${JAVA_OPT_LOG} -Xloggc:${LOG_DIR}/gc_%p.log" 
  9.  
  10. JAVA_OPT_OOM=" -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=${LOG_DIR} -XX:ErrorFile=${LOG_DIR}/hs_error_pid%p.log " 
  11.  
  12. JAVA_OPT="${JAVA_OPT_LOG} ${JAVA_OPT_OOM}" 
  13. JAVA_OPT="${JAVA_OPT} -XX:-OmitStackTraceInFastThrow" 

下面是JDK9及其以上的日志配置。可以看到它的配置方式全变了,而且不向下兼容。Java搞的这个变化还是挺蛋疼的。

  1. #!/bin/sh 
  2.  
  3. LOG_DIR="/tmp/logs" 
  4. JAVA_OPT_LOG=" -verbose:gc" 
  5. JAVA_OPT_LOG="${JAVA_OPT_LOG} -Xlog:gc,gc+ref=debug,gc+heap=debug,gc+age=trace:file=${LOG_DIR}/gc_%p.log:tags,uptime,time,level" 
  6. JAVA_OPT_LOG="${JAVA_OPT_LOG} -Xlog:safepoint:file=${LOG_DIR}/safepoint_%p.log:tags,uptime,time,level" 
  7.  
  8. JAVA_OPT_OOM=" -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=${LOG_DIR} -XX:ErrorFile=${LOG_DIR}/hs_error_pid%p.log " 
  9.  
  10. JAVA_OPT="${JAVA_OPT_LOG} ${JAVA_OPT_OOM}" 
  11. JAVA_OPT="${JAVA_OPT} -XX:-OmitStackTraceInFastThrow" 
  12.  
  13. echo $JAVA_OPT 

一旦发现了问题,就可以拿GC日志来快速定位堆内问题。但是并不是让你一行行去看,那太低效了。因为日志可能会很长很长,而且也不一定看得懂。这个时候,就可以使用一些在线工具辅助解决。我经常使用的是gceasy,下面是它的一张截图。

  1. http://gceasy.io 

 

有了GC日志还不行,因为它仅仅是记录了堆空间的一些变化,至于操作系统的一些资源变动,它是无从知晓的。所以,如果你有一个监控系统的话,在寻找问题的时候也能帮到忙。从下图可以看到系统资源的一些变动。

 

溢出示例

堆溢出

代码。

 


 

 

日志。

  1. java -Xmx20m -Xmn4m -XX:+HeapDumpOnOutOfMemoryError - OOMTest 
  2. [18.386s][info][gc] GC(10) Concurrent Mark 5.435ms 
  3. [18.395s][info][gc] GC(12) Pause Full (Allocation Failure) 18M->18M(19M) 10.572ms 
  4. [18.400s][info][gc] GC(13) Pause Full (Allocation Failure) 18M->18M(19M) 5.348ms 
  5. Exception in thread "main" java.lang.OutOfMemoryError: Java heap space 
  6.     at OldOOM.main(OldOOM.java:20) 

jvisualvm的反应。

 

元空间溢出

代码。

 

日志。

  1. java -Xmx20m -Xmn4m -XX:+HeapDumpOnOutOfMemoryError -XX:MetaspaceSize=16M -XX:MaxMetaspaceSize=16M MetaspaceOOMTest 
  2. 6.556s][info][gc] GC(30) Concurrent Cycle 46.668ms 
  3. java.lang.OutOfMemoryError: Metaspace 
  4. Dumping heap to /tmp/logs/java_pid36723.hprof .. 

jvisualvm的反应。

 

直接内存溢出

代码。

 

日志。

  1. java -XX:MaxDirectMemorySize=10M -Xmx10M OffHeapOOMTest 
  2. Exception in thread "Thread-2" java.lang.OutOfMemoryError: Direct buffer memory 
  3.     at java.nio.Bits.reserveMemory(Bits.java:694) 
  4.     at java.nio.DirectByteBuffer.<init>(DirectByteBuffer.java:123) 
  5.     at java.nio.ByteBuffer.allocateDirect(ByteBuffer.java:311) 
  6.     at OffHeapOOMTest.oom(OffHeapOOMTest.java:27)... 

栈溢出

代码。

 

日志。

  1. java -Xss128K StackOverflowTest 
  2. Exception in thread "main" java.lang.StackOverflowError 
  3.     at java.io.PrintStream.write(PrintStream.java:526) 
  4.     at java.io.PrintStream.print(PrintStream.java:597) 
  5.     at java.io.PrintStream.println(PrintStream.java:736) 
  6.     at StackOverflowTest.a(StackOverflowTest.java:5) 

哪些代码容易出现问题

忘记重写hashCode和equals

看下面的代码。由于没有重写Key类的hashCode和equals方法。造成了放入HashMap的所有对象,都无法被取出来。它们和外界失联了。

 

下面这篇文章详细的描述了它的原理。

结果集失控

 

不要觉得这段代码可笑。在实际工作中的review中,xjjdog不止一次发现这种蛋疼的代码。这有可能是赶工期,也有可能是刚学会写Java。这行代码有很大的可能性踩坑。

条件失控

代码。与之类似的就是条件失控,当某个条件不满足的时候,将会造成结果集的失控。大家可以看下面的代码,fullname 和 other为空的时候,会出现什么后果?

 

万能参数

还有的同学使用各种Object和HashMap来进行信息交换。这种代码正常运行的时候没什么问题,但一旦出错,几乎无法排查。排查参数、排查堆栈、排查调用链,全部失效。

 

一些预防的措施

  • 减少创建大对象的频率:比如byte数组的传递
  • 不要缓存太多的堆内数据:使用guava的weak引用模式
  • 查询的范围一定要可控:如分库分表中间件;ES等有同样问题
  • 用完的资源一定要close掉:可以使用新的 try-with-resources语法
  • 少用intern:字符串太长,且无法复用,就会造成内存泄漏
  • 合理的Session超时时间
  • 少用第三方本地代码,使用Java方案替代
  • 合理的池大小
  • XML(SAX/DOM)、JSON解析要注意对象大小

案例分析一

这是最常见的一种情况。了解了这种方式,能够应对大多数内存溢出和内存泄漏问题。

现象

  • 环境:CentOS7,JDK1.8,SpringBoot
  • G1垃圾回收器
  • 刚启动没什么问题,慢慢放量后,发生了OOM
  • 系统自动生成了heapdump文件
  • 临时解决方式:重启,但问题依然发现

信息收集

  • 日志:GC的日志信息:内存突增突降,变动迅速
  • 堆栈:Thread Dump文件:大部分阻塞在某个方法上
  • 压测:使用wrk进行压测,发现20个用户并发,内存溢出
  1. wrk -t20 -c20 -d300s http://127.0.0.1:8084/api/test 

MAT分析

堆栈文件获取:

  1. jmap -dump:format=b,file=heap.bin 37340 
  2. jhsdb jmap  --binaryheap --pid  37340 

MAT工具是基于eclipse平台开发的,本身是一个Java程序。分析Heap Dump文件:发现内存创建了大量的报表对象。

 

通过菜单Find Leaks,一键找出黑李逵。

 

根据提示向下挖就可以。

解决

分析结果:

  • 系统存在大数据量查询服务,并在内存做合并
  • 当并发量达到一定程度,会有大量数据堆积到内存进行运算

解决方式:

  • 重构查询服务,减少查询的字段
  • 使用SQL查询代替内存拼接,避免对结果集的操作
  • 举例:查找两个列表的交集

案例分析二

现象

  • 环境:CentOS7,JDK1.8,JBoss
  • CMS垃圾回收器
  • 操作系统CPU资源耗尽
  • 访问任何接口,响应都非常的慢

分析

  • 发现每次GC的效果都特别好,但是非常频繁
  • 了解到使用了堆内缓存,而且设置的容量比较大
  • 缓存填充的速度特别快!

结论:

  • 开了非常大的缓存,GC之后迅速占满,造成GC频繁

案例分析三

  • 现象java进程异常退出
  • java进程直接消失
  • 没有留下dump文件
  • GC日志正常
  • 监控发现死亡时,堆内内存占用很少,堆内仍有大量剩余空间

分析

  • XX:+HeapDumpOnOutOfMemoryError不起作用
  • 监控发现操作系统内存持续增加

下面这些情况都会造成程序退出而没什么响应。

  • 被操作系统杀死 dmesg oom-killer
  • System.exit()
  • java com.cn.AA & 后终端关闭
  • kill -9

解决

发现:

  • 在dmesg命令中发现确实被oom-kill

解决:

  • 给JVM少分配一些内存,腾出空间给其他进程

 

责任编辑:武晓燕 来源: 小姐姐味道
相关推荐

2023-06-12 08:49:12

RocketMQ消费逻辑

2021-11-22 07:42:47

税前个税工资

2021-03-16 08:21:29

Spark系统并行

2023-10-31 12:58:00

TypeScriptJavaScript

2020-07-01 08:10:34

JVM 内存

2023-04-10 08:11:23

@Lazy懒汉模式饿汉模式

2023-01-06 08:15:58

StreamAPI接口

2021-11-11 09:27:02

技术RedisMySQL

2024-07-19 08:34:18

2024-08-13 15:07:20

2021-10-18 11:58:56

负载均衡虚拟机

2022-09-06 08:02:40

死锁顺序锁轮询锁

2024-09-26 13:33:12

2021-01-19 05:49:44

DNS协议

2024-08-30 10:29:21

2020-03-11 10:09:57

JAVA详解classpath

2020-09-21 10:50:24

Java多线程代码

2020-03-18 12:47:59

设计模式ERP

2022-09-14 09:01:55

shell可视化

2009-02-17 08:41:57

先锋裁员亏损
点赞
收藏

51CTO技术栈公众号