天天看点

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

一、背景

实际工作中,有一应用A,每隔几个月就会出现内存告警,甚至OOM,持续一年多,一直以来解决办法是重启。

最后发现问题在于堆外内存泄漏,通过JVM将使用的内存分配器ptmalloc2替换为jemalloc修复。

为分析和解决该堆外内存泄露问题,经历两个月,文章中的截图对应这两个月的不同时间线,大家看截图里的时间可能有些歧义。

所以,大家可以忽略截图里的时间,重点关注问题分析的思路。

二、问题分析

1 问题现状

一共有7个4c8g节点,该应用作用是ELT,大量消费kafka中的所有应用的日志、链路等数据,再存储到ES。

空闲内存慢慢在下降,我们选择了其中1台进行排查。

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

2 内存分析

之前写过一篇内存问题排查思路的文章:《一起探秘JVM内存问题(OOM、内存泄漏、堆外内存等》。

下面就按照文章的思路逐步排查。

2.1 确定到底是哪个进程占用内存高

ps aux --sort=-%mem

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

物理内存占用第一的是应用A 约6.5G,第二的是X-agent应用,所以确认了应用A JVM进程占用内存过高导致。

2.2 堆内、堆外内存逐步排查

结合JVM内存分布图,先排查堆内内存、再排查堆外内存。

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

2.3 堆外到底占用多少?

jcmd GC.heap_info

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

heap:启动参数里指定了Xmx是4G,从命令结果也可以看出约等于 new generation 1.8G + old geration 2G。

Metaspace: committed 约0.1G左右

通过pmap命令可以看到最真实的JVM heap的物理内存的占有量,因为Heap本质是一个内存池,池子的总大小4G,但是实际物理内存一般达不到4G,而Heap的used也只是池子中使用部分的内存。所以还是要通过操作系统的pmap来查询:

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

如上图,JVM heap是4G的虚拟内存,启动物理内存约占用3144764K即约3G,50M左右置换到了swap空间。

所以heap实际占用约3G。

2.4 堆外内存占用多少?

堆外物理内存 = 总占用物理内存 - heap占用的物理内存 = 6.5G - 3G = 3.5G

疑点: 怎么会占用这么多堆外内存,是哪块内存占用这么多?

2.5 分析堆外内存大户

逐个分析堆外内存的大户:Metaspace、Direct Memory、JNI Memory、code_cache

通过pmap命令确定每一块空间的内存占用是最真实的,但是比较麻烦,所以通过Arthas的memory命令查看:

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

Metaspace总量 + Direct Memory总量 + code_cache总量 = 103M + 1M + 59M 约 0.2G,这里计算的是总量,实际物理内存占用没那么大,为方便计算,我们就按0.2G来算。

所以其他堆外内存总量 = 总堆外物理内存 - (Metaspace总量 + Direct Memory总量 + code_cache总量) = 3.5G - 0.2G - 3.3G

那大概率是JNI Memory这块占用了大量内存。

2.6 分析JNI Memory内存

JNI Memory的内存是因为JVM内存调用了Native方法,即C、C++方法,所以需要使用C、C++的思路去解决。

排查过程是两个大方向:

方向1:

1.gpertools分析谁没有释放内存:定位C、C++的函数

2.确认C、C++的函数对应的Java 方法

3.jstack或arthas的stack命令:Java方法对应的调用栈

方向2:

1.pmap定位内存块的分布:查看哪些内存块的Rss、Swap占用大

2.dump出内存块,打印出内存数据:把内存中的数据,打印成字符串,分析是什么数据

2.7 通过google的gperftools工具排查谁在分配内存

gperftools工具会拦截内存分配和释放等场景的函数,然后记录调用的堆栈和内存分配、释放的情况。

使用方式

1.安装gperftools:

bash复制代码yum install gperftools;
yum install gperftools-devel
yum -y install graphviz
yum -y install ghostscript
           

2.设置环境变量:

可以在应用的启动脚本上

bash复制代码vim app_start.sh
### 加 上 gperftools
export LD_PRELOAD=/usr/lib64/[libtcmalloc.so](http://libtcmalloc.so)
export HEAPPROFILE=/home/admin/gperftools/heap/hprof
..... start app ......
           

3.重启应用

kill app,再运行app_start.sh

4.持续观察几小时,执行命令:

bash复制代码pprof --pdf --base=/home/admin/gperftools/heap/hprof_27126.1617.heap /usr/local/jdk8/bin/java /home/admin/gperftools/heap/hprof_27126.1619.heap> mem-diff.pdf
           

其中 /home/admin/gperftools/heap/hprof_27126.1617.heap和/usr/local/jdk8/bin/java /home/admin/gperftools/heap/hprof_27126.1619.heap是gperftools生成的Heap Profiling快照。

diff方式可以对比出哪些函数申请了内存,没有释放。

最大头的是Java_java_util_zip_Inflater_inflateBytes函数在申请堆外内存,共680M,占比680M

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

网上查询资料以及对比jdk源码,发现对应于java的java.util.zip.Inflater#inflateBytes()方法,该方法是JVM的gzip压缩工具中的。

2.8 确定是被谁调用的Java_java_util_zip_Inflater_inflateBytes呢?

每隔一秒通过jstack不停打印线程堆栈,过滤出java.util.zip.Inflater#inflateBytes方法相关的堆栈

(PS: 也可以通过arthas的stack命令拦截,注意java.util.zip.Inflater#inflateBytes是native方法,无法拦截,但是他是private方法,只会被非java方法java.util.zip.Inflater#inflate调用,所以可以拦截java.util.zip.Inflater#inflate方法)

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

定位到了源码处是XXKafkaConsumerService类,该类是在大量消费kafka消息,其中kafka的数据压缩方式是gzip,当拉取到消息后,需要解压gzip数据,会调用到Native函数Java_java_util_zip_Inflater_inflateBytes。

java复制代码public void consume() {
    .......
    while (true) {
      ...kafkaConsumer.poll(timeout);
      ......
    }
    ......
}
           

网上有类似的kafka gzip压缩导致的堆外内存泄漏问题:一次堆外内存泄露的排查过程 developer.aliyun.com/article/657…

2.8 GC后不释放内存?

按理说,JDK肯定考虑到Java_java_util_zip_Inflater_inflateBytes会申请JNI Memory,同时必定也方式去释放内存。

根据网上资料和看源码,发现如果Inflater对象被GC回收时,会调用继承于Object类的finalize()方法,该方法会释放资源,包括释放native的内存。

java复制代码public class Inflater {
  public void end() {
    synchronized (zsRef) {
      // 
      long addr = zsRef.address();
      zsRef.clear();
      if (addr != 0) {
        end(addr);
        buf = null;

      }
    }
  }

  /**
   * 当垃圾回收的时候会执行finalize(),同时会释放资源,包括释放native的内存
   */
  protected void finalize() {
    end();
  }

  private native static void initIDs();
  // ...
  private native static void end(long addr);
}
           

2.9 GC后不释放内存的几种猜想

那就存在几种可能:

1.Inflater对象没有被回收,例如被其他对象长期引用着,没能被回收。

但是从源码看,Inflater对象的引用链中,父级对象是局部变量,且kafka消费没有阻塞的情况,所以应该不会被长期引用。

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

所以,该猜想不成立。

2.Inflater对象在新生代中存活了一段时间,之后晋升到老年代了,但是我们长期都没有一次FullGC,所以挤压了很多这样的对象,导致堆外的内存没释放。

这个可以通过手工触发一次FullGC来验证:

jmap -histo:live 1904

但是结果不尽人意,虽然FullGC后,Inflater对象虽然有所减少,但是还是挺多的。

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

并且,内存占用量还是很高,占用量还有6G多。

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

3.那会不会是JNI Memory释放了,但是内存没有回收呢?

Linux操作系统默认使用的内存分配器是ptmalloc2,该内存分配器内部有一个内存池。当Inflater释放内存时,ptmalloc2会不会缓存了这部分空闲内存?

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

查阅了较多资料,发现ptmalloc2在高并发分配内存时,会存在较多内存碎片无法释放的情况,碎片积压到一定程度甚至会导致进程内存不够用,最终OOM。

网上资料发现MySQL、TFS、Tair、Redis这些中间件部署时,指定jemlloc内存分配器替代ptmalloc2可更好地管理内存。

2.10 经典的Linux的64M内存块问题

ptmalloc2内存泄漏泄漏有一个明显的现象,是存在大量的64M的内存块(虚拟内存)。

参考:一次大量 JVM Native 内存泄露的排查分析(64M 问题) juejin.cn/post/707862…

我们通过pmap命令把JVM进程中内存块的分布打印出来:

(pmap -X 1904 | head -2; pmap -X 1904 | awk 'NR>2' | sort -nr -k6) > pmap_1.log

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

确实存在大量的64M内存占用的内存块,把占用的物理内存(Rss)统计一下,一共约3.4G左右

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

随意选取几个64M内存的地址,dump出内存

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题
【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

执行strings 103.dump将内存里的数据转为string字符串

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

通过打印内存中的数据发现,有大量的log、链路的数据,有的数据甚至是几个月前的,可见历史积压了很久。

2.11 手动释放ptmalloc内存

ptmalloc2因为自身设计的原因,在高并发情况下会存在大量内存碎片不释放,通过调用 malloc_trim() 函数可以整理malloc内存池中的内存块,合并、释放空闲内存,可以简单理解为JVM 的GC。

多次执行;gdb --batch --pid 1904 --ex 'call malloc_trim()'

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

效果非常明显,立马释放出2G(6G减少到4G)左右的物理内存。

3 内存分析的结论

原因在于ptmalloc2存在大量内存碎片,积压了很多历史的数据,没有及时释放。

至于ptmalloc2在高并发的情况会导致内存碎片不释放,这个看过很多资料,尝试了好多工具去验证内存分配的情况,但是目前还没有得出一个确切的根因分析。

三、解决方案

1.经试验发现,kafka的consumer、provider端处理gzip压缩算法时,都是可能出现JNI Memory内存泄露问题。

如果将kafka消息的压缩算法gzip改为其他算法,例如Snappy、LZ4,这些压缩算法可以规避掉JVM的gzip解、压缩使用JNI Memory的问题。

关于Kafka的压缩算法,可以参考,kakka不同压缩算法的性能对比:www.cnblogs.com/huxi2b/p/10…

2.优化ptmalloc2的参数:

(1). export MALLOC_ARENA_MAX=8

结果:未解决问题,最终内存剩余10%左右了

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

(2) 修改参数

bash复制代码export MALLOC_MMAP_THRESHOLD_=131072 
export MALLOC_TRIM_THRESHOLD_=131072 
export MALLOC_TOP_PAD_=131072 
export MALLOC_MMAP_MAX_=65536
           

结果:观察数日,上面的参数还是有效果的,虽然还是会降低到10%以下,但是总体还是在13%左右

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

3.【推荐,效果明细】替换内存分配器为google的tcmalloc或facebook的jemalloc

将内存分配器的库打包到项目部署包中,再用export LD_PRELOAD指定函数库

结果:内存使用量非常稳定,长期都是40%多。由7台机器缩减为4台,也足够支撑现有数据。

【JVM案例篇】堆外内存(JNI Memory)泄漏 经典的Linux 64M内存块问题

四、补充说明

1 为什么linux使用ptmalloc2,而不是jemalloc、tcmalloc?

比如,单线程下分配 257K 字节的内存,Ptmalloc2 的耗时不变仍然是 32 纳秒,但 TCMalloc 就由 10 纳秒上升到 64 纳秒,增长了 5 倍以上!**现在 TCMalloc 反过来比 Ptmalloc2 慢了 1 倍!**这是因为 TCMalloc 特意针对小内存做了优化。

多少字节叫小内存呢?TCMalloc 把内存分为 3 个档次,小于等于 256KB 的称为小内存,从 256KB 到 1M 称为中等内存,大于 1MB 的叫做大内存。TCMalloc 对中等内存、大内存的分配速度很慢,比如我们用单线程分配 2M 的内存,Ptmalloc2 耗时仍然稳定在 32 纳秒,但 TCMalloc 已经上升到 86 纳秒,增长了 7 倍以上。

所以,如果主要分配 256KB 以下的内存,特别是在多线程环境下,应当选择 TCMalloc;否则应使用 Ptmalloc2,它的通用性更好。

而一般的应用没有那么高的并发(申请内存tps高、并发线程多),对于普通应用而言,ptmalloc性能、稳定性足够。

参考:【内存】内存池:如何提升内存分配的效率? www.cnblogs.com/hochan100/p…

2 注意事项

(1) 网上说malloc_trim有很小的概率会导致JVM Crash,使用时需要小心,但是我目前未遇到过。

(2) google的gperftools分析内存用到了tcmalloc分配器,即上面配置的export LD_PRELOAD=/usr/lib64/libtcmalloc.so,一旦配置了tcmalloc分配器,就解决上面的JNI Memory存在内存碎片不释放的问题!

如果要验证64M内存块问题,就得去掉export LD_PRELOAD=/usr/lib64/libtcmalloc.so

继续阅读