天天看点

为什么我的JVM能实际使用的内存比-Xmx指定的少?

原文链接

作者:nikita salnikov-tarnovski   译者:amanda    校对:

“你好,你能过来看看帮我解决一个奇怪的问题么。”就是这个技术支持案例使我想起写下这篇帖子。眼前的这个问题就是关于不同工具对于可用内存大小检测的差异。

其实就是一个工程师在调查一个应用程序的过高的内存使用情况时发现,尽管该程序已经被指定分配2g堆内存,但是jvm检测工具似乎并不能确定进程实际能用多少内存。例如 jconsole显示可用堆内存为1,963m,然而 jvisualvm 却显示能用2,048m。所以到底哪个工具才是对的,为什么检测结果会出现差异呢?

这确实是个挺奇怪的问题,特别是当最常出现的几种解释理由都被排除后,看来jvm并没有耍一些明显的小花招:

-xmx和-xms是相等的,因此检测结果并不会因为堆内存增加而在运行时有所变化。

通过关闭自适应调整策略(-xx:-useadaptivesizepolicy),jvm已经事先被禁止动态调整内存池的大小。

要弄清楚这个问题的第一步就是要明白这些工具的实现原理。通过标准apis,我们可以用以下简单语句得到可使用的内存信息。

而且确实,现有检测工具底层也是用这个语句来进行检测。要解决这个问题,首先我们需要一个可重复使用的测试用例。因此,我写了下面这段代码:

这段代码通过将new int[1_000_000]置于一个循环中来不断分配内存给程序,然后监测jvm运行期的当前可用内存。当程序监测到可用内存大小发生变化时,通过打印出runtime.getruntime().maxmemory()返回值来得到当前可用内存尺寸,输出类似下面语句:

实际情况也确实如预估的那样,尽管我已经给jvm预先指定分配了2g对内存,在不知道为什么在运行期有85m内存不见了。你大可以把 runtime.getruntime().maxmemory()的返回值2,010,112k 除以1024来转换成mb,那样你将得到1,963m,正好和2048m差85m。

在成功重现了这个问题之后,我尝试用使用不同的gc算法,果然检测结果也不尽相同。

gc algorithm

runtime.getruntime().maxmemory()

-xx:+useserialgc

2,027,264k

-xx:+useparallelgc

2,010,112k

-xx:+useconcmarksweepgc

2,063,104k

-xx:+useg1gc

2,097,152k

除了g1算法刚好完整使用了我预指定分配的2g之外,其余每种gc算法似乎都不同程度地丢失了一些内存。

现在我们就该看看在jvm的源代码中有没有关于这个问题的解释了。我在collectedheap这个类的源代码中找到了如下的解释:

我不得不说这个答案藏得有点深,但是只要你有足够的好奇心,还是不难发现的:有时候,有一块survivor区是不被计算到可用内存中的。

为什么我的JVM能实际使用的内存比-Xmx指定的少?

明白这一点之后问题就好解决了。打开并查看gc logging 信息之后我们发现,在serial,parallel以及cms算法回收过程中丢失的那些内存,尺寸刚好等于jvm从2g堆内存中划分给survivor区内存的尺寸。例如,在上面的parallelgc算法运行时,gc logging信息如下:

由上面的信息可以看出,eden区被分配了524,800k,两个survivor区都被分配到了87,040k,老年代(old space)则被分配了1,398,272k。把eden区、老年代以及一个survivor区的尺寸求和,刚好等于2,010,112k,说明丢失的那85m(87,040k)确实就是剩下的那个survivor区。

读完这篇帖子的你现在应该对如何探索java api的实现原理有了一些新的想法。下次当你用某个可视化工具查看可用堆内存发现所得的结果略少于-xmx指定分配的大小时,你就知道这两者之间的差值是一块survivor区的大小。

我必须承认这个知识点在日常编程中并不是特别常用,但这并不是这篇帖子的重点。我写下这篇帖子是为了描述一种特质,一种我经常在优秀的程序员身上寻找的特质-好奇心。好的程序员们会经常试着去了解一些事物工作的机理以及原因。有时问题的答案并不会那么显而易见,但是希望你能坚持寻找下去,最终在寻找过程中的所累积的知识总会让你获益匪浅。