记一次Full GC导致的线上问题

2022-01-13  本文已影响0人  liurenhao

导火索

nginx报502
先查看了一下ng的错误日志,有如下两种类型的报错:

 [error] 24826#0: *32529323 upstream prematurely closed connection while reading response header from upstream
 [error] 24826#0: *32502388 no live upstreams while connecting to upstream

第一个错误是由于upstream还没有应答给用户时,用户断掉连接造成的,大概率为客户端连接超时自动断开了。
第二个错误就比较迷了,这个错误是指找不到存活的后端server,但是网上查看引起这个错误的原因是多种多样的。

多线并行

由于环境问题,取后端应用日志比较耗时,在这期间利用如下命令写了一个shell脚本观察nginx服务器的端口连接情况

netstat -n | awk '/^tcp/ {++S[$NF]} END {for (a in S) print a, S[a]}'

通过脚本打印的日志发现,服务器有10几秒的时间TIME_WAIT状态的端口达到了28232,如下图

6a9b8046d1ff80facfcb4d96fa48680.png

通过以下命令查看本地端口范围配置

cat /proc/sys/net/ipv4/ip_local_port_range

发现本地可使用的端口个数刚好为28232


image.png

也正是在这个时间段nginx开始不断报错

初步判断是由于nginx服务器连接端口被用尽导致无法创建新的连接从而报错

于是乎我找了一台测试服务器做了个压测,一分钟压了3W个请求,果然在请求到达2W+的时候ng开始报错了。然而错误信息却是如下:

 [alert] 28637#0: *255914 socket() failed (24: Too many open files) while connecting to upstream

明显跟我们之前遇到的报错是有区别的,同时我们nginx是做了双中心,两台nginx的并发量存在明显差异,确都报了相同的错误。由此可以判断并非高并发导致的服务器连接端口用尽。

这个时候刚好我们也取下了后端应用的日志,在对日志进行筛查后,发现了以下的报错

Caused by: java.io.IOException: Broken pipe
    at sun.nio.ch.FileDispatcherImpl.write0(Native Method) ~[?:1.8.0_171]
    at sun.nio.ch.SocketDispatcher.write(SocketDispatcher.java:47) ~[?:1.8.0_171]
    at sun.nio.ch.IOUtil.writeFromNativeBuffer(IOUtil.java:93) ~[?:1.8.0_171]
    at sun.nio.ch.IOUtil.write(IOUtil.java:65) ~[?:1.8.0_171]
    at sun.nio.ch.SocketChannelImpl.write(SocketChannelImpl.java:471) ~[?:1.8.0_171]
    at org.apache.tomcat.util.net.NioChannel.write(NioChannel.java:136) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.tomcat.util.net.NioBlockingSelector.write(NioBlockingSelector.java:101) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.tomcat.util.net.NioSelectorPool.write(NioSelectorPool.java:157) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.tomcat.util.net.NioEndpoint$NioSocketWrapper.doWrite(NioEndpoint.java:1312) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.tomcat.util.net.SocketWrapperBase.doWrite(SocketWrapperBase.java:692) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.tomcat.util.net.SocketWrapperBase.flushBlocking(SocketWrapperBase.java:645) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.tomcat.util.net.SocketWrapperBase.flush(SocketWrapperBase.java:635) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.coyote.http11.Http11OutputBuffer$SocketOutputBuffer.flush(Http11OutputBuffer.java:646) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.coyote.http11.filters.IdentityOutputFilter.flush(IdentityOutputFilter.java:160) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.coyote.http11.Http11OutputBuffer.flush(Http11OutputBuffer.java:252) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.coyote.http11.Http11Processor.flush(Http11Processor.java:1392) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.coyote.AbstractProcessor.action(AbstractProcessor.java:404) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.coyote.Response.action(Response.java:206) ~[tomcat-coyote.jar:8.5.55]
    at org.apache.catalina.connector.OutputBuffer.doFlush(OutputBuffer.java:326) ~[catalina.jar:8.5.55]
    ... 60 more

这个错误是由于tomcat服务器在应答时发现客户端连接已经关闭,想必是某种原因导致服务器响应时间太长,导致客户端连接超时主动关闭。

柳暗花明

按照惯例,我们应该从以下角度开始排查为何服务器响应会超时:

通过排查首先排除了数据库方面的问题

监控工具也没有发现cpu和内存异常的信息,cpu load average也没有异常

在linux下查看cpu和IO问题后,顺便查看了一下JVM的内存使用情况

使用命令jmap -heap pid 查看如下:

Attaching to process ID 1, please wait...
Debugger attached successfully.
Server compiler detected.
JVM version is 25.171-b11

using thread-local object allocation.
Parallel GC with 43 thread(s)

Heap Configuration:
   MinHeapFreeRatio         = 0
   MaxHeapFreeRatio         = 100
   MaxHeapSize              = 17179869184 (16384.0MB)
   NewSize                  = 89128960 (85.0MB)
   MaxNewSize               = 5726273536 (5461.0MB)
   OldSize                  = 179306496 (171.0MB)
   NewRatio                 = 2
   SurvivorRatio            = 8
   MetaspaceSize            = 21807104 (20.796875MB)
   CompressedClassSpaceSize = 1073741824 (1024.0MB)
   MaxMetaspaceSize         = 17592186044415 MB
   G1HeapRegionSize         = 0 (0.0MB)

Heap Usage:
PS Young Generation
Eden Space:
   capacity = 4995416064 (4764.0MB)
   used     = 371647312 (354.4304962158203MB)
   free     = 4623768752 (4409.56950378418MB)
   7.439766923086069% used
From Space:
   capacity = 363331584 (346.5MB)
   used     = 341794088 (325.96024322509766MB)
   free     = 21537496 (20.539756774902344MB)
   94.07222026698345% used
To Space:
   capacity = 365428736 (348.5MB)
   used     = 0 (0.0MB)
   free     = 365428736 (348.5MB)
   0.0% used
PS Old Generation
   capacity = 3899129856 (3718.5MB)
   used     = 3334968784 (3180.474075317383MB)
   free     = 564161072 (538.0259246826172MB)
   85.53110327598179% used

突然发现,JVM的堆内存老年代(Old Generation)高达近4个G,使用率接近90%,嘴里不禁喃喃自语:“该GC了....”,就在这句话脱口而出的时候,脑海中突然灵光乍现,GC,Stop the World !
赶紧通过jstat -gcutil pid命令查看JVMGC情况

6fd0d284bc7ce6df2120c087c140ac5.png

由于当时是远程机,所以没有留下截图,实际情况是Full GC进行了9次,总共耗时400多秒,平均FGC时间达到了50秒。(以上截图已经是第一次优化后的结果了)

离了个大谱,众所周知,Java程序在GC时会出现Stop the World,这个时候程序处于暂停状态

一切都解释通了,当FULL GC长时间进行的时候,nginx对应用的访问就会出现以下错误

 [error] 24826#0: *32502388 no live upstreams while connecting to upstream

当nginx和后端应用建立好连接之后,后端应用出现FULL GC,导致长时间挂起,结果nginx访问超时主动关闭了连接,然后后端应用GC完毕之后继续处理,当准备返回应答信息时,就出现了以下错误

Caused by: java.io.IOException: Broken pipe
    at sun.nio.ch.FileDispatcherImpl.write0(Native Method) ~[?:1.8.0_171]
    at sun.nio.ch.SocketDispatcher.write(SocketDispatcher.java:47) ~[?:1.8.0_171]
    at sun.nio.ch.IOUtil.writeFromNativeBuffer(IOUtil.java:93) ~[?:1.8.0_171]
    at sun.nio.ch.IOUtil.write(IOUtil.java:65) ~[?:1.8.0_171]
    at sun.nio.ch.SocketChannelImpl.write(SocketChannelImpl.java:471) ~[?:1.8.0_171]
    at org.apache.tomcat.util.net.NioChannel.write(NioChannel.java:136) ~[tomcat-coyote.jar:8.5.55]

同时如果浏览器的连接请求先超时,则会在nginx上出现如下报错:

[error] 24826#0: *32529323 upstream prematurely closed connection while reading response header from 

为了进一步确定是否为GC STW导致的问题,我们选择重启了后端应用,然后持续进行观察

果然在没有出现FGC的情况下,没有出现任何错误, 当错误出现之后,发现已经进行了一次FGC,由此基本判断是由于FGC导致的问题, 接下来就是优化JVM的问题了。

上一篇 下一篇

猜你喜欢

热点阅读