转载

难忘的OOM缉凶之旅

公元20几几年的某一天,笔者正在公司悠闲地啃着早餐,手机突然传来一个应用告警!!!打开一看: 应用老年代内存使用率超过95% 几个大字赫然映入眼帘,吓得笔者赶紧丢下了手中的肉包子,赶紧排查!

下图是后面解决了问题后从应用监控中补拍的作案证据,明显看到在一段时间内应用的老年代在频繁进行着full gc,且内存高点一直在100%处徘徊。

难忘的OOM缉凶之旅

缉凶过程:

咳咳,作为一个成熟的java攻城狮,在面对着oom这种小毛贼时,笔者自然是保持着一脸淡定(其实内心慌得一批,毕竟当时刚入职没两天,怎么就接了这么个锅)。

当时第一反应是先咨询了运维同事,发现监控平台上并没有集成内存分析的工具,需要自行dump分析。既然如此,那只能硬着头皮上了,笔者二话不说接入跳板机,登录生产环境,一招 jps 找到当前java应用的进程pid,又一招 jmap -dump:format=b,file=filename pid , 心里想着等老子拿到dump文件,一定好好修理你个凶手。时间漫长地过去了 ~~~ 10分钟,终于拿到了dump文件(此处省略各种与生产环境文件导出的斗智斗勇)。

笔者迫不及待拿出左右两柄手术刀(java自带的 visualvm 与一个比较有名的外部分析软件 mat ),准备对dump文件进行尸检。毕竟第一次使刀,握着刀柄一时半会儿不知如何下手,真是丢我攻城狮的脸!折腾了半天,终于打开了 mat,载入了dump文件。(mac使用mat有时可能遇到启动失败的坑,此处不作赘述,请自行 度娘/google)

划开尸体的第一刀,映入眼帘的是血淋淋的内脏布局,如下图:

难忘的OOM缉凶之旅

火眼金睛的笔者一眼发现,我特么这个肿瘤这么大!!!1.9G的内存它占据了1.7G,这到底是哪里来的肿瘤呢,笔者迫不及待地朝红色箭头指向的地方划出第二刀!刀法如下,点击mat的Reports项目的Leak Suspects,mat会自动为我们找出部分疑似导致oom的元凶对象。

难忘的OOM缉凶之旅
难忘的OOM缉凶之旅
咦!我们看到了什么,一个 logback.classic.AsyncAppender

对象诶,它活活占据了89.74%的内存!!!微接触过logback这个日志框架的小伙伴都应该知道AsyncAppender是logback框架的一个配置包装对象,负责包装设置日志的一些配置。我们不由得开始怀疑,这具尸体的死因跟应用日志有关!伴随着怀疑,笔者又朝尸体深处划出一刀。

难忘的OOM缉凶之旅

拉到accumulate objects in dominator tree项,它为我们列出了这个asyncAppender对象的内存结构。果然如我们所料,logback框架会使用一个队列来缓存一个个loggingEvent对象,每一次调用日志输出都会被包装成一个loggingEvent缓存起来。从上图第一、二点我们看到这个日志缓存队列占据了十分巨大的内存,并且他的loggingEvent对象光一个就占了23%左右的内存,我的天。上图第三点的inspector观察窗口能展示出这个对象的具体内容,于是我们截取了前两个占比最大的loggingEvent对象的msg来看看这个日志的内容到底是啥?

难忘的OOM缉凶之旅
难忘的OOM缉凶之旅
经过一番仔细查验,笔者基本确定是 dubbo接口的生产者在返回结果时报出的传输内容长度超限问题

,而且超出了两个数量级之多。顺藤摸瓜,我们紧跟着从日志内容着手,发现返回的结果 data 是一个数组,也就是在执行批量查询的时候超限了。追溯到对应表的具体批量查询,发现当有一个条件为空时,批量查询语句会跳过sql的in条件去走全表!!然而这个表一共有几十万的数据!!!(具体sql在此不表,就是条件筛选没有生效导致)

结案:

区区oom果然没能逃过笔者的法眼,案件最后定性原因如下: 由于sql的设计错误导致批量查询数据量巨大,超过了dubbo的传输限制,因而抛出异常并写日志。而日志对象中包含了巨量的查询返回对象具体信息,并丢进异步日志队列,日志还没来得及刷新到磁盘就已经撑爆了内存,oom发生告警!! 后续优化的时候除了修改sql,优化了批量查询的条件,同时还在logback配置上加入了日志最大长度的限制,杜绝因日志打印导致的oom再次发生。

原文  https://juejin.im/post/5d2b3837e51d454fa33b1970
正文到此结束
Loading...