最近刚把 skills.lc 上线,说实话,一开始并没有太高调,想着先稳定跑起来再慢慢打磨内容。结果没想到,上线没多久就被各种爬虫“盯上”了。
最明显的表现只有一个:OOM。
Node 服务动不动就被系统干掉,PM2 不停重启,日志里全是内存告警。一开始我也怀疑过是不是服务器太小、配置不够,但看了一眼监控,问题没那么简单——内存是持续上涨的,而不是瞬间被打满。

这基本可以确定:
不是正常的流量压力,而是内存泄漏或不合理的内存使用。
如果按以前的方式来,我大概会这么做:
这条路不是走不通,而是太耗时间,而且在服务已经上线、有真实流量的情况下,每一次试错成本都很高。
于是这次我换了个思路:
把 AI 当成“高级排查助手”,而不是写代码的工具。
我没有直接问“怎么解决 OOM”,而是把信息一点点丢给它:
AI 做的事情,其实很像一个经验很足的同事:
比如:
这些并不是“AI 写出来的新技术”,而是把零散的现象串成了一条合理的因果链。
真正落地的时候,我做的改动并不夸张:
每一步单独看都很普通,但组合在一起,效果非常明显。


到这一刻我才真正意识到一件事:
AI 的价值,不在于替你写代码,而在于帮你更快看清问题本身。
这次经历让我对 AI 的态度变得很明确:
如果你正好也在做线上项目、独立站,或者正在被性能问题折磨,我的建议只有一句:
别只用 AI 写功能代码,试试用它来“一起排查问题”。
用对了,真的会省下你大量时间,和很多不必要的焦虑。