我刚上线了一个小网站:skills.lc。
本来只是想做一个简单的 AI skills / agent skills 的索引站,方便大家查找各种 skills。
网站上线之后其实没怎么宣传,就在几个地方随便发了一下。
结果三天后,我突然发现服务器流量不太对劲。
看了一下最近几天的流量统计:
1.09 TB
1.21 TB
1.47 TB
1.57 TB
我第一反应是:
不会吧?难道火了?
但冷静想想,这网站用户量不足产生这么大的流量。
再仔细看日志,发现事情不太对。
服务器日志里基本全是 curl 请求:
Time: 2026/3/13 15:09:26
Source: download
User Agent: curl/7.87.0
IP: 50.7.250.66
还有另一个:
Time: 2026/3/13 14:13:46
Source: download
User Agent: curl/8.16.0
IP: 121.237.245.164
这两个 IP 基本在 不停下载网站资源。
而且方式非常简单粗暴:
curl https://skills.lc/xxx
curl https://skills.lc/xxx
curl https://skills.lc/xxx
就是一条一条扫。
我这个网站其实是一个 技能列表索引,
里面很多资源其实都是公开的 GitHub 内容。
但对方没有直接去 GitHub 拉。
而是:
从我的服务器反复下载。

于是就出现了一个很魔幻的情况:
我成了一个 免费 CDN。
别人疯狂 pull 数据,
而我疯狂烧服务器流量。

我猜可能有几种原因:
1 爬全站做镜像
很多人做 AI 工具站的时候,会先把别人网站的数据全爬下来。
2 训练数据
AI 时代很多人会疯狂抓数据。
3 做聚合站。
有些 bot 就是全网扫。
50.7.250.66(香港ip)
121.237.245.164(江苏南京)
User-Agent:
curl/7.87.0
curl/8.16.0
基本可以确定是脚本。


接下来准备做几件事情:
1 IP 限速
同一个 IP 每分钟限制请求数。
2 Cloudflare 防护
开启 bot fight。
3 下载接口加 token
避免直接 curl。
4 robots + WAF
防止简单爬虫。
以前总觉得:
网站没人访问是最大问题。
现在发现:
网站刚上线,被爬才是最大问题。
很多爬虫比用户来的还快。
互联网其实很有意思。
你刚做了个小工具站,
还没来得及推广,
就已经有人在默默复制你的数据了。
如果你也做过类似的站,
有没有遇到这种情况?
最后对南京和香港的那2位朋友说一声,如果你真想要我网站的数据,来收购我网站就行呀,省得让我产生天价流量费账单