有个垃圾爬虫 /bot, robot.txt 屏蔽了仍然无法阻止, 所以想请教下如何直接在 cloudflare 那边直接屏蔽掉?
![]() | 1 xuhaotian 2023-04-29 09:29:36 +08:00 via iPhone 查 asn 屏蔽整段 IP ? |
2 coinsmask 2023-04-29 09:32:40 +08:00 @xuhaotian 不是屏蔽整段 ip, 是指屏蔽某个指定的爬虫 /bot, 在日志中看到了它, 想把它彻底屏蔽掉, 你屏蔽整段 ip, 不是倒水把孩子也一起倒出去吗? 另外请教下, 如果知道一个 bot/爬虫名字, 如何查到来源, 这样可以逆源谁做的这个 bot/爬虫? |
![]() | 3 MoeMoesakura 2023-04-29 09:44:34 +08:00 @coinsmask 封 UserAgent |
![]() | 4 MoeMoesakura 2023-04-29 09:45:02 +08:00 @coinsmask 你的 Nginx 日志应该有 UA ,可以直接去找这个 UA |
![]() | 5 yaott2020 2023-04-29 09:46:28 +08:00 via Android 开个 5 秒盾? |
![]() | 6 leaflxh 2023-04-29 10:16:20 +08:00 进入到域名的面板,Security--->WAF--->create rule--->If incoming requests match… 下面可以选择 User-Agent -->Then take action…选择 block |
![]() | 7 robots.txt 是君子协定,估计也就搜索引擎会遵守,加这个没用的。楼上说的什么封 User-Agent 更没有任何卵用了,客户端能随便改的东西,你封了有啥意义? 开五秒盾还是很有意义的,可以挡住大部分不是精心构造就要爬你的爬虫,但是代价是牺牲一些用户体验。 |
![]() | 8 herozzm 2023-04-29 10:59:34 +08:00 via iPhone 找到知道 ua ,host 反查确定是真的指定爬虫 ip ,block |
![]() | 9 baobao1270 2023-04-29 13:11:47 +08:00 1. 屏蔽 User-Agent 2. 打开「浏览器完整性检查」 |
![]() | 10 MoeMoesakura 2023-04-29 15:08:22 +08:00 @ospider 虽然话是这么说,但是他是屏蔽「指定的爬虫」 |
![]() | 11 4BVL25L90W260T9U 2023-04-29 16:46:55 +08:00 @MoeMoesakura 我知道啊,问题就是这个“指定的爬虫”他肯定会伪装啊,没准楼主会觉得怎么把这个爬虫屏蔽了,又冒出来另一个了 |
![]() | 12 cy18 2023-04-29 22:28:59 +08:00 @ospider LZ 既然在日志里看到了,应该就有特征,有特征就有办法屏蔽。爬虫当然可以伪装,但是伪装完就不是之前那个“指定的爬虫”了。 |
13 coinsmask 2023-05-02 12:02:01 +08:00 |
![]() | 15 herozzm 2023-05-02 12:11:54 +08:00 |