设置了 robots.txt
User-agent: Baiduspider Disallow: / User-agent: baiduspider Disallow: / User-agent: * Disallow: /
没用,照样收录。Nginx 中禁止了搜索引擎的 User-Agent:
if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot") { return 404; }
两周过去了,没用,还是收录,此时所有其他搜索引擎都停止了收录。
甚至直接举报了网站,一直显示处理中,没有结果。
为什么百度像狗皮膏药一样恶心?到底怎么才能禁止百度收录网站?
![]() | 1 Yourshell 2024-01-04 10:38:41 +08:00 黑名单不行就白名单 |
![]() | 2 lingeo 2024-01-04 10:40:05 +08:00 https://help.baidu.com/question?prod_id=99&class=470&id=3009 如何撰写页面就完全没内容了。 |
![]() | 3 opengps 2024-01-04 10:40:37 +08:00 主动去百度站长收录平台提交下就行 |
4 SkywalkerJi 2024-01-04 10:59:34 +08:00 ![]() 发一些政治内容。 |
![]() | 5 lovezww2011 2024-01-04 11:06:23 +08:00 可以根据 url 做判断,如果是来自百度的流量,直接 301 跳转到其它网站 |
![]() | 6 lifei6671 2024-01-04 11:18:56 +08:00 发一些涉政和某功文章。 |
7 vueli 2024-01-04 11:53:52 +08:00 #6 楼说的对 |