菜鸡源码,专注精品下载!
当前位置:首页 > 建站教程 > 建站知识

Robots.txt禁止垃圾流氓蜘蛛大全

发布时间:2024-01-04  栏目:建站知识   浏览:   分类:Robots

Robots.txt是网站管理员用来告知搜索引擎蜘蛛哪些页面可以抓取,哪些不可以抓取的文本文件。在Robots.txt中,可以通过User-agent指令来禁止特定的垃圾流氓蜘蛛。例如,可以使用以下代码来禁止Baiduspider(百度蜘蛛)和Googlebot(谷歌蜘蛛): User-agent: Baiduspider Disallow: / User-agent: Googlebot Disallow: / 此外,还可以使用Sitemap指令来告诉搜索引擎蜘蛛网站的地图位置,以便它们更好地抓取网站内容。总之,通过合理设置Robots.txt文件,可以有效防止垃圾流氓蜘蛛对网站造成不良影响。

这里主要介绍的Robots.txt方法来禁止垃圾流氓蜘蛛,Robots.txt方法只能针对遵循此规则的蜘蛛,添加到Robots.txt文件内即可,代码如下:

User-agent:AhrefsBotDisallow:/User-agent:DotBotDisallow:/User-agent:SemrushBotDisallow:/User-agent:UptimebotDisallow:/User-agent:MJ12botDisallow:/User-agent:MegaIndex.ruDisallow:/User-agent:ZoominfoBotDisallow:/User-agent:Mail.RuDisallow:/User-agent:SeznamBotDisallow:/User-agent:BLEXBotDisallow:/User-agent:ExtLinksBotDisallow:/User-agent:aiHitBotDisallow:/User-agent:ResearchscanDisallow:/User-agent:DnyzBotDisallow:/User-agent:spbotDisallow:/User-agent:YandexBotDisallow:/User-agent:DataForSeoBotDisallow:

大部分流氓蜘蛛只所以叫流氓,就是他们根本不认这个,所以菜鸡源码建议大家使用禁止IP的方法最为保险。

评论
建站知识
建站知识
使用技巧
调试安装
运营推广