第一站 - 轻松上网从此开始!

上网第一站

当前位置: > SEO >

真实经历分享:通过.htaccess文件屏蔽不良蜘蛛

时间:2012-09-15 15:56来源:网络 作者:dhdz187 点击: 我来投稿获取授权
以下内容来自网络或网友投稿,www.swdyz.com不承担连带责任,如有侵权问题请联系我删除。投稿如果是首发请注明‘第一站首发’。如果你对本站有什么好的要求或建议。那么都非常感谢你能-联系我|版权认领
一周前,笔者分享过一篇文章《SEO诊断:透过Log日志找到网站死结》,并在最后附上了两条改善建议。由于客观条件所限,最后采用robots屏蔽的方法。先一起来看看一

  一周前,笔者分享过一篇文章《SEO诊断:透过Log日志找到网站死结》,并在最后附上了两条改善建议。由于客观条件所限,最后采用robots屏蔽的方法。先一起来看看一周后的蜘蛛变化,三大主流蜘蛛总抓取量锐减,证明robots文件开始生效。从图上的访问次数、总停留时间和总抓取量看,有所进步但路还很远。

  

 

  然而,从11号开始,网站LOG日志开始出现众多中文非主流蜘蛛访问,其中不乏知名俄罗斯搜索引擎蜘蛛Yandexbot,还有不明“飞行物”AhrefsBot & ezooms.bot。 按照思维中定型的屏蔽蜘蛛方法,本能地将以上所有蜘蛛(对中文网站seo而言,以上的蜘蛛就是垃圾蜘蛛)通过Robots.txt文件disallow掉。本以为这样就算搞定了,但是今早打开最近3天的LOG日志一看,垃圾蜘蛛抓取更加频繁,凶猛,尤其以ezooms.bot为甚。

  一般来说,搜索引擎对待Robots.txt文件有个生效期,大概2-7天。但是ezooms.bot的迅猛发展,让我不得不怀疑他是个Robots协议违反者。

  今天要分享的就是如何通过.htaccess文件屏蔽不良蜘蛛。

  以下是14号的网站日志,导入到Excel进行筛选分析,发现在当天所有访问日志(包括真实用户和蜘蛛)中,竟然有多达342次访问记录。而尤以AhrefsBot & ezooms.bot居多。

  (注:此例输入“Bot”进行筛选;国外蜘蛛一般叫Bot,国内一般叫Spider)

  

 

  Ezooms.bot究竟是何方神圣?于是通过百度去搜索相关的记录,但是很不理想,百度没有任何相关的记录。没办法,只能求助于谷歌,满篇幅都是英文,头大了,咬咬牙慢慢咀嚼吧。

  翻阅了七八篇国外有关ezooms.bot的博客文章,对该bot也没有一个明确的说法,有的认为是SEOMoz Bot,有的认为是个文章采集者,但是大家对它的评价都很不好,被描绘成诸如吸血鬼、水蛭等。截取一段外文评语:

  

 

  从了解到的知识来看,ezooms.bot对爬行的网站没有任何的帮助,遂下定决心屏蔽之。由于ezooms.bot不遵守Robots.txt协议,又想起了通过htaccess文件屏蔽IP段的方法。国外的博文也多次提到此方法,

  

 

  图上的IP段与网站记录的ezooms.bot爬行ip段基本吻合,应该是个方法。但是屏蔽整个ip段,可能会造成一定的误杀(毕竟并不能确认所有的ip都是ezooms.bot)。有没有更稳妥的办法呢?还是翻阅资料,最后找到了通过.htaccess来解决的办法。规则如下:

  RewriteEngine on

  RewriteCond %{HTTP_USER_AGENT} ^Ezooms

  RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0

  RewriteRule ^(.*)$

  为什么这么写,网上翻翻更多关于Apache中 RewriteCond 规则参数介绍,我也是菜鸟正在学习中。

  以上是笔者个人关于如何屏蔽不良蜘蛛的真实经历,希望对大家有所帮助。SEO就是在不断的学习中进步的。本文由减肥产品排行榜原创供稿,欢迎大家转载,转载时请保留此链接,谢谢合作!

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发布者资料
第一站编辑 查看详细资料 发送留言 加为好友 用户等级:注册会员 注册时间:2012-05-22 19:05 最后登录:2014-08-08 03:08
栏目列表
推荐内容
分享按鈕