第一站 - 轻松上网从此开始!

上网第一站

当前位置: > SEO >

页面长度过长也会导致不收录?

时间:2017-06-16 14:29来源:我来投稿获取授权
以下内容来自网络或网友投稿,www.swdyz.com不承担连带责任,如有侵权问题请联系我删除。投稿如果是首发请注明‘第一站首发’。如果你对本站有什么好的要求或建议。那么都非常感谢你能-联系我|版权认领
最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况: 站点反馈: 网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针

  最近院长收到一个非常典型的抓取优化例子,整理一下分享给各位,各位站长们谨记不要出现相同的情况:

  站点反馈:

  网站主体内容都是js生成,针对用户访问,没有做优化;但是网站特针对爬虫抓取做了优化,且将图片也直接做了base64转化;然而优化后发现内容却不被百度收录

  页面质量很好,还特意针对爬虫做了优化,为什么内容反而不收录了呢?

  工程师分析:

  1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;

  2、 站点优化后将主体内容放于最后,图片却放于前面;

  3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。

  工程师建议:

  1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

  2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

  3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全

(责任编辑:admin)
织梦二维码生成器
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
发布者资料
第一站编辑 查看详细资料 发送留言 加为好友 用户等级:注册会员 注册时间:2012-05-22 19:05 最后登录:2014-08-08 03:08
栏目列表
推荐内容
分享按鈕