造成Baiduspider(百度蜘蛛)抓取网站异常的原因有哪些

       

造成Baiduspider(百度蜘蛛)抓取网站异常的原因有哪些

有一些网页,内容优质,用户也可以正常访问,但是Baiduspider却无法正常访问并抓取,造成搜索结果覆盖率缺失,对百度搜索引擎对站点都是一种损失,百度把这种情况叫“抓取异常”。对于大量内容无法正常抓取的网站,百度搜索引擎会认为网站存在用户体验上的缺陷,并降低对网站的评价,在抓取、索引、排序上都会受到一定程度的负面影响,影响到网站从百度获取的流量。

下面向站长介绍一些常见的抓取异常原因:

1,服务器连接异常

服务器连接异常会有两种情况:一种是站点不稳定,Baiduspider尝试连接您网站的服务器时出现暂时无法连接的情况;一种是Baiduspider一直无法连接上您网站的服务器。

造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有可能是您的网站运行不正常,请检查网站的web服务器(如apache、iis)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了Baiduspider的访问,您需要检查网站和主机的防火墙。

2,网络运营商异常:网络运营商分电信和联通两种,Baiduspider通过电信或网通无法访问您的网站。如果出现这种情况,您需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

3,DNS异常:当Baiduspider无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把Baiduspider封禁。请使用WHOIS或者host查询自己网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

4,IP封禁:IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了BaiduspiderIP。当您的网站不希望Baiduspider访问时,才需要该设置,如果您希望Baiduspider访问您的网站,请检查相关设置中是否误添加了BaiduspiderIP。也有可能是您网站所在的空间服务商把百度IP进行了封禁,这时您需要联系服务商更改设置。

5,UA封禁:UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,返回异常页面(如403,500)或跳转到其它页面的情况,即为UA封禁。当您的网站不希望Baiduspider访问时,才需要该设置,如果您希望Baiduspider访问您的网站,useragent相关的设置中是否有Baiduspider UA,并及时修改。

6,死链:页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式:

协议死链:页面的TCP协议状态/HTTP协议状态明确表示的死链,常见的如404、403、503状态等。

内容死链:服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面。

对于死链,我们建议站点使用协议死链,并通过百度站长平台--死链工具向百度提交,以便百度更快地发现死链,减少死链对用户以及搜索引擎造成的负面影响。

7,异常跳转:将网络请求重新指向其它位置即为跳转。异常跳转指的是以下几种情况:

1)当前该页面为无效页面(内容已删除、死链等),直接跳转到前一目录或者首页,百度建议站长将该无效页面的入口超链接删除掉

2)跳转到出错或者无效页面

注意:对于长时间跳转到其它域名的情况,如网站更换域名,百度建议使用301跳转协议进行设置。

8,其它异常:

1)针对百度refer的异常:网页针对来自百度的refer返回不同于正常内容的行为。

2)针对百度ua的异常:网页对百度UA返回不同于页面原内容的行为。

3)JS跳转异常:网页加载了百度无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4)压力过大引起的偶然封禁:百度会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制失常时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码中返回503(其含义是“Service Unavailable”),这样Baiduspider会过段时间再来尝试抓取这个链接,如果网站已空闲,则会被成功抓取。

(0)

相关推荐

  • 造成百度蜘蛛抓取网站异常的常见原因总结

    Baiduspider爬行异常的常见原因是网站不稳定,Baiduspider在尝试连接到您网站的服务器时暂时无法连接,可能是您的网站IP地址错误,或者是百度蜘蛛被域名服务商封禁.有些网站的内容用户可以 ...

  • 吸引百度蜘蛛抓取的方法

    操作方法 01 8.内链建设 蜘蛛的爬行是跟着链接走的,所以内链的合理优化可以帮助蜘蛛抓取到更多的页面,促进网站的收录.内链建设过程中要给用户合理推荐,除了在文章中增加锚文本之外,可以设置相关推荐,热 ...

  • 网站如何更好的被百度蜘蛛抓取呢?

    操作方法 01 现在有哪些方法可以增加百度蜘蛛的收录? 1.网站及页面权重 这个肯定是首要的了,权重高.资格老.有权威的网站蜘蛛是肯定特殊对待的,这样的网站抓取的频率非常高,而且大家知道搜索引擎蜘蛛为 ...

  • 网站显示蜘蛛抓取异常的原因

    有些页面出现百度蜘蛛"抓取异常"的提醒,个别页面抓取异常是正常的,但是大量内容无论内容质量优质与否都无法正常抓取就有问题了.这时搜索引擎会认为网站的用户体验不达标,对网站产生一系列 ...

  • 一键抓取网站图片(如何抓取网页上的图片)

    企业在网站建设时,很多同时也做了手机端的网站,为了丰富网站的版面和内容,给网站添加了大量的图片做美化.网站的图片是一个网站能给用户最直观的信息表现,而对于搜索引擎而言,蜘蛛在随机抓取网站图片时候的识别 ...

  • 图解利用Web Scraper 抓取网站数据

    本篇将和大家介绍利用Web Scraper 抓取网站数据,希望对大家的工作和学习有所帮助! 操作方法 01 Web Scraper插件安装和界面介绍,参考如下经验. 02 打开了 hao123 页面, ...

  • Excel如何抓取网站数据并设置自动更新实时数据

    网站发布的实时数据,往往是我们进行统计分析的重要信息源. 但是,每次都要 复制网站上的数据然后粘贴到Excel,这样操作会比较繁琐. 其实,我们可以通过设置,实现 让Excel自动抓取网站的实时最新数 ...

  • 一键抓取网站图片(在线网页图片提取)

    爬取网页图片,怎么爬取网页图片,大家一看到爬取应该就想到python.但是为了爬取一些数据,花上几个月的时间去学习python编程技术,时间也浪费了还不一定能爬取成功.今天给大家分享一款免费的免费爬取 ...

  • 一招教你禁止百度蜘蛛收录动态链接

    在使用百度蜘蛛时,如何禁止其收录动态链接呢?方法很简单,下面小编就来为大家介绍.方法一:1. 第一种方法需要我们使用robots.txt屏蔽百度蜘蛛抓取下图所示页面.2. 屏蔽效果如下图所示:3. 除 ...