配色: 字号:
导致网站收录不稳定的原因有哪些?
2012-09-19 | 阅:  转:  |  分享 
  
导致网站收录不稳定的原因有哪些?

深圳网奇网络营销公司认为最近几个网站都遇到了收录不稳定的情况。经过整站的分析后发现,站点现在和过去存在了很多的异常情况。今天收录明天就消失属于是一种权重低而导致的情况,想要解决这类的情况,就只有做到每日更新更多的原创的文章。在今天我分析我站点的时候发现了几个异常的问题,有一个目录文件夹下的内容和现在网站整站的内容一模一样,而且搜索引擎都有收录,从这一点可以判断出搜索引擎对重复内容特别重视。然后及时将该文件夹做了一个301跳转,不过稳定了一段时间,但是后期在这些内容搜索引擎渐渐的消除的时候就遇到了这类的情况,总结了一下分享给大家。

一、网站外链不稳定

众所周知,网站收录量的高低跟外链是有着必不可分的联系。个人认为,咱们在做外链时,大部分都是使用首页的链接,而很少使用其他页面的,这样使得蜘蛛老是爬行到网站首页重复抓取一些抓取过的内容。久而久之,蜘蛛肯定会对网站失去了爬行的兴趣。毕竟大家都知道蜘蛛是喜新厌旧的,而且如果网站外链同样的不稳定,自然跟着而来的收录量也不会稳定了,这是一种决定收录量的常识。就如笔者的小站一样,通过外链的历史记录可以看出,外链一直都是反反复复的跳动,根本就没有一点稳定性可言。笔者认为网站收录量反复无常,其实跟外链的不稳定有很大的关系,当笔者的网站外链上升时,网站收录量也跟着上升,当下降时同样也跟着下降。所以笔者觉得收录量不稳定跟外链不稳定有一定的关联的。

二、网站无效链接过多

许多站长不明白自己的网站明明外链和空间都非常稳定,但是收录量就是时而升时而降的,其实跟收录量有关的另外一个因素就是网站的链接,一条无法让蜘蛛顺利爬行的链接自然就无法被抓取。所以,如果你的网站无效链接或死链接过多,同样也让网站收录量上不去。个人认为,如果一个网站存在十条以上的死链接,那么就相当于让蜘蛛爬行了十次的断头路,而且同时也让蜘蛛对网站产生了十次的不满意,严重的降低了网站在搜索引挚眼里的形象,所以说,当你的网站收录量反反复复上不去的时候,仔细的检查自己的网站是否有无效链接,有没有做好屏弊引导的设置,一般都是采用ROBOT.TXT、301重定向和404页面引导。

三、内容质量低采集内容居多

现在很多的程序都带有这样那样的采集功能,原因是为了方便站长更新网站内容,却不曾想到蜘蛛非常反感采集的站点,一般而言,采集内容对于新站快速被收录是有帮助的,这点笔者非常赞同,但是如果是长期的以采集来更新网站内容的话,那么当蜘蛛发现你的网站内容与自己数据库中的内容存在相同的时候,自然你的收录页面就会被删除,因为凡事都有先来后到的原则,而搜索引挚判断哪一篇是原创的都是以第一收录时间为准的,如果你的内容被别人转载了,而自己的没收录别人的收录了,那么你的就会被当成是采集的,然而很多时候,站长对于收录量反复无常更多的怪罪于外链身上,其实最主要的原因还是内容。蜘蛛喜欢原创的、有价值的内容,而对于采集而来的内容则是抱以丢弃的态度。所以说,对于网站收录量不稳定,笔者建议站长检查一下自己的内容的质量,同时看看自己更新内容时是否采用采集的方式。

四、主机空间不稳定

深圳网奇网络营销公司认为空间是网站正常运营的载体,同时也是影响蜘蛛能否爬行进入网站的唯一要素。然而很多时候咱们在分析网站收录量不稳定的原因时,常常会忽略了空间这个关键要素。空间是否稳定对于收录量的高低影响非常大,如当蜘蛛爬行到网站门口时,却怎么也进不了网站内部抓取内容,而且每当搜索引挚更新数据库时,你的页面链接无法访问,那么搜索引挚首选的删除对象之一了。还有主机空间不稳定时,当用户在搜索引挚结果中进入你的网站后,等待了漫长的时间都无法获取内容的显示,这样统计工具会把用户的IP统计进去,而如果你使用的是百度统计的话,那么百度就会按照其统计中的数据来判定网站的用户体验,正因为空间的不稳定而使得用户跳出率高,自然搜索引挚也同样会以此为理由判定网站内容没有价值,同时这样的页面百度是不会收录的,即使开始收录了,当发现内容无价值这一点后,都会被删除的,如此一来网站收录量就会下降。所以说,保障空间的稳定就是保障网站收录量不下降的前提基础。



来源:http://www.cyseo.org,中国SEO视频教程第一品牌

本文版权归于深圳市网奇网络科技有限公司所有,欢迎转载,请注明作者和出处,谢谢!专业提供:SEO培训,SEO网站优化。咨询电话:400-6333-073
献花(0)
+1
(本文系卡也加首藏)