一个页面被重复收录了几次,这样并不利于网站优化和提升网站权重排名。最多也只能增加收录量,但是并不长久。而且还会影响到网站的质量。同样的一篇文章重复收录了三次,这样一来就会把网站的权重给分散了。所以,对于这样的问题,站长不应该把它想成重复越多越好,这样可以增加收录量,其实这真的有用吗?就像物以希为贵一样,珍珠为什么这么贵原因是比较稀少,如果大规模普及的话还会贵吗?而对于这种情况的解决方法有以下几点:
1、利用ROBOT屏蔽其他网址
每个网站都会带有两个网址,特别是一些要生成静态的网站,本身就存在一个动态的,自然生成静态后就会多出一个网址,这样当这篇文章收录了,两个网址也被收录了,这就是为什么有时候,明明自己更新三篇的却收录六篇甚至更多,这里面搜索引挚把其中同一篇文章的两个网址看作是独立的,自然就两个都被收录了。其实很多时候,站长都希望自己的网站收录多,但是同样的文章重复几次的收录,对于网站优化确实存在一种增加收录的现象,但是过不了多久,同类的就会删除掉,毕竟一样的内容存在搜索引挚数据库中只会占用空间,所以,这就是为什么今天收录了那么多,过几天又没了的原因了。针对这样的原因,利用ROBOT屏蔽掉动态的就行了。
2、及时的清除缓存
缓存主要是因为空间的设置不当或者是空间的性能不咋样,因为性能好的空间不会存在缓存,而且因为存取的速度快,自然就不会存在缓存一说了。很多的空间都会带有这样那样的缓存机制,对于一个秒收的网站来说,缓存不及时清除只会让搜索引挚把同样的一篇文章收录多次,因为一开始你添加完成后自然就会在空间上留下编辑的缓存,而当你全部更新完后,再生成静态或者伪静态的,又会出现一次缓存,而生成后又是一个网址。这样一来就会出现三个网址了。而且有些程序还会自动保存的,自动保存就是备份当然就会存在缓存了,要不然怎么恢复呢。所以,对于这样的缓存不及时清楚,那么当蜘蛛爬行的时候,会连同这些一并抓取,自然就产生重复收录多次了。所以,及时的清除缓存对于解决页面重复收录是有帮助的。
3、利用网站地图引导蜘蛛
蜘蛛爬行是首先爬行ROBOT文件,然后接着就是网站地图,再者是首页。那么通过给网站设置地图不但可以减小网站重复收录的现象,而且还让蜘蛛爬行更加的顺畅。都知道网站让蜘蛛爬行顺畅时自然给予搜索引挚一定的好印象。说明网站具有稳定性和通畅性。很多站长对于网站地图不在意,其实网站地图就像大厦的平面图,让蜘蛛一看就知道网站的全部内容,自然抓取起来就方便多了,而且拥有一个完整的网站地图,并且每次更新后生成一次地图,对于网站本身就拥有一定的帮助。而通过地图可以有效的减少重复收录的情况。所以,网站地图的作用不单单是把整站的内容进行归纳,而且还可以让蜘蛛爬行更加的顺畅无阻。减少页面重复收录那是一把好手。