企业网站建设中,很多站长认为收录越多越好,特别是在初期,很多站长都把对方的网站的收录量作为网站质量的评价标准,认为一个收录率高的网站通常是搜索引擎喜欢的网站。在很多情况下,特别是百度算法更新的时候,我们会发现,一些流量极其不稳定往往会导致排名上下起伏,这也严重导致网站权重,而造成这个问题的原因无疑是因为网站上存在大量的低质量页面,其实我们不能根据网站的流量来判断网站的健康状况,减少一些网站的低质量页面,更有利于网站的发展和生存。
一、减少网站中的一些重复页面
我不知道你是否读过百度的优化指南,如果你有,我相信你会知道,在指南中有一页明确的指示。如果有其他不同的URL链接,搜索引擎蜘蛛会选择其中一个作为主要标准,其他相同页面的URL链接也会收录,但这些重复包含的页面面对面对搜索引擎非常不友好,甚至会让他们认为你的网站是低质量的。当然,有很多方法可以解决这个问题。例如,我们可以使用robots文件来封禁这种重复的URL地址,告诉蜘蛛不要抓取这些地址,或者使用跳转的形式将一系列URL跳转到我们自己设置的页面。
网站收录量减少对网站是有利的还是不利的?
二、删除一些对搜索引擎不友好的页面
在网站的每一个生命周期中,死链往往是可见和不可避免的。例如,如果我们删除一个列表页,并且文章页面的一部分有该列的链接地址,则需要删除这些链接。另一个我们需要注意的是,不管这些链接是否收录在搜索引擎中,我们都需要对它们进行屏蔽,因为很多时候,搜索引擎中抓取的一些页面不会立即得到展现,而是会在一定的更新期后才会给予展现,所以屏蔽它们对我们是有益无害的。
三、封锁一些不必要的后台中心
每个网站都有自己的后台中心页面,还有会员系统页面等,这些页面对于搜索引擎来说都是无用的,也就是说,质量不高的页面,所以屏蔽这些页面,不要让搜索引擎抓到它们是非常重要的。
四、而且针对上面的问题我们要先了解搜索引擎的抓取够工作原理是什么?
搜索引擎对互联网中内容的抓取是依靠“蜘蛛(spider)”或“机器人(robot)”的程序,沿着网页上的链接从一个页面到达另外一个页面而抓取内容的。所以我们想要让“蜘蛛(spider)”来抓取我们的网页上的内容,那么必须要能够吸引“蜘蛛(spider)”来到我们的网页上面,了解“蜘蛛(spider)”的习性和喜好。
“蜘蛛(spider)”比较喜欢具有以下特征的内容:
①可以识别文字,不能识别图片和flash;
②喜欢爬行网站权重高的网页内容;
③喜欢页面是原创的内容;
④喜欢更新频率高的网站;
⑤喜欢页面层级少,网页结构扁平化便利抓取;
⑥根据页面的连接数来爬行到网页来抓取内容。
根据以上“蜘蛛(spider)”的习性和喜好来针对性的解决网站没有收录的问题。
解决方法如下:
①因为新网站肯定是没有网站权重的,所以我们需要更多的规律性的原创内容更新;
②因为是新网站外部的链接几乎可以说是没有,那么蜘蛛是根据链接来爬行的,我们需要进行相关部分外链来引导蜘蛛抓取网页内容;
③多在网站上发纯文字相关的内容,可以每篇文章附带一张图片;而不要发布纯图片的内容;
④网站的网页结构扁平化处理,最好可以在三个层级以内,便利于蜘蛛抓取网站更多的内容。
肯定事实上,不管是什么样的网站,并不意味着它收录的内容越多越好,特别是当今的搜索引擎对网页质量的要求越来越高。那些质量较低的网页就像是我们网站发展的炸弹,随时可能爆炸,导致我们的网站降权,以上谈了这么几点,相信大家也蠢蠢欲动,那么就赶快操作一下自己的网站吧!具体的操作方法已经告知了客户,一般情况下一周时间的坚持不断的优化和改进就可以有收录了。如果大家有收录不好的的网站,可以按照此方法进行操作实践一下。
本文部分素材转自网络,如有建议,可与我们联系。
专业的事情交给专业的人来做,江门市华企立方科技有限公司:www.ec0750.com,是一家以云架构和优化建站技术为支撑的互联网企业级基础应用服务商,产品包括:全网营销平台(祥云平台)、网站建设系统、移动端开发、微信应用系统、微信小程序、企业邮箱、服务器托管、SEM和SNS推广、外贸多语种GOOGLE优化推广和Google adwords推广等软件,欢迎各界咨询合作。