有时候我们做SEO,光顾着做好结构跟链接,可能没有去注意到一些细节问题,比如网页的加载速度,这也是萧涵今天要谈的话题。
我们知道,一个服务器或者虚拟主机所分配的资源是有限的,如何让搜索引擎蜘蛛能够最大化地抓取页面,网页的加载速度就有着直接的影响,如果速度很慢的话,会让蜘蛛浪费大量的时间在这个加载过程中。如果从蜘蛛的角度来了解,从用户体验来说也是同样的道理,用户不会愿意花很多时间去等你的网页打开的。
虽然网页的打开速度对有网站排名没有直接影响,但还是有很好的促进作用。如果网站速度慢,势必影响用户体验度,自然会影响排名;而对应的蜘蛛抓取效率不高,那么就影响着网站的收录,大量页面未被抓取到,收录就少了,什么长尾关键词优化啊等等,都成浮云了。
这些都是可以用数据来证明的,擅长分析日志的同学应该能注意到这点。对于网站速度的优化,我以前也写过类似文章,总结了10个方法,这些都是基本的前端代码的优化,这也是我建议学习SEO的朋友都需掌握的技能。
另外,除了对于基本代码的优化,我们还可以使用服务器端的GZIP来压缩文件,也就是说,在服务器上的网页,传输之前,先使用Gzip压缩再传输给客户端,客户端接收之后由浏览器解压显示,这样虽然稍微占用了一些服务器和客户端的 CPU,但是换来的是更高的带宽利用率、更快的网页加载速度,而且对于纯文本来讲,压缩率是相当可观的。
我之后会写一下关于如何使用GZIP来压缩网页,效果很明显哦,能压缩60%以上。
再提一点,就是关于上面提到的一个服务器的资源有限,对于蜘蛛的抓取也是有限制的,我们可以通过分析日志,会看到很多一些没听过的,或者基本很少用的搜索引擎蜘蛛也在爬行,我们完全可以将这些蜘蛛屏蔽掉以节省带宽,而相应地就会提高其他蜘蛛的爬行量了。屏蔽蜘蛛的方法是在robots.txt文件中另起一行加入如下代码:
- User-agent: 蜘蛛爬虫名称
- Disallow: /
当然,最终能不能收录,这个还得建立在高质量的内容和良好的内部链接结构的前提下。
【编辑推荐】