如果我们从搜索引擎蜘蛛的角度去看待一个网站,其在抓取、索引、排名时会遇到哪些问题呢?解决了下列问题的网站设计就是搜索引擎友好的网站设计。
1.搜索引擎蜘蛛能不能找到网页
要让搜索引擎发现网站首页,就必须要有外部链接连到首页,找到首页后,蜘蛛就能沿着内部链接找到更深的内容页,所以要求网站要有良好的结构,符合逻辑,并且所有页面可以通过可爬行的普通HTML链接到达。JavaScript搜索引擎不一定会去执行,里面的链接就不能被跟踪爬行,就会造成收录问题。
网站所有页面与首页点击距离不能太远,最好控制在四五次点击之内。要想被搜索引擎收录,页面需要有最基本的权重,良好的网站链接结构可以适当传递权重,使尽量多的页面达到收录门槛。
2.找到网页后能不能抓取页面内容
被发现的URL必须是可以被抓取的。带有过多参数的URL、Session ID、整个页面是Flash、框架结构(Frame)、可疑的转向、大量复制内容等都可能使搜索引擎对其敬而远之。
某些文件站长可能不希望它们被收录,除了不链接到这些文件,更保险的方法是使用robots文件或meta robots标签禁止抓取或索引,这两者在使用和效果上又有细微差异。
3.抓取页面后怎样提炼有用信息
关键词在页面重要位置的合理分布、重要标签的撰写、HTML代码精简、起码的兼容性等,可以帮助搜索引擎理解页面内容,提取有用信息。只有搜索引擎能顺利找到所有页面,抓取这些页面并提取出其中真正有相关性的内容,网站才可以被视为是搜索引擎友好的。关于网站结构的优化,有一句话非常精辟:“良好引用,良好结构,良好导航”。
标签: 企业网站设计 搜索引擎优化 网站优化