泰州搜狗SEO关键词优化攻略:让你的网站在搜狗搜索结果中脱颖而出

一、搜狗搜索引擎特性
当我们在搜狗搜索框中输入关键词,想找到泰州相关的内容,然后看到搜索结果。深究其背后的逻辑,搜狗搜索引擎有自己的一套规则。
在搜狗搜索后台,同样存在着一个庞大的数据库,存储着海量的关键词,每个关键词对应着众多网址,这些网址是搜狗程序从互联网上一点一点抓取收集而来的,这些程序我们也可以称之为"搜索引擎蜘蛛"。这些不知疲倦的"蜘蛛"每天在网络上爬行,从一个个链接到另一个链接,抓取其中的内容,进行分析提炼,找出其中的关键词,如果"蜘蛛"认为这个关键词在数据库中没有而对用户有用就会存入数据库。反之,如果"蜘蛛"觉得是垃圾信息或者重复内容,就会丢弃不要,继续它的爬行之旅,寻找最新的、有价值的信息保存起来供用户搜索。当用户搜索时,就能将与关键词相关的网址展示出来。
一个关键词往往对应多个网址,于是就出现了排序先后的问题,相应的与关键词最匹配的网址就会排在前面了。在"蜘蛛"抓取网页内容、提取关键词的过程中,存在一个关键问题:"蜘蛛"能不能理解你的网页内容。如果你的网站充斥着大量的flash和js动效,那么它就看不懂,会感到困惑,即使你的关键词再精准也没有用。相反的,如果你的网站内容是它熟悉的语言,那么它就能理解,这个语言就是SEO。

二、搜狗SEO要点
自从有了搜狗搜索引擎,针对搜狗的SEO优化就应运而生了。
存在的意义:为了提高网页在搜狗自然搜索结果中的收录数量以及排名位置而进行的优化行为。简单来说,就是希望搜狗搜索引擎能够更多地收录我们优化过的网站,并且在用户搜索时让我们的网站能够出现在前面。
分类:白帽SEO和黑帽SEO。白帽SEO,起到了改善和规范网站设计的作用,让网站对搜索引擎和用户都更加友好,并且网站能够从搜索引擎获得合理的流量,这是搜索引擎鼓励和支持的做法。黑帽SEO,利用和放大搜索引擎的政策漏洞来获取更多用户的访问量,这类行为大多是欺骗搜索引擎,一般搜索引擎厂商是不支持也不鼓励的。本文重点讨论白帽SEO,那么针对搜狗搜索引擎,白帽SEO需要注意什么呢?


  1. 对网站的标题、关键词、描述进行精细设置,体现网站的定位,让搜狗明白这个网站是做什么的;

  2. 网站内容优化:内容要与关键词对应,适当增加关键词的密度;

  3. 在网站上合理配置Robot.txt文件;

  4. 制作对搜狗搜索引擎友好的网站地图;

  5. 增加高质量的外部链接,到各个平台进行推广;

三、前端优化细节
通过网站结构布局设计和网页代码优化,使前端页面既能让普通用户看明白,也能让搜狗的"蜘蛛"理解。
(1)网站结构布局优化:尽量简洁明了、直截了当,推崇扁平化结构。
一般来说,网站结构层次越少,越容易被搜狗"蜘蛛"抓取,也就越容易被收录。通常中小型网站目录结构超过三级,"蜘蛛"就不太愿意继续往下爬了,"万一迷路了怎么办"。而且根据相关调研:用户如果经过三次跳转还没找到想要的信息,很可能就会离开。所以,三层目录结构也是用户体验的需求。为此我们需要做到:


  1. 控制首页链接数量


网站首页是权重最高的地方,如果首页链接太少,没有"桥梁","蜘蛛"就无法继续爬行到内页,直接影响网站收录数量。但是首页链接也不能太多,一旦过多,缺乏实质性的链接,很容易影响用户体验,同时也会降低网站首页的权重,收录效果也不理想。
所以对于泰州地区的企业网站,建议首页链接控制在100个以内,链接类型可以包括页面导航、底部导航、锚文字链接等,注意链接要建立在良好的用户体验和引导用户获取信息的基础之上。

  1. 扁平化的目录层次,尽量让"蜘蛛"只需跳转3次,就能到达网站内的任何一个内页。比如:"泰州"->"企业服务"->"网站优化",通过3级就能找到目标内容了。

  2. 导航优化


导航应该尽量采用文字形式,也可以配合图片导航,但是图片代码一定要进行优化,标签必须添加"alt"和"title"属性,告诉搜索引擎导航的定位,确保即使图片无法正常显示时,用户也能看到提示文字。
其次,每个网页都应该添加面包屑导航,好处是:从用户体验角度看,可以让用户了解自己当前所在位置以及当前页面在整个网站中的位置,帮助用户快速理解网站的组织结构,从而建立更好的方位感,同时提供了返回各个页面的入口,方便用户操作;对"蜘蛛"来说,能够清晰了解网站结构,还增加了大量内部链接,方便抓取,降低跳出率。

  1. 网站的结构布局--需要注意的细节


页面顶部:logo及主导航,还有用户信息。
页面主体:左侧是正文,包含面包屑导航和正文内容;右侧放置热门文章和相关文章,好处是:留住访客,让访客停留更久,对"蜘蛛"而言,这些文章属于相关链接,增强了页面相关性,也能提升页面权重。
页面底部:版权信息和友情链接。
特别注意:分页导航的写法,推荐的写法是:"首页 1 2 3 4 5 6 7 8 9 下拉框",这样"蜘蛛"可以根据具体页码直接跳转,下拉框直接选择页面跳转。而不推荐的写法是:"首页 下一页 尾页",特别是当分页数量非常多时,"蜘蛛"需要爬行很多次才能抓取,会很累、容易放弃。

  1. 控制页面大小,减少http请求,提升网站加载速度。


一个页面最好不要超过100k,太大,页面加载速度慢。当速度很慢时,用户体验差,留不住访客,而且一旦超时,"蜘蛛"也会离开。

(2)网页代码优化


  1. 标题:突出重点就好,尽量把重要关键词放在前面,关键词不要重复出现,尽量做到每个页面的标题内容各不相同。

  2. 关键词标签:列出几个页面的重要关键词即可,切记不要过度堆积。

  3. 描述标签:需要高度概括网页内容,切记不要太长,不要过分堆砌关键词,每个页面也要有所区别。

  4. HTML中的标签:尽量让代码语义化,在合适的地方使用合适的标签,用正确的标签做正确的事。让阅读源代码的人和"蜘蛛"都一目了然。比如:h1-h6 是用于标题类的。

  5. 超链接标签:页面内部链接,要添加"title"属性进行说明,让访客和"蜘蛛"都了解。而外部链接,链接到其他网站的,需要加上 rel="nofollow" 属性, 告诉"蜘蛛"不要爬取,因为一旦"蜘蛛"爬取了外部链接,可能就不会回来了。

  6. 正文标题要用h1标签:"蜘蛛"认为它最重要,如果不喜欢h1的默认样式,可以通过CSS来设置。尽量做到正文标题用h1标签,副标题用h2标签, 而其他地方不应该随意使用h标题标签。

  7. 换行标签:只用于文本内容的换行

  8. 表格应该使用标题标签

  9. 图片应使用"alt"属性进行说明

  10. 加粗、强调标签:需要强调时使用。加粗标签在搜索引擎中能够获得较高重视,它能突出关键词,表现重要内容,强调标签的强调效果仅次于加粗标签。

  11. 文本缩进不要使用特殊符号   应当使用CSS进行设置。版权符号不要使用特殊符号   可以直接使用输入法,输入"banquan",选择第5个选项就能打出版权符号。

  12. 巧妙运用CSS布局,将重要内容的HTML代码放在最前面,最前面的内容被认为是最重要的,优先让"蜘蛛"读取,进行内容关键词抓取。

  13. 重要内容不要用JS输出,因为"蜘蛛"无法识别

  14. 尽量少使用iframe框架,因为"蜘蛛"通常不会读取其中的内容

  15. 谨慎使用 display:none :对于不想显示的文字内容,应该设置z-index或将其放置在浏览器显示区域之外。因为搜索引擎会过滤掉display:none其中的内容。

  16. 持续精简代码

  17. js代码如果是操作DOM的,应尽量放在body结束标签之前,html代码之后。

发表评论

评论列表