十堰360搜索排名的那些事儿

一、360搜索排名原理
当我们在360搜索输入关键词,想了解十堰某家企业的信息时,然后得到搜索结果。仔细想想这个过程,360搜索在背后做了不少工作。

在360搜索后台,有一个特别庞大的数据库,里面存放着海量的关键词,每个关键词都对应着很多网址,这些网址是360程序从浩瀚的互联网上一个个抓取过来的,这些程序叫做“搜索引擎蜘蛛”。这些不知疲倦的“蜘蛛”每天都在网上爬来爬去,从一个链接跳到另一个链接,把网页内容下载下来,认真分析提取,找到里面的关键词,如果“蜘蛛”觉得这个词在数据库里没有而且对用户有用就会存起来。反过来,如果“蜘蛛”认为是垃圾信息或者重复内容,就直接丢掉不要,继续往前爬,寻找新鲜、有用的信息保存下来等着用户来搜。这样当用户搜索时,就能把跟关键词相关的网址找出来展示给大家。

一个关键词对应很多网址,所以就有了排序的问题,相应的跟关键词最匹配的网址就会排在前面了。在“蜘蛛”抓取网页内容、提炼关键词的时候,会遇到一个问题:“蜘蛛”能不能看懂。如果网站用了太多flash和js,它就看不明白了,会犯糊涂,就算关键词再合适也没用。相应的,如果网站内容是用它能理解的语言写的,它就能看懂,这个语言就是SEO。

二、十堰360SEO简介
全称:Search Engine Optimization,搜索引擎优化。自从有了搜索引擎,SEO就出现了。

存在的意义:为了提高网页在360搜索自然结果中的收录数量和排名位置而做的优化工作。简单来说,就是希望360搜索能多收录我们精心优化过的网站,而且在别人搜索时网站能排得靠前些。

分类:白帽SEO和黑帽SEO。白帽SEO,起到了改善和规范网站设计的作用,让网站对搜索引擎和用户更友好,并且网站也能从搜索引擎拿到合理的流量,这是搜索引擎赞成和支持的。黑帽SEO,利用和放大搜索引擎的政策漏洞来获取更多访问量,这种做法大多是糊弄搜索引擎的,一般搜索引擎公司是不赞成与鼓励的。本文说的是白帽SEO,那么白帽SEO能做些什么呢?

  1. 把网站的标题、关键词、描述认真设置好,体现网站的定位,让搜索引擎知道这个网站是做什么的;
  2. 网站内容优化:内容要跟关键词对应,增加关键词的密度;
  3. 在网站里合理配置Robot.txt文件;
  4. 制作对搜索引擎友好的网站地图;
  5. 增加外部链接,到各个平台去宣传;

三、十堰企业网站优化
通过网站结构设计和网页代码优化,让前端页面既能让浏览的用户看得懂,也能让“蜘蛛”看得懂。

(1)网站结构优化:要简单明了、直截了当,推荐扁平化结构。
一般来说,网站结构层次越少,越容易被“蜘蛛”抓取,也就容易被收录。普通中小型网站目录超过三层,“蜘蛛”就不太愿意往下爬了,“万一迷路了怎么办”。而且根据相关调查:用户如果跳转3次还找不到想要的信息,很可能就离开了。所以,三层目录结构也是用户体验的需要。为此我们要做到:

  1. 控制首页链接数量
网站首页是权重最高的地方,如果首页链接太少,没有“路”,“蜘蛛”没法继续爬到内页,直接影响网站收录数量。但是首页链接也不能太多,一旦太多,都是没什么实质内容的链接,很容易影响用户体验,也会拉低首页权重,收录效果反而不好。

所以对于十堰的中小企业网站,建议首页链接控制在100个以内,链接可以包括页面导航、底部导航、锚文字链接等等,注意链接要建立在用户良好体验和引导用户获取信息的基础上。

  1. 扁平化的目录层次,尽量让“蜘蛛”跳转3次就能到达网站里任何一个内页。扁平化的目录结构,比如:“十堰企业”-->“机械制造”-->“汽车零部件”、“机床设备”,通过3级就能找到需要的产品了。
  1. 导航优化
导航要尽量用文字方式,也可以配合图片导航,但是图片代码一定要优化,标签必须加上“alt”和“title”属性,告诉搜索引擎导航是做什么的,做到就算图片显示不出来,用户也能看到提示文字。

其次,每个网页都要加上面包屑导航,好处:从用户体验来说,可以让用户知道现在在什么位置,这个页面在整个网站里的位置,帮助用户快速了解网站结构,形成更好的方位感,同时还提供了返回各个页面的入口,方便用户操作;对“蜘蛛”来说,能够清楚理解网站结构,同时还增加了大量内部链接,方便抓取,降低跳出率。

  1. 网站结构布局--不能忽略的细节
页面头部:logo和主导航,还有用户信息。 页面主体:左边放正文,包括面包屑导航和正文内容;右边放热门文章和相关文章,好处:留住访客,让访客多待会儿,对“蜘蛛”而言,这些文章属于相关链接,加强了页面相关性,也能提升页面权重。 页面底部:版权信息和友情链接。

特别注意:分页导航的写法,推荐这样写:“首页 1 2 3 4 5 6 7 8 9 下拉框”,这样“蜘蛛”可以直接按页码跳转,下拉框直接选页面跳转。而不推荐这样写:“首页 下一页 尾页”,特别是分页特别多的时候,“蜘蛛”要爬很多次才能抓取,会很累、很容易放弃。

  1. 控制页面大小,减少http请求,提高网站加载速度。
一个页面最好不要超过100k,太大,页面加载慢。速度太慢时,用户体验差,留不住访客,而且一旦超时,“蜘蛛”也会离开。

(2)网页代码优化


  1. 标题:只强调重点就行,尽量把重要关键词放前面,关键词不要重复出现,尽量做到每个页面的。标题中不要设置相同的内容。

  2. 标签:关键词,列出几个页面的重要关键词就好,切记不要堆砌太多。

  3. 标签:网页描述,要高度概括网页内容,切记不能太长,过分堆砌关键词,每个页面也要有所区别。

  4. 中的标签:尽量让代码语义化,在合适的地方用合适的标签,用正确的标签做正确的事。让看源码的人和“蜘蛛”都一目了然。比如:h1-h6 是用在标题上的。

  5. 超链接标签:页内链接,要加“title”属性说明,让访客和“蜘蛛”知道是做什么的。而外部链接,连到其他网站的,要加上 el="nofollow" 属性, 告诉“蜘蛛”别爬了,因为一旦“蜘蛛”爬了外部链接之后,可能就不会回来了。

  6. 正文标题要用h1标签:“蜘蛛”认为它最重要,如果不喜欢h1的样式,可以通过CSS来设置。尽量做到正文标题用h1标签,副标题用h2标签, 而其他地方不应该随便乱用 h 标题标签。

  7. 换行标签:只用于文本内容的换行

  8. 表格应该使用表格标题标签

  9. 图片要用"alt"属性加以说明

  10. 加粗,强调标签 : 需要强调时使用。加粗标签在搜索引擎里很受重视,它能突出关键词,表现重要内容,强调标签的强调效果仅次于加粗标签。


10、文本缩进不要用特殊符号 应该用CSS来设置。版权符号不要用特殊符号 可以直接用输入法,打“banquan”,选序号5就能打出版权符号。
12、巧妙利用CSS布局,把重要内容的HTML代码放在最前面,最前面的内容被认为是最重要的,优先让“蜘蛛”读取,进行内容关键词抓取。

  1. 重要内容不要用JS输出,因为“蜘蛛”看不懂

  2. 尽量少用iframe框架,因为“蜘蛛”一般不会读取里面的内容

  3. 谨慎使用 display:none :对于不想显示的文字内容,应该设置z-index或设置到浏览器显示范围之外。因为搜索引擎会过滤掉display:none里面的内容。

  4. 不断精简代码

  5. js代码如果是操作DOM操作,应该尽量放在body结束标签之前,html代码之后。

发表评论

评论列表