首页 >
新闻中心 > 浅谈一下影响及做好网站优化的几个因素
浅谈一下影响及做好网站优化的几个因素
更新日期:2013-09-12 浏览次数:3077
已经有很多网友问我如何优化了,不过我一直不清楚如何来写更合适。/st15384/
有好几个原因。首先是,很多知识,我不先介绍一下的话,到时候我写出来大家不容易理解。就如我博客刚开的时候,我就想写《SEO案例:锚文本、关键字、nofollow、Web标准化》这篇文章,但是如果一开始不讲一下为什么要重视锚文本、如何选关键字、nofollow的作用、为什么要标准化的话,很多人可能会觉得我只是讲了一个特别注意细节的案例。所以我会先把google的优势讲明白,把搜索引擎是怎么运作的讲明白,然后才能把如何做优化讲明白。我博客里的很多文章都是从google的角度出发来讲SEO的,但是你都可以思考一下同样的事情要是来处理的话,会如何去解决。
第二个原因就是优化和google优化在技术上有80%是相似的,所以不用特别的区分是优化还是google优化。而且,做一个的SEO工作,那些流程和方法都是一样的。说起相似性,你就可以看到:一个在google上排名很强势的,在上也会有不错的排名。还有,前几年不是一直宣称google侵犯了在超链分析法上的吗,虽然很荒谬,但是可以看出也是注重外部链接的。而且现在还有一个趋势就是,在算法上越来越模仿google。/st15384/
另一个原因就是其他方面的。互联网的圈子其实很小,排名确实有一些技巧,但是我今天在这里说明的技巧,明天大家就不能用了。
总体来说,的优化要比google英文的优化容易得多。现在我主要从事的英文优化,同时也在做部分优化的工作。在上,基本上现在只要特别注意去优化的词语,不是非常热门的话,非推广的搜索结果都排在*了。(但是对于一个大型的话,这样特别注意优化热门词语,会让你丢失掉原本属于你的50%以上的流量。)而我用的一些技巧,都是在英文SEO领域用滥了的技巧。
如果能把英文的SEO做透的话,做的优化感觉很容易。很早以前,在一些SEOer眼里,优化,非推广的搜索结果排在*不是难事,要保持*就很伤脑筋了。接下来谈一下影响你做好优化的几个因素。
1,的搜索技术很糟糕。
不管是在爬虫,还是索引,还是排序算法上都有很多缺陷。比如搜索一个词语,同一个占据前几十个搜索结果,就是一个很低级的错误。而很多大型,也应该被的爬虫把服务器“攻击”得不行了吧。反作弊措施也很初级,所以一大批作弊的照样可以活的很好,对于一贯不作弊来做SEO的人来说,这点无可奈何。这都是技术上的,还有的就是人为的。比如很多认为“影响业务”的,无论从抓取率还是排序上都是被分配了特殊的权重的,导致这些的SEO流量怎么也做不起来。这样被区别对待的有很多,国内好几家包括阿里巴巴中文站都是这样,所以阿里巴巴中文站的SEO流量中,google来的流量反而比高很多。而自己的业务,却被赋予越来越高的权重,甚至自己上很多明显的垃圾页面,照样有好的排名。如:
尽管我是不主张SEO上作弊的,但是如果是小在上作SEO,在注意的一些反作弊措施下,就适当用一些方法吧。
2,服务器效率低
滕州北方机床《googleCaffeine(咖啡因)更新了什么》揭示了数据中心的效率是搜索引擎的命脉。而的数据中心无疑是没什么亮点的。经常性的当机和数据丢失,使国内的很多做SEO的人以为是自己的有了作弊问题而从搜索引擎消失了。一个大型的服务器集群,管理起来特别考验一家公司的技术实力。管理数据中心很像“打地鼠”的游戏,这边几个当掉的服务器刚刚解决,那边又有服务器当机了。google在这方面也遇到过很多问题,得益于他们的技术能力,现在都得到了不错的解决。虽然也有数据丢失,但是平均每份数据都有2份备用,所以在上出现的那种突然大量收录消失了的状况,在google上是很难见到的。/st15384/
我经常看到很多人对于在上的收录量患得患失,其实很多时候,都不是因为处罚你。而是他们自己出了问题。
3,反作弊措施
无论还是google,SEO要做得好都要从这个搜索引擎的角度来看待你做的SEO优化工作。在上作SEO,心里要时刻想着它有可能会用什么样的反作弊措施来检查你的。这个是在上做好SEO的秘籍。
举一个我操作过的案例:/st15384/
以前给一个国内比较有名的做SEO,因为比较遵守这条规则,把总的SEO流量从6万做到267万。(之所以流量翻了40多倍,还有一部分原因是他们以前喜欢用ajax技术,妨碍了收录。)后来流量一下子又降到了30万左右,因为那个公司有特殊的渠道,得到了内部的意见说优化过度,我当时特别纳闷怎么就优化过度了。后来就想,如果我是的话,我会如何判断一个优化过度呢?从国内那时的SEO现状来看,我会这么判断:因为每个做SEO的人,基本上都会去改title,keywords,description。那我首先设置一个过滤条件,就是把那种每个网页上title,keywords,description都写了大量内容的特别对待,因为这些有了SEO的企图,所以也会在外部链接等等其他因素上作很多优化的动作的。这种被列入嫌疑的,只要流量有异常的大量增长,就开始严格清理。那个,在其他方面都无异常,甚至没有在title,keywords,description重复一次关键词,每个网页,keywords,description都是写了很丰富的内容的,当时为了写这些内容还花费了大量的时间,因为每个网页都要写得不一样。
想清楚了这个,我就把那种能不写keywords,description的就不写。甚至做了一个很大胆的决定,就是所有的网页都不写keywords。因为我如果是的话,我不会考虑把keywords作为影响排名的因素的。description之所以不抛弃,是因为在搜索结果里,人还是需要阅读到的。这样改动后一个月,流量就恢复了,直到我离开那家公司前,SEO流量都还稳定在200万以上。
因为这篇文章实在是罗嗦了,以后再讲一些其他案例。不久前MattCutts在博客里也说google不把keywords不作为排名的因素。如果你在*线实践的话,这些东西早就知道了。我以前就想把这个写出来,没想到MattCutts抢先说了。
4,人工干预
是一个很仇视SEO的搜索引擎,在他们眼里,SEO妨碍了他们的收益。这与我在《怎么样去学SEO》一文中提到的google与共赢的策略*相反。google也有人工审核,但是是奔着处理作弊而来的,而且尺度还很宽松的。的人工干预会让你在做一些热门词语的时候非常麻烦,这点就不多说,大家都经历过。
这4个影响你在上作SEO的因素都是客观的。还有一个因素就是竞价排名,但是这个在慢慢消退。
不过还是可以在上把SEO做得很好的,那就是整体把握一个的策略,方法。SEO应该做的是给带来利益,要在各种条件和资源的限制下,把的利益zui大化。这是才是一个SEOer应该追求的目标,而不是今天有多少收录,哪个热门词没有排上去等等。我还是慢慢一个个的讲吧。