快捷搜索:  美女    名称  交警  美食

网站被K后如何进行分析、检查、解决

网站被搜索引擎K站,尤其是百度,这几乎都快是站长们的家常便饭,无奈的很。昨天有两个人不约而同来找我分析他们网站被K的原因,分析了不少,那么在这里总计下大致的通用对应思路。

1.首先,用过什么黑帽手法吗?

用过黑帽手法的就不要哭诉了,用黑帽手法不是说不可以,但是一定要事先就有着被惩罚的觉悟才行。所以我一直说,多数情况下,黑帽最好只用于灰色行业这类注重短期利益的行业。

昨天分析的一个网站,单页的淘宝客,为了充实网页上的文字内容(这个思路非常好),使用了隐藏文本,还是很长的一大段。然后一看css,隐藏的方式竟然是display:none,这种初级的作弊手法,被K也怨不得百度。别忘了,百度也是能够抓取css并分析其内容的。

2.页面上(一般主要是首页),有什么关键词堆砌吗?

这种问题大概是最常见的一种。我经常说,关键词密度重要性不大,但是很多人听不到我说的,于是还是执着于堆砌关键词,也是无奈啊。

先看title,重复了多少次关键词?一般重复三次或以下,过犹不及。然后,标题多少字了?不要超出60字符,超出部分本身就没什么权重,还会稀释前面部分的关键词效果,更可能成为惩罚与否的一个因素。

关键词标签,描述标签在堆砌关键词吗?以前一篇文章里面,已经详细讲过meta标签对于排名没用了。倒是不排除,可能会因为在上面堆砌关键词,而受到惩罚的可能性。我的建议是,描述标签多数情况下还是要写的,而关键词标签,如果把握不好优化的度的话,那就最好不要写。

3.蜘蛛是怎么爬行你的网站的?

哪怕平常再偷懒,不看日志的话,当被K站的时候,一定要去琢磨下日志的情况。

第一种情况是,蜘蛛只爬robots.txt,那么就看看robots是不是写出问题了。

第二种情况是,只爬robots,首页,还有少数的几个页面。这种情况目前我看到的,基本算是灵异情况吧,貌似没有很好的解决方法。

第三种情况是,正常爬行,那就跳过这块,蜘蛛爬行没什么大问题了。

第四种情况是,昨天见到的一种情况,蜘蛛爬行了大量的无意义页面,但是文章什么的很少爬。这个问题其实不少见,主要出现在滥用tag标签上面。试想,一篇文章如果出现几个tag标签,而且一堆文章用的都是不同的各式tag,最后导致了收录的tag页面比文章页面还多得多,不出点问题才怪。所以我一直认为,tag最好就别让搜索引擎去收录,除非对于tag的优化已经十分的得心应手了。SEM WATCH上面有着这样一篇:如何在博客或网站上用好Tag?

不过在我看来,tag优化还要再考虑不少才行。由于太麻烦了,所以我就直接放弃了,反正SEO行业也没这么多词要做。对于SEO行业,直接把“SEO”这个词做上去来证明实力就可以了。

4.外链来源是什么样的?

外链的效果,主要看重质量和数量两方面。数量上有一点可以引申出的是,假如数百条外链只是来自区区几个网站的,那么就显得很不自然,有危险性。质量上,如果购买链接,一堆PR6的,反而没有多少PR0的,岂不也是很可疑?

另外,诸如s服来的链接,本身肯定是不太好的。但如果链接里面只有一小部分是此类网站来的,那自然没事,不然陷害竞争对手太容易了。然而多数外链都是来自此类网站的呢?怎么想怎么有问题。

5.上述都没问题,为什么还是被惩罚了呢?

我讲的是几种比较常见的情况,应该另外还有很多因素。还有不要忘记的一点是,搜索引擎很少会用单单某一个因素来决定网站的生死,多数情况下,都是多种因素综合导致的。

最后,实在看不出哪里出问题的话(而且只有百度K你的网站的话),看下国平的文章就明白了。据我目前看到的例子而言,这种最让人无语的情况,还是不鲜见的。

关于网站被K后,如何进行恢复及自查我就说这么多,希望对大家有用,由笔式PH计www.kedida.com.cn原创,转载请注明出处,谢谢!

您可能还会对下面的文章感兴趣: