第一,检查我们的robots.txt文件。我也见过很多人,包括我在内之前都认为robots.txt文件没有用,其实还是非常有用的,这个文件可以控制蜘蛛的爬行,可以阻止一些不必要的文件爬行,直接让搜索引擎获取我们网站的主要内容。进而可以提升网站的必要权重页面。
; b3 @$ b h# Z% Y% {第二,检查比较差的点击率页面。我一直比较推崇每一篇文章都要认真去编辑,而不是通过采集的方法建站。因为我们在编辑每一篇文章的时候都是有重点的去做某一个关键字,我们可以查看所有页面的点击率,太低的话说明还不够完美。是内容布局问题,还是关键字密度,是外链接不够,还是关键字设置问题。我们需要对这些点击率较低的文章编辑,调整。
4 v2 }0 m" G4 d第三,域名是否301定向。这也是权重的一部分,很多人也比较忽视这点。其实,WWW与不是WWW的网址打开是不一样的,理论上是2个网站,对于搜索引擎爬行来说,也会认为2个网站,会影响网站权重。我们需要定位自己用WWW还是不用,然后进行301定向处理。集中权重到一个域名。 % V; [& w6 n5 L2 y- v6 Q) l( ^
第四,是否404处理。尤其是我们网站改版后,有很多错误页面不存在,这些都需要我们进行404处理。如果你不去处理,不存在页面在一定时期将会从索引中删除,同时,也会降低蜘蛛的爬行周期,认为你的网站已经删除。我们需要进行404页面,告诉搜索引擎我们改版了,现在有其他新的页面。
& ?; F5 G. x6 j N$ Y7 f" Z. D第五,重复页面处理。GG有这样的工具,可以检查我们有重复的标题页面等。最近我也在检查这个问题,我们公司的网站收录一直停滞不前,主要原因是编辑人员的更替,之前更新过的内容标题还在继续更新,所以同标题的网站需要进行处理掉。
3 m) B* g6 C! a D6 S" ~8 l第六,检查友情链接。友情链接是提高权重的主要方式之一,我们需要定期检查是否有别人撤掉我们的链接,以及我们需要检查对方的网站是否被降权,如果有其他变动,需要及时调整,沟通。我们也不要轻易撤掉别人的链接。即便他们现在的网站比我们低质量,也不要撤掉,因为在一定程度上还是有很大影响的。 5 x. `3 I6 p6 X& @
第七,检查链接的唯一性。这里做个比方,我们在有些时候做链接或者内链接的时候,会用到直接的网址,有时候会用到网址后面+INDEX.HTML这样的,或者说有些时候目录后面不带/标识,有些时候又带上。这样做法是错的,我们需要统一规范,开始用哪个就用哪个,不要改变。 ! `: x6 Q; P7 r. D
第八,同IP网站。有些时候同IP下的其他网站降权也会影响到我们的网站,一般不会的。除非服务器IP中有一个特别严重问题的网站惹火了搜索引擎。 4 q0 O; D/ O0 O* k
等待补充。。。。 |