共计 1246 个字符,预计需要花费 4 分钟才能阅读完成。
俗话说:常在河边走,哪有不湿鞋。很多站长在网站优化的时候经常打擦边球,这就造成了站点被搜索引擎惩罚。要想知道站点为什么会被搜索引擎惩罚,恢复其原有排名,必须搞清楚这个站点之前的优化内容,网站的各项参数情况。下面就给那些因为不小心被搜索引擎惩罚的站点介绍一些妙招,来解救被惩罚站点。1. 观察服务器上别的网站 搜索引擎一般是不会因为你服务器上有作弊网站而惩罚你站点的,但是现在作弊的网站数目庞大,如果一个服务器上大部分站点都是作弊站点的话,那么你的站点很容易就会被其连累。如果该服务上很多站点都有问题,那么趁早换服务器吧。2. 网站是否做了 301、JS 转向 一般来说 301 转向,JS 转向都有可能被搜索引擎认为作弊,哪怕你是无意的。如果网站上存在大量的转向,请尽快删除。一个好的站点根本没有必要使用转向来实现其应有的功能。3.meta 代码是否有 noindex这个错误看起来一般都人不会去犯,但是往往有些人容易忽略这些细节。这些代码的存在是阻止搜索引擎对你站点的抓取,阻止你网站权重的输出与导入。一旦出现了这个代码,很可能是竞争对手加上去的,找到之后立马删除。4. 彻底检查网站有无过度优化 要想查看网站是否过度优化就要观察站点是否堆积关键词、有意向的加内链、锚文本过度集中、页面是否出现作弊的链接。一旦有过度优化的地方,一定要去减少这些部位的优化手法。大部分关键词排名下滑就是因为网站过度优化造成的。5. 服务器头信息检测 很多时候用户访问我们站点显示正常,但是搜索引擎访问我们站点的时候,服务器返回的头信息可能存在问题,站长们可以通过一些模拟蜘蛛访问自己的站点看看是否显示正确服务器头信息,还可以检测网站是否被黑。6. 删除重复内容 大部分站长都做过转载抄袭的工作,这会生成大量的重复内容。这对网站的收录排名影响很大,加强原创内容是一个网站优化工作中的重中之重。7. 可疑链接的定向扫描与清除 友情链接数目过多、页脚的内部链接、不相关行业的链接、交叉链接等。这些链接看起来不算很严重的作弊手法,但是一旦很多种链接并存就可能是 1 +1>2 的效果。这极有可能让你的站点一下子触碰搜索引擎的底线。8.robots.txt 是否出现问题 这一点常常导致网站被搜索引擎惩罚,当一个网站被搜索引擎连根拔起的时候,很大程度就是因为 robots.txt 文件的问题。9. 要做到以静制动 如果你确定自己的网站没有任何作弊手法,排名却无缘无故的下降的话,那么最好不要毛毛躁躁的去修改网站的内容,先观察一段时间。网站排名下降也有可能是搜索引擎算法更新所造成的,数据库不稳定的情况也常有发生。真正为用户做到网站是不会在意搜索引擎的看法的,一旦你的网站有一点风吹草动就去修改的话,那么搜索引擎就会认为你是为网站优化而做的网站。10. 该松手时就松手 根据很多站长的经验,一旦被搜索引惩罚了,那么很难再会恢复了。有的站点需要两年到三年的时间才会恢复。很多时候与其在这转牛角尖,不如换个方向重新设计一个新的网站,退一步海阔天空。
丸趣 TV 网 – 提供最优质的资源集合!