所有的竞争对手都出现在搜索结果当中,而自己的网站在他们的前面,这是站长们最为得意的时候。反之,当竞争对手全部出现在搜索结果,而自己的网站好象从来就不存在一样,相信前面放着一堆金子,站长也笑不起来。
这就是被搜索引擎封杀的结果,江湖间所有人闻之色变。被搜索引擎封杀的原因有很多。
有相当规模的站点,莫名其妙被封杀,站长有苦无处申诉,这种网站,像一个被世人所遗弃的孤儿,在一个不为人知的角落,也许永远默默无闻。
其实网站被封杀后站长可以想办法解封。网上也流传不少关于解封的资料和方法。但是结果往往是,有人可以解封,有人总是解封不了。
我想,以下这个个案可以为站长解封提供一种方法。在下抛砖引玉,希望大家多多指正。
前段时间,一家颇有规模的华南基地企业,因为企业网站被搜索引擎封杀问题找到我们。 Chinaz~com
根据客户的介绍:网站前几年就做好了,一开始索引擎收录正常。过了段时间,不明不白就找不到站了,包括百度、谷歌、yahoo等。
搜索引擎是非常公平的,它不会针对某一个个体。企业网站被封杀,应该没有过多复杂的原因。根据我们以往的经验及综合了解,网站存在以下几种问题:
一、是head文件有问题,<Robots Meta>和robots.txt文件存在且不规范。
二、keyword有过度吹捧嫌疑,而且关键字重复较多。类似<meta name="keywords" content="关键字a,关键字b,关键字a,关键字b">
三、首页弹窗过多。
四、主机不太稳定。速度慢,信号有时掉包。 五、最有可能是主机上曾经被挂马。。据悉,后来发现并清除。但几年来还是一直被谷歌、百度长期封杀。。。
搜索引擎主要是从用户角度和利益出发的,而不是从站长的角度出发。我们也循这个途径找出解决问题的办法。
第一件应该做的就是客观地检查,并重新修正关键字。
搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots。txt,如果找到,搜索机器人就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。没有robots。txt和Robots Meta,搜索引擎默认是全部搜索的。因为该网站上没有私隐页面,原来使用的robots。txt文件和Robots Meta标签,我们全部删除。
二、同时配合网站的内容更新,适当优化SEO,添加网站目录和友情链接,增加内链和外链。三、清除过多的弹窗。最多控制在两个弹窗以内。搜索引擎抵制木马,对<iframe> 和js有一定的敏感,如无必要,少用慎用。
四、更换稳定的主机空间,保证网站有一个持续稳定的运行条件。
五、重新登录各大搜索引擎。到各个入口重新提交网站信息。
六是将网站登陆到一些有重大影响力的门户目录,如国内门户信息港和亚马逊目录,中国站长站等,尽量争取更多的登陆和曝光机会。
google排名 google推广 网站优化
信息网址:http://www.khcha.com/ziyuan/view10741.htm