写了robots协议,官网收录竟然出问题



一度被泛域名解析困扰,在朋友的指点下,就写了个robots协议(首页次写这个协议)。
官方网站由于是动态数据静态生成,当时就想:就只让搜索引擎访问.html网页文件,结果没想到这个协议写出来之后,搜索引擎快照上显示出来本站有robots协议限制。
收录好像还下降了,我赶紧把协议从新写了下。
不知道我的网站会面临什么命运,一般写robots协议,对网站是没有什么影响的,可能是我写的协议太苛刻了。
感想:
如果不懂robots协议,千万不要随便写,就算你是一位网站建设优化告诉,写这个协议也要注意,因为一旦语法错了,整个站会面临毁灭行打击。
做网站建设优化的人都知道:robots用好了对网站的排名有很大促进作用,特别是对重复页面的收录有很好的控制作用。
这次的教训让我明确的知道:我必须用好robots协议。
只有好好研究下这个东西,才能在网站建设优化中让他发挥巨大的作用。
亲们,一定要记住,如果不懂robots协议的作用及写法,千万不要自作聪明去写这个协议。
南京网站建设公司郑重提醒您。



prev:不能因为网站建设有关键词排名就认为网站好   |  next:网站建设关键词排名果然还是下降了啊!