发现插件生成的robots.txt不能被谷歌和360识别

上次通过《正确的 Win 主机网站伪静态设置方法》重新设置了玛思阁的伪静态,当时由于使用 Rewrite robots 没有效果,就安装了一个生成 robots.txt 的插件,然后发现访问 robots 地址也有了指定的内容。几天却发现 360 全部被 K,仅剩首页,而谷歌也不再收录新页面,一直以为是我的 robots 内容有误,于是搜来搜去,改了无数次 robots 内容。谷歌在【已拦截的网址】选项中总是显示【语法有误】,在 sitemap 提交界面也用英文提示“所有内容被 robots 拦截...”云云。但是百度却未受影响,开始收录玛思阁的文章了。。。

发现插件生成的robots.txt不能被谷歌和360识别

发现插件生成的robots.txt不能被谷歌和360识别

今天闲下来了,决定解决这个疑难杂症!于是我去复制了别人正常收录的 robots 内容,然后贴到 robots 插件中生成新的,结果发现在谷歌 sitemap 提交时依然提示全部被拦截!我勒个去,这明显说明问题出现在插件上了!但是使用插件生成了 robots,百度站长平台检测又是没问题的,真是纳闷!

于是重新去查 Rewrite 规则相关资料,并通过 UE 编辑器重建 httpd.ini 文件,新增了内容:

RewriteRule /robots.txt /robots.txt [L]

删除 robots 插件之后,发现可以访问自定义的 robots 了!以前 httpd 里面也有这条规则,就是不生效!难道是编码错了么?

重新编写 robots.txt 上传后,再到谷歌提交 sitemap,发现问题已解决:

发现插件生成的robots.txt不能被谷歌和360识别至于效果,可能要等几天再去查看下收录情况了!

下面贴一下我的 httpd.ini 和 robots 内容,以供参考:

httpd.ini

robots.txt

robots 内容暂时先这样了,以后观察收录情况再来修改。

另外,不知道各位有没有设置过更新服务【WP 后台=>设置=>撰写】,在我搜索 robots 的时候看到了别人提供的博客更新通知列表,管它有没有用,先加上再说:

发现插件生成的robots.txt不能被谷歌和360识别

 

RPC 更新列表如下:

评论已关闭!