发现插件生成的robots.txt不能被谷歌和360识别

上次通过《正确的Win主机网站伪静态设置方法》重新设置了玛思阁的伪静态,当时由于使用Rewrite robots没有效果,就安装了一个生成robots.txt的插件,然后发现访问robots地址也有了指定的内容。几天却发现360全部被K,仅剩首页,而谷歌也不再收录新页面,一直以为是我的robots内容有误,于是搜来搜去,改了无数次robots内容。谷歌在【已拦截的网址】选项中总是显示【语法有误】,在sitemap提交界面也用英文提示“所有内容被robots拦截...”云云。但是百度却未受影响,开始收录玛思阁的文章了。。。

发现插件生成的robots.txt不能被谷歌和360识别

发现插件生成的robots.txt不能被谷歌和360识别

今天闲下来了,决定解决这个疑难杂症!于是我去复制了别人正常收录的robots内容,然后贴到robots插件中生成新的,结果发现在谷歌sitemap提交时依然提示全部被拦截!我勒个去,这明显说明问题出现在插件上了!但是使用插件生成了robots,百度站长平台检测又是没问题的,真是纳闷!

于是重新去查Rewrite规则相关资料,并通过UE编辑器重建httpd.ini文件,新增了内容:

RewriteRule /robots.txt /robots.txt [L]

删除robots插件之后,发现可以访问自定义的robots了!以前httpd里面也有这条规则,就是不生效!难道是编码错了么?

重新编写robots.txt上传后,再到谷歌提交sitemap,发现问题已解决:

发现插件生成的robots.txt不能被谷歌和360识别至于效果,可能要等几天再去查看下收录情况了!

下面贴一下我的httpd.ini和robots内容,以供参考:

httpd.ini

robots.txt

robots内容暂时先这样了,以后观察收录情况再来修改。

另外,不知道各位有没有设置过更新服务【WP后台=>设置=>撰写】,在我搜索robots的时候看到了别人提供的博客更新通知列表,管它有没有用,先加上再说:

发现插件生成的robots.txt不能被谷歌和360识别

 

RPC更新列表如下:

发表评论

gravatar

:?::razz::sad::evil::!::smile::oops::grin::eek::shock::???::cool::lol::mad::twisted::roll::wink::idea::arrow::neutral::cry::mrgreen:

刷新评论

目前评论:4   其中:访客  2   博主  2

  1. 爱知识 2 来自天朝的朋友 未知浏览器 Unknow Os 河北省沧州市 联通

    不是有个虚拟的文件吗,为什么还要插件生成?

    • 张戈 [博主] 来自天朝的朋友 未知浏览器 Unknow Os 广东省深圳市宝安区 电信

      虚拟的内容有限,达不到封堵的要求~

  2. 73花生博客 4 来自天朝的朋友 未知浏览器 Unknow Os 北京市 联通

    seo有太多奥秘,我还要遨游许久

    • 张戈 [博主] 来自天朝的朋友 未知浏览器 Unknow Os 广东省深圳市 联通

      在SEO方面我真的是非常小白。

加载中,请稍候...