wordpress多站点的robots怎么弄

   2025-07-22 admin00100

  稍微接触过SEO的站长朋友都应该知道robots协议(也称为爬虫协议、爬虫规则、机器人协议等),也就是通常添加到网站根目录的robots.txt文件,它的作用在于告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,从而优化网站的收录结果和权重。

推荐教程:wordpress教程

  如果你的网站根目录还没有robots.txt,你可以创建一个,具体的写法请参考 百度百科。下面是一个基本的WordPress robots协议:

User-agent:*Disallow:/feed/Disallow:/trackback/Disallow:/wp-admin/Disallow:/wp-content/Disallow:/wp-includes/Disallow:/xmlrpc.phpDisallow:/wp-Allow:/wp-content/uploads/Sitemap:http://example.com/sitemap.xml
 
举报收藏 0打赏 0评论 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  RSS订阅
Powered By DESTOON