WordPress站点 之Robots.txt的优化及写法
发布:smiling 来源: PHP粉丝网 添加日期:2018-12-06 09:54:06 浏览: 评论:0
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。
知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。
WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。
但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:
- User-agent: *
- Disallow: /wp-admin/
- Disallow: /wp-content/
- Disallow: /wp-includes/
- Disallow: page/
- Disallow: /tagtrackback
- Disallow: /feed
- Disallow: ?s=*\
- Disallow: /attachment/
使用方法:新建一个名称为robots.txt文本文件,将上面的内容放进去,然后上传到网站根目录即可。
下面分别解释一下各项的作用:
1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/
用于告诉搜索引擎不要抓取后台程序文件页面。
2、Disallow: page/和Disallow: /tagtrackback
禁止搜索引擎抓取收录trackback等垃圾信息
5、Disallow: /feed、Disallow: ?s=*\
禁止搜索引擎抓取站内搜索结果
7、Disallow: /*?*
禁止搜索抓取动态页面
8、Disallow: /attachment/
禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。
上面只是些基本的写法,当然还有很多,不过够用了。
Tags: Robots txt 优化 写法
相关文章
- ·什么是robots协议,wordpress网站的robots协议怎么写(2015-02-28)
- ·wordpress无插件生成文章TXT网站地图的方法(2015-11-11)
- ·WordPress的SEO优化技巧(2014-04-24)
- ·浅谈wordpress网站站内链优化技巧(2014-04-24)
- ·浅谈wordpress独立博客优化(2014-05-24)
- ·十大WordPress的SEO优化技巧(2014-05-24)
- ·结合百度统计做好wordpress速度优化(2014-05-24)
- ·WordPress优化需要掌握的SEO技巧(2014-06-03)
- ·wordpress打开慢优化方法(2014-06-21)
- ·WordPress数据库的清理优化方法(2014-10-17)
- ·不用插件就能解决wordpress的SEO,修改functions.php加入如下代码(2014-11-21)
- ·完美优化wordpress网站10步加速优化曲(2015-02-27)
- ·wordpress做的网站SEO优化细节(2015-09-23)
- ·wordpress网站seo优化篇之四,url优化(2015-09-24)
- ·wordpress 优化 – 解决定时发布失败(2015-09-24)
- ·wordpress 优化 – gravatar问题(2015-09-24)
推荐文章
热门文章
最新评论文章
- 写给考虑创业的年轻程序员(10)
- PHP新手上路(一)(7)
- 惹恼程序员的十件事(5)
- PHP邮件发送例子,已测试成功(5)
- 致初学者:PHP比ASP优秀的七个理由(4)
- PHP会被淘汰吗?(4)
- PHP新手上路(四)(4)
- 如何去学习PHP?(2)
- 简单入门级php分页代码(2)
- php中邮箱email 电话等格式的验证(2)