若何行使robots协议优化你的WordPress博客站

织梦CMS集成七牛插件最新优化版本教程

许多新手建站同伙对robots协议文件的主要性不是很清晰,本篇文章由昆明SEO博主普及一下WordPress站点robots协议文件编写知识。robots协议(也称为爬虫协议、机械人协议 等)的全称是“网络爬虫清扫尺度”(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议主要注重以下几大方面:

一、使用robots协议需要注重的几点地方:

1、指令区分巨细写,忽略未知指令。

2、每一行代表一个指令,空缺和隔行会被忽略。

3、“#”号后的字符参数会被忽略。

4、有自力User-agent的规则,会清扫在通配“*”User agent的规则之外。

5、可以写入sitemap文件的链接,利便搜索引擎蜘蛛爬行整站内容。

6、只管少用Allow指令,由于差其余搜索引擎对差异位置的Allow指令会有差异看待。

7、robots.txt 文件必须放在网站的根目录,不能以放在子目录。

二、robots协议文件写法:

1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

2、Disallow: /admin/ 这里界说是阻止爬寻admin目录下面的目录

3、Disallow: /require/ 这里界说是阻止爬寻require目录下面的目录

4、Disallow: /ABC/ 这里界说是阻止爬寻ABC目录下面的目录

5、Disallow: /cgi-bin/*.htm 阻止接见/cgi-bin/目录下的所有以".htm"为后缀的URL(包罗子目录)

6、Disallow: /*?* 阻止接见网站中所有包罗问号 (?) 的网址

7、Disallow: /.jpg$ 阻止抓取网页所有的.jpg花样的图片

8、Disallow:/ab/adc.html 阻止爬取ab文件夹下面的adc.html文件

9、Allow: /cgi-bin/ 这里界说是允许爬寻cgi-bin目录下面的目录

10、Allow: /tmp 这里界说是允许爬寻tmp的整个目录

11、Allow: .htm$ 仅允许接见以".htm"为后缀的URL

12、Allow: .gif$ 允许抓取网页和gif花样图片

13、Sitemap: 网站舆图 告诉爬虫这个页面是网站舆图

三、robots协议文件现实说明:

1、User-agent: * //设置robots规则适用的浏览者身份为所有UA身份

2、Disallow: /*?* //屏障掉页面中的动态路径

3、Disallow: /?p=* //屏障掉非牢靠链接的文章页面路径,由于每个页面中都市有一个shortlink使用的是?p= 的路径。

4、Disallow: /index.php //屏障掉首页默认页面的index.php 页面地址

5、Disallow: /wp-admin //屏障掉后台上岸页面地址,主要是思量到服务器平安

6、Disallow: /wp-content/plugins //屏障掉wordpress的插件目录

7、Disallow: /wp-content/themes //屏障掉wordpress的模板目录

8、Disallow: /wp-includes //屏障掉wordpress的底层程序目录

Wordpress站点SEO优化教程四:数据库优化

9、Disallow: /trackback //屏障wordpress的页面回评路径

10、Disallow: /*/*/trackback //屏障wordpress分类目录、文章页面的回评路径

11、Disallow: /feed //屏障wordpress的内容订阅路径

12、Disallow: /*/*/feed //屏障wordpress分类目录、文章页面的订阅路径

13、Disallow: /comments/feed //屏幕wordpress谈论的订阅路径

14、Disallow: /page/ //屏障默认的翻页路径

15、Disallow: /*/*/page/ //屏障分类目录的翻页路径

16、Disallow: /page/1$ //屏障翻页路径中的数字路径

17、Disallow: /tag/ //屏障标签页面

18、Disallow: /?s=* //屏障搜索效果路径,主要是阻止搜索效果的缓存被搜索引擎收录

19、Disallow: /date/ //屏障按日期分类显示的列表页面

20、Disallow: /author/ //屏障作者文章列表页面

21、Disallow: /category/ //屏障以category为起始路径的分类路径,若是您没有使用插件天生不带category前缀的路径时,请不要使用此项规则。

22、Disallow: /wp-login.php //屏障后台上岸页面

四、robots协议设置方式

1、写好之后把文件重命名为:robots.txt 然后用FTP上传到网站的根目录下面,切记不是主题的根目录下而是网站的根目录。

2、行使站长工具自动天生,网址:http://tool.chinaz.com/robots/

3、行使SEO插件设置,好比Yoast SEO、all in one seo

五、robots协议的作用

1、指导搜索引擎蜘蛛抓取指定栏目或内容;

2、网站改版或者URL重写优化时刻屏障对搜索引擎不友好的链接;

3、屏障死链接、404错误页面;

4、屏障无内容、无价值页面;

5、屏障重复页面,如谈论页、搜索效果页;

6、屏障任何不想被收录的页面;

7、指导蜘蛛抓取网站舆图;

六、若何查看robots协议:

1、WordPress站点默认在浏览器中输入:http://你的域名/robots.txt

好比星辰seo博客:http://xxjz001.com/robots.txt

2、打开FTP,找到网站根目录查看robots.txt文件

总结:robots协议需要的注重地方,以及写法,设置方式,作用,若何查看就先容到这里,信托人人对robot协议已经有了对照详细的领会。使用好robots协议对于我们网站的SEO有着主要作用,做的好可以有用的屏障那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利于要害词排名的内页充实展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将网站要害词排名做的更好,从而获取更多流量。

作者:星辰seo博客

如何利用robots.txt 优化 wordpress博客?

转载请说明出处内容投诉
八爷源码网 » 若何行使robots协议优化你的WordPress博客站