若何行使robots.txt 优化 wordpress博客?

Wordpress站点SEO优化教程一:主题代码

笔者在百度站长平台检测自己的博客时,出于优化的惯性,对博客的Rbots举行了检测,进而在百度搜索了wordpress博客robots的写法设置问题,看了许多wordpress能手对robots优化设置后,终于有所融会,在此也分享给一些wordpress新手看看若何去善用robots.txt对wordpress博客举行优化。

一、先来普及下robots.txt的看法:

robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的周游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的周游器获取的,哪些是可以被(周游器)获取的。这个文件用于指定spider在您网站上的抓取局限,一定水平上珍爱站点的平安和隐私。同时也是网站优化利器,例如屏障捉取站点的重复内容页面。

robots.txt现在并不是一种尺度,只是一种协议!以是现在许多搜索引擎对robots.txt里的指令参数都有差其余看待。

二、使用robots.txt需要注重的几点地方:

1、指令区分巨细写,忽略未知指令,下图是本博客的robots.txt文件在Google治理员工具里的测试效果;

2、每一行代表一个指令,空缺和隔行会被忽略;

3、“#”号后的字符参数会被忽略;

4、有自力User-agent的规则,会清扫在通配“*”User agent的规则之外;

5、可以写入sitemap文件的链接,利便搜索引擎蜘蛛爬行整站内容。

6、只管少用Allow指令,由于差其余搜索引擎对差异位置的Allow指令会有差异看待。

三、Wordpress的robots.txt优化设置

1、User-agent: *

一样平常博客的robots.txt指令设置都是面临所有spider程序,用通配符“*”即可。若是有自力User-agent的指令规则,只管放在通配“*”User agent规则的上方。

2、Disallow: /wp-admin/

Disallow: /wp-content/

Disallow: /wp-includes/

屏障spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。

3、Disallow: /*/trackback

每个默认的文章页面代码里,都有一段trackback的链接,若是不屏障让蜘蛛去捉取,网站会泛起重复页面内容问题。

4、Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

头部代码里的feed链接主要是提醒浏览器用户可以订阅本站,而一样平常的站点都有RSS输出和网站舆图,故屏障搜索引擎捉取这些链接,节约蜘蛛资源。

5、Disallow: /?s=*

Wordpress站点SEO优化教程二:插件优化

Disallow: /*/?s=*

这个就不用注释了,屏障捉取站内搜索效果。站内没泛起这些链接不代表站外没有,若是收录了会造成和TAG等页面的内容相近。

6、Disallow: /?r=*

屏障留言链接插件留下的变形留言链接。(没安装相关插件固然不用这条指令)

7、Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

屏障捉取任何图片文件,在这里主要是想节约点宽带,差其余网站治理员可以根据喜欢和需要设置这几条指令。

8、Disallow: /?p=*

屏障捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到牢靠链接,但这样依然造成蜘蛛资源的虚耗。

9、Disallow: /*/comment-page-*

Disallow: /*?replytocom*

屏障捉取留言信息链接。一样平常不会收录到这样的链接,但为了节约蜘蛛资源,也屏障之。

10、Disallow: /a/date/

Disallow: /a/author/

Disallow: /a/category/

Disallow: /?p=*&preview=true

Disallow: /?page_id=*&preview=true

Disallow: /wp-login.php

屏障其他的一些形形色色的链接,阻止造成重复内容和隐私问题。

10、Sitemap:http://***.com/sitemap.txt

网站舆图地址指令,主流是txt和xml花样。告诉搜索引擎网站舆图地址,利便搜索引擎捉取全站内容,固然你可以设置多个舆图地址。要注重的就是Sitemap的S要用大写,舆图地址也要用绝对地址。

上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌治理员工具,检查站点的robots.txt是否规范。

好了,以上就是对行使robots.txt对wordpress博客举行优化的详细内容,希望可以辅助和我一样刚接触wordpress博客的同砚。

Wordpress站点SEO优化教程三:标题、URL优化

转载请说明出处内容投诉
八爷源码网 » 若何行使robots.txt 优化 wordpress博客?