【转】Robots.txt和Robots META

WEB程序员 2011-11-21

RobotsTextFileRobots.txt

robots.txt是一套指示搜索引擎(蜘蛛)如何抓取你的网页内容的一张地图,他告诉蜘蛛哪些需要抓取,哪些不要抓取(当然,这只是针对那些遵守这个协定的搜索引擎)。robots.txt文件必须存放在网站的根目录下。

robots.txt中包括两部分主要内容:

User-agent:*

Disallow:

User-agent代表搜索引擎,可以指定特定的搜索引擎,星号表示所有;

Disallow,如果用不带/路径表示搜索引擎可以索引整个文件夹,如果带了/则表示对文件夹下的所有内容都不进行索引;

例如:/private/表示对于private文件夹下的所有内容不进行索引,/pulic表示索引所有public下的内容;

两种robots.txt的典型用法:

一、对所有搜索引擎完全开放:

User-agent:*

Disallow:

二、对所有搜索引擎关闭:

User-agent:*

Disallow:/

RobotsMetaTag

对于不能上传Robots.txt文件的用户,我们仍可以通过RobotsMetaTag来实现对于搜索引擎的屏蔽。

<metaname="robots"content="robots-term"/>

robots-term是一系列逗号分隔的字符,主要有以下几个值:noindex,nofollow,index,follow,all

下面来简单解释一下各自的含义:

noindex:搜索引擎不会为页面建立索引,但是允许页面上的链接被追踪;

nofollow:搜索引擎不会追踪页面中的链接,但是允许搜索引擎收录该页面;

index:搜索引擎将把该页面加入到搜索服务中;

follow:搜索引擎会从该页面去查找其他的页面;

all:搜索引擎会执行上面两种操作;

如果Meta标签缺失,或者robots-term没有指定明确的值,那么默认是index,follow,如果在meta中指定了all,那么其他的所有值都将被覆盖,不管all出现在什么位置

最后,再贴一个比较规范的robots.txt来,以供学习:

#robots.txtforhttp://www.SEOConsultants.com/

#Lastmodified:2008-10-19T02:30:00-0700

User-agent:googlebot

Disallow:/js/

Disallow:/webservices/

User-agent:slurp

Disallow:/js/

Disallow:/webservices/

User-agent:msnbot

Disallow:/js/

Disallow:/webservices/

User-agent:teoma

Disallow:/js/

Disallow:/webservices/

User-agent:Mediapartners-Google*

Disallow:

User-agent:*

Disallow:/

相关推荐