robot.txt分析与解读

2017-05-02  本文已影响0人  belief_8f6c
一、robot.txt简介

搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

User-agent:该项的值用于描述搜索引擎robot的名字,在“robots.txt”文件中,如果有多条 User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User- agent记录。如果该项的值设为,则该协议对任何机器人均有效,在“robots.txt”文件 中,“User-agent:”这样的记录只能有一条。

Disallow:该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以 是部分的,任何以Disallow开头的URL均不会被robot访问到。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在 “/robots.txt”文件中,至少要有一条Disallow记录。如果“/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

二、网易新闻robots.txt
User-agent: ToutiaoSpider  
Disallow: /

表示禁止头条搜索引擎的访问

三、新浪博客robots.txt
User-agent: *

Allow: /admin/blogmove/

Disallow: /admin/
Disallow: /include/
Disallow: /html/
Disallow: /queue/
Disallow: /config/   

表示对所有搜索引擎访问都有限制,允许访问/admin/blogmove/,不允许访问/admin/、/include/、/html/、 /queue/、/config/ 。

参考:
1.搜狗百科
2.新浪博客
3.网易新闻

上一篇下一篇

猜你喜欢

热点阅读