网站Robots.txt正确写法百科

robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。

Robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意Robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有和没有斜杠“/”这两种表示是不同的URL,也不能用”Disallow: *.gif”这样的通配符。

其他的影响搜索引擎的行为的方法包括使用robots元数据:

这个协议也不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面。

例子

让所有机器人访问所有文件,因为通配符”*”代表所有机器人:

User-agent: *
Disallow:

拦截所有的机器人:

User-agent: *
Disallow: /

禁止所有机器人访问特定目录:

User-agent: *
Disallow: /cgi-bin/
Disallow: /images/
Disallow: /tmp/
Disallow: /chinaapp/

仅禁止百度爬虫访问特定目录(其他搜索引擎爬虫名称替换即可):

User-agent: baiduspider
Disallow: /chinaapp/

注:可根据需要添加禁止搜索引擎抓取的目录,上面的例子中只是禁止“百度蜘蛛”抓取“chinaapp”目录,你可以继续添加,如禁止抓取NiDeYanzhao目录,如下:

User-agent: baiduspider
Disallow: /chinaapp/
Disallow: /nideyanzhao/

如果你要禁止搜索引擎爬虫访问特定文件(以PDF文件为例)

User-agent: *
Disallow: *.pdf

可以根据自己的需要修改文件后缀名称。
这里介绍了不允许访问某类文件,当然你要禁止其访问某几类文件可以像上面介绍的禁止访问目录一样的方式来增加你想要禁止访问的某类文件,下面以禁止访问.mv和.PDF文件为例

User-agent: *
Disallow: *.pdf
Disallow:*.mv

介绍到不允许访问的目录,如果你不允许访问的太多,当然你也可以反着,来告诉搜索引擎蜘蛛可以访问哪些目录。

你或许还有其他问题,那么留言吧,我会来帮你处理 😀

Leave a Reply

You must be logged in to post a comment.

RSS feed for comments on this post. TrackBack URL