您的位置:网站首页 > 网络营销 > 移动营销 > 网站优化从学会使用robots.txt开始
网站优化从学会使用robots.txt开始
来源: 日期:2015-11-21 15:25:39 人气:标签:
网站优化从学会使用robots.txt开始
关于robots.txt
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据。
Robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意Robots.txt是用字符串比较来确定是否获取URL,所以目录末尾有和没有斜杠“/”这两种表示是不同的URL,也不能用"Disallow: *.gif"这样的通配符。
1.robots.txt有什么用?
如果您不希望互联网爬虫(又叫蜘蛛、Crawler、Spider等)抓取您网站的每一个公开的链接,而只抓取您指定的某一部分链接,或根本不抓取任何链接,你可以使用robots.txt向我们汇报爬虫信息。
2.怎么使用robots.txt?
建议您在站点的根目录下存放一个robots.txt文件。我们的爬虫在第一次抓取您站点时会首先确认根目录下是否有robots.txt文件。例如,您的网站地址是 worldxml.com,我们会首先抓取http://www.worldxml.com/robots.txt 再进行后续操作。如无法访问robots.txt文件,系统则默认为您站点的每个链接都可以被抓取。
3.怎么写robots.txt文件?
robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。
在文件的第一行写:
User-Agent: YoudaoBot
这就告诉了爬虫下面的描述是针对名叫YoudaoBot的爬虫。您还可以写:
User-Agent: *
这就意味着向所有的爬虫开放。需要注意的是一个robots.txt文件里只能有一个"User-Agent: *"。
接下来是不希望被访问的链接前缀。例如:
Disallow: /private
这就告诉爬虫不要抓取以"/private"开头的所有链接。包括/private.html,/private/some.html,/private/some/haha.html。如果您写成:
Disallow: /
则表明整个站点都不希望被访问。您也可以分多行来指定不希望被抓取的链接前缀,例如:
Disallow: /tmp
Disallow: /disallow
那么所有以"/tmp"和"/disallow"开头的链接都不会被访问了。
最后形成的robots.txt文件如下:
User-Agent: YoudaoBot
Disallow: /tmp
Disallow: /private
请注意,如果您的robots.txt文件里有中文等非英语字符,请确定该文件是由UTF-8编码编写。
4.怎样使用robots.txt分别指定不同的网络爬虫?
这个操作很简单,只要分别指定“谁能或不能访问怎样的链接”即可。例如:
User-Agent: YoudaoBot
Disallow:
User-Agent: *
Disallow: /private
上面的robots.txt表明,名为YoudaoBot的爬虫可以抓所有的内容,其它名称的爬虫不能抓以"/private"开头的链接。
相关文章
- 上一篇: SEO相关基础概念名词一览
- 下一篇: SEO编辑与普通网站编辑的差异在哪里