网站里的robots文件是什么意思?User-agent: *Disallow:这两个标签到底是什么意思?
网站里的robots文件是什么意思?User-agent: *Disallow:这两个标签到底是什么意思?
日期:2017-05-10 14:19:03 人气:3
搜索引擎spider(蜘蛛)在访问一个网站时,会首先会检查该网站目录是否有一个文件叫做robots.txt的纯文本文件,这个文件用于指定spider(蜘蛛)在你网站是的抓取的范围. 简单点来说就是你想让他抓取的哪部分和你不想让他抓取的某部分。
当一个搜索机器人robots(有的叫搜索蜘蛛或者爬虫)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索引擎爬虫就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索引擎爬虫就沿着链接抓取。
User-agen