网站里的“robots”文件是什么意思?

日期:2019-11-08 11:50:45 人气:1

网站里的“robots”文件是什么意思?

搜索引擎爬去我们页面的工具叫做搜索引擎机器人,也生动的叫做“蜘蛛” 蜘蛛在爬去网站页面之前,会先去访问网站根目录下面的一个文件,就是robots.txt。这个文件其实就是给“蜘蛛”的规则,如果没有这个文件,蜘蛛会认为你的网站同意全部抓取网页。 Robots.txr文件是一个纯文本文件,可以告诉蜘蛛哪些页面可以爬取(收录),哪些页面不能爬取。 举个例子:建立一个名为robots.txt的文本文件,然后输入 User-agent: * 星号说明允许所有搜索引擎收录 Disallow: index.php? 表
    A+
热门评论