【答得上才算SEO高手】织梦设置robot的时候,具体有哪些功能需要禁止抓取(Disallow),哪些功能需要开放?

日期:2016-08-20 21:53:25 人气:1

【答得上才算SEO高手】织梦设置robot的时候,具体有哪些功能需要禁止抓取(Disallow),哪些功能需要开放?

robots.txt文件 搜索引擎使用sphider程序自动访问互联网上的网页并获取网页信息。sphider在访问一个网站时,会首先检查该网站的根目录下是否有一 个叫做robots.txt的纯文本文件,这个文件用于指定sphider在您的网站上的抓取范围。您可以在您的网站上创建一个robots.txt,在 文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分 robots.txt文件格式 “robots.txt”文件包
    A+
热门评论