Robots是站点与spider沟通的重要渠道,站点通印着站利过robots来自文件声明该网站中不想被搜索引擎收录的部分或者指定搜待索引擎只收录特定的部分。
搜索引擎使用spider程360百科序自动访问互联处官占网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文见选各件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站环中创建一个robo音急异据你因关ts.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。