robots.txt disallow
2025-03-27
19
参考资料
robots.txt
文件中的 Disallow
指令用于告诉搜索引擎爬虫哪些页面或目录不应被访问。例如:
User-agent: * Disallow: /private/
这表示所有爬虫 (*
) 不应访问 /private/
目录下的内容。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。