robots.txt disallow
2025-03-27 12:36:38
8
robots.txt
文件中的 Disallow
指令用于告诉搜索引擎爬虫哪些页面或目录不应被访问。例如:
User-agent: * Disallow: /private/
这表示所有爬虫 (*
) 不应访问 /private/
目录下的内容。
本篇文章内容来源于:robots.txt disallow