Robots.txt 生成器
可视化配置网站的 robots.txt 文件,控制搜索引擎爬虫访问规则
快速预设
爬虫规则 #1
常用: *, Googlebot, Baiduspider, Bingbot, Slurp
Sitemap
告诉搜索引擎你的网站地图位置
生成的代码
配置规则后点击"生成 robots.txt"
使用说明
• User-Agent: 指定爬虫名称,* 表示所有爬虫
• Allow: 允许爬虫访问的路径
• Disallow: 禁止爬虫访问的路径
• Crawl-delay: 爬虫请求之间的延迟时间(秒)
• Sitemap: 指向网站地图的完整 URL
• robots.txt 文件应放在网站根目录,访问路径为:https://example.com/robots.txt
• 常见爬虫: Googlebot(谷歌)、Baiduspider(百度)、Bingbot(必应)、Slurp(雅虎)
• robots.txt 不是安全机制,敏感内容仍需通过认证保护