robots.txt概念
如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?
答案是:使用一个叫做robots.txt的文件。
robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。
搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。
总结:robots.txt是一个简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。
关于robots.txt文件的10条注意事项:
1、如果未创建robots.txt文件,则代表默认网站所有文件向所有搜索引擎开放爬取。
2、必须命名为:robots.txt,都是小写,robot后面加s。
3、robots.txt必须放置在一个站点的根目录下。
通过如https://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。
4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。
5、空格换行等不能弄错,可复制这个页面并修改为自己的。点击
6、有几个禁止,就得有几个Disallow函数,并分行描述。
7、至少要有一个Disallow函数,如果都允许收录,则写: Disallow:
如果都不允许收录,则写:Disallow: / (注:只是差一个斜杆)。
8、允许有多个User-agent,如果对所有爬取蜘蛛生效,则用“*”星号表示。
9、robtos.txt文件内可以放上Sitemap文件地址,方便告诉搜索引擎Sitemap文件地址。
10、网站运营过程中,可以根据情况对robots.txt文件进行更新,屏蔽一些不要搜索引擎抓取的文件地址。
举例两个常见屏蔽规则:
User-agent: * 星号说明允许所有搜索引擎收录
Disallow: /search.html 说明 https://www.seowhy.com/search.html 这个页面禁止搜索引擎抓取。
Disallow: /index.php? 说明类似这样的页面https://www.seowhy.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。
2. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!
3. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
5. 如有链接无法下载、失效或广告,请联系管理员处理!
6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
7. 如遇到加密压缩包,请使用WINRAR解压,如遇到无法解压的请联系管理员!
8. 精力有限,不少源码未能详细测试(解密),不能分辨部分源码是病毒还是误报,所以没有进行任何修改,大家使用前请进行甄别
9.本站默认解压密码为:www.sudo1.com
本站提供的一切软件、教程和内容信息仅限用于学习和研究目的。
不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本站信息来自网络收集整理,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。
如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。
我们非常重视版权问题,如有侵权请邮件与我们联系处理。敬请谅解!
云资源网 » robots.txt概念和10条注意事项
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
- 提示下载完但解压或打开不了?
- 你们有qq群吗怎么加入?