一种国际互联网界通行的道德规范——Robots协议

原则:

1搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;

2网站有义务保护其使用者的个人信息和隐私不被侵犯。

robots协议(也称爬虫协议,机器人协议等)是一种存放于网站根目录下的文本文件,

(在一网页中,在网页的URL(即网址)后加上/robots.txt,即可查看)如下图(了解)

通常告诉网络爬虫,此网站中的哪些内容是不应被网络爬虫获取的,哪些是可以被获取的。

robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。

接下来,我从上图截取第一部分来康康其书写规范:

最简单的robots.txt的常规写法两条规则:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Systemer~Fred

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值