99.安全性问题(别的网站使用爬虫技术爬你的网站怎么办?有没有安全措施)
单位时间内请求次数超过某个阈值就让输入验证码,可以极大降低抓取的速度,如果多次超过某个阀值可以加入黑名单。还有就是页面内容使用 json 返回,数据经常变一变格式,或者 js 动态生成页面内容。
转载于该文https://blog.csdn.net/bushanyantanzhe/article/details/79858961
————————————————
版权声明:本文为CSDN博主「不善言谈者」的原创文章,遵循CC 4.0 BY-SA版权协议。
原文链接:https://blog.csdn.net/bushanyantanzhe/article/details/79858961