- 博客(2)
- 资源 (3)
- 收藏
- 关注
原创 爬虫使用代理防封IP:HTTP Error 403: Forbidden
在写爬虫爬取数据的时候,经常遇到如下的提示,HTTPError403: Forbidden之前已经写了一个使用多个headers 的笔记,但是这种还是只有一个IP 只不过是伪装为不同的浏览器而已,所以想做到更近一步防止被封,还是需要及时更换不同IP,下面记录一下python 使用代理爬取的过程。PS: 爬虫尽量不要太频繁的说。。。解决方法
2017-10-26 10:16:53 3889
原创 爬虫 url error : HTTP 403 Forbidden
用Jsoup爬取内容的时候, 一开始的程序,不知道怎么回事,线程应该也不是问题,频繁出现 Http 403 Forbidden .在提交请求get 或者post 的时候,也都加了headers ,不过还是大量抛出403 异常;解决方法: http://blog.csdn.net/shomy_liu/article/details/38269281
2017-10-26 10:13:46 8092
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人