python爬虫beautifulsoup爬取小说_Python爬虫之利用BeautifulSoup爬取豆瓣小说(一)——设置代理IP...

1 #-*-coding:utf-8-*-2 importurllib23 from bs4 importBeautifulSoup4 importtime5 importrandom67 classdbxs:89 def __init__(self):10 self.pageIndex =011 self.enable =True121314 #获...
摘要由CSDN通过智能技术生成

1 #-*-coding:utf-8-*-

2 importurllib23 from bs4 importBeautifulSoup4 importtime5 importrandom6

7 classdbxs:8

9 def __init__(self):10 self.pageIndex =011 self.enable =True12

13

14 #获取html页面的内容

15 defgetPage(self, pageIndex):16 try:17 #设置代理ip

18 enable_proxy =True19 #Openers使用处理器Handlers,所有的“繁重”工作由Handlers处理,每个handlers知道如何通过特定协议打开URLs,或者如何处理URL打开时的各个方面

20 #在你使用代理上网或其他的情况就需要自己创建一个opener,可以实例化一个OpenerDirector,然后调用.add_handler(some_handler_instance)

21 #也可使用build_opener,这是一个更加方便的函数,用来创建opener对象,它只需要一次函数调用

22 proxy_handler = urllib2.ProxyHandler({'Http': '113.118.170.230:808'})23 null_proxy_handler =urllib2.ProxyHandler({})24 ifenable_proxy:25 #当你获取一个URL你要使用一个opener,默认情况下opener是urlopen,但urllib2.urlopen()不支持验证、cookie或者其他Http高级功能

26 #要支持这些功能,必须使用build_opener

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值