网络爬虫错误

在使用urllib中的request方法时,系统返回HTTPerror,但是没有给出错误代码

重新写了一段代码,用来显示具体错误:

# 异常处理
from urllib import request,error
try:
    response = urllib.request.urlopen('https://movie.douban.com/top250')
except error.HTTPError as e:
    print(e.reason,e.code,e.headers,sep='\n')  # 使用httperror判断

这里访问的是豆瓣,结果返回错误418,查了下是反爬虫的。

处理办法:不是一次请求整个网页,而是加入header选项,只读取头部,如下:

第二个问题是,如何读取多页的信息,此时通过观察,得知douban的页面链接中包含了页码信息,用for循环配合页码即可:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值