爬虫实战01-urllib 爬取拉勾网

这里写自定义目录标题

爬虫实战01-urllib

获取url

如拉勾网,进入拉勾网,右键-检查
在这里插入图片描述

# 2021-2-25

from urllib import request,parse

url='https://www.lagou.com/jobs/list_python?&cl=false&fromSearch=true&labelWords=&suginput='

resp=request.urlopen(url)
print(resp.read( ))

结果:在这里插入图片描述
虽然没有报错,但是返回的结果并不是真实正确的数据。
原因:拉勾网的发爬虫机制发现了爬虫操作,拒绝返回真实数据,返回了一堆乱七八糟。

解决方法:
添加请求头,使得拉勾网无法判断是否是爬虫
首先添加 User-Agent:
在这里插入图片描述

headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36}',}

req=request.Request(url,headers=headers)
resp=request.urlopen(req)
print(resp.read( ))

在这里插入图片描述
好像还是不对

Request:
在这里插入图片描述
拉勾网首页的url 里并不包含职位信息,职位信息存在于:
在这里插入图片描述
重新对该url 进行爬虫,并添加data 数据
在这里插入图片描述

url='https://www.lagou.com/jobs/positionAjax.json?city=%E4%B8%8A%E6%B5%B7&needAddtionalResult=false'
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36}'}


data={
    'first': 'true',
    'pn': 1,
    'kd': 'python'
}
req=request.Request(url,headers=headers,data=data)
resp=request.urlopen(req)
print(resp.read( ))

在这里插入图片描述
解决:

req=request.Request(url,headers=headers,data=parse.urlencode(data).encode('utf-8'),method='POST')  # UNICODE变成BYTES:。encode('utf-8)

在这里插入图片描述
结果为b bytes,需要对其进行解码

print(resp.read( ).decode('utf-8'))

在这里插入图片描述
实际并非是“操作太频繁”,如果真的是因为操作太频繁,网页端也不可刷新,然而并不是。
说明结果信息是误导信息,请求被识别出是爬虫了,需要再进行伪造。 增加请求头,使得更真。

在这里插入图片描述
添加了几个headers 还是 “操作太频繁”
https://blog.csdn.net/weixin_40576010/article/details/88336980
后续继续

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

闪闪发亮的小星星

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值