爬虫基础热门(5)使用requests库

我们之前使用request会比较麻烦一点,那么我们今天介绍一个requests库。

import requests
kw={'wd':吴彦祖}#相当于提前设置搜索关键字
headers=({'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.60 Safari/537.36'})
#这里我们以百度为例,设置好百度的headers
response=requests.get('https://www.baidu.com/s',headers=headers,params=kw)
#这里我们url选择百度,然后params就是在url后面添加关键字
print(response)#查看类型
print(response.content)#content代表文本的意思,可以手动解码。解码后相当于response.text()
#也就是说response.text=response.content.decode('utf-8')
print(response.url)#加上搜索关键字后的url

我们最后得到的结果就是
’https://www.baidu.com/s?wd=%E4%B8%AD%E5%9B%BD‘
这个网址搜索之后我们发现直接就是搜索到吴彦祖的界面。

这列我们在继续介绍一下关于requests中的post请求
。我们以登录美食杰的页面为例:
登录界面url为https://i.meishi.cc/login_t.php?redirect=https%3A%2F%2Fwww.meishij.net%2F%3Ffrom%3Dspace_block

import requests
url='https://i.meishi.cc/login_t.php?redirect=https%3A%2F%2Fwww.meishij.net%2F%3Ffrom%3Dspace_block'
headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.74 Safari/537.36 Edg/99.0.1150.52'}
data={'username':'1316689****',
      'password':'yhd1997****'}
resp=requests.post(url,headers=headers,data=data)
print(resp.text)

这里我们直接可以完成对登陆后的页面进行源码提取,非常的简洁方便。
所以作为requests库的使用是目前较多的,各位同学多多加油!

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

吃猫的鱼python

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值