学习基础爬虫

requests库的使用

1,无参数的get请求

代码

import requests
url='http://www.baidu.com'
resp=requests.get(url)
resp.encoding='utf-8'
cookie=resp.cookies
headers=resp.headers
print('响应状态码:',resp.status_code)
print('请求后的cookie:',cookie)
print('获取请求的网址:',resp.url)
print('响应头:',headers)
print('相应内容:',resp.text)

结果

2,带参数的get请求

代码

import requests
url='https://www.so.com/s'
params={'q':'python'}
resp=requests.get(url,params=params)
resp.encoding='utf-8'
print('响应状态:',resp.status_code)
print(resp.text)

结果(只截取了部分内容)

3,获取JSON数据

import requests
url='https://imgstat.baidu.com/4.gif?type=pageturn&curr=1&fr=&picnum=20&p=56&q=%E7%BE%8E%E5%A5%B3&fm=index&tn=baiduimage&fcType=&vs=8f33c43e7282425f8a9ba2cf9cf5f33236eca0c0&ie=utf-8&qpagetype=0&userid=&logid=11644040903677798390&lsTime=227&303702866733.52277'
resp=requests.get(url)
json_data=resp.json()
print(json_data)

  4,使用requests的session发送请求

import requests
url='https://www.17k.com/'
data={'loginName':' 123123132212313','password': '1231231321'}
session=requests.session()
resp=session.post(url,data=data)
resp.encoding='utf-8'
print('状态响应码:',resp.status_code)
#print(resp.text)

hot_url='https://user.17k.com/www/bookshelf/read.html'
read=session.get(hot_url)
read.encoding='utf-8'
print(read.status_code)
print(read.text)

结果(部分截图) 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值