爬虫Day1 requests

爬虫Day1 requests

一、requests基础

import requests

# 1.请求网络数据: requests.get(请求地址)
response = requests.get('https://cd.zu.ke.com/zufang')

# 2.设置解码方式(乱码的是需要设置 - 一定要在获取请求结果之前设置)
response.encoding = 'utf-8'

# 3. 获取请求结果
# 1)获取请求结果对应的文本数据  -  爬网页
print(response.text)

# 2)获取二进制格式的请求结果  -  下载图片、视频、音频
# print(response.content)

# 3)获取请求结果json转换的结果  - json接口
# print(response.json())

二、添加Header

import requests

# 1. 发送请求
# 添加header: a. 浏览器伪装(user-agent)、b.免密登录(cookie)、 c. 设置代理(proxies)
headers = {
    'cookie': 'bid=58Gyjz_NAcA; ll="118318"; douban-fav-remind=1; viewed="36164018_36221918"; ap_v=0,6.0',
    'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36'
}
response = requests.get('https://movie.douban.com/top250', headers=headers)


# 2. 获取结果
result = response.text
print(result)

三、下载图片

import requests

# 1.获取网络图片数据
response = requests.get('https://img0.baidu.com/it/u=793843167,4251357724&fm=253&fmt=auto&app=138&f=JPEG?w=691&h=500')
result = response.content
print(type(result))     # <class 'bytes'>

# 2.保存图片数据到本地文件
with open('files/a.jpg', 'wb') as f:
    f.write(result)

获取英雄id

import requests

response = requests.get('https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js')

for x in response.json()['hero']:
    print(x['heroId'])
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值