爬虫-requests的使用

import requests
# python内部的包 可以直接 import

# requests 不是python自带的包 那么我们需要安装
#   方式1:鼠标移动到包名上,根据提示安装  要写对包名
#   方式2:在 cmd 中 pip install requests

# 伪装成用户访问网页
# 请求头:User-Agent  模拟/伪装成浏览器
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36 Edg/125.0.0.0'
}


# http协议:
#   先请求request,后响应response
#   状态码:
#       200 成功
#       4xx 客户端的错误
#       5xx 服务器的错误

response = requests.get('https://www.baidu.com', headers=headers)
print(response)   # <Response [200]>
# print(response.text)   # 字符串
# print(response.content)    # 二进制/字节类型  b'hello'
# print(response.json())      # json 解析 : 字符串 ==>  字典      将采集到的字符串解析为字典形式
import requests
# python内部的包 可以直接 import

# requests 不是python自带的包 那么我们需要安装
#   方式1:鼠标移动到包名上,根据提示安装  要写对包名
#   方式2:在 cmd 中 pip install requests

# 伪装成用户访问网页
# 请求头:User-Agent  模拟/伪装成浏览器
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36 Edg/125.0.0.0'
}


# http协议:
#   先请求request,后响应response
#   状态码:
#       200 成功
#       4xx 客户端的错误
#       5xx 服务器的错误

response = requests.get('https://www.baidu.com', headers=headers)
print(response)   # <Response [200]>
# print(response.text)   # 字符串
# print(response.content)    # 二进制/字节类型  b'hello'
# print(response.json())      # json 解析 : 字符串 ==>  字典      将采集到的字符串解析为字典形式

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值