爬虫---学习笔记

# import requests     # 导入requests第三方库,用于发起网络请求
# url = 'https://www.baidu.com/'     # 定义需要请求的网址链接
# response = requests.get(url)     # 使用requests库发起网络请求,并接收服务器所响应的数据
# print("响应数据为:", response)    # 200是状态码,代表数据请求响应成功
# response.encoding = 'utf-8'     # 如果响应的文本中出现了乱码,就手动指定响应数据的编码格式
# print("响应数据为:", response.text)      # 将响应的数据信息以文本的方式打印出来
# print("响应数据为:", response.content.decode('utf-8'))   # 将响应的数据信息以文本的方式打印出来,并指定编码格式
# print("状态码数据为:", response.status_code)      # 将响应的状态码信息打印出来
# print("请求头数据为:", response.request.headers)      #将响应的请求头信息打印
''' ---------------------------------------------------------------------------------- '''

# import requests
# url = 'https://upload.mnw.cn/2024/0119/1705636185333.jpg'
# resp = requests.get(url)
# name = '碎月剑心'
# # 如果请求的是除文本以外的文件数据,那么是不需要指定编码格式的
# # 当响应字节数据后,一般会保存成文件
# with open(f'{name}.jpg', 'wb') as file:  # 当响应的数据以二进制提取出来,并写入到图片文件中
#     file.write(resp.content)
# file.close()
''' ---------------------------------------------------------------------------------- '''

# import requests
# url = 'https://www.baidu.com/'
# response = requests.get(url)
# response.encoding = 'utf-8'  # 指定响应的数据以utf-8去解码
# with open('baidu.html', 'w', encoding='utf-8') as file:
#     file.write(response.text)
# with open('baidu.html', 'wb') as f:
#     f.write(response.content)
''' ---------------------------------------------------------------------------------- '''

# import requests  # 导入请求库
#
# headers = {'User-Agent':  # 在请求头中定义用户代理
#                'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36'}
# url = 'https://www.baidu.com/'  # 定义网络请求的网址
# response = requests.get(url, headers=headers)  # 发起网络请求并获取响应
# print(response.request.headers)
# with open('baidu.html', 'wb') as file:
#     file.write(response.content)
''' ---------------------------------------------------------------------------------- '''

# import requests
# from fake_useragent import FakeUserAgent
# random_user_agent = FakeUserAgent().random
# # print(random_user_agent)
# headers = {'User-Agent': random_user_agent}
# url = 'https://www.baidu.com/'
# response = requests.get(url, headers=headers)
# print(response.request.headers)
# with open('baidu.html', 'wb') as file:
#     file.write(response.content)
  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值