爬虫----084-86requests基本使用及get,post请求

基本使用


import requests

url = 'http://www.baidu.com'

response = requests.get(url=url)


#一个类型和6个属性
# print(type(response))       #Response类型

#设置响应地编码格式
response.encoding = 'utf-8'

#以字符串形式返回网页源码
# print(response.text)

#返回一个url地址
# print(response.url)

#返回的是二进制的数据
print(response.content)

#返回响应的状态码
print(response.status_code)

#返回的是响应头
print(response.headers)

get请求


import requests

url = 'https://www.baidu.com/s'

headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36 SLBrowser/9.0.3.1311 SLBChan/103'
}

data = {
    'wd':'北京'
}


#url: 请求资源路径   params;  参数   kwargs:字典
response = requests.get(url=url,params=data,headers=headers)

content = response.text

print(content)


#参数使用params传递
#参数无需urlencode编码
#不需要请求对象的定制
#请求资源路径中的? 可以加也可以不加

post请求

import requests
import json

url = 'https://fanyi.baidu.com/sug'

headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36 SLBrowser/9.0.3.1311 SLBChan/103'
}

data = {
    'kw':'spider'
}


#url:请求地址  data:请求参数    json:   kwargs: 字典
response = requests.post(url=url,data=data,headers=headers)

content = response.text

obj = json.loads(content,encoding='utf-8')
print(obj)



#总结:(1)post请求不需要编解码  (2)post请求的参数是data  (3)不需要请求对象的定制

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,我可以为您提供一些关于爬取QQ空间相册的Python网络爬虫的相关信息。 首先,爬取QQ空间相册需要模拟登录QQ空间,获取相册的相册ID和相册密钥,然后根据相册ID和相册密钥构造相册访问链接,最后获取相册中的图片链接并下载保存。 以下是一个简单的爬取QQ空间相册的Python爬虫示例代码: ```python import requests from bs4 import BeautifulSoup # 模拟登录QQ空间获取cookies login_url = 'https://user.qzone.qq.com/' login_data = { 'username': 'your_username', 'password': 'your_password' } session = requests.Session() session.post(login_url, data=login_data) # 获取相册的相册ID和相册密钥 album_url = 'https://user.qzone.qq.com/proxy/domain/photo.qzone.qq.com/fcgi-bin/fcg_list_album_v3' album_params = { 'g_tk': 'your_gtk', 'uin': 'your_uin', 'hostUin': 'your_hostUin', 'format': 'json', 'inCharset': 'utf-8', 'outCharset': 'utf-8', 'notice': '0', 'numperpage': '30', 'pagenum': '0', 'callback': '_Callback', 'preCallback': '_Callback', 'json_esc': '1', 't': '0.9002957465610669' } album_response = session.get(album_url, params=album_params) album_json = album_response.content.decode('utf-8') album_data = eval(album_json.strip('_Callback(').rstrip(');')) album_list = album_data['data']['albumListModeSort'] # 遍历相册列表获取相册中的图片链接并下载保存 for album in album_list: album_id = album['id'] album_key = album['skey'] album_name = album['name'] album_url = 'https://user.qzone.qq.com/proxy/domain/photo.qzone.qq.com/fcgi-bin/cgi_list_photo' album_params = { 'g_tk': 'your_gtk', 'uin': 'your_uin', 'albumid': album_id, 'ps': '100', 'pagenum': '0', 'jsoncallback': 'shine0_Callback', 'callback': 'shine0', 'extral': 'undefined', 't': '0.9002957465610669' } album_response = session.get(album_url, params=album_params) album_json = album_response.content.decode('utf-8') album_data = eval(album_json.strip('shine0_Callback(').rstrip(');')) album_photo_list = album_data['data']['photoList'] for photo in album_photo_list: photo_url = photo['url'] photo_response = session.get(photo_url) with open(album_name + '/' + photo['name'], 'wb') as f: f.write(photo_response.content) ``` 请注意,为了保护您的账户安全,请替换示例中的您的用户名,密码,GTK,UIN和HostUin等参数。 希望这个示例可以帮助您开始爬取QQ空间相册。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值