python爬取网页urlib_Python3爬虫之urllib携带cookie爬取网页的方法

如下所示:

import urllib.request

import urllib.parse

url = 'https://weibo.cn/5273088553/info'

#正常的方式进行访问

# headers = {

# 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36'

# }

# 携带cookie进行访问

headers = {

'GET https':'//weibo.cn/5273088553/info HTTP/1.1',

'Host':' weibo.cn',

'Connection':' keep-alive',

'Upgrade-Insecure-Requests':' 1',

'User-Agent':' Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',

'Accept':' text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',

# 'Referer: https':'//weibo.cn/',

'Accept-Language':' zh-CN,zh;q=0.9',

'Cookie':' _T_WM=c1913301844388de10cba9d0bb7bbf1e; SUB=_2A253Wy_dDeRhGeNM7FER-CbJzj-IHXVUp7GVrDV6PUJbkdANLXPdkW1NSesPJZ6v1GA5MyW2HEUb9ytQW3NYy19U; SUHB=0bt8SpepeGz439; SCF=Aua-HpSw5-z78-02NmUv8CTwXZCMN4XJ91qYSHkDXH4W9W0fCBpEI6Hy5E6vObeDqTXtfqobcD2D32r0O_5jSRk.; SSOLoginState=1516199821',

}

request = urllib.request.Request(url=url,headers=headers)

response = urllib.request.urlopen(request)

#输出所有

# print(response.read().decode('gbk'))

#将内容写入文件中

with open('weibo.html','wb') as fp:

fp.write(response.read())

以上这篇Python3爬虫之urllib携带cookie爬取网页的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

本文标题: Python3爬虫之urllib携带cookie爬取网页的方法

本文地址: http://www.cppcns.com/jiaoben/python/248625.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值