python3 urllib爬虫,你只需要看这一篇就够了

3 篇文章 0 订阅
2 篇文章 0 订阅

写在最前面:以下数据均脱敏

from urllib import request
import requests
import urllib

if __name__ == "__main__":
    # 接口的url
    session_requests = requests.session()
    data = {'username': '11111111', 'password': '11111111'}
    requrl ='https://xxxxxx.com/xx/login?xxxxxxxxxxxxxxxxxxxxxxx' #登录请求url
    headers = {'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:58.0) Gecko/20100101 Firefox/58.0'}
    # 发送请求
    conn=requests.post(requrl,data,headers)
    #cookies = conn.cookies.get_dict()
    print(conn.request.headers)
    newheaders = conn.request.headers
    url = "http://xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx.htm" #请求爬虫的url
    print(type(newheaders))
    newheaders = dict(newheaders)
    print(type(newheaders))
    del newheaders['Accept-Encoding']
    print(newheaders)
    req = request.Request(url=url,headers=newheaders)
    rsp = request.urlopen(req)
    html = rsp.read().decode("utf-8","ignore")
    print(html)

因为不把Accepe-Encoding去掉,会报错,或者乱码

UnicodeDecodeError: 'utf-8' codec can't decode byte 0x8b in position 1: invalid start byte

 所以转成字典,再去掉Accepe-Encoding

下面稍微解释一下吧,首先构造登录请求报文,包含用户名,密码,登录成功后获取cookie,使用cookie再去访问你要爬虫的页面,不然还是会被登录页面给拦截掉

能抓到你想访问的页面,接下来想干什么都可以了

关于cookie,其实你也可以手动F12看一下,Network里,Headers里有一个Request Headers,其中最重要的就是你的cookie,保存了你本次登录的所有信息,每次重新登录都会改变
 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值