Python爬虫进行Cookie登录

不太喜欢说废话,直接开始。

一、首先找到发送登录请求(post或get)的url:

可以用抓包工具来进行捕捉,我用的工具是fiddler。fidder的安装及使用方法大家自行百度。这里假设大家已经安装成功并且会使用该工具。(还是提醒一点吧,此工具与其他的工具有点不同,代理端口是8888,而不是8008)

当然也可以不用抓包工具,用浏览器的F12功能也可以看见:

首先,以一个需要登录之后进行操作的网站为例,比如我们学校的教务管理系统,你们可以试试自己学校的。

佛了,用的get方法,看得到了网址。

二、获得header:

很多网站不给header不能访问得到html源码,比如www.baidu.com就不可以,所以我们要组建header

此两项内容即可。

三、登录之后才能访问的网址

登录成功之后显示的网站是只有登录成功之后才能访问的,我们以此来证明访问是否成功,这个就比较简单了,大家正常登录教务系统,然后把网址复制即可得到。

四、代码实现

from urllib import request,parse
import urllib
#以教务管理系统为例
#登录请求的url,需要用抓包工具找到真正处理请求的网址
Url_beforLogin='http://xxx/teachweb/Login.aspx'
#必需登录后才能操作的网址
Url_afterLogin='http://xxxx/index1.aspx'
headers={
    'User-Agent':r'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:62.0) Gecko/20100101 Firefox/62.0',
    'Connection':'keep-alive'
}
value={#写自己的用户名密码
    'username':'xxxxx13',
    'password':'xxxxxxxxx8AE1xxxC1x4',
    'role':'student'
}
postdata=urllib.parse.urlencode(value).encode()
#保存cookie到本地
import http.cookiejar,urllib.request
firename="cookietochangli.txt"
cookie=http.cookiejar.MozillaCookieJar(firename)
handler=urllib.request.HTTPCookieProcessor(cookie)
opener=urllib.request.build_opener(handler)

req=urllib.request.Request(Url_beforLogin,postdata,headers)
try:
    response = opener.open(req)
except urllib.error.URLError as e:
    print(e.reason)
#保存
cookie.save(ignore_discard=True, ignore_expires=True)
for item in cookie:
    print('Name ='+ item.name)
    print('Value ='+ item.value)
#使用cookie登陆get_url
get_request = urllib.request.Request(Url_afterLogin,headers=headers)
get_response = opener.open(get_request)
#看看是不是登录之后的页面的html码,是则成功
print(get_response.read().decode())

五、反复用cookie登录

读取刚才保存的cookie文件即可

import urllib.request, urllib.parse
import http.cookiejar
firename="cookietochangli.txt"
cookie=http.cookiejar.MozillaCookieJar()
cookie.load(firename,ignore_expires=True,ignore_discard=True)
handler=urllib.request.HTTPCookieProcessor(cookie)
opener=urllib.request.build_opener(handler)
response=opener.open("http://jwgl.cust.edu.cn/teachweb/index1.aspx")
print(response.read().decode('utf8'))

注意,由于session有20分钟的过期时间,所以,同一份cookie文件,只能20分钟内有效,可以反复登录,而标题4的代码重复运行不管多少时间都是没问题的,因为每次都是一个新的session。

 

 

 

 

  • 3
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
Python爬虫可以通过模拟登录的方式来抓取Cookie。模拟登录是指在爬取网页数据之前,先模拟用户登录网站并获取有效的Cookie,然后将Cookie添加到请求头中,以实现登录状态的模拟。这样就可以通过发送带有Cookie的请求来获取登录后的页面或者进行其他需要登录状态的操作。 要抓取Cookie,可以按照以下步骤进行操作: 1. 首先,需要使用Python的requests库发送登录请求,并提供正确的用户名和密码。这个过程可以使用POST请求来完成。 2. 接着,可以通过查看登录成功后的响应内容,找到包含登录后的Cookie信息的部分。可以使用浏览器的开发者工具或者抓包工具来查看响应内容。 3. 一旦找到了Cookie信息,可以将其提取出来并保存下来。可以使用Python的requests库中的cookies属性来获取Cookie信息。 4. 接下来,在后续的请求中,可以将获取到的Cookie添加到请求头中,以模拟登录状态。 需要注意的是,使用Cookie抓取数据时要注意遵守网站的规则和政策,并且尽量不要滥用Cookie。在不需要Cookie的情况下,尽量不去使用Cookie,以免引起网站的不必要的注意或封禁。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Python爬虫——Cookie模拟登录](https://blog.csdn.net/wpc2018/article/details/125789191)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [python 爬虫(cookie)](https://blog.csdn.net/sonflower123/article/details/124748949)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CtrlZ1

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值