Python 爬虫模拟登录方法汇总

摘要: 在进行爬虫时,除了常见的不用登录就能爬取的网站,还有一类需要先登录的网站。比如豆瓣、知乎,以及上一篇文章中的桔子网。这一类网站又可以分为:只需输入帐号密码、除了帐号密码还需输入或点击验证码等类型。本文以只需输入账号密码就能登录的桔子网为例,介绍模拟登录常用的 3 种方法。

  • POST 请求方法:需要在后台获取登录的 URL并填写请求体参数,然后 POST 请求登录,相对麻烦;
  • 添加 Cookies 方法:先登录将获取到的 Cookies 加入 Headers 中,最后用 GET 方法请求登录,这种最为方便;
  • Selenium 模拟登录:代替手工操作,自动完成账号和密码的输入,简单但速度比较慢。

下面,我们用代码分别实现上述 3 种方法。

1. 目标网页

这是我们要获取内容的网页:

radar.itjuzi.com/investevent

这个网页需要先登录才能看到数据信息,登录界面如下:

可以看到,只需要输入账号和密码就可以登录,不用输验证码,比较简单。下面我们利用一个测试账号和密码,来实现模拟登录。

2. POST 提交请求登录

首先,我们要找到 POST 请求的 URL。

有两种方法,第一种是在网页 devtools 查看请求,第二种是在 Fiddler 软件中查看。

先说第一种方法。

在登录界面输入账号密码,并打开开发者工具,清空所有请求,接着点击登录按钮,这时便会看到有大量请求产生。哪一个才是 POST 请求的 URL呢?这个需要一点经验,因为是登录,所以可以尝试点击带有 「login」字眼的请求。这里我们点击第四个请求,在右侧 Headers 中可以看到请求的 URL,请求方式是 POST类型,说明 URL 找对了。

接着,我们下拉到 Form Data,这里有几个参数,包括 identify 和 password,这两个参数正是我们登录时需要输入的账号和密码,也就是 POST 请求需要携带的参数。

参数构造非常简单,接下来只需要利用 Requests.post 方法请求登录网站,然后就可以爬取内容了。

下面

  • 3
    点赞
  • 69
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
#coding:utf-8 import time import webbrowser as web import os import random #随机选择一个浏览器打开网页 def open_url_use_random_browser(): #定义要访问的地址 url='http://www.baidu.com' #定义浏览器路径 browser_paths=[r'C:\Program Files (x86)\Mozilla Firefox\firefox.exe', #r'C:\Program Files (x86)\Google\Chrome\Application\chrome.exe', #r'C:\Program Files (x86)\Opera\launcher.exe', #r'C:\Users\Administrator\AppData\Roaming\qianying\qianying.exe', #r'C:\Users\Administrator\AppData\Local\115Chrome\Application\115chrome.exe', #r'C:\Program Files (x86)\Internet Explorer\iexplore.exe', #r'D:\Program Files(x86)\SouExplorer\SogouExplorer\SogouExplorer.exe' ] #选择一个浏览器 def chose_a_browser_open_url(browser_path,url): #如果传入的浏览器位置不存在,使用默认的浏览器打开 if not browser_path: print ('using default browser to open') web.open_new_tab(url)#使用默认浏览器,就不再结束进程 else: #判断浏览器路径是否存在 if not os.path.exists(browser_path): print ('current browser path not exists,using default browser') #浏览器位置不存在就使用默认的浏览器打开 browser_path='' chose_a_browser_open_url(chose_a_browser_open_url,url) else: browser_task_name=browser_path.split('\\')[-1]#结束任务的名字 browser_name=browser_task_name.split('.')[0]#自定义的浏览器代号 print (browser_name) web.register(browser_name, None,web.BackgroundBrowser(browser_path)) web.get(browser_name).open_new_tab(url)#使用新注册的浏览器打开网页 print ('using %s browser open url successful' % browser_name) time.sleep(5)#等待打开浏览器 # kill_cmd='taskkill /f /IM '+browser_task_name#拼接结束浏览器进程的命令 # os.system(kill_cmd) #终结浏览器 browser_path=random.choice(browser_paths)#随机从浏览器中选择一个路径 chose_a_browser_open_url(browser_path,url) if __name__ == '__main__': print (''''' ***************************************** ** Welcome to python of browser ** ** Created on 2019-04-28 ** ** @author: Louise_ZOU ** ***************************************** ''') open_url_use_random_browser()
模拟登录是指通过编写程序来模拟手动输入账号密码的过程,以获取登录成功后的cookie,从而可以直接访问需要登录才能进入的页面,并获取所需的数据。在Python中,可以使用第三方库如requests和urllib来实现模拟登录。 使用requests库进行模拟登录的步骤如下: 1. 导入必要的库:import requests 2. 创建一个Session对象:session = requests.Session() 3. 发送GET请求获取登录页面:wb_data = session.get(url).text 4. 解析页面,获取登录表单中的_xsrf参数和其他必要的参数:soup = BeautifulSoup(wb_data, 'lxml'),xsrf = soup.select('input\[value\]')\[-1\].get('value') 5. 构造登录表单数据:data = {'_xsrf': xsrf, 'password': 'your password', 'remember_me': 'true', 'email': 'your email'} 6. 提交登录表单:log_post = session.post('http://www.zhihu.com/login/email', data=data) 7. 验证是否成功登录:test = session.get(url),wb_data = BeautifulSoup(test.text, 'lxml'),wb_data.select('#feed-0 > div.feed-item-inner > div.feed-main > div.feed-content > h2 > a') 另外,还可以使用urllib库来模拟登录,通过保存cookie来保持登录状态。具体步骤如下: 1. 导入必要的库:import http.cookiejar, urllib.request 2. 初始化cookie和opener:cookie = http.cookiejar.CookieJar(),opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cookie)) 3. 配置opener为全局:urllib.request.install_opener(opener) 4. 构造请求头和请求对象:headers = {},request = urllib.request.Request(url, headers=headers) 5. 发送请求并保存cookie:response = urllib.request.urlopen(request) 以上是使用Python进行模拟登录的基本步骤,具体的实践可以根据不同的网站和需求进行相应的调整和修改。 #### 引用[.reference_title] - *1* [python爬虫模拟登录](https://blog.csdn.net/qimo__/article/details/130450046)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Python爬虫基础-模拟登陆](https://blog.csdn.net/weixin_34396103/article/details/89616422)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [python爬虫——模拟登陆](https://blog.csdn.net/qq_16121469/article/details/127718925)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值