Python 网络爬虫之模拟登陆合集 !

本文介绍了Python网络爬虫中如何处理需要登陆的网站,包括GET和POST请求、使用Cookies以及Selenium模拟登陆的方法。通过实际操作展示了登录目标网页itjuzi.com的过程。
摘要由CSDN通过智能技术生成

摘要: 之前我们爬取的实习僧、糗事百科、网易新闻都是不需要登陆,不需要你去做账号、Cookies、Session等等,顶多只需要一个 headers (请求头),但还有一类是需要:你(注册)账号登陆才能进行后续的操作。

       例如:淘宝、知乎、豆瓣之类的需要你登陆的。

我们之前又整合一些 requests 库 提供 http 的所有基本请求方式:

 

 

 

 

 

Python资源共享群:484031800

回顾:

1.GET请求

可利用params参数

 

 

 

 

 

输出结果:

 

 

 

 

2.POST请求

利用data参数 为POST添加参数:

 

 

 

 

 

 

 

 

 

上传文件的方式:

方法一:

 

 

 

 

 

 

方法二:

我个人更习惯或者说更 Python 的操作,是方法二:

 

 

 

 

 

 

 

 

 

步入正题:

个人目前知道有以下几种操作方法ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值