python爬取过程_python爬虫 模拟登录人人网过程解析

requests 提供了一个叫做session类,来实现客户端和服务端的会话保持

使用方法

1.实例化一个session对象

2.让session发送get或者post请求session = requests.session()

session.get(url,headers)

下面就用人人网来实战一下# coding=utf-8

import requests

session = requests.session()

# 登录的表单url

post_url = "http://www.renren.com/PLogin.do"

post_data = {"email": "your_email", "password": "your_password"}

headers = {

"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36"

}

# 使用session发送post请求,cookie保存在其中

session.post(post_url, data=post_data, headers=headers)

# 在使用session进行请求登陆之后才能访问的地址

# 这是个人首页url

r = session.get("http://www.renren.com/327550088/profile", headers=headers)

# 保存页面到本地

with open("renren1.html", "w", encoding="utf-8") as f:

f.write(r.content.decode('utf-8'))

就这么简单,模拟登录上人人网并且获取了个人首页信息页面保存到本地。

其实网站记录登录状态就是通过cookie里面携带的信息,如果我们发送请求的时候带上登录的cookie能不能够访问到只有登录才能访问的页面,当然是可以的

请看代码# coding=utf-8

import requests

headers = {

"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36",

"Cookie":"你的登录cookie"

}

r = requests.get("http://www.renren.com/327550088/profile",headers=headers)

#保存页面

with open("renren2.html","w",encoding="utf-8") as f:

f.write(r.content.decode())

可以看到, Cookie 可以放在 headers 中,其实 requests 中也有一个参数用来传递cookie,这个参数就是 cookies

请看代码# 字典生成器的用法

cookies = {i.split("=")[0]:i.split("=")[1] for i in cookies.split("; ")}

print(cookies)

r = requests.get("http://www.renren.com/327550088/profile",headers=headers,cookies=cookies)

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持爱安网。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值