import requests class Login(object): def __init__(self): self.url = 'http://www.renren.com/PLogin.do' self.headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36" } self.data = { 'email': '你自己的账号', 'password': '你自己的密码' } def login(self): # 1\.创建session对象,可以保存Cookie值 session = requests.session() # 2.发送附带用户名和密码的请求,并获取登录后的Cookie值,保存在ssion里 session.post(self.url, headers=self.headers, data=self.data) # 拿到Cookie以后就可以进行其他的请求,还是要是用我们创建好的session对象 url = 'http://www.renren.com/519394896/profile' data = session.get(url, headers=self.headers).content print(data.decode('utf-8')) def start_work(self): self.login() if __name__ == '__main__': spider = Login() spider.start_work()
前端这个位置就不做分析了,就是一个简单的form表单,已经在图上做标识。不同的网站,都是不一样的建议使用抓包工具。