selenium验证码登录_如何用 Python 登录主流网站,爬取一些需要的数据

1f569777fd760d77979dbd87af79f66f.png

最近收集了一些网站的登陆方式和爬虫程序,有的通过 selenium 登录,有的则通过抓包直接模拟登录。作者希望该项目能帮助初学者学习各大网站的模拟登陆方式,并爬取一些需要的数据。

作者表示模拟登陆基本采用直接登录或者使用 selenium+webdriver 的方式,有的网站直接登录难度很大,比如 qq 空间和 bilibili 等,采用 selenium 登录相对轻松一些。虽然在登录的时候采用的是 selenium,但为了效率,我们也可以在登录后维护得到的 cookie。登录后,我们就能调用 requests 或者 scrapy 等工具进行数据采集,这样数据采集的速度可以得到保证。

目前已经完成的网站有:

  • Facebook
  • 无需身份验证即可抓取 Twitter 前端 API
  • 微博网页版
  • 知乎
  • QQZone
  • CSDN
  • 淘宝
  • Baidu
  • 果壳
  • JingDong 模拟登录和自动申请京东试用
  • 163mail
  • 拉钩
  • Bilibili
  • 豆瓣
  • Baidu2
  • 猎聘网
  • 微信网页版登录并获取好友列表
  • Github
  • 爬取图虫相应的图片

如下所示,如果我们满足依赖项,那么就可以直接运行代码,它会在图虫网站中下载搜索到的图像。

1fb6edec6b453d014bd9e8b2f402037e.png

如下所示为搜索「秋天」,并完成下载的图像:

d5a5da85387da896b2a9baa373bfcdf1.png

每一个网站都会有对应的登录代码,有的还有数据的爬取代码。以豆瓣为例,主要的登录函数如下所示,它会获取验证码、处理验证码、返回登录数据完成登录,并最后保留 cookies。

def login():

captcha, captcha_id = get_captcha()

# 增加表数据

datas[ captcha-solution ] = captcha

datas[ captcha-id ] = captcha_id

login_page = session.post(url, data=datas, headers=headers)

page = login_page.text

soup = BeautifulSoup(page, "html.parser")

result = soup.findAll( div , attrs={ class : title })

#进入豆瓣登陆后页面,打印热门内容

for item in result:

print(item.find( a ).get_text())

# 保存 cookies 到文件,

# 下次可以使用 cookie 直接登录,不需要输入账号和密码

session.cookies.save()

其中获取并解决验证码的函数如下:

def get_captcha():

获取验证码及其ID

r = requests.post(url, data=datas, headers=headers)

page = r.text

soup = BeautifulSoup(page, "html.parser")

# 利用bs4获得验证码图片地址

img_src = soup.find( img , { id : captcha_image }).get( src )

urlretrieve(img_src, captcha.jpg )

try:

im = Image.open( captcha.jpg )

im.show - 又一个WordPress站点()

im.close()

except:

print( 到本地目录打开captcha.jpg获取验证码 )

finally:

captcha = input( please input the captcha: )

remove( captcha.jpg )

captcha_id = soup.find(

input , { type : hidden , name : captcha-id }).get( value )

return captcha, captcha_id

当然这些都是简单的演示,在 GitHub 项目中可以找到更多的示例。此外,作者表明由于网站策略或者样式改变而导致代码失效,我们也可以提 Issue 或 Pull Requests。最后,该项目未来还会一直维护,很多东西哦也会慢慢改进,项目作者表明:

  • 项目写了一段时间后,发现代码风格、程序易用性、可扩展性、代码的可读性,都存在一定的问题,所以接下来最重要的是重构代码,让大家可以更容易的做出一些自己的小功能;
  • 如果读者觉得某个网站的登录很有代表性,可以在项目 issue 中提出;
  • 网站的登录机制有可能经常的变动,所以当现在的模拟的登录的规则不能使用的时候,请项目在 issue 中提出。

项目地址https://github.com/ape-python/awesome-python-login-model

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Python实现自动登录网站爬取数据的步骤: 1. 导入所需的库:requests、BeautifulSoup、selenium等。 2. 使用requests库模拟登录网站获取登录后的cookies。 3. 使用selenium模拟浏览器操作,打开需要爬取的网页,并将cookies添加到浏览器。 4. 使用BeautifulSoup库解析网页HTML代码,提取需要数据。 以下是一个示例代码,用于爬取某个网站数据: ```python import requests from bs4 import BeautifulSoup from selenium import webdriver # 登录网站获取cookies login_url = 'https://example.com/login' session = requests.Session() response = session.get(login_url) soup = BeautifulSoup(response.text, 'html.parser') csrf_token = soup.find('input', {'name': 'csrf_token'})['value'] login_data = { 'csrf_token': csrf_token, 'username': 'your_username', 'password': 'your_password' } session.post(login_url, data=login_data) # 使用selenium打开需要爬取的网页,并添加cookies browser = webdriver.Chrome('path/to/chromedriver') browser.get('https://example.com/data') cookies = session.cookies.get_dict() for key, value in cookies.items(): browser.add_cookie({'name': key, 'value': value}) # 解析网页HTML代码,提取数据 soup = BeautifulSoup(browser.page_source, 'html.parser') data = soup.find('div', {'class': 'data'}).text print(data) # 关闭浏览器 browser.quit() ``` 需要注意的是,以上代码仅作为示例,具体实现可能会因网站的特殊要求而有所不同。同时,不建议使用自动登录方式爬取需要登录才能访问的网站,除非你已获得网站的明确授权。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值