chrome driver 获取 session_BOSS直聘招聘信息获取之使用webdriver进行爬取

点击蓝色“ 不太灵光的程序员”关注我哟

加个“星标”,每天上午 09:30,干货推送!

63a4efec5912bf552dfa7d80c70880da.png

进行网页数据爬取的方式有很多,我前面使用了requests模块添加浏览器的cookies来对页面数据进行爬取的,那我们是不是可以直接使用浏览器来获取数据呢,当然是可以的。

虽然boss对这种自动化测试软件也是做了限制的,但是比上一版的爬虫程序来说还是可以爬到更多的数据,BOSS的反爬策略:

  • 前几次使用自动化爬取时会提示进行活体验证

  • 再继续爬的话就会被限制访问,当然不会影响你登录的用户

  • 密码登录这个时候也会被策略限制,智能扫码登录了0020e8c65fbfb3ca5fbdf38969f2be2b.png

可以操作浏览器的模块

WebDriver

导入浏览器驱动,用get方法打开浏览器,例如:

import time
from selenium import webdriver

def mac():
driver = webdriver.Chrome() //打开Chrome浏览器
# driver = webdriver.Firefox() //打开Firefox浏览器
# driver = webdriver.Ie() //打开IE浏览器
driver.implicitly_wait(5)
driver.get("http://www.baidu.com")

chromedriver.exe的下载地址为 http://chromedriver.storage.googleapis.com/index.html
选择版本是看下安装的浏览器版本,需要和它是一致的。

webbrowser

通过导入python的标准库webbrowser打开浏览器,例如:

import webbrowser
webbrowser.open("C:\\Program Files\\Internet Explorer\\iexplore.exe")
webbrowser.open("C:\\Program Files\\Internet Explorer\\iexplore.exe")

Splinter

Splinter的使用必修依靠Cython、lxml、selenium这三个软件。所以,安装前请提前安装
Cython、lxml、selenium。以下给出链接地址:
1)http://download.csdn.net/detail/feisan/4301293
2)http://code.google.com/p/pythonxy/wiki/AdditionalPlugins#Installation_no
3)http://pypi.python.org/pypi/selenium/2.25.0#downloads
4)http://splinter.cobrateam.info/

#coding=utf-8
import time
from splinter import Browser

def splinter(url):
browser = Browser()
#login 126 email websize
browser.visit(url)
#wait web element loading
time.sleep(5)
#fill in account and password
browser.find_by_id('idInput').fill('xxxxxx')
browser.find_by_id('pwdInput').fill('xxxxx')
#click the button of login
browser.find_by_id('loginBtn').click()
time.sleep(8)
#close the window of brower
browser.quit()

if __name__ == '__main__':
websize3 ='http://www.126.com'
splinter(websize3)

我们这次使用的是WebDriver

WebDriver常用方法

  • 可以使用get方法请求网页

  • find_element可以查找元素

  • find_element_by_xx 提供对 id、name、class_name等的查询

  • send_keys 输入

  • click 点击按钮、连接等

  • text获取元素的文本

爬虫程序

# -*- coding: utf-8 -*-
from bs4 import BeautifulSoup as bs
from selenium import webdriver
import time
HOST = "https://www.zhipin.com"


def extract_data(content):
# 处理职位列表
job_list = []
for item in content.find_all(class_="job-primary"):
job_title = item.find("div", attrs={"class": "job-title"})
job_name = job_title.a.attrs["title"]
job_href = job_title.a.attrs["href"]
data_jid = job_title.a['data-jid']
data_lid = job_title.a["data-lid"]
job_area = job_title.find(class_="job-area").text

job_limit = item.find(class_="job-limit")
salary = job_limit.span.text
exp = job_limit.p.contents[0]
degree = job_limit.p.contents[2]

company = item.find(class_="info-company")
company_name = company.h3.a.text
company_type = company.p.a.text

stage = company.p.contents[2]
scale = company.p.contents[4]
info_desc = item.find(class_="info-desc").text
tags = [t.text for t in item.find_all(class_="tag-item")]
job_list.append([job_area, company_type, company_name, data_jid, data_lid, job_name, stage, scale, job_href,
salary, exp, degree, info_desc, "、".join(tags)])
return job_list


def get_job_text(driver):
"""
通过driver.text 也可以获取到页面数据 但是解析不太方便
"""
time.sleep(5)
job_list = driver.find_elements_by_class_name("job-primary")
for job in job_list:
print job.text


def main(host):
chrome_driver = "chromedriver.exe"
driver = webdriver.Chrome(executable_path=chrome_driver)
driver.get(host)
# 获取到查询框 输入查询条件
driver.find_element_by_name("query").send_keys("python")
# 点击查询按钮
driver.find_element_by_class_name("btn-search").click()

job_list = []
while 1:
time.sleep(5)
content = driver.execute_script("return document.documentElement.outerHTML")
content = bs(content, "html.parser")
job_list += extract_data(content)
next_page = content.find(class_="next")
if next_page:
driver.find_element_by_class_name("next").click()
else:
break

driver.close()


if __name__ == "__main__":
main(HOST)

end

推荐阅读:

  • BOSS直聘招聘信息获取之网站分析

  • BOSS直聘招聘信息获取之爬虫工具分析

  • BOSS直聘招聘信息获取之爬虫程序分析

如有收获,点个在看,诚挚感谢8692428d9b737f86aff5e8ffc9617156.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值