爬取拉勾网招聘信息(selenium+lxml)

再次爬取拉勾网招聘信息作学习交流


对于上一种爬虫方式,很容易受到网站反爬机制的识别,每一次失效都需要去花时间修改代码,所以可以使用selenium模拟浏览器行为去获取数据,只要拉勾网不把selenium ban掉,理论上就可以一直使用。
需要注意的是,代码在模拟浏览器点击下一页的过程中,需要对driver的当前窗口进行切换。
附代码:

#encoding: utf-8
from selenium import webdriver
from lxml import etree
import re
import time



class LagouSpider(object):
    driver_path = r"D:\Chromedriver\chromedriver.exe"
#初始化爬虫的时候,将需要的参数传入
    def __init__(self):
        self.driver = webdriver.Chrome(executable_path=LagouSpider.driver_path)
        self.url = 'https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput='
        self.positions = []

    def run(self):
        self.driver.get(self.url)
        while True:
            source = self.driver.page_source
            self.request_list_page(source)
            #爬取完一页的信息后,找到下一页的按钮
            nextbtn = self.driver.find_element_by_class_name("pager_next")
            #判断是否到达最后一页
            if "pager_next_disabled" in nextbtn.get_attribute("class"):
                pass
            else:
                nextbtn.click()
                time.sleep(1)
                
#根据搜索首页解析出对应职位的详细url
    def request_list_page(self,source):
        html = etree.HTML(source)
        links = html.xpath("//a[@class='position_link']/@href")
        for link in links:
            self.parse_detail(link)
            time.sleep(2)

#根据每个职位的详细url进行数据爬取分析
    def parse_detail(self,url):
        #另外打开详细职位的页面
        self.driver.execute_script("window.open('%s')"%url)
        #将driver定位到详细职位页面
        self.driver.switch_to.window(self.driver.window_handles[1])

        #使用xpath去解析数据
        source = self.driver.page_source
        htmlelement = etree.HTML(source)
        name = htmlelement.xpath('//h1[@class = "name"]/text()')[0]
        job_request = htmlelement.xpath('//dd[@class="job_request"]//span')
        salary = job_request[0].xpath('.//text()')[0].strip()
        city = job_request[1].xpath('./text()')[0].strip()
        city = re.sub(r"[\s/]", "", city)
        work_years = job_request[2].xpath('.//text()')[0].strip()
        work_years = re.sub(r"[\s/]", "", work_years)
        education = job_request[3].xpath('.//text()')[0].strip()
        education = re.sub(r"[\s/]", "", education)
        desciption = "".join(htmlelement.xpath("//dd[@class='job_bt']//text()"))
        dict = {
            'name': name,
            'salary': salary,
            'city': city,
            'work_years': work_years,
            'education': education,
            'desciption': desciption
        }
        self.positions.append(dict)
        print(dict)
        print('+'*30)


        #爬取完当前页面的信息后关闭当前页面
        self.driver.close()
        #将driver定位回搜索界面
        self.driver.switch_to.window(self.driver.window_handles[0])



if __name__ == '__main__':
    spider = LagouSpider()
    spider.run()

如果存在疑问,欢迎留言交流。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值