拉勾网爬取之二:利用selenium和lxml爬取

      由于拉勾网的cookie信息很快会过期,所以在这里我们可以利用selenium来模拟浏览器的行为,避开cookie信息对我们的限制。在上一篇,我们提取拉勾网的信息要自己手动地设置一些地址,这就很不方便了。

     在这里我们用selenium打开拉勾网的首页,关闭弹窗,在输入框输入信息并点击搜索,像人一样点开每一个职位的详情页面提取完信息后关闭页面并打开下一个信息,完成一个页面后点击下一页并判断是否在最后一页,提取完信息后退出。完整代码如下

from selenium import webdriver
from selenium.webdriver.support.ui import Select
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By
from lxml import etree
import time
import re


class LagouSpider(object):
    def __init__(self):
        self.driver = webdriver.Chrome()
        self.positions = []

    def run(self):
        self.parse_main_page()
        while True:
            self.parse_list_page()
            # 获取下一页点击按钮
            next_page = self.driver.find_element_by_xpath("//div[@class='p
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值