python scrapy爬虫框架 抓取BOSS直聘平台 数据可视化统计分析

使用python scrapy实现BOSS直聘数据抓取分析

前言

  随着金秋九月的悄然而至,我们迎来了业界俗称的“金九银十”跳槽黄金季,周围的朋友圈中弥漫着探索新机遇的热烈氛围。然而,作为深耕技术领域的程序员群体,我们往往沉浸在代码的浩瀚宇宙中,享受着解决技术难题的乐趣,却也不经意间与职场外部的风云变幻保持了一定的距离,对行业动态或许仅有一鳞半爪的了解,甚至偶有盲区。

  但正是这份对技术的执着与热爱,铸就了我们程序猿独有的智慧与创造力。面对信息获取的局限,我们从不轻言放弃,而是选择以技术为舟,智慧为帆,主动出击,寻找破局之道。于是,我,一个满怀热情的程序员,决定利用我的技术专长,为这一难题量身打造解决方案。

  我将运用python爬虫技术,构建一套针对于BOSS直聘平台的数据抓取和统计分析脚本。这个脚本不仅能够实时抓取并分析薪资范围、所需经验和学历,还能根据关键词进行检索。如此,即便我们身处技术的深海,也能保持对外部世界的敏锐洞察,确保在每一次职业抉择中都能做出最优选择。

  通过这样的尝试,我希望能为广大的程序员朋友们搭建起一座桥梁,连接技术与职场,让每一位程序猿都能在技术的海洋中自由遨游的同时,也能精准把握每一次跃向更广阔天地的机会。

效果图

抓取的部分数据

在这里插入图片描述

统计分析图表

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

技术栈

  • 项目整体使用scrapy爬虫框架
  • 使用selenium解决动态网页加载
  • 使用pandas进行数据分析统计
  • 使用matplotlib实现图表生成

源代码

由于spiders框架会自动生成目录结构,所以这里我只放出核心代码,为大家提供一个思路,完整代码可访问我的GitHub.
import scrapy
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as ec
from selenium.webdriver.support.ui import WebDriverWait

# 爬虫代码
class BossSpider(scrapy.Spider):
    name = "bossSpider"
    # 设置输出文件
    custom_settings = {
        'FEED_URI': 'BossData.csv',
    }
    # 创建WebDriver实例,不能开启无头模式,否则无法获取到数据
    driver = webdriver.Edge()
    query = input("输入要搜索的职位、公司:")
    page = 1

    def start_requests(self):
        url = f"https://www.zhipin.com/web/geek/job?query={self.query}&city=100010000"
        self.driver.get(url)
        yield scrapy.Request(url, callback=self.parse, meta={'driver': self.driver})

    def parse(self, response, **kwargs):
        driver = response.meta['driver']
        try:
            # 等待元素加载成功
            WebDriverWait(driver, 60).until(
                ec.presence_of_element_located(
                    (By.XPATH, '//div[@class="search-job-result"]//li[@class="job-card-wrapper"]'))
            )
            job_elements = driver.find_elements(By.XPATH,
                                                '//div[@class="search-job-result"]//li[@class="job-card-wrapper"]')
            for element in job_elements:
                data_store = DataStore()
                # 职位名称
                data_store['name'] = element.find_element(By.XPATH, './/span[@class="job-name"]').text
                # 工作地点
                data_store['area'] = element.find_element(By.XPATH, './/span[@class="job-area"]').text
                # 薪水
                data_store['salary'] = element.find_element(By.XPATH, './/span[@class="salary"]').text
                # 标签(经验、学历)
                tag = element.find_element(By.XPATH, './/ul[@class="tag-list"]')
                tag_list = tag.find_elements(By.TAG_NAME, 'li')
                data_store['experience'] = tag_list[0].text
                data_store['education'] = tag_list[1].text
                # 联系人
                data_store['contact_person'] = element.find_element(By.XPATH, './/div[@class="info-public"]').text
                # 公司logo
                company_logo = element.find_element(By.XPATH, './/div[@class="company-logo"]')
                logo_img = company_logo.find_element(By.TAG_NAME, 'a').get_attribute('href')
                data_store['company_logo'] = logo_img
                # 公司名称
                data_store['company_name'] = element.find_element(By.XPATH, './/h3[@class="company-name"]').text
                # 公司标签
                company_tag_list = element.find_element(By.XPATH, './/ul[@class="company-tag-list"]')
                tag_list = company_tag_list.find_elements(By.TAG_NAME, 'li')
                data_store['company_tag'] = ','.join([tag.text for tag in tag_list if tag.text])
                # 职位描述
                footer = element.find_element(By.XPATH, './/div[@class="job-card-footer clearfix"]')
                tag_list = footer.find_elements(By.TAG_NAME, 'li')
                data_store['tag_list'] = ','.join([tag.text for tag in tag_list if tag.text])
                # 公司福利
                data_store['info_desc'] = footer.find_element(By.XPATH, './/div[@class="info-desc"]').text

                yield data_store.data

            self.page += 1
            if self.page <= 3:
                next_page_url = f"https://www.zhipin.com/web/geek/job?query={self.query}&city=100010000&page={self.page}"
                self.driver.get(next_page_url)
                yield scrapy.Request(next_page_url, callback=self.parse, meta={'driver': self.driver})

        except Exception as e:
            # 处理超时异常或其他异常
            print(f"Error: {e}")
            yield None


# 存储抓到的数据
class DataStore:
    def __init__(self):
        self.data = {}

    def __setitem__(self, key, value):
        self.data[key] = value

    def __getitem__(self, item):
        return self.data[item]

import pandas as pd
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']  # 设置中文字体为黑体
plt.rcParams['axes.unicode_minus'] = False  # 正确显示负号

# 数据分析
def data_analyse(csv, column, title, x_label, y_label):
    # 读取CSV文件
    data = pd.read_csv(csv)
    # 计数,并按升序排列
    value_counts = data[column].value_counts(ascending=True).sort_index(ascending=True)
    # 绘制柱状图
    value_counts.plot(kind='bar')

    # 在每个柱子顶部添加数字
    for i, val in enumerate(value_counts):
        plt.text(i, val, int(val), ha='center', va='bottom')

    # 设置标题
    plt.title(title)
    # 设置X轴标签
    plt.xlabel(x_label)
    # 设置Y轴标签
    plt.ylabel(y_label)
    # 自动调整子图参数,使之填充整个图表区域,边距不足时可能报错,但不会影响程序执行
    plt.tight_layout()
    plt.show()


if __name__ == '__main__':
    data_analyse('BossData.csv', 'salary', '薪资统计', '范围', '数量')
    data_analyse('BossData.csv', 'experience', '经验统计', '经验', '数量')
    data_analyse('BossData.csv', 'education', '学历统计', '学历', '数量')

未来功能扩展

  • 不局限在BOSS平台,扩展多种平台的抓取和分析。
  • 增加更多的检索条件,提炼更加精准的数据分析。
  • 如果有足够的精力,可以考虑将数据存储在数据库表中,然后利用SQL语句和后端逻辑进行深入的数据分析还可以通过前端图表组件,如ECharts或D3.js,来创建直观且美观的数据可视化。

合法性

  • robots协议:由于互联网开放、互联互通的特点,尽管互联网企业可以在robots协议中通过技术术语告知搜索引擎的网络机器人其希望或不希望抓取的网页内容,但robots协议的初衷是为了指引搜索引擎的网络机器人更有效的抓取对网络用户有用的信息,从而更好地促进信息共享,而不应将robots协议作为限制信息流通的工具。
  • 技术手段:没有使用模拟登录、破解反爬机制等涉及网络安全的技术手段。
  • 数据用途:爬取的数据不会用于商业用途或侵犯个人隐私。
  • 网站压力:没有使用突破其IP封锁的技术,不会造成DDoS攻击。
  • 本程序仅供学习和研究之用。若您使用或参考本程序进行任何可能导致违法行为的操作,相关责任将由您自行承担。我们建议您在使用过程中遵守相关法律法规,确保所有行为合法合规。

结束语

  代码行数不多,能以少量的代码实现复杂的功能,是每位程序员的至高追求。在我当前的项目中,尽管所实现的功能看似并不纷繁复杂,但正是得益于Python语言的简洁与强大,使得这一过程变得既高效又优雅。Python以其易读性、易写性及丰富的库支持,极大地简化了开发流程,让我能够专注于功能的实现而非语法细节。

  当然,技术世界日新月异,BOSS直聘平台作为一个不断发展的平台,未来很可能会进行更新迭代。在此,我想对关注此项目的朋友们说,如果您在使用或测试过程中,提前发现了因平台更新而导致的功能兼容性问题,请不吝私信于我。我将在力所能及且时间允许的情况下,积极跟进并更新代码,以确保项目的持续可用性和稳定性。

  让我们共同期待,通过不断的学习与交流,能够在这个充满挑战与机遇的编程世界中,携手前行,共创更加辉煌的成就!

<think>好的,我需要帮助用户找到与BossAPI相关的开发资源或文档。首先,我需要确认Boss是否公开提供了官方API。根据我所知,Boss并没有公开的官方API文档,这可能意味着用户需要寻找其他方法或者第三方资源。 接下来,我应该检查用户提供的引用内容,看看是否有相关线索。引用[2]、[3]、[4]、[5]提到了使用Scrapy、BeautifulSoup、Selenium和Flask来爬取Boss的数据,并构建可视化系统。这说明用户可能对爬虫技术感兴趣,或者想通过非官方途径获取数据。但用户明确询问的是API开发文档,所以需要区分API和爬虫的区别。 用户可能需要了解,如果没有官方API,可能需要使用爬虫技术。但这样做存在法律和技术风险,比如反爬机制。引用[4]和[5]展示了爬虫代码片段,可能可以作为参考。不过,我需要提醒用户注意合规性问题。 另外,用户可能想开发类似引用[3]中的项目,所以可以建议他们参考现有的开源项目或教程,例如GitHub上的相关仓库,或者技术博客中的指南。引用[3]提到使用Django和Mysql,这可能对用户有帮助。 总结步骤: 1. 指出Boss没有公开API,建议检查官方网站或联系支持。 2. 提及第三方资源如GitHub或技术社区可能有非官方API。 3. 讨论爬虫作为替代方案,引用现有的代码示例,但提醒合规风险。 4. 推荐学习相关技术栈(如Flask、Scrapy)来构建自己的解决方案。 5. 提供替代平台如智联招的API作为备选。 需要确保回答结构清晰,分点说明,并引用提供的参考资料。同时,生成相关问题,帮助用户深入探索。</think>### 关于BossAPI开发资源的解答 #### 1. **官方API的获取途径** 目前Boss**未公开提供官方API文档或接口**。若需集成其服务,建议通过以下方式尝试: - **官方网站查询**:访问Boss开放平台(如有)或联系其技术支持团队确认接口权限[^2]。 - **企业认证申请**:部分招平台(如智联招)会向合作企业开放API权限,可尝试通过企业资质申请[^1]。 #### 2. **第三方资源与替代方案** 若需获取招数据,可参考以下非官方技术方案: - **爬虫技术**:引用[2][3][4][5]中的项目展示了通过`Scrapy`、`Selenium`等工具模拟请求并解析网页数据。例如: ```python # 使用Selenium定位薪资字段(引用[4]) salary = driver.find_element_by_css_selector('.salary').text ``` **注意**:此方法可能违反平台反爬政策,需谨慎评估法律风险。 - **开源项目参考**:GitHub等平台有开发者分享基于PythonBoss数据采集项目(如引用[3]),可学习其实现逻辑。 #### 3. **技术栈建议** 若需构建类似系统,需掌握以下技术(参考引用内容): - **后端开发**:`Flask`(轻量级API服务)或`Django`(全栈框架)[^3] - **数据采集**:`Scrapy`(高效爬虫框架)、`Selenium`(动态页面操作)[^4] - **前端交互**:`Vue.js`或`jQuery`实现数据可视化[^2] #### 4. **合规性提醒** 接调用非公开API或爬虫可能涉及法律风险。建议: - 优先使用合规数据源(如LinkedIn API、智联招开放平台) - 遵守目标网站的`robots.txt`协议及数据隐私法规(如GDPR) --- ###
评论 24
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

晓时谷雨

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值