Python爬虫入门教程32:爬取boss直聘招聘数据并做可视化展示

前言💨

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

前文内容💨

Python爬虫入门教程01:豆瓣Top电影爬取

Python爬虫入门教程02:小说爬取

Python爬虫入门教程03:二手房数据爬取

Python爬虫入门教程04:招聘信息爬取

Python爬虫入门教程05:B站视频弹幕的爬取

Python爬虫入门教程06:爬取数据后的词云图制作

Python爬虫入门教程07:腾讯视频弹幕爬取

Python爬虫入门教程08:爬取csdn文章保存成PDF

Python爬虫入门教程09:多线程爬取表情包图片

Python爬虫入门教程10:彼岸壁纸爬取

Python爬虫入门教程11:新版王者荣耀皮肤图片的爬取

Python爬虫入门教程12:英雄联盟皮肤图片的爬取

Python爬虫入门教程13:高质量电脑桌面壁纸爬取

Python爬虫入门教程14:有声书音频爬取

Python爬虫入门教程15:音乐网站数据的爬取

Python爬虫入门教程17:音乐歌曲的爬取

Python爬虫入门教程18:好看视频的爬取

Python爬取入门教程19:YY短视频的爬取

Python爬虫入门教程20:IP代理的爬取使用

Python爬虫入门教程21:付费文档的爬取

Python爬虫入门教程22:百度翻译JS解密

Python爬虫入门教程23:A站视频的爬取,解密m3u8视频格式

Python爬虫入门教程24:下载某网站付费文档保存PDF

Python爬虫入门教程25:绕过JS加密参数,实现批量下载抖某音无水印视频内容

Python爬虫入门教程26:快手视频网站数据内容下载

Python爬虫入门教程27:爬取某电商平台数据内容并做数据可视化

Python爬虫入门教程28:爬取微博热搜榜并做动态数据展示

Python爬虫入门教程29:爬取某团烤肉店铺数据内容并做可视化展示

ython爬虫入门教程30:爬取拉勾网招聘数据信息

Python爬虫入门教程31:爬取猫咪交易网站数据并作数据分析

PS:如有需要 Python学习资料 以及 解答 的小伙伴可以加点击下方链接自行获取
python免费学习资料以及群交流解答点击即可加入

基本开发环境💨

  • Python 3.8
  • Pycharm

相关模块的使用💨

from selenium import webdriver
import csv

安装Python并添加到环境变量,pip安装需要的相关模块即可。
在这里插入图片描述
如图所示,通过 Python 来控制 Selenium,然后让 Selenium 控制浏览器,操纵浏览器,这样就实现了使用Python 间接的操控浏览器。
Selenium具体怎么就能操纵浏览器呢?这要归功于 浏览器驱动 ,Selenium可以通过API接口实现和浏览器驱动的交互,进而实现和浏览器的交互。所以要配置浏览器驱动。

本教材使用版本:

火狐驱动:geckodriver 0.23.0 ( 2018-10-04)

火狐驱动下载地址: http://npm.taobao.org/mirrors/geckodriver/

谷歌驱动:ChromeDriver 71.0.3578.33

谷歌驱动下载地址:

https://npm.taobao.org/mirrors/chromedriver/

http://chromedriver.storage.googleapis.com/index.html

配置浏览器驱动:

将下载好的浏览器驱动解压,将解压出的 exe 文件放到Python的安装目录下,也就是和python.exe同目录即可。
在这里插入图片描述

💥代码实现

from selenium import webdriver
import csv

f = open('data.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
    '标题',
    '地区',
    '薪资',
    '经验',
    '公司名',
    '公司领域',
    '福利',
    '详情页',
])
csv_writer.writeheader()
driver = webdriver.Chrome()

driver.get('https://www.zhipin.com/job_detail/?query=python&city=100010000&industry=&position=')
driver.implicitly_wait(10)


def get_job_info():
    lis = driver.find_elements_by_css_selector('.job-list li')
    for li in lis:
        # 标题
        title = li.find_element_by_css_selector('.job-name a').get_attribute('title')
        # 地区
        area = li.find_element_by_css_selector('.job-area').text
        # 薪资
        money = li.find_element_by_css_selector('.job-limit .red').text
        # 经验
        limit = li.find_element_by_css_selector('.job-limit p').text
        # exp = limit[0].text
        company_name = li.find_element_by_css_selector('.company-text .name a').text
        company_type = li.find_element_by_css_selector('.company-text p a').text
        desc = li.find_element_by_css_selector('.info-append .info-desc').text
        href = 'https://www.zhipin.com/' + li.find_element_by_css_selector('.job-name a').get_attribute('href')
        print(title, area, money, limit, company_name, company_type, desc, sep='|')
        dit = {
            '标题': title,
            '地区': area,
            '薪资': money,
            '经验': limit,
            '公司名': company_name,
            '公司领域': company_type,
            '福利': desc,
            '详情页': href,
        }
        csv_writer.writerow(dit)

在这里插入图片描述

💥数据可视化

只是获取前10页的数据内容,总计是300条数据

每个地区的招聘数量

在这里插入图片描述

平均工资最高的地区

在这里插入图片描述

经验学历需求图

在这里插入图片描述

招聘公司所在领域

在这里插入图片描述

  • 3
    点赞
  • 78
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
好的,我们可以使用 Python 中的 requests 库和 BeautifulSoup 库来爬取 BOSS 直聘招聘数据。 首先,我们需要打开 BOSS 直聘的网站,搜索我们需要的职位,并复制浏览器地址栏中的链接,作为我们爬取的 URL。 接下来,我们可以使用 requests 库向该 URL 发送请求,并使用 BeautifulSoup 库解析 HTML 文档,提取我们需要的招聘信息。 以下是示例代码: ```python import requests from bs4 import BeautifulSoup url = 'https://www.zhipin.com/job_detail/?query=python&city=101010100&industry=&position=' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') job_list = soup.find('div', class_='job-list').find_all('li') for job in job_list: job_name = job.find('div', class_='job-title').text.strip() company_name = job.find('div', class_='company-text').find('h3').text.strip() salary = job.find('span', class_='red').text.strip() print(job_name, company_name, salary) ``` 在上述代码中,我们首先定义了我们需要爬取的 URL,以及请求头 headers。然后,我们使用 requests 库向该 URL 发送请求,并使用 BeautifulSoup 库解析 HTML 文档。 在解析 HTML 文档后,我们使用 find() 方法找到 class 为 job-list 的 div 标签,并使用 find_all() 方法找到其下所有的 li 标签,即每个招聘信息。 接下来,我们使用 find() 方法分别找到每个招聘信息的职位名称、公司名称和薪资,并使用 strip() 方法去除空格和换行符。 最后,我们将这些信息打印出来,即可得到我们需要的招聘数据。 需要注意的是,BOSS 直聘的网结构可能会有所变化,上述代码仅供参考。另外,爬取数据需要遵守相关法律法规,不得用于商业用途。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值