python爬虫实例——爬取智联招聘信息

本文分享了一个使用Python编写的爬虫,用于抓取智联招聘网站上的职位信息,包括职位URL、职位名称、公司名称和发布时间等。通过网页分析和正则表达式匹配实现数据提取,并将结果保存到Excel文件中。
摘要由CSDN通过智能技术生成

受友人所托,写了一个爬取智联招聘信息的爬虫,与大家分享。
本文将介绍如何实现该爬虫。

目录

网页分析

https://xiaoyuan.zhaopin.com/full/538/0_0_160000_1_0_0_0_1_0 为例。

网页的组织结构如下:

这里写图片描述

将网页代码保存为html文件(文件见最后链接),使用的软件是Sublime Text,我们所需的内容如下图所示:

这里写图片描述

那么我们需要爬取的内容包括(以上图为例):

  • 职位详细介绍的url:xiaoyuan.zhaopin.com/job/CC000920419J9000072500
  • 职位名称:C/C++
  • 公司名称:中国移动通信有限公司-中国移动在线服务有限公司
  • 发布时间:19小时前
  • 职责描述:1、负责图像识别算法开发、优化和硬件驱动开发调试工作;2、根据算法工程师研发结果进行底层算法模型编写、优化和API接口开发工作;3、配合硬件工程师进行硬件接口驱动开发、调试和优化工作;……

实现代码分析

# -*- coding:utf-8 -*-
import urllib.request
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值