Python基础之爬虫小例子

概述

不知从何时起,Python和爬虫就如初恋一般,情不知所起,一往而深,相信很多朋友学习Python,都是从爬虫开始,其实究其原因,不外两方面:其一Python对爬虫的支持度比较好,类库众多。其二Pyhton的语法简单,入门容易。所以两者形影相随,不离不弃,本文主要以一个简单的小例子,简述Python在爬虫方面的简单应用,仅供学习分享使用,如有不足之处,还请指正。

涉及知识点

本例主要爬取某招聘网站发布的工作职位,用到的知识点如下:

  • 开发环境及工具:主要用到Python3.7 ,IDE为PyCharm
  • requests类库:本类库封装了python的内置模块,主要用于网络的请求和获取数据,可以支持不同形式的请求。
  • BeautifulSoup库:主要用于解析获取的数据,包括Html,Xml,Json等不同的格式。
  • 数据持久化:主要是将内存中的数据,保存到数据库或者文件中。

爬虫的基本步骤

爬虫的基本步骤,如下图所示:

爬取目标

如有要爬取相关内容,首先要对爬取的目标进行分析,了解其目录结构,才能进行解析。本例主要爬取51job中的工作列表,如下所示:

核心源码

1.获取数据

定义一个函数get_data,用于发起请求并获取数据,如下所示:

headers中的User-Agent主要用于模拟浏览器,不然会被反爬虫程序屏蔽,http状态码为418,意思是被网站的反爬程序返回的。

encoding是要爬取的网站的编码为gbk,如果不加,会产生乱码,默认为utf-8

def get_data(req_url):
    """获取数据"""
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko',
        'Accept-Language': 'zh-Hans-CN, zh-Hans;q=0.5'
    }
    resp = requests.get(req_url, headers=headers)
    resp.encoding = 'gbk'  # 不加会产生中文乱码
    if resp.status_code == 200:
        return resp.text
    else:
        return None

2.解析数据

定义一个函数parse_data,用于解析获取到的内容,如下所示:

采用BeautifulSoup,将返回的文本,解析成html对象,并获取对应的内容。本例主要获取工作的列表

def parse_data(resp_html):
    """解析数据,并返回列表"""
    soup = BeautifulSoup(resp_html, features='html.parser')
    job_table = soup.find('div', attrs={'class': 'dw_table'})
    # print(job_table)
    job_list = job_table.find_all('div', attrs={'class': 'el'})
    # print(job_list)
    # 循环列表,去掉第一个title和最后一个
    res_list = []
    for job in job_list[1: -1]:
        job_name = job.find('p', attrs={'class': "t1"}).find('span').find('a').get_text()
        job_name = job_name.replace('\r\n', '').strip()
        job_company = job.find('span', attrs={'class': "t2"}).find('a').get_text()
        job_addr = job.find('span', attrs={'class': "t3"}).get_text()
        job_salary = job.find('span', attrs={'class': "t4"}).get_text()
        job_time = job.find('span', attrs={'class': "t5"}).get_text()
        # print('工作信息:', job_name, '---', job_company, '---', job_addr, '---', job_salary, '---', job_time)
        res_item = {
            '工作名称': job_name,
            '公司': job_company,
            '工作地址': job_addr,
            '薪资水平': job_salary,
            '发布时间': job_time
        }
        res_list.append(res_item)
    return res_list

3.保存数据

定义一个函数save_data,用于将获取到的内容保存到json文件中,如下所示:

with函数 可以自动进行释放。因包含中文,所以json文件的编码为utf-8,否则会出现乱码

def save_data(res_list):
    """保存数据"""
    with open('jobs.json', 'w', encoding='utf-8') as f:
        res_list_json = json.dumps(res_list, ensure_ascii=False)
        f.write(res_list_json)

4.整体调用步骤

依次调用定义的三个函数,如下所示:

if __name__ == '__main__':
    """如果是主程序自己调用"""
    req_url = 'https://search.51job.com/list/040000,000000,0000,00,9,99,java,2,1.html?lang=c&stype=1&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare='
    # 获取数据
    resp_html = get_data(req_url)
    # print(html)
    # 解析数据
    res_list = parse_data(resp_html)
    # 保存数据
    save_data(res_list)

爬取结果展示

爬取的结果保存在jobs.json文件中,格式如下所示:

[
  {
    "工作名称": "Java架构师",
    "公司": "深圳市钻木信息技术有限公司",
    "工作地址": "深圳-福田区",
    "薪资水平": "1.8-3万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "深圳市网新新思软件有限公司",
    "工作地址": "深圳-南山区",
    "薪资水平": "1.5-1.7万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "深圳市睿服科技有限公司",
    "工作地址": "深圳-福田区",
    "薪资水平": "1.3-1.7万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发经理",
    "公司": "深圳市聚惠企业登记代理有限公司",
    "工作地址": "深圳-龙华新区",
    "薪资水平": "1-3万/月",
    "发布时间": "06-13"
  },

  {
    "工作名称": "Java开发工程师",
    "公司": "深圳市智璟科技有限公司",
    "工作地址": "深圳-福田区",
    "薪资水平": "0.9-1.5万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "上海舟恩信息技术有限公司",
    "工作地址": "深圳-南山区",
    "薪资水平": "1.4-1.9万/月",
    "发布时间": "06-13"
  }
]

进一步思考

本例可以进一步优化的空间,如下所示:

  • 本次爬虫只是单次爬取,数据量相对小,如果要爬取大量数据的时候,则需要使用多线程相关的知识。
  • 基础的爬虫,只能爬取静态渲染的内容,如果是异步动态渲染的数据,如何爬取呢?
  • 将爬取的结果保存到数据库如何操作呢?

备注

芙蓉楼送辛渐
[唐]王昌龄
寒雨连江夜入吴,平明送客楚山孤。
洛阳亲友如相问,一片冰心在玉壶。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

老码识途呀

写作不易,多谢支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值