python爬取前程无忧当日的全部招聘信息

本文分享了一个使用Python编写的爬虫,该爬虫能抓取前程无忧网站上最新一天的、具备周末双休条件的招聘信息。通过多线程技术,爬虫可以高效地同时爬取多个城市的职位数据。抓取到的数据会被保存到本地文件中,如果已存在昨天的数据,爬虫会在每天更新时删除旧文件并重新下载最新信息。
摘要由CSDN通过智能技术生成

用了几天时间写成的爬取前程无忧的当日的招聘信息,通过多线程的方式同时爬取多个城市的信息,作为资料保存下来,一下是完整代码,可以直接复制粘贴爬取
在这里插入图片描述
这里爬取的数据条件是是24小时内,周末双休的,会在当前文件下创建一个文件夹,并且在当前的文件夹下创建文件,如果昨天已经爬取过了,今天会将昨日的信息全部删除重新下载

import urllib.request
import urllib.parse
from bs4 import BeautifulSoup
import re
import os
import time
import datetime
from threading import Thread

def city_request(city, i, headers):
    if city == '徐州':
        arguments = '071100'
    elif city == '广州':
        arguments = '030200'
    elif city == '北京':
        arguments = '010000'
    elif city == '上海':
        arguments = '020000'
    elif city == '杭州':
        arguments = '080200'

    url = "https://search.51job.com/list/" + arguments + ",000000,0000,00,0,99,%2B,2," + str(i) + '.html?welfare=04'
    request_head = urllib.request.Request(url=url, headers=headers)
    return request_head

def txt(list, file_name):
    '''将获取的内容写入到TXT文件中'''
    for i in list:
        b = str(i)
        b += '\n'
        with open(file_name, 'a') as f:
            f.write(b)

def analyze_data(data, now_time, city
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值