Python 3.6 优雅的爬取猎聘网招聘信息

1. 通过三种方式抓取字段:

       招聘标题 待遇 地区 学历要求 经验 公司名称 公司的行业 职位描述
2. 效果预览
    
    
   
3. 注意事项
    * 利用xpath或者其它方式选取节点时,需要注意判断是否为None,如果在后面调用.strip()等方法肯定会报错,所以建议提取出一个共用的判断方法
    * url拼接问题,当大部分详情页链接都有schema时,突然返回你一个没有https://等的链接,此时爬取肯定出错,所以建议使用parse.urljoin('https://www.liepin.com',url)方法拼接
    * 建议使用bs4爬取时,选取select方法,能提高编程效率和避免一些由于class或其它属性有多个值的情况
4. 上代码
    * 首先定义一个Spider类,其主要作用就是作为其它三种方式的父类,提取出共有的行为,学过Java的应该很好理解,它们都有请求数据,解析数据,请求工作详情数据,解析工作详情数据,解析数据的话,得让子类实现,所以此类需要设置为抽象类
    
# coding=utf-8
import abc
import time
import requests
from ExeclUtils import ExeclUtils

# abstract class
class Spider():
    __metaclass__ = abc.ABCMeta

    def __init__(self):
        self.row_title = ['标题','待遇','地区','学历要求','经验','公司名称','所属行业','职位描述']
        sheet_name = "猎聘网"
        self.execl_f, self.sheet_info = ExeclUtils.create_execl(sheet_name,self.row_title)
        # add element in one data
        self.job_data = []
        # the data added start with 1
        self.count = 0

    def crawler_data(self):
        '''
        crawler data
        '''
        for i in range(0,5):
            url = 'https://www.liepin.com/zhaopin/?industryType=&jobKind=&sortFlag=15°radeFlag=0&industries=&salary=&compscale=&key=Python&clean_condition=&headckid=4a4adb68b22970bd&d_pageSize=40&siTag=p_XzVCa5J0EfySMbVjghcw~fA9rXquZc5IkJpXC-Ycixw&d_headId=62ac45351cdd7a103ac7d50e1142b2a0&d_ckId=62ac45351cdd7a103ac7d50e1142b2a0&d_sfrom=search_fp&d_curPage=0&curPage={}'.format(i)
            self.request_job_list(url)
            time.sleep(2)   

    def request_job_list(self,url):
        '''
        get the job data by request url
        '''
        try:
            headers = {
                'Referer':'https://www.liepin.com/',
                'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36'
            }
            reponse = requests.get(url,headers = headers)
            # utf-8
            if reponse.status_code != 200:
                return
            self.parse_job_list(reponse.text)
        except Exception as e:
            # raise e
            print('request_job_list error : {}'.format(e))

    @abc.abstractmethod
    def parse_job_list(self,text):
        '''
        parsing the data from the response
        '''
        pass
    
    def request_job_details(self,url):
        '''
        request thr job detail's url
        '''
        try:
            headers = {
                'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36'
            }
            response = requests.get(url,headers = headers);
            # utf-8
            if response.status_code != 200:
                return
            self.parse_job_details(response.text)
        except Exception as e:
            # raise e
            print('request_job_details error : {}'.format(e))
        
    @abc.abstractmethod
    def parse_job_details(self,text):
        '''
        parsing the job details from text
        '''
        pass

    def append(self,title,salary,region,degree,experience,name,industry):
        self.job_data.append(title)
        self.job_data.append(salary)
        self.job_data.append(region)
        self.job_data.append(degree)
        self.job_data.append(experience)
        self.job_data.append(name)
        self.job_data.append(industry)
    
    def data_clear(self):
        self.job_data = []

    def extract(self, data):
        return data[0] if len(data) > 0 else ""
    * 剩下的xpath、re、bs爬取,它们的类只需要继承该类,实现其抽象方法
        
    * 由于上代码篇幅太长,直接上 代码传送门
    * thank you for reading
    
### 回答1: Python可以用来爬取Boss直聘的招聘信息。具体步骤如下: 1. 安装Python爬虫框架,如Scrapy或BeautifulSoup。 2. 打开Boss直聘的网站,找到需要爬取招聘信息页面。 3. 使用Python编写爬虫程序,通过HTTP请求获取页面内容,并使用正则表达式或XPath等方式解析页面内容,提取出需要的招聘信息。 4. 将提取出的招聘信息保存到本地文件或数据库中,以便后续分析和使用。 需要注意的是,爬取网站信息需要遵守相关法律法规和网站的使用协议,不得侵犯他人的合法权益。 ### 回答2: Python是一种常用的编程语言,具有强大的数据处理和爬虫能力。利用Python爬取BOSS直聘招聘信息,可以轻松获取公司职位、工资和职责等相关信息。 获取BOSS直聘招聘信息的步骤如下: 1. 打开BOSS直聘的招聘页面,通过Chrome浏览器的检查元素工具,分析页面中的HTML代码和数据结构,确定需要爬取的内容信息。 2. 利用Python的requests和BeautifulSoup模块,发送HTTP请求,并且使用BeautifulSoup解析HTML页面,提取需要的信息。这些信息可以保存到一个文件或数据库中。 3. 对于有多个职位页面的网站,可以通过循环爬取每个页面的信息。通过控制请求的headers和cookies,来避免被反爬虫机制识别。 4. 如果需要爬取具体公司的职位信息,可以从公司信息页面进一步获取相关的职位信息。 Python爬取BOSS直聘招聘信息的优点: 1. 相比于手工查找招聘信息Python爬虫可以节省时间和精力,快速获取大量的招聘信息并自动化处理数据。 2. 可以设置爬虫的定时任务,自动获取最新的职位信息,帮助满足求职者的招聘需求。 3. 可以对招聘信息进行分析和预处理,挖掘出潜在的招聘机会,提高求职成功的概率。 需要注意的是,Python开发的爬虫程序必须合法使用,不得用于恶意攻击、侵权盗版等违法行为。同时,要遵守网站的使用规则,如果网站禁止爬虫或者API接口获取信息,应该遵守规则,避免触犯法律法规。 ### 回答3: Python作为一种流行的编程语言,提供了许多强大的库和框架,使得爬取网站信息更加容易和高效。在本文中,将介绍如何使用Python爬取Boss直聘的招聘信息。 1. 环境配置 首先,需要安装Python和一些必要的包,包括Requests,BeautifulSoup和Pandas。安装方法如下: - 安装Python 在官网下载最新版本的Python,并安装在电脑上。 - 安装Requests Requests是Python的一个HTTP库,用于发起HTTP请求。安装方法如下: ``` pip install requests ``` - 安装BeautifulSoup BeautifulSoup是Python的一个HTML/XML解析库,用于解析HTML页面。安装方法如下: ``` pip install beautifulsoup4 ``` - 安装Pandas Pandas是一个开源的数据分析库,用于数据的处理和分析。安装方法如下: ``` pip install pandas ``` 2. 网络请求和解析HTML 在爬取Boss直聘网站的招聘信息之前,需要了解该网站的页面结构和URL格式。通过观察网站页面,可以发现每个招聘页面的URL都包含有关职位和城市的信息。因此可以通过构造不同的URL来访问不同的职位和城市信息。接下来使用Python来实现网络请求和HTML的解析。 ``` import requests from bs4 import BeautifulSoup # 定义请求的URL和headers url = 'https://www.zhipin.com/job_detail/' headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 构造请求的数据 params = {'city': '101010100', 'query': 'Python', 'page': 1} # 发起请求 response = requests.get(url, params=params, headers=headers) # 解析HTML页面 soup = BeautifulSoup(response.content, 'html.parser') ``` 首先,通过requests库构造一个get请求,并传入URL、请求参数和headers。在这个例子中,请求的城市是北京,职位是Python开发工程师,页面是第一页。接下来,使用BeautifulSoup库解析HTML页面,并将解析后的结果存在一个soup对象中。 3. 分析网页结构 在获取网页内容之后,需要观察页面的结构,获取所需信息的标签和属性。打开Boss直聘网站页面之后,可以通过检查浏览器开发者工具来分析页面的结构。在这个例子中,每个职位信息都被包含在一个class为job-list的ul标签中。每个职位信息都包含在一个class为job-primary的li标签中。 ``` <ul class="job-list"> <li class="job-primary"> // 职位信息 </li> <li class="job-primary"> // 职位信息 </li> ... </ul> ``` 在li标签中,职位的详细信息会被分成几个部分,例如职位名称、公司名称、薪资、工作地点等等。通过分析HTML页面,可以找到每个信息对于的标签和属性。 ``` <li class="job-primary"> <div class="info-primary"> <h3 class="name"> <a href="/job_detail/39cef971da3f5bf21XB90dy7EVU~/map?jobId=1e8665d8e6a3d86003V_29uDFlc~" ka="job-info-title" target="_blank" data-securityid="pUfqjtO9hScuv24AsgBdiRvDPem6h7uZ0vqTZmbQ1_TtjSY_UFQWpe0j5LJBgz5SEMzdeM1cJgMZvDHcPV5v4bc1fthN7CCZgMDdGy6xP8~" data-jid="1e8665d8e6a3d86003V_29uDFlc~" data-itemid="1"> Python开发工程师 <span class="red">(北京-石景山区)</span> </a> </h3> <p> <a href="/gongsi/47841481b588ae6e1XVz2t0_.html" target="_blank" ka="job-info-company" data-securityid="rk85R2vC11ptV5gzxeWbfbZ3oQZzcQWYkVkXdWrFRJEsztD4d7J-d8MFvT0vkwvC9SQ5Vz-jBX0lCrJkbPEOyTD6o1fthN7CCZgMDdGy6xN~" data-jid="1e8665d8e6a3d86003V_29uDFlc~" data-itemid="1">北京市金堤科技有限公司</a> </p> <div class="info-detail"> <span class="salary"><i class="icon"></i>12k-20k</span> <p>经验3-5年 / 本科及以上 / 全职</p> <p>技能:数据结构|高并发|分布式|mymath</p> </div> </div> // 其它信息 </li> ``` 根据HTML结构,可以使用BeautifulSoup库来提取每个职位的详细信息,例如职位名称、公司名称、薪资、工作地点等等。 ``` # 获取职位信息 jobs = [] job_list = soup.find('ul', class_='job-list').find_all('li') for job in job_list: job_name = job.find('div', class_='info-primary').find('h3').find('a').get_text() job_href = 'https://www.zhipin.com' + job.find('div', class_='info-primary').find('h3').find('a')['href'] job_salary = job.find('span', class_='salary').get_text() job_city = job.find('span', class_='red').get_text() company_name = job.find('div', class_='company-text').find('h3').find('a').get_text() company_href = 'https://www.zhipin.com' + job.find('div', class_='company-text').find('h3').find('a')['href'] jobs.append([job_name, job_href, job_salary, job_city, company_name, company_href]) # 将职位信息存储到Pandas的DataFrame中 df = pd.DataFrame(jobs, columns=['职位名称', '职位链接', '薪资', '工作地点', '公司名称', '公司链接']) ``` 以上代码中,使用find方法查找HTML标签和属性,并提取相应的信息。最后将所有的职位信息存储在一个Pandas的DataFrame中。 4. 总结 Python提供了强大的库和工具以及易于理解的语法,使得爬取Boss直聘的招聘信息变得容易和高效。通过使用Requests和BeautifulSoup库,可以进行网络请求和HTML解析,并提取所需的职位详细信息。最终,将所有信息存储在Pandas的DataFrame中,方便进行进一步的数据分析和处理。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值