2021-08-18

Python爬取站长素材中免费简历模板

1. requests模块

1.1 模块介绍

requests是使用Apache2 licensed 许可证的HTTP库,比urllib2模块更简洁
是python中原生的一款基于网络请求的模块,简单便捷,功能强大,效率高。

1.2环境安装

pip install requests

1.3使用步骤

指定url(同时进行UA伪装和请求参数处理)
发起请求
获取响应数据
持久化存储

2.xpath解析

2.1 xpath解析原理:

   实例化一个etree的对象,且需要将被解析的页面源码数据加载到该对象中。
   调用etree对象中的xpath方法结合着xpath表达式实现标签的定位和内容的捕获。

2.2 环境安装:

    pip install lxml

2.3 实例化一个etree对象:from lxml import etree

 将从互联网上获取的源码数据加载到该对象中: etree.HTML('page_text')

2.4 xpath表达式

/和//:前者表示一个层级,后者表示多个层级
属性定位://div[@class='city'] tag[@src="value"]
索引定位://div[@class="top"]/li[3] 索引是从1开始的。
取文本:
	 /text() 获取的是标签中直系的文本内容
	 //text() 标签中非直系的文本内容(所有的文本内容)
取属性:/@src  

3.format函数的使用

Python2.6 开始,新增了一种格式化字符串的函数 str.format(),它增强了字符串格式化的功能。基本语法是通过 {} 和 : 来代替以前的 % 。
format 函数可以接受不限个参数,位置可以不按顺序。
eg:

	addr="中国{}".format("辽宁大连")
	print(addr)
	#结果:中国辽宁大连
	
	addr1="{2}{0}{1}".format("辽宁","大连","中国")
	print(addr1)
	#结果:中国辽宁大连

	print("国家:{country}, 省份:{pro},城市:{city}".format(country="中国", pro="辽宁",city="大连"))
	#结果:国家:中国, 省份:辽宁,城市:大连

4.实例

4.1 导入要用的模块

	import requests
	from lxml import etree
	import os

4.2 创建文件夹

	#创建一个文件夹
    if not os.path.exists('./ResumeLibs'):  # 如果不存在
        os.mkdir('./ResumeLibs')

4.3 确定headers与url

	headers = {
        'User-Agent': 'User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:80.0) Gecko/20100101 Firefox/80.0'

    }
     url = 'http://aspx.sc.chinaz.com/query.aspx?keyword=%E5%85%8D%E8%B4%B9&issale=&classID=864&page={}'

4.4 主体代码

    for pageNum in range(1,5):  #页码可自己设置(这里取1,2,3,4)
        new_url =url.format(pageNum)
        page_text = requests.get(url=new_url,headers=headers).text #获取响应数据.text返回的是字符串形式的响应数据

        tree = etree.HTML(page_text)
        div_list = tree.xpath('//div[@id="container"]/div')
        print(div_list) #在此打印确认是否爬取到想要的element
        for li in div_list:
            resume_src = 'http:'+li.xpath('./a/@href')[0]  #注意原网站爬取到的属性无"http:"            
            resume_name = li.xpath('./a/img/@alt')[0]+'.zip'

            #对每个简历页面发起请求
            detail_text = requests.get(url=resume_src, headers=headers).text
            tree1 = etree.HTML(detail_text)
            #解析出下载链接
            download_src = tree1.xpath('//div[@class="clearfix mt20 downlist"]/ul/li[1]/a/@href')[0]

            #对下载链接发起请求,  content返回的是二进制形式的图片数据
            down_load_resume = requests.get(url=download_src, headers=headers).content
            down_load_path = './resumelibs/' + resume_name

            with open(down_load_path,'wb') as fp:
                 fp.write(down_load_resume)
                 print(resume_name,'over!!!')

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
这个数据可以使用Python进行解析和处理。可以按照以下步骤进行: 1. 将数据分割成每个数据项。 ``` data_items = data.split(',') ``` 2. 对于每个数据项,将其按#分割成四个小项,并存储到一个列表中。 ``` data_list = [] for item in data_items: item_list = item.split('#') data_list.append(item_list) ``` 3. 对于每个小项,进行相应的类型转换。 ``` for item in data_list: item[0] = int(item[0]) # 题号转换为整数 item[1] = datetime.datetime.strptime(item[1], '%Y-%m-%d %H:%M:%S') # 时间转换为datetime类型 if item[2] != '': # 操作类型转换为整数 item[2] = int(item[2]) item[3] = str(item[3]) # 科目转换为字符串类型 ``` 4. 可以按照需要对数据进行进一步处理,如按照题号、时间等进行排序、筛选等操作。 完整的Python代码如下: ``` import datetime data = '''1#2021-05-18 14:31:55##初级会计实务,2#2021-05-18 14:31:57#12#初级会计实务,2#2021-05-18 14:32:08##初级会计实务,3#2021-05-18 14:32:09#12#初级会计实务,4#2021-05-18 14:32:34#12#初级会计实务,4#2021-05-18 14:32:45##初级会计实务,5#2021-05-18 14:32:46#12#初级会计实务,5#2021-05-18 14:32:57##初级会计实务,6#2021-05-18 14:33:00#12#初级会计实务,7#2021-05-18 14:33:44#12#初级会计实务,7#2021-05-18 14:34:42##初级会计实务,8#2021-05-18 14:34:43#12''' # 将数据分割成每个数据项 data_items = data.split(',') # 对于每个数据项,将其按#分割成四个小项,并存储到一个列表中 data_list = [] for item in data_items: item_list = item.split('#') data_list.append(item_list) # 对于每个小项,进行相应的类型转换 for item in data_list: item[0] = int(item[0]) # 题号转换为整数 item[1] = datetime.datetime.strptime(item[1], '%Y-%m-%d %H:%M:%S') # 时间转换为datetime类型 if item[2] != '': # 操作类型转换为整数 item[2] = int(item[2]) item[3] = str(item[3]) # 科目转换为字符串类型 print(data_list) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值