python爬虫高级知识分子的风骨_爬虫抓取博客园前10页标题带有Python关键字(不区分大小写)的文章...

爬虫抓取博客园前10页标题带有Python关键字(不区分大小写)的文章

写一个简易的爬虫程序,抓取博客园网站首页前10页中所有文章标题带有Python关键字(不区分大小写)的文章,并把文章链接和文章标题存入硬盘,要求如下:

使用正则表达式匹配出需要的数据,然后对数据进行解析

程序中很明显有多个任务,这多个任务必须是异步调用

任务的返回值要及时处理,不能等所有任务都执行完再统一处理

提示信息:可以使用生产者消费者模型来处理

尽可能提升程序的执行效率

爬虫储备知识:

requests模块是一个非常强大的爬虫模块,它的基本使用非常简单,但是它是所有爬虫程序的根源,我们只需要使用requests模块里面级简单的功能就能完成,用法可以通过查询得知。

"""

写一个简易的爬虫程序,抓取博客园网站首页前10页中所有文章标题带有

Python关键字(不区分大小写)的文章,并把文章链接和文章标题存入

硬盘,要求如下:

1 使用正则表达式匹配出需要的数据,然后对数据进行解析

2 程序中很明显有多个任务,这多个任务必须是异步调用

3 任务的返回值要及时处理,不能等所有任务都执行完再统一处理

4 提示信息:可以使用生产者消费者模型来处理

5 尽可能提升程序的执行效率

"""

# 基本思路与实现方案

import re

import time

import requests

t1 = time.time()

title_list = []

url = 'https://www.cnblogs.com/'

for i in range(1, 11):

html = requests.post(url=url, data={"PageIndex": i}).text

res = re.findall('

.*?ython.*?

', html)

for j in res:

title_list.append(j)

print(time.time() - t1)

# 异步思路与优化处理

import re

import requests

from concurrent.futures import ThreadPoolExecutor

import time

def catch(page):

title_list = []

url = 'https://www.cnblogs.com/'

html = requests.post(url=url, data={"PageIndex": page}).text

res = re.findall('

.*?ython.*?

', html)

for j in res:

title_list.append(j)

return title_list

def analyze(obj):

data = obj.result()

if data:

for j in data:

res = j.split("=")

link = res[2][1:-8]

title = res[3][9:-9]

with open('data.txt', mode='a', encoding='utf-8') as f:

f.write('%s|%s\n' % (title, link))

if __name__ == '__main__':

t1 = time.time()

tp = ThreadPoolExecutor(10)

for i in range(1, 11):

tp.submit(catch, i).add_done_callback(analyze)

print(time.time() - t1)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值