python文字处理dummy_python学习之使用multiprocessing.dummy多线程爬虫

该博客主要展示了如何利用Python的requests和正则表达式库进行网页内容抓取,并通过多线程Pool实现数据并行处理,提高爬虫效率。作者详细解释了代码中的关键部分,包括页面链接的生成、课程信息的提取和信息存储。
摘要由CSDN通过智能技术生成

#-*- coding:utf8 -*-

import requests

import re# 导入正则表达式的模块

from multiprocessing.dummy import Pool as ThreadPool

import time

#导入下面这几行用中文就不会出错

import sys

reload(sys)

sys.setdefaultencoding("utf-8")

def changepage(url,total_page):

"""获得所有url的列表"""

nowPage = int(re.search('pageNum=(\d+)',url).group(1))#re.search只找到第一个符合条件的 .group(1)是只要一个括号里面的

all_link=[]

for i in range(nowPage,total_page+1):

# 替换

link = re.sub('pageNum=\d+','pageNum=%s'%i,url,re.S)

all_link.append(link)

return all_link

def geteveryclass(url):

html = requests.get(url)

classinfo=[]

everyclass = re.findall('(deg="0" >.*?)',html.text,re.S)

for each in everyclass:

info = getinfo(each)

classinfo.append(info)

print classinfo

def getinfo(eachclass):

"""getinfo用来从每个课程块中提取出我们需要的信息"""

info = {}

info['title'] = re.search('class="lessonimg" title="(.*?)>',eachclass,re.S).group(1)

info['content'] = re.search('display: none;">(.*?)

',eachclass,re.S).group(1)

return info

######################################################################################################################

if __name__ == "__main__":

url = 'http://www.jikexueyuan.com/course/?pageNum=1'

url_list = changepage(url,5)

pool = ThreadPool(4)#4核

time1 = time.time()

results = pool.map(geteveryclass, url_list)#需要执行的方法和地址列表

pool.close()

pool.join()#等待线程都结束后再执行主模块

time2 = time.time()

print u'多线程耗时:' + str(time2-time1)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值