python爬取多页网页的range,Python多进程方式抓取基金网站内容的方法分析

本文实例讲述了Python多进程方式抓取基金网站内容的方法。分享给大家供大家参考,具体如下:

在前面这篇//www.jb51.net/article/162418.htm我们已经简单了解了”python的多进程”,现在我们需要把抓取基金网站(28页)内容写成多进程的方式。

因为进程也不是越多越好,我们计划分3个进程执行。意思就是 :把总共要抓取的28页分成三部分。

怎么分呢?

# 初始range

r = range(1,29)

# 步长

step = 10

myList = [r[x:x+step] for x in range(0,len(r),step)]

print(myList) # [range(1, 11), range(11, 21), range(21, 29)]

看上面代码,我们就把1~29分成了三部分,list里三个range。

2、还记得我们抓取基金网站内容的getData()函数?

def getData(start, end):

for x in range(start, end+1):

# 去第几页 输入框

tonum = driver.find_element_by_id("tonum")

# 去第几页 提交按钮

jumpBtn = driver.find_element_by_id("btn_jump")

tonum.clear() # 第x页 输入框

tonum.send_keys(str(x)) # 去第x页

jumpBtn.click() # 点击按钮

WebDriverWait(driver, 20).until(lambda driver: driver.find_element_by_id("pager") \

.find_element_by_xpath("span[@value={0} and @class!='end page']".format(x)) \

.get_attribute("class").find("at") != -1)

# 保存抓取到的html内容

# 保存到html目录下

with open("./htmls/{0}.txt".format(x),"wb") as f:

f.write(driver.find_element_by_id("tableDiv").get_attribute("innerHTML").encode("utf8"))

f.close()

函数是有2个参数:一个开始页码,一个结束页码,也就是从第start页,到第end页。

这2个参数实际上也是range。

改造getData()函数如下(参数不同了):

# 循环抓取网页内容的函数

def getData(myrange):

for x in myrange:

# 去第几页 输入框

tonum = driver.find_element_by_id("tonum")

# 去第几页 提交按钮

jumpBtn = driver.find_element_by_id("btn_jump")

tonum.clear() # 第x页 输入框

tonum.send_keys(str(x)) # 去第x页

jumpBtn.click() # 点击按钮

WebDriverWait(driver, 20).until(lambda driver: driver.find_element_by_id("pager") \

.find_element_by_xpath("span[@value={0} and @class!='end page']".format(x)) \

.get_attribute("class").find("at") != -1)

# 保存抓取到的html内容

# 保存到html目录下

with open("./htmls/{0}.txt".format(x),"wb") as f:

f.write(driver.find_element_by_id("tableDiv").get_attribute("innerHTML").encode("utf8"))

f.close()

3、创建进程,把target设置为上面的getData():

# 初始range

r = range(1,int(total_page)+1)

# 步长

step = 10

myList = [r[x:x+step] for x in range(0,len(r),step)] # 把页面分段

# 创建进程

processList = []

if __name__ == "__main__":

for r in myList:

p = Process(target=getData,args=(r,))

processList.append(p)

# 开始执行进程

for p in processList:

p.start()

这样就有三个进程分别抓取。

4、多进程抓取基金网站多页内容完全代码:

# coding: utf-8

from selenium import webdriver

from selenium.webdriver.support.ui import WebDriverWait

from selenium.webdriver.support import expected_conditions

from multiprocessing import Process

driver = webdriver.PhantomJS(executable_path=r"你phantomjs的可执行文件路径")

# 请求一个网址

driver.get("http://fund.eastmoney.com/fund.html")

page_text = driver.find_element_by_id("pager").find_element_by_xpath("span[@class='nv']").text

total_page = ''.join(filter(str.isdigit,page_text)) # 得到总共有多少页

# 循环抓取网页内容的函数

def getData(myrange):

for x in myrange:

# 去第几页 输入框

tonum = driver.find_element_by_id("tonum")

# 去第几页 提交按钮

jumpBtn = driver.find_element_by_id("btn_jump")

tonum.clear() # 第x页 输入框

tonum.send_keys(str(x)) # 去第x页

jumpBtn.click() # 点击按钮

WebDriverWait(driver, 20).until(lambda driver: driver.find_element_by_id("pager") \

.find_element_by_xpath("span[@value={0} and @class!='end page']".format(x)) \

.get_attribute("class").find("at") != -1)

# 保存抓取到的html内容

# 保存到html目录下

with open("./htmls/{0}.txt".format(x),"wb") as f:

f.write(driver.find_element_by_id("tableDiv").get_attribute("innerHTML").encode("utf8"))

f.close()

# 初始range

r = range(1,int(total_page)+1)

# 步长

step = 10

myList = [r[x:x+step] for x in range(0,len(r),step)] # 把页面分段

# 创建进程

processList = []

if __name__ == "__main__":

for r in myList:

p = Process(target=getData,args=(r,))

processList.append(p)

# 开始执行进程

for p in processList:

p.start()

希望本文所述对大家Python程序设计有所帮助。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值