学习爬虫第九天

#线程池:一次性开辟一些线程。我们用户直接给线程池提交任务,线程任务的调度交给线程池来完成
'''from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor

def fn(name):
    for i in range(100):
        print(name,i)

if __name__=='__main__':
    #创建线程池
    with ThreadPoolExecutor(50) as t:
        for i in range(100):
            t.submit(fn,name=f"线程{i}")
    #等待线程池中的人物全部执行完毕,才继续执行
    print("123")'''

#实例
#如何提取多个页面的数据
#利用线程池,多个页面同时抓取
import requests
from lxml import etree
import csv
from  concurrent.futures import  ThreadPoolExecutor

f=open("date.csv",mode="w",encoding="utf-8")
csvwriter=csv.writer(f)


def download_onepage(url):
    resp=requests.get(url)
    html=etree.HTML(resp.text)
    table=html.xpath("/html/body/div[2]/div/div/div/div[4]/div[1]/div/table")[0]
    trs=table.xpath("./tr")
    #print(len(trs))
    #print(resp.text)
    for tr in trs:
        txt=tr.xpath("./td/test()")
        txt=item.replace("//","").replace("/","")for item in txt
        csvwriter.writerow(txt)
        print(list(txt))

    pass


if __name__=='__main__':
    #for i in range(1,14870):
        #download_onepage("http://www.xinfadi.com.cn/marketanalysis/0/list/{i}.shtml")
    with ThreadPoolExecutor(50) as t:
        for i in range(1,14870):
            t.download_onepage("http://www.xinfadi.com.cn/marketanalysis/0/list/{i}.shtml")
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值