爬虫小案例--古诗文网(史记全册)--xpath

案例爬取网址为史记全文_古诗文网

import time
import requests
# from multiprocessing.dummy import Pool
from lxml import etree


def search(url):
    index_page = requests.get(url=url, headers=headers).text
    tree = etree.HTML(index_page)
    detail_page = tree.xpath('//*[@class="contson"]/p/text()')
    detail_page = "".join(detail_page)
    detail_name = tree.xpath('//*[@class="cont"]/h1/span/b/text()')
    detail_name = "".join(detail_name)
    detail_all = detail_name + '\n' + detail_page
    fileName = './' + detail_name
    print(url,detail_name)
    with open(fileName, 'w', encoding='utf-8') as fp:
        fp.write(detail_all)



if __name__ == '__main__':

    start_time = time.time()
    url= 'https://so.gushiwen.cn/guwen/book_46653FD803893E4F9B29D6AEC1BFD4EA.aspx'
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'
    }
    page_1 = requests.get(url=url,headers=headers).text
    tree = etree.HTML(page_1)
    urls = tree.xpath('//*[@id="html"]/body/div[2]/div[1]/div[3]/div/div[2]/span/a/@href')
    # print(urls)
    # pool = Pool(20)               # 开启20个线程
    # pool.map(search,urls)         # 多线程时间大约在 1s左右
    for url in urls:            # 单线程时间大约在 12-15s 或者更长
       search(url)
    end_time = time.time()
    print("花费时长为" + end_time-start_time)

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

稻草人想看远方

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值