[爬虫案例]实现多页批量文件爬取问询函信息

本文介绍了如何使用Python爬虫进行多页PDF文件的批量下载,包括单个页面和多个页面的下载策略。在爬取过程中,文章详细讨论了遇到的三个主要问题:1) WebDriver对象找不到find_element_by_xpath属性,解决方案是导入By模块并使用新的语法;2) 页面元素加载延迟导致的NoSuchElementException,通过设置等待时间解决;3) 文件命名时避免非法字符,使用正则表达式清理或替换title中的特殊字符。最后,文章提到了将汇总的问询函信息导出到Excel表格的方法。
摘要由CSDN通过智能技术生成

引入必要库:

from selenium import webdriver
import requests
import re
import time
import pandas as pd

1.批量下载单个页面上的PDF文件

#获得源代码
CHROME_DRIVER = 'C:\Program Files\Google\Chrome\Application//chromedriver' #chromedriver的目录
chrome_options = webdriver.ChromeOptions()
#chrome_options.add_argument('--headless')#不显示浏览器窗口
driver = webdriver.Chrome(executable_path=CHROME_DRIVER,options = chrome_options)
url = "http://www.sse.com.cn/disclosure/credibility/supervision/inquiries/"
driver.get(url)
time.sleep(3)
data = driver.page_source
print(data)


#源代码进行解析获取内容
p_title = '<tr><td class="codeNameWidth"><span>.*?</span></td><td class="codeNameWidth"><span>.*?</span></td><td class="text-nowrap">.*?</td><td><span class="table_typewrap">.*?</span></td><td><a class="table_titlewrap" href=".*?" target="_blank">(.*?)</a></td></tr>'
p_href = '<tr><td class="codeNameWidth"><span>.*?</span></td><td class="codeNameWidth"><span>.*?</span></td><td class="text-nowrap">.*?</td><td><span class="table_typewrap">.*?</span></td><td><a class="table_titlewrap" href="(.*?)
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值