python下载网页中的pdf文件_Python3爬虫下载pdf(一)

这篇博客介绍了如何使用Python3爬虫下载网页中的PDF文件。通过引入bs4和requests模块,解析HTML获取所有a标签,筛选出链接到PDF的URL并进行下载。文章亮点包括利用str.rfind()获取特定字符的索引和str.endswith()判断字符串结尾。
摘要由CSDN通过智能技术生成

Python3爬虫下载pdf(一)

最近在学习python的爬虫,并且玩的不亦说乎,因此写个博客,记录并分享一下。

需下载以下模块

bs4 模块

requests 模块

一、源码

"""

功能:下载指定url内的所有的pdf

语法:将含有pdf的url放到脚本后面执行就可以了

"""

from bs4 import BeautifulSoup as Soup

import requests

from sys import argv

try:

##用于获取命令行参数,argv[0]是脚本的名称

root_url = argv[1]

except:

print("please input url behind the script!!")

exit()

##获得含有所有a标签的一个列表

def getTagA(root_url):

res = requests.get(root_url)

soup = Soup(res.text,'html.parser')

temp = soup.find_all("a")

return temp

##从所有a标签中找到含有pdf的,然后下载

def downPdf(root_url,list_a):

number = 0

##如果网站url是以类似xx/index.php格式结尾,那么只取最后一个/之前的部分

if not root_url.endswith("/"):

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值