爬虫对pdf链接文本处理

最近公司有个爬虫需求需要爬取一个网站的文本内容,但是网站都是pdf的格式,以链接方式呈现出来。我一开始的思路就是把pdf下载到本地下来然后处理pdf,但是这样会很麻烦。如果直接处理pdf链接然后返回pdf中的文本就是最好了。于是在网上找了一些资料,自己封装了一个方法。
在这里插入图片描述
主要代码:

from urllib.request import urlopen

from pdfminer.converter import PDFPageAggregator
from pdfminer.layout import LAParams
from pdfminer.pdfinterp import PDFResourceManager, PDFPageInterpreter
from pdfminer.pdfparser import PDFParser, PDFDocument


def pdftocontent(url):
    pdfFile=urlopen(url)
    parser = PDFParser(pdfFile)
    doc = PDFDocument()
    parser.set_document(doc)
    doc.set_parser(parser)
    doc.initialize('')
    resources = PDFResourceManager()
    laparam = LAParams()
    device = PDFPageAggregator(resources,laparams=laparam)
    interpreter = PDFPageInterpreter(resources,device)
    str_text = ''
    for page in doc.get_pages():
        # 使用页面解释器读取页面
        interpreter.process_page(page)
        # 使用聚合器读取页面页面内容
        layout = device.get_result()
        for out in layout:
            if hasattr(out, 'get_text'):  # 因为文档中不只有text文本
                str_text = str_text + out.get_text()
    return str_text

if __name__ == '__main__':
    str_content = pdftocontent('https://trust.pingan.com/trustupload/4094/2019-07/CMS1561952702369.pdf')
    print(str_content)

运行结果:
在这里插入图片描述
当然python也可以处理word,csv等等格式的下载。之后会分享各种处理方法。

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值