Python抓取网页并保存为PDF

1、开发环境搭建
(1)Python2.7.13的安装:参考《廖雪峰老师的网站》
(2)Python包管理器pip的安装:参考《pip安装文档说明》
因为基于版本2.7.13,因为2.7.9以上已经自带pip,所以不需要单独安装,但是需要我们更新。上面的说明文档有说明。
(3)Python下的PDF工具:PyPDF2;
安装命令:

pip install PyPDF2

说明文档:《PyPDF2 1.26.0 说明文档》

PyPDF2简易示例:

from PyPDF2 import PdfFileMerger
merger = PdfFileMerger()
input1 = open("1.pdf", "rb")
input2 = open("2.pdf", "rb")
merger.append(input1)
merger.append(input2)
# 写入到输出pdf文档中
output = open("hql_all.pdf", "wb")
merger.write(output)

(4)Python下的Microsoft Word 2007工具:

pip install python-docx

说明文档:《python-docx 0.8.6 说明文档》

(5)依赖工具的安装
requests、beautifulsoup 是爬虫两大神器,reuqests 用于网络请求,beautifusoup 用于操作 html 数据。有了这两把梭子,干起活来利索。scrapy 这样的爬虫框架我们就不用了,这样的小程序派上它有点杀鸡用牛刀的意思。此外,既然是把 html 文件转为 pdf,那么也要有相应的库支持, wkhtmltopdf 就是一个非常的工具,它可以用适用于多平台的 html 到 pdf 的转换,pdfkit 是 wkhtmltopdf 的Python封装包。首先安装好下面的依赖包

pip install requests
pip install beautifulsoup4
pip install pdfkit

(6)手动安装wkhtmltopdf
Windows平台直接在 http://wkhtmltopdf.org/downloads.html 下载稳定版的 wkhtmltopdf 进行安装,安装完成之后把该程序的执行路径加入到系统环境 $PATH 变量中,否则 pdfkit 找不到 wkhtmltopdf 就出现错误 “No wkhtmltopdf executable found”。Ubuntu 和 CentOS 可以直接用命令行进行安装

$ sudo apt-get install wkhtmltopdf  # ubuntu
$ sudo yum intsall wkhtmltopdf      # centos

2、源代码

# coding=utf-8  
import os  
import re  
import time  
import logging  
import pdfkit  
import requests  
from bs4 import BeautifulSoup  
from PyPDF2 import PdfFileMerger  

html_template = """ 
<!DOCTYPE html> 
<html lang="en"> 
<head> 
    <meta charset="UTF-8"> 
</head> 
<body> 
{content} 
</body> 
</html> 

"""  


def parse_url_to_html(url, name):  
    """ 
    解析URL,返回HTML内容 
    :param url:解析的url 
    :param name: 保存的html文件名 
    :return: html 
    """  
    try:  
        response = requests.get(url)  
        soup = BeautifulSoup(response.content, 'html.parser')  
        # 正文  
        body = soup.find_all(class_="x-wiki-content")[0]  
        # 标题  
        title = soup.find('h4').get_text()  

        # 标题加入到正文的最前面,居中显示  
        center_tag = soup.new_tag("center")  
        title_tag = soup.new_tag('h1')  
        title_tag.string = title  
        center_tag.insert(1, title_tag)  
        body.insert(1, center_tag)  
        html = str(body)  
        # body中的img标签的src相对路径的改成绝对路径  
        pattern = "(<img .*?src=\")(.*?)(\")"  

        def func(m):  
            if not m.group(3).startswith("http"):  
                rtn = m.group(1) + "http://www.liaoxuefeng.com" + m.group(2) + m.group(3)  
                return rtn  
            else:  
                return m.group(1)+m.group(2)+m.group(3)  
        html = re.compile(pattern).sub(func, html)  
        html = html_template.format(content=html)  
        html = html.encode("utf-8")  
        with open(name, 'wb') as f:  
            f.write(html)  
        return name  

    except Exception as e:  

        logging.error("解析错误", exc_info=True)  


def get_url_list():  
    """ 
    获取所有URL目录列表 
    :return: 
    """  
    response = requests.get("http://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000")  
    soup = BeautifulSoup(response.content, "html.parser")  
    menu_tag = soup.find_all(class_="uk-nav uk-nav-side")[1]  
    urls = []  
    for li in menu_tag.find_all("li"):  
        url = "http://www.liaoxuefeng.com" + li.a.get('href')  
        urls.append(url)  
    return urls  


def save_pdf(htmls, file_name):  
    """ 
    把所有html文件保存到pdf文件 
    :param htmls:  html文件列表 
    :param file_name: pdf文件名 
    :return: 
    """  
    options = {  
        'page-size': 'Letter',  
        'margin-top': '0.75in',  
        'margin-right': '0.75in',  
        'margin-bottom': '0.75in',  
        'margin-left': '0.75in',  
        'encoding': "UTF-8",  
        'custom-header': [  
            ('Accept-Encoding', 'gzip')  
        ],  
        'cookie': [  
            ('cookie-name1', 'cookie-value1'),  
            ('cookie-name2', 'cookie-value2'),  
        ],  
        'outline-depth': 10,  
    }  
    pdfkit.from_file(htmls, file_name, options=options)  


def main():  
    start = time.time()  
    file_name = u"liaoxuefeng_Python3_tutorial"  
    urls = get_url_list()  
    for index, url in enumerate(urls):  
      parse_url_to_html(url, str(index) + ".html")  
    htmls =[]  
    pdfs =[]  
    for i in range(0,124):  
        htmls.append(str(i)+'.html')  
        pdfs.append(file_name+str(i)+'.pdf')  

        save_pdf(str(i)+'.html', file_name+str(i)+'.pdf')  

        print u"转换完成第"+str(i)+'个html'  

    merger = PdfFileMerger()  
    for pdf in pdfs:  
       merger.append(open(pdf,'rb'))  
       print u"合并完成第"+str(i)+'个pdf'+pdf  

    output = open(u"廖雪峰Python_all.pdf", "wb")  
    merger.write(output)  

    print u"输出PDF成功!"  

    for html in htmls:  
        os.remove(html)  
        print u"删除临时文件"+html  

    for pdf in pdfs:  
        os.remove(pdf)  
        print u"删除临时文件"+pdf  

    total_time = time.time() - start  
    print(u"总共耗时:%f 秒" % total_time)  


if __name__ == '__main__':  
    main()  

3、学习网站
(1)菜鸟教程
(2)Python2.7官网文档

批量截取在线阅读的电子书并保存PDFPython脚本通常会涉及网络抓取、屏幕截图(可能通过Selenium或PIL库)、图片合并(例如使用PIL的Image模块),以及PDF生成(可以使用如PyPDF2或weasyprint)。由于每个步骤都有一定的复杂性,以下是一个简化版的示例,假设我们已经获取到了页面的源代码并且包含有每页的图片URL: ```python import requests from PIL import Image from io import BytesIO import PyPDF2 def get_image(url): response = requests.get(url) image = Image.open(BytesIO(response.content)) return image def merge_images(images): width, height = images[0].size merged = Image.new('RGB', (width * len(images), height)) for i, img in enumerate(images): merged.paste(img, (i * width, 0)) return merged def save_to_pdf(screenshot_list, output_filename): pdf_pages = [] for screenshot in screenshot_list: pdf_pages.append(PyPDF2.PdfFileWriter()) page = screenshot.convert('RGB') pdf_page = PdfPages(output_filename) pdf_page.add_page(page) pdf_pages[-1] = pdf_page pdf_writer = PyPDF2.PdfFileMerger() for page in pdf_pages: pdf_writer.append(page) pdf_writer.write(output_filename) # 假设有个列表存储了每一页的图片URL image_urls = ['http://example.com/page_1.jpg', 'http://example.com/page_2.jpg'] # 截图并合并所有页面 screenshot_list = [get_image(url) for url in image_urls] merged_image = merge_images(screenshot_list) # 将合并后的图像保存PDF save_to_pdf([merged_image], 'output.pdf') ``` 这个例子相当基础,实际应用中可能需要考虑更多因素,比如多线程处理以提高效率,处理JavaScript渲染的内容,以及错误处理。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值