Python爬取某平台付费文档,确定不来薅羊毛吗?

291 篇文章 0 订阅

导语:

哈喽,哈喽~当代大学生写作业时,emmmm…先看一眼,ok有点印象。
在这里插入图片描述
想翻书时,这是第几页?怎么这么干净,是这里吗…

这时“学小易”就很友好了,但是唯一不足的一点是,只有答案,没有过程。

浏览器也很友好,浏览到关键地方要钱,更别说想下载下来复习了…
在这里插入图片描述
今天呢,小编教大家用python如何免费下载付费文档资料,我再也不用担心下载资料要钱啦!也不用担心期末复习啦!
在这里插入图片描述

正文:

基本开发环境

Python 3.6

Pycharm

相关模块的使用

import os

import requests

import time import re

import json from docx

import Document from docx.shared

import Cm

目标网页分析
在这里插入图片描述
网站的文档内容,都是以图片形式存在的。它有自己的数据接口

接口链接:

https://openapi.book118.com/getPreview.html?&project_id=1&aid=272112230&t=f2c66902d6b63726d8e08b557fef90fb&view_token=SqX7ktrZ_ZakjDI@vcohcCwbn_PLb3C1&page=1&callback=jQuery18304186406662159248_1614492889385&_=1614492889486

在这里插入图片描述

接口的请求参数

第一页:
在这里插入图片描述

第二页:
在这里插入图片描述

第三页:
在这里插入图片描述
如上图所示,翻页参数改变的是page 每次加6。

整体思路

请求网页返回response数据(字符串)

通过re模块匹配提取中间的数据(列表)索引取0(字符串)

通过json模块是把提取出来的数据转换成json模块

通过遍历获取每张图片的url地址

保存图片到本地文件夹

把图片保存到word文档

def download():

    content = 0

    for page in range(1, 96, 6):

        # 给定 2秒延时

        time.sleep(2)

        # 获取时间戳

        now_time = int(time.time() * 1000)

        url = 'https://openapi.book118.com/getPreview.html'

        # 请求参数

        params = {

            'project_id': '1',

            'aid': '272112230',

            't': 'f2c66902d6b63726d8e08b557fef90fb',

            'view_token': 'SqX7ktrZ_ZakjDI@vcohcCwbn_PLb3C1',

            'page': f'{page}',

            '_': now_time,

        }

        # 请求头

        headers = {

            'Host': 'openapi.book118.com',

            'Referer': 'https://max.book118.com/html/2020/0427/8026036013002110.shtm',

            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'

        }

        response = requests.get(url=url, params=params, headers=headers)

        # 使用正则表达式提取内容

        result = re.findall('jsonpReturn\((.*?)\)', response.text)[0]

        # 字符串转json数据

        json_data = json.loads(result)['data']

        # 字典值的遍历

        for value in json_data.values():

            content += 1

            # 拼接图片url

            img_url = 'http:' + value

            print(img_url)

            headers_1 = {

                'Host': 'view-cache.book118.com',

                'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'

            }

            # 请求图片url地址 获取content二进制数据

            img_content = requests.get(url=img_url, headers=headers_1).content

            # 文件名

            img_name = str(content) + '.jpg'

            # 保存路径

            filename = 'img\\'

            # 以二进制方式保存 (图片、音频、视频等文件都是以二进制的方式保存)

            with open(filename + img_name, mode='wb') as f:

                f.write(img_content)

爬虫部分的代码还是比较简单的,没有什么特别的难度。

爬取这些文档,都是需要打印或者查询所以要把这些单张的图片都保存到word文档里面。

写入word文档

1、文件夹中所有图片的文件名。

正常的操作大家都是知道使用os模块就可以获取了,但是这里有一个问题

path = './img/'

lis = os.listdir(path)

print(lis)

>>>['1.jpg', '10.jpg', '11.jpg', '12.jpg', '13.jpg', '14.jpg', '15.jpg', '16.jpg', '17.jpg', '18.jpg', '19.jpg', '2.jpg', '20.jpg', '21.jpg', '22.jpg', '23.jpg', '24.jpg', '3.jpg', '4.jpg', '5.jpg', '6.jpg', '7.jpg', '8.jpg', '9.jpg']

在这里插入图片描述
在文件夹中都是有序排列循序的,但是用os模块读取出来的文件名,都是无序的,这样保存的话会导致文档内容循序错乱,这不是我们想要的。

所以需要把文件名都排序输出。

path = './img/'

lis = os.listdir(path)

c = []

for li in lis:

    index = li.replace('.jpg', '')

    c.append(index)

c_1 = sorted(list(map(int, c)))

new_files = [(str(i) + '.jpg') for i in c_1]

print(new_files)

>>>['1.jpg', '2.jpg', '3.jpg', '4.jpg', '5.jpg', '6.jpg', '7.jpg', '8.jpg', '9.jpg', '10.jpg', '11.jpg', '12.jpg', '13.jpg', '14.jpg', '15.jpg', '16.jpg', '17.jpg', '18.jpg', '19.jpg', '20.jpg', '21.jpg', '22.jpg', '23.jpg', '24.jpg']

排序好之后,通过docx模块对其进行写入。

document.add_picture(img_path, width=Cm(17), height=Cm(24))

document.save('tu.doc')  # 保存文档

一定要设置写入图片的大小,不然图片太大,排版不好看。

写完之后把图片都删除掉

os.remove(img_path)

完整实现效果
在这里插入图片描述
在这里插入图片描述
最后我们下载下来的每一页都是一张图片。

结尾:

文章就写到这里结束啦~大家喜欢的记得点点赞
需要完整的项目源码的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】。

👉[[CSDN大礼包:《python安装包&全套学习资料》免费分享]]安全链接,放心点击

  • 2
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
对于百度文库付费文档,一般情况下是需要付费才能查看和下载的,因此直接爬取是不合法的行为。如果您需要获取付费文档内容,可以考虑购买或者向作者进行合法获取。 如果您需要获取免费文档,可以尝试使用 Python 的 requests 库和 BeautifulSoup 库来实现。具体步骤如下: 1. 通过 requests 库发送请求,获取文档页面的 HTML 内容。 2. 使用 BeautifulSoup 库解析 HTML 内容,获取文档的下载链接。 3. 通过 requests 库再次发送请求,获取文档的下载链接对应的文件内容。 4. 将文件内容保存到本地。 下面是一个简单的示例代码: ```python import requests from bs4 import BeautifulSoup # 定义请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 构造请求URL doc_id = '123456' # 文档id url = 'https://wenku.baidu.com/view/{}/{}.html'.format(doc_id, doc_id) # 发送请求,获取HTML内容 response = requests.get(url, headers=headers) html_content = response.text # 解析HTML内容,获取下载链接 soup = BeautifulSoup(html_content, 'html.parser') download_url = soup.find('a', class_='downBtn')['href'] # 发送请求,获取文件内容 response = requests.get(download_url, headers=headers) file_content = response.content # 保存文件 with open('file.docx', 'wb') as f: f.write(file_content) ``` 需要注意的是,该代码仅适用于免费文档爬取,对于付费文档爬取是不合法的行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值