Python爬取比比网中标标书并保存成PDF格式

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入


python开发环境

  • python 3.6
  • pycharm
import requests
import parsel
import pdfkit
import time

相关模块pip安装即可

目标网页分析

在这里插入图片描述
1、先从列表页中获取详情页的URL地址

是静态网站,可以直接请求网页获取数据
在这里插入图片描述

for page in range(1, 31):
    url = 'https://www.bibenet.com/mfzbu{}.html'.format(page)
    headers = {

        'Referer': 'https://www.bibenet.com/mianfei/',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
    }
    response = requests.get(url=url, headers=headers)
    selector = parsel.Selector(response.text)
    urls = selector.css('body > div.wrap > div.clearFiex > div.col9.fl > div.secondary_box > table tr .fl a::attr(href)').getall()
    for page_url in urls:
    print(page_url)

2、从详情页中获取标题以及内容

response_2 = requests.get(url=page_url, headers=headers)
selector_2 = parsel.Selector(response_2.text)
article = selector_2.css('.container').get()
title = selector_2.css('.detailtitle::text').get()

3、保存html网页数据并转成PDF

html_str = """
<!doctype html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Document</title>
</head>
<body>
{article}
</body>
</html>
"""
def download(article, title):
    html = html_str.format(article=article)
    html_path = 'D:\\python\\demo\\招标网\\文书\\' + title + '.html'
    pdf_path = 'D:\\python\\demo\\招标网\\文书\\' + title + '.pdf'
    with open(html_path, mode='wb', encoding='utf-8') as f:
        f.write(html)
        print('{}已下载完成'.format(title))
    # exe 文件存放的路径
    config = pdfkit.configuration(wkhtmltopdf='C:\\Program Files\\wkhtmltopdf\\bin\\wkhtmltopdf.exe')
    # 把 html 通过 pdfkit 变成 pdf 文件
    pdfkit.from_file(html_path, pdf_path, configuration=config)

运行实现效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

要使用Python进行爬取标书的操作,可以按照以下步骤进行操作: 1. 安装必要的库:首先,你需要安装requests库和parsel库。你可以使用以下命令来安装它们: ``` pip install requests pip install parsel ``` 2. 发起请求并获取数据:使用requests库发送HTTP请求,获取标书相关的网页数据。你可以使用以下代码示例来实现这一步骤: ```python import requests import parsel url = 'https://www.bibenet.com/mfzbu.html' # 标书网页的URL headers = { 'Referer': 'https://www.bibenet.com/mianfei/', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36' } response = requests.get(url=url, headers=headers) selector = parsel.Selector(response.text) urls = selector.css('body > div.wrap > div.clearFiex > div.col9.fl > div.secondary_box > table tr .fl a::attr(href)').getall() for page_url in urls: print(page_url) ``` 这段代码会向指定的URL发起请求,并使用CSS选择器提取出所有标书的链接。 请注意,你需要根据实际的网页结构和需要进行相应的调整。 这就是使用Python爬取标书的基本步骤。你可以根据自己的需求进一步处理获取到的数据,比如保存到文件或者进行其他的数据处理操作。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Python爬取比比中标标书保存PDF格式](https://blog.csdn.net/fei347795790/article/details/109511653)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* [Python爬取文章内容](https://download.csdn.net/download/weixin_38729336/13738871)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值