Python爬取新闻网站保存标题、内容、日期、图片等数据

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

基本开发环境

  • Python 3.6
  • Pycharm
import requests
import parsel
import pdfkit
import csv
import threading

相关模块pip安装即可

确定目标网页

获取数据

  • 标题
  • 内容 保存成PDF
  • 日期
  • 图片 保存本地
  • 详情页url、日期、图片地址等等 保存csv

网站是静态网页,没有什么难度

 

详情页

同样是静态页面

 

网页源代码已经说明数据在什么地方了,利用相关的解析工具,对网页数据进行解析即可。

代码实现

  • 请求网页以及解析
def get_html(html_url):
    response = requests.get(url=html_url, headers=headers)
    return response

def get_pars(html_data):
    selector = parsel.Selector(html_data)
    return selector

  • 保存内容 PDF格式
html_str = """
<!doctype html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Document</title>
</head>
<body>
{article}
</body>
</html>
"""
def save_article(article, title):
    html_path = 
  • 5
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Python爬取水利部的过程可以通过以下步骤实现: 1. 引用requests、re、BeautifulSoup和pandas等库。 2. 设定要爬取的网址和用户代理。 3. 使用requests库发送HTTP请求获取网页内容,并将编码设置为UTF-8。 4. 使用BeautifulSoup库解析网页内容,根据特定的标签和属性提取目标数据。 5. 根据需要的数据结构,将提取到的数据存储在DataFrame中。 6. 将DataFrame中的数据保存到CSV文件中。 具体代码如下所示: ```python import requests import re from bs4 import BeautifulSoup from pandas import DataFrame url = 'http://www.gov.cn/zhengce/zuixin.htm' UA = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36' headers = {'User_Agent': UA} # 发送HTTP请求获取网页内容 r = requests.get(url, headers=headers) r.encoding = 'utf-8' # 使用BeautifulSoup解析网页内容 soup = BeautifulSoup(r.text, 'lxml') # 提取标题和链接 links = soup.find_all(href=re.compile('content')) titles = [str(link.string) for link in links] urls = [str(link.get('href')) for link in links] # 提取日期 attrs = {'class': 'date'} dates = soup.find_all(name='span', attrs=attrs) pattern = re.compile('(\d{4})-(\d{2})-(\d{2})') days = [re.search(pattern, date.string).group() for date in dates] # 存储数据到DataFrame data = {'date': days, 'title': titles, 'url': urls} frame = DataFrame(data) # 将数据保存到CSV文件 frame.to_csv('test.csv', index=False) ``` 这段代码使用requests库发送HTTP请求获取水利部网页的内容,然后使用BeautifulSoup库解析网页内容,提取出标题、链接和日期等关键信息。最后,将提取到的数据存储在一个DataFrame中,并将DataFrame中的数据保存为CSV文件。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [python 写hello world 之深入爬虫爬取水文信息(四)](https://blog.csdn.net/chen249191508/article/details/100562817)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [小小学习成果:Python爬虫爬取国务院最新政策](https://blog.csdn.net/INTEGRATOR_37/article/details/113386649)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值