php数据按照月份筛选,Excel表格如何根据某日期列的类别分年/分月筛选同类数据并执行打印筛选结果...

工作中,我们经常会遇到这样的需求,一张包含多年历史数据的表格,我们希望,根据年度进行分类筛选,或者根据年度及月份进行分类筛选,并且批量将每次的筛选结果都打印出来,如果有多个类别需要筛选打印就比较麻烦了,下面介绍一个快速一键根据类别筛选数据并打印的方法:

37c15e21d46c5b7c3c1989344a682b41.png

※ 操作步骤 ※:

1、安装《巧办公》软件后,打开Excel,《巧办公》软件将出现在Excel的功能区,如下图:

15f7f68479277c44aa72c5f9f68f7615.png

2、单击【批量筛选并自动打印】,如下图:

b0fe036f0c66eea042f90511a46620f1.png

3、在弹出的窗体中,根据实际情况设置条件,如下图:

e486ab4d1d0c199f8a402a72d1c88b66.png

说明:

【打印标题】起始行之前的内容视为标题行,打印的每一类均含有此标题,如果一个类别的内容大于1页,您还应在Excel中设置好[打印标题区域]

7a8b9d924b7abc8de8b0aa89a8d3e617.png          

1e3e8e58856b970b7f82f5585d954507.png

【起始行】数据的起始行,不要包含标题行,否则标题行会作为一类打印

【终止行】数据的最后一行,如果有需要打印的表尾内容,终止行一定要在表尾前【如上例:13】

如果要打印表尾,一定要在数据和表尾之间插入一个空行,该空行可以隐藏【如上例:第14行】

【筛选条件列】可以根据一列筛选,或要求两列类别均一致的作为筛选结果,最多可以设置3个筛选条件

【日期筛选--条件列】如果您要筛选的条件列是日期(标准日期格式),则必须要使用该条件进行筛选才可以;如果您的日期不是标准日期格式,将按文本处理

【如何检查日期是否标准】选中日期单元格,单击右键,选择【设置单元格格式】,在弹出的窗体,如果高亮显示的为【日期】,则表明该单元格为标准日期

568e311e4cd5791a33d2f74d4c2324d3.png

【日期分类】日:同一天的数据视为一类。月:同一年同一月的视为一类。年:同一年的视为一类

139cb1fe4d395259d1c80a4bbc382d54.png

4、打印的效果,如下图:

37c15e21d46c5b7c3c1989344a682b41.png

5、打印中... 如果要终止打印则点击【取消打印】

336711cf217410168d82f92595c01e96.png

在使用爬虫技术对一个网站进行数据爬取时,你需要遵循几个步骤:确定目标网站的结构、编写爬虫代码来请求和解析网页内容、提取所需数据,并将提取的数据保存到Excel文件中。这里是一个简化的过程: 1. 分析网站结构:首先,访问目标网站(例如https://bbs.ichunqiu.com/portal.php),并使用浏览器的开发者工具(如Chrome的开发者工具)来查看网页的HTML结构,了解数据是如何组织的。 2. 编写爬虫代码:使用Python语言中的requests库来发送HTTP请求,获取网页内容。然后利用BeautifulSoup库或lxml库进行HTML内容的解析,并提取出所需的数据。 3. 数据处理:将解析出的数据进行适当的清洗和格式化,以便于存储和使用。 4. 保存到Excel:使用Python的pandas库来创建DataFrame对象,将数据整理好后写入Excel文件。 以下是一个简单的Python代码示例: ```python import requests from bs4 import BeautifulSoup import pandas as pd # 发送请求获取网页内容 url = 'https://bbs.ichunqiu.com/portal.php' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 假设我们提取帖子的标题和内容,根据实际网页结构调整选择器 posts = soup.find_all('div', {'class': 'post_container'}) # 根据实际网页结构调整 data = [] for post in posts: title = post.find('a', {'class': 'post_title'}).get_text(strip=True) content = post.find('div', {'class': 'post_content'}).get_text(strip=True) data.append({'title': title, 'content': content}) # 转换为DataFrame并保存到Excel文件 df = pd.DataFrame(data) df.to_excel('ichunqiu_posts.xlsx', index=False) # 注意:以上代码是假设性的,需要根据实际网页结构进行调整。 ``` 在运行上述代码之前,请确保你已经安装了所需的库:requests, beautifulsoup4, pandas。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值