python对文件操作的统一步骤_基于Python实现对各种数据文件的操作

本文总结使用Python对常见的数据文件进行读写操作。

注:我这有个学习基地,里面有很多学习资料,感兴趣的+Q群:895817687

常见的数据文件类型如下:

txt

csv

excel(xls\xlsx)

在线网页数据

pdf\word

其他数据软件格式

1 txt文件

文件读取

# 文件input

file_txt = os.path.join(workdir,'Data/demo_text.txt')

# 打开文件

f = open(file_txt, encoding='utf-8')

# 将每行的文本读取,并存为列表

# 此处使用.rstrip()去除空格、换行符

lines_raw = [x.rstrip() for x in f]

# 或者

# lines_raw = [l.rstrip() for l in f.readlines()]

print(lines_raw)

# 关闭文件

f.close()

输出如下:

['010杜甫:佳人', '', '绝代有佳人,幽居在空谷。', '自云良家子,零落依草木。', '关中昔丧乱,兄弟遭杀戮。', '官高何足论,不得收骨肉。', '世情恶衰歇,万事随转烛。', '夫婿轻薄儿,新人美如玉。', '合昏尚知时,鸳鸯不独宿。', '但见新人笑,那闻旧人哭!', '在山泉水清,出山泉水浊。', '侍婢卖珠回,牵萝补茅屋。', '摘花不插发,采柏动盈掬。', '天寒翠袖薄,日暮倚修竹。']

也可以用pandas来读取

df_txt = pd.read_csv(file_txt, names=['txt'], encoding='utf-8')

df_txt.head()

输出如下:

在这里插入图片描述

文件输出

# 文件output

file_out = os.path.join(workdir,'Data/out_text.txt')

f_out = open(file_out, encoding='utf-8',mode = 'w')

f_out.writelines(lines_raw)

f_out.close()

2 csv文件

# 定义文件路径

file_csv = os.path.join(workdir,'Data/demo_csv.csv')

# pandas.read_csv()函数来读取文件

df_csv = pd.read_csv(file_csv,sep=',',encoding='utf-8')

# dataframe.to_csv()保存csv文件

df_csv.to_csv('out_csv.csv',index=False,encoding='utf-8')

# 查看dataframe前3行

df_csv.head(3)

输出如下:

在这里插入图片描述

也可以把csv当做文本文件来读取,不过处理过程稍微复杂点,尤其是字段内的取值中含有分隔符(比如逗号)时,例如上面的name字段。

3 excel(xls\xlsx)文件在这里插入代码片

pandas工具包中也提供了相应的函数来读写excel文件(pandas.read_excel()和dataframe.to_excel())。

更多参考:https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.read_excel.html#pandas.read_excel

不同于csv文件,xlsx文件中会有多个sheet,pandas.read_excel函数默认读取第一个sheet.

# 定义文件路径

file_excel = os.path.join(workdir,'Data/demo_xlsx.xlsx')

# pandas.read_excel()函数来读取文件

# sheet_name=0表示读取第一个sheet,也可以指定要读取的sheet的名称(字符串格式)

# header=0 表示使用第一行作为表头(列名)

# 如果数据中没有列名(表头),可以设置header=None,同时names参数来指定list格式的列名

df_excel = pd.read_excel(file_excel,sheet_name=0,header=0,encoding='utf-8')

# dataframe.to_csv()保存csv文件

df_excel.to_excel('out_excel.xlsx',index=False,encoding='utf-8')

# 查看dataframe前3行

df_excel.head(3)

这里用xlwings示范自动化“填表”,比如现在有3个项目对应的3个单元格需要填写。

在这里插入图片描述

import xlwings as xw

file_excel = os.path.join(workdir,'Data/demo_填表.xlsx')

# 打开excel文件的时候不要展示页面

app = xw.App(visible=False)

# 打开工作簿

wb = xw.Book(file_excel)

# 打开工作表

# 可以用index,可以指定sheet的名称

ws = wb.sheets[0]

# 读取对应单元格的值

print(ws.range('A1').value)

ws.range('B1').value = 'Ahong'

ws.range('B2').value = '男'

ws.range('B3').value = 'Pyhon'

# 保存工作簿

wb.save()

# 也可以保存为新的文件名,e.g.wb.save('new.xlsx')

# 关闭工作簿

wb.close()

如果要批量从多个统一格式的excel文件中读取多个单元格或者写入数据,不妨考虑此方法。

4 在线网页数据

通常网络爬虫的步骤如下:

分析网页请求规范,比如是get还是post,请求的url是啥,返回的数据是什么格式(json?静态html?),header参数,url或者post中的变量有什么等;

获取网页数据,使用requests包;

解析网页数据(将半结构化的网页数据转化为结构化数据),BeautifulSoup、lxml、re、json齐上阵;

整合数据并存档,使用pandas对数据进行整合并初步清洗。

处理pdf文件时,要注意文件需要是“已解密”或者“无密码”状态,“加密”状态的文件处理时会报错。

pdf解密工具推荐:

http://freemypdf.com/

https://smallpdf.com/unlock-pdf

这里举例说明PyPDF2的用法,筛选奇数页面并保存为新文档。

import PyPDF2

# 读入文件路径

file_in = os.path.join(workdir,'Data/demo_pdf.pdf')

# 打开要读取的pdf文件

f_in = open(file_in,'rb')

# 读取pdf文档信息

pdfReader = PyPDF2.PdfFileReader(f_in)

# pdf文件页面数

page_cnt = pdfReader.getNumPages()

pdfWriter = PyPDF2.PdfFileWriter()

# 筛选奇数页面

for page_idx in range(0,page_cnt,2):

page = pdfReader.getPage(page_idx)

pdfWriter.addPage(page)

# 输出文档

file_out = open('pdf_out.pdf', 'wb')

pdfWriter.write(file_out)

# 关闭输出的文件

file_out.close()

# 关闭读入的文件

pdf_file.close()

如果要解析pdf文件的页面数据(文件上都写了啥),推荐的工具包为:

安装好pdfminer.six后,直接在命令行中调用如下命令即可:

import textract

# 文件路径

file_pdf = os.path.join(workdir,'Data/demo_pdf.pdf')

# 提取文本

text_raw = textract.process(file_pdf)

# 转码

text = text_raw.decode('utf-8')

5.2 读取Word文件

6 其他数据软件文件

比如SAS, SPSS,Stata等分析软件导出的数据格式。

可以使用的工具包pyreadstat, https://github.com/Roche/pyreadstat

# 使用Python读取.sav文件

# https://github.com/Roche/pyreadstat

import pyreadstat

# 文件路径

file_data = os.path.join(workdir,'Data/demo_sav.sav')

# 读取文件

df,meta = pyreadstat.read_sav(file_data)

# df就是转化后的数据框

# 查看编码格式

print(meta.file_encoding)

df.head()

更多参考

https://pandas.pydata.org/pandas-docs/stable/user_guide/io.html

Automate the Boring Stuff with Python: Practical Programming for Total Beginners

附PDF文件转字符串的函数

-----------------------------------------------------

注:我这有个学习基地,里面有很多学习资料,感兴趣的+Q群:895817687

-----------------------------------------------------

# ref: https://stackoverflow.com/questions/26494211/extracting-text-from-a-pdf-file-using-pdfminer-in-python

from pdfminer.pdfinterp import PDFResourceManager, PDFPageInterpreter

from pdfminer.converter import TextConverter

from pdfminer.layout import LAParams

from pdfminer.pdfpage import PDFPage

from io import StringIO

def convert_pdf_to_txt(path):

rsrcmgr = PDFResourceManager()

retstr = StringIO()

codec = 'utf-8'

laparams = LAParams()

device = TextConverter(rsrcmgr, retstr, codec=codec, laparams=laparams)

fp = open(path, 'rb')

interpreter = PDFPageInterpreter(rsrcmgr, device)

password = ""

maxpages = 0

caching = True

pagenos=set()

for page in PDFPage.get_pages(fp, pagenos, maxpages=maxpages, password=password,caching=caching, check_extractable=True):

interpreter.process_page(page)

text = retstr.getvalue()

fp.close()

device.close()

retstr.close()

return text

如果喜欢看小编的文章记得关注走一波,另外小编是一名python开发工程师,这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于Hadoop的Python对爬取数据进行预处理有以下步骤: 1. 数据收集:爬虫程序使用Python编写,通过网页抓取、API调用等方式收集相关数据。爬虫程序可利用Python的库如Beautiful Soup和Scrapy来解析和提取数据。 2. 数据清洗:利用Hadoop的分布式计算能力,将收集到的原始数据传输到Hadoop分布式文件系统(HDFS)中,以便后续处理。接着,使用Python编写的MapReduce程序,对原始数据进行清洗,去除不需要的标记、过滤噪声数据,以及将数据规范化。 3. 数据转换:在预处理过程中,数据可能需要转换为结构化的格式,例如将数据转换为CSV、JSON或Parquet等常用的数据格式,以方便后续分析和处理。Python可以编写适应需要的转换逻辑,并使用Hadoop的MapReduce或Spark技术进行分布式处理。 4. 数据整合:从不同的源头收集到的数据需要整合成一个统一的数据集合,方便统一分析。这个过程可能涉及数据的合并、去重和排序等操作Python与Hadoop的集成可以使用Hadoop的MapReduce或Spark进行分布式计算,通过编写适应需求的逻辑程序,完成数据整合的任务。 5. 数据存储:清洗、转换和整合后的数据可以存储回Hadoop的分布式文件系统(HDFS),或者外部数据库(如HBase、MySQL、PostgreSQL等),以供后续的数据挖掘和分析使用。Python可以通过Hadoop的API或者第三方库,将数据存储到指定的存储介质中。 基于Hadoop的Python对爬取数据进行预处理,能够充分利用Hadoop的分布式计算能力来处理大规模的数据,提高数据的处理速度和效率。同时,Python作为一种简洁且易于编写和维护的脚本语言,为数据预处理提供了强大的支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值