PYTHON
文章平均质量分 53
懂数据的教育家
这个作者很懒,什么都没留下…
展开
-
python自动化办公(2)—— 快速合并与分析Excel文档
在工作中,我们经常需要将多个Excel文件合并到一个Excel文件中。当文件数量少时,我们可以通过复制粘贴完成。当Excel文件有上百个甚至上千个时,如何在1分钟之内完成呢?我们可以使用python中的pandas库快速合并Excel文件。步骤1:#遍历文件夹内所有文档的路径步骤2:#利用append纵向拼接数据步骤3:#利用concat横向拼接数据步骤4:#保存到新Excel...原创 2020-01-02 10:42:01 · 787 阅读 · 0 评论 -
python自动化办公(1)—— 批量合并word文档
上个月领导交给我一个非常紧急的任务,限我2天之内完成。其中有一项是将项目两年内的分析报告汇总到一篇报告中。我花了30分钟左右梳理了一下这些分析报告,竟然有200多份,每份分析报告大概5-10页。我粗略计算了工作量,每次操作需要打开子目录——>找到word文档——>全选复制——>粘贴到新文档——>调整格式——>核对检查,完成一次操作至少得3分钟。合并完这200多份报...原创 2020-01-02 08:54:37 · 3682 阅读 · 5 评论 -
pip更新失败
弄了一个上午,pip9.01升级到9.03,各种方法都试过。后来决定重新安装pipeasy_install pip直接搞定了原创 2018-03-26 12:59:49 · 3727 阅读 · 4 评论 -
(持续更新)python3的一些不同
3.20原:从sklearn.cross_validation导入train_test_split模块用于分割数据集from sklearn.model_selection import train_test_split原创 2018-03-20 11:35:21 · 429 阅读 · 0 评论 -
中文关键词提取
# -*- coding: utf-8 -*-"""Created on Mon Jan 29 18:41:47 2018@author: loka"""import jiebafrom jieba import analysejieba.load_userdict("D:\\software\\development\\anaconda\\dictronary\\gzwl.txt"...原创 2019-10-04 17:15:03 · 210 阅读 · 0 评论 -
python字符串操作(去非中文字符)
清理非中文def is_ustr(in_str): out_str='' for i in range(len(in_str)): if is_uchar(in_str[i]): out_str=out_str+in_str[i] else: out_str=out_str+' '转载 2018-01-30 14:18:21 · 11042 阅读 · 0 评论 -
数据库中根据相似度匹配相似题目
# -*- coding: utf-8 -*-"""Created on Mon Feb 5 13:41:23 2018@author: loka"""import pandas as pdimport pymysqlimport pymysql as mdbimport jiebaimport codecs from jieba import analyse#连接数据库...原创 2018-08-07 19:48:52 · 4538 阅读 · 0 评论 -
python3.6读取csv文件的方法
第一种:with open('C:\\Users\\loka\\.jupyter\\csv\\query_result.csv', 'r',encoding='UTF-8') as cv: cv_read = cv.read() print(cv_read)第二种:import pandas as pdimport numpy as npdf = pd.re原创 2018-02-02 15:21:11 · 4716 阅读 · 0 评论 -
高中物理的题库里提取所有物理关键词
# -*- coding: utf-8 -*-"""Created on Mon Jan 29 18:41:47 2018@author: loka"""import jiebafrom jieba import analyseimport codecs# 引入TF-IDF关键词抽取接口tfidf = analyse.extract_tags#添加用户自定义词jieba.lo...原创 2018-08-07 19:49:03 · 749 阅读 · 0 评论 -
python 3.6加入停用词
# coding:utf-8import jiebaimport jieba.analyseimport codecs#这里放停用词文档路径,txt文档编码未UTF-8stoplist = [line.strip() for line in codecs.open("./stopword.txt",encoding='utf-8')]segs=jieba.cut('北京附近原创 2018-02-01 09:51:51 · 2440 阅读 · 0 评论