![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
七天笔记本
银行打工人
展开
-
2022秋招-京东-数据分析师笔试-编程题
一、题目描述有若干个数形成一个可重集合,它们中很多都想做一个中庸的数,即既不是集合中最大的(或之一),也不是集合中最小的(或之一)。显然,不可能满足所有数。好在还是有一些数并不介意这一点。你需要从这些数中选出一个可重的子集,该子集中介意成为最值的数都得到满足(指不能成为子集中的最值)。请计算可以取的最大可重子集的大小。输入描述第一行一个整数 n,1 <= n <= 100000后面 n 行,每行两个整数 x, y,x <= 1000000000,y 为 0 或 1。x 表原创 2021-08-21 22:04:48 · 2026 阅读 · 0 评论 -
异常值的识别与处理
参考链接:https://blog.csdn.net/weixin_39548776/article/details/112486403https://blog.csdn.net/xzfreewind/article/details/77014587原创 2021-07-06 18:03:03 · 130 阅读 · 0 评论 -
Python安装第三方库
pycharm安装参考链接:https://zhuanlan.zhihu.com/p/129651314cmd安装参考链接:https://blog.csdn.net/dss875914213/article/details/86500146原创 2021-07-02 16:20:08 · 128 阅读 · 0 评论 -
Python纵向合并多个excel文件
一、背景在学校里,我们往往会学习很多高深的模型和方法,面试中的考察也屡见不鲜,而到了实际工作中使用频率却相对较低,成天和office厮混。这就是所谓的“面试造火箭,工作拧螺丝”现象。此时,不要灰心,不要难过,记住:我有工资的。言归正传,用的较多的是excel文件。有时需要批量合并多个格式相同、仅仅是数据不同的文件,如果一直用鼠标点点点,不光浪费时间、消磨热情不说,而且还可能遇到excel文件太大,电脑崩溃的情况,只想go die。假如Excel欺骗了你,不要悲伤,不要心急,这就是你学..原创 2021-07-02 16:22:22 · 5508 阅读 · 4 评论 -
携程2021暑期实习算法题
携程2021暑期实习算法题目给定非负整数d,判断是否存在整数a、b、c,使得d=a*a+b*b+c*c原创 2021-03-18 21:10:01 · 97 阅读 · 0 评论 -
在公众平台1年内发出20+篇推文之后,数据分析小白学到了什么?
目录前言Python:re:selenium:自动登录自动下载selenium基础知识爬虫xpathPDF处理pandas--表格数据处理Stata:爬虫:merge--表格数据处理总结前言从2019年5月起,我开始在公众平台下学习软件。到2020年7月卸任,一年多的时间,我从对代码模糊向往的小白,变成了别人口中会写(一点点)代码的大神(不是)。感触很深,人走得太快,也要偶尔等一等自己的灵魂,回头看看走过的路,所以下面做一下总结。.原创 2020-11-07 14:38:46 · 268 阅读 · 0 评论 -
python更改文件名
一、文件重命名import osxlsbpath=r"F:\data"os.chdir(xlsbpath) #更改当前路径filelist = os.listdir(xlsbpath) # 该文件夹下所有的文件(包括文件夹)print(filelist) #文件夹中所有文件名old="last.xlsb" #旧文件名new="to.xlsb" #新文件名os.rename(old,new) #重命名直接修改文件名二、复制后命名#先复制再改名#pip install sh原创 2020-08-12 22:36:06 · 17472 阅读 · 1 评论 -
python返回上一个交易日
一、周一到周五微交易日,其他不处理#返回上一个交易日lastworkday,根据周一到周五为工作日(不考虑他,采用下一个方法)import time,datetime #时间date=datetime.datetime.today() #今天#print(date.today())w=date.weekday()+1#print(w) #周日到周六对应1-7if w==1: #如果是周一,则返回上周五 lastworkday=(date+datetime.timedelta(days=-原创 2020-08-12 22:28:50 · 4073 阅读 · 1 评论 -
python中时间戳和日期的转换
#时间戳和日期的转换import time,datetimeprint(datetime.datetime.today())print(time.time())print(time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(1494133686)))结果原创 2020-08-12 22:22:30 · 214 阅读 · 0 评论 -
python爬取公众号历史文章
文章来源学习网上以及自己修改。参考链接:https://blog.csdn.net/d1240673769/article/details/75907152目的'''爬取公众号的历史文章信息:标题、链接、发布时间步骤:登录某一公众平台(随意一个),在新建图文的超链接里搜索公众号,选择第一个对应的公众号,爬取这个公众号所有的历史消息。'''准备工作import osos.chdir(r'G:\公众号文章')from selenium import webdriver原创 2020-08-12 22:18:46 · 1007 阅读 · 0 评论 -
python删除列表中空字符
一、目的近期,处理数据中遇到了删除列表中空字符的需求。# -*- coding:utf-8 -*-'''目的:删除None和'''''二、数据table1=[['地区', None, None, '公司名称', '', '注册资本', '', '成立时间', '银监会批复时间'], [None, None, None, None, None, '(亿元)', None, None, None], ['', '福建', '', '福建省闽投资产管理有限公司', '15', None,原创 2020-08-01 12:08:49 · 2047 阅读 · 0 评论 -
养家之人:原来和平如此珍贵!Stata豆瓣影评爬取并画词云图
《养家之人》20年后约定在海边相见。--那时候我都认不出你了。--你可以把蓝宝石高价卖给我。今天看了《养家之人》,十分触动。所以爬了下豆瓣影评并且画了个词云图来看看。*豆瓣影评*一、单个网页获取时间、链接、标题*infix读入clearcap mkdir "G:/豆瓣影评" //创建目标文件夹cd "G:/豆瓣影评" //更改当前工作路径到此文件夹copy "https://movie.douban.com/subject/26...原创 2020-07-31 00:23:46 · 1326 阅读 · 1 评论 -
来搞一个小爬虫~基金经理人信息!
'''爬取天天基金网站,所有基金经理人以及所管的基金的信息。网址:http://fund.eastmoney.com/Data/FundDataPortfolio_Interface.aspx?dt=14&mc=returnjson&ft=all&pn=50&pi=1&sc=abbname&st=asc关键字:get方法。流程:先获取第一层的namenumber,然后对于每一个namenumber爬取第二层的fund的信息。结果文件:g:\\fund.原创 2020-07-10 22:14:23 · 1455 阅读 · 3 评论 -
2020年上半年过去了,来给日记画个词云图呀~
作为一个常年写日记的人,从笔记本、手机、电脑各处都要写呀写。今天一看,7月份了,今年的上半年结束了,突发奇想对我上半年的日记来做个词云图吧~~~废话不多说,直接来。一、准备工作把日记word文档转换为txt文本文档,以备之后进行分析。直接打开word文档,点击“文件”“另存为”,类型选择“txt”即可。寻找一张作为词云图背景的图片。图片需要基本轮廓。通常下载的图片为矩形,进行抠图处理即可。二、代码实操简介'''图形可视化:读入中文文档,进行分词,剔除停用词,原创 2020-07-02 00:15:05 · 464 阅读 · 0 评论 -
Requests get爬虫之设置headers
Requests get爬虫之设置headers前段时间,小编在抓取网页数据时,使用requests中的get方法,标注了url,却始终得不到数据。后来,经过一番尝试之后才发现,加上headers之后,想要的数据就出来了。小编不禁心生疑问:为什么要加headers呢?今天,我们就来聊一聊requests get爬虫时设置headers的相关内容。Get方法请求指定的页面信息,并返回实体主体。语...原创 2020-04-06 16:45:06 · 7569 阅读 · 2 评论 -
map和reduce函数简介
map和reduce函数简介Python有许多强大好用的内置函数,今天小编将带领大家继续了解两个关于遍历和迭代的函数。一、mapmap函数会根据提供的函数对指定序列做映射。其语法为:map(function, iterable)。也就是对iterable中的每一个元素进行function的运算,并返回一个迭代器。1.第一个例子我们想要实现这样一个目的:判断一个数是奇数还是偶数,并返回一个...原创 2020-04-06 16:38:27 · 2776 阅读 · 0 评论 -
BeautifulSoup的用法案例简介
BeautifulSoup的用法案例简介在《Python爬虫利器-XPath》文中,我们介绍了XPath,使用它来进行页面文本信息提取方便快捷。在本文中,小编将介绍另外一个好用的工具–BeautifulSoup,使用它同样可以实现快速提取页面文本信息。1.什么是BeautifulSoupBeautifulSoup是一个从HTML或者XML文件中利用标签树功能快速提取数据的Python库。它用...原创 2020-04-06 16:28:09 · 246 阅读 · 0 评论 -
Python爬虫利器-XPath的初步介绍
@[TOC]Python爬虫利器-XPathPython爬虫利器-XPath在新手使用正则表达式提取源代码中指定信息的时候,如果正则表达式编写不适宜,往往会匹配到网页中我们不需要的内容,这实际大大增加了信息筛选、清洗的成本。尺有所短,寸有所长,小编今天要介绍的是一个能和正则表达式媲美的页面文本信息提取利器——XPath。接下来,小编从实用的角度带大家学习XPath的相关知识。1. 什么是XP...原创 2020-04-06 16:23:42 · 318 阅读 · 0 评论