- 博客(4)
- 问答 (1)
- 收藏
- 关注
原创 小试牛刀可视化
import pandas as pd import numpy as np import matplotlib.pyplot as plt data=pd.read_excel('/data/trd.xlsx',engine="openpyxl") print(data.columns) print(data.iloc[:5]) dt=data.loc[data['股票代码']==600000,['交易日期','收盘价','交易量']] I1=dt['交易日期'].values>
2021-10-22 22:51:57 97
原创 小试牛刀分析
import numpy as np import pandas as pd import os #将数据进行转置,转置后行为用户编号、列为日期、值为用户每日用电量。 data=pd.read_csv('data_etr.csv',parse_dates=['DATA_DATE'],encoding='gbk') data.head() #透视表 data_new=pd.pivot_table(data=data,values='KWH',index='CONS_NO',columns='
2021-10-22 22:49:09 152
原创 runoob爬取python模块实例
''' 访问菜鸟教程(https://www.runoob.com),爬取其Python3实例模块的题目内容,按照以下格式爬取输出内容: 1、Python Hello World实例 以下实例为学习Python的第一个实例, 即如何输出"Hello World!": 2、Python 数字求和 以下实例为通过用户输入两个数字,并计算两个数字之和: ''' import requests from lxml import html url='https://www.runoob.com/python3/.
2021-10-22 22:32:05 271
原创 高可用spark安装与配置
(1)解压安装包到/usr/local下。 tar -zxf /opt/spark-1.6.3-bin-hadoop2.6.tgz -C /usr/local (2)进入/usr/local/spark-1.6.3-bin-hadoop2.6/conf。 cd /usr/local/spark-1.6.3-bin-hadoop2.6/conf 3)配置spark-env.sh文件,复制spark-env.sh.template文件,重命名为spark-env.sh
2021-10-22 22:28:30 580
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人