Python 学第三方库的学习安装

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档


前言

Python 学习过程中第三方库的学习应用


提示:以下是本篇文章正文内容
使用国内镜像源会加速安装进程,

# 举例,安装PyPDF2
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ PyPDF2

一、pyspark是什么?

二、pyspark使用步骤

1.引入库

代码如下(示例):
在这里插入图片描述

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pyspark

from pyspark import SparkConf,

2.读入数据

代码如下(示例):

os.environ['PYSPARK_PYTHON'] = "D:/Soft/anaconda/python.exe"
conf = SparkConf().setMaster("local[*]").setAppName("test_spark")
sc = SparkContext(conf=conf)

# 准备一个rdd
rdd = sc.parallelize(["itheima itcase 666", "itheima itheima itcase", "python itheima"])

# 把数据中的rdd每一个单词提取出来
rdd2 = rdd.map(lambda x: x.split(" "))
# [['itheima', 'itcase', '666'], ['itheima', 'itheima', 'itcase'], ['python', 'itheima']]
# flatMap可以去除最外层嵌套
rdd2 = rdd.flatMap(lambda x: x.split(" "))
# ['itheima', 'itcase', '666', 'itheima', 'itheima', 'itcase', 'python', 'itheima']
print(rdd2.collect())

sc.stop()

该处使用的url网络请求的数据。


3.输出数据

代码如下(示例):

# ['itheima', 'itcase', '666', 'itheima', 'itheima', 'itcase', 'python', 'itheima']
print(rdd2.collect())

sc.stop()

该处使用的url网络请求的数据。


三、pygwalker库的使用

import pandas as pd
import pygwalker as pyg

df = pd.read_csv(r"201101.cvs", parse_dates=['date'])
df.head()

pyg.walk(df)

主要做数据可视化,源数据采用cvs格式。可以拖拽式,组合展示,效果如下:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值