PySpark数据分析基础:pyspark.sql.SparkSession类方法详解及操作+代码展示

目录

前言

一、pyspark.sql.SparkSession

二、函数方法

1.parallelize

2.createDataFrame

基础语法

功能

参数说明

返回

data参数代码运用:

schema参数代码运用:

3.getActiveSession

基础语法:

功能:

代码示例

?4.newSession

基础语法:

?功能:

5.range

基础语法:

?功能:

参数说明:

代码示例:

?6.sql

基础语法:

?功能:

参数说明:

代码示例:

7.table

基础语法

功能:

点关注,防走丢,如有纰漏之处,请留言指教,非常感谢

参阅


前言

Spark SQL是用于结构化数据处理的Spark模块。它提供了一种称为DataFrame的编程抽象,是由SchemaRDD发展而来。不同于SchemaRDD直接继承RDD,DataFrame自己实现了RDD的绝大多数功能。Spark SQL增加了DataFrame(即带有Schema信息的RDD),使用户可以在Spark SQL中执行SQL语句,数据既可以来自RDD,也可以是Hive、HDFS、Cassan

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值