学习笔记:Python之元组

元组介绍

元组和列表类似,本质上也是数据的集合
不过,列表中的数据可以进行修改,而元组中的元素数据,一旦被定义后就不可被更改
当创建的元组只有一个数据时,需要在后面加上一个逗号’,’

# 创建一个空元组
t1 = ()
print(t1,type(t1))

# 创建带有一个元素的元组
t2 = (1,)
print(t2)

# 创建带有多个元素的元组
# 元组中元素可以是各种数据类型
t3 = (1,2,'a','asd',True)
print(t3)

元组的访问

元组中访问元素的方法与列表访问方法一致
[起始位置 : 结束位置 :步长]

t1 = (25,63.1,68,'asdaw',True)
print(t1[2])
print(t1[:2])
print(t1[::2])

# 删除元组
del t1
  • 由于元组中的数据定义后不可修改,所以只能进行删除元组

元组的操作

  • 元组合并
  • 重复输出
  • 判断元素是否在元组中
  • 切片
# 元组合并
t1 = (1,2,3)
t2 = (4,5,6)
print(t1 + t2)

# 重复输出
t3 = (4,8,6)
print(t3 * 3)

# 判断元素是否在元组中--成员运算符
t4 = (5.21,63,99,'asdfg')
print(5.21 in t4)
print(20 int t4)

# 切片
# 元组的切片操作与列表类似
# [起始位置 : 结束位置 : 步长]
t5 = (12,48,96,48,95,62,78)
# 获取第三个元素
print(t5[2])
# 获取第二个到第四个元素
print(t5[1:3])
# 每隔一个获取一个元素
print(t5[::2)

元组常用的功能

  • 获取长度
  • 获取最大最小值
  • 把其他数据类型转为元组类型
  • 遍历元组
  • 遍历元组的索引和元素
# 获取元组的长度
t1 = (1,2,3,4,5,6,7,8,9)
print(len(t1))

# 获取最大值
print(max(t1))
# 获取最小值
print(min(t1))

# 其他数据类型转为元组
l1 = [56,65,84,63,9,42]
t2 = tuple(l1)
print(type(l1),type(t2))

# 遍历元组
# 循环遍历
# 方法一
for i in t1:
	print(i)
# 方法二
for i in range(len(t1)):
	print(t1[i])

# 遍历元组的索引和元素
for index,value in enumerate(t1):
	print(index,value)

多维元组

多维元组中的元素还是一个元组
即多维元组是由多个元组数据嵌套组成
与多维列表的定义类似

# 一维元组
t1 = (1,2,3)
print(t1)

# 二维元组
t2 = (
	(1,2,3),
	(4,5,6)
)
print(t2[1][1])

# 三维元组
t3 = (
	(
		(1,2,3),
		(4,5,6)
	),
	(
		(7,8,9),
		(10,11,12)
	)
)
print(t3[0][1][2])
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Spark SQL是Apache Spark中的一个模块,它提供了一种基于结构化数据的编程接口。Spark SQL可以让用户使用SQL语句来查询数据,也可以让用户使用DataFrame API来进行数据处理和分析。Spark SQL支持多种数据源,包括Hive、JSON、Parquet等。Spark SQL还提供了一些高级功能,如支持用户自定义函数、支持分布式机器学习算法等。Spark SQL的目标是让用户能够方便地使用Spark进行数据处理和分析,同时提供高性能和可扩展性。 ### 回答2: Spark SQL是一个基于Spark平台的关系型数据处理引擎,它支持使用SQL语句和数据框架操作数据,可以轻松处理结构化和半结构化的数据。它可以从多个数据源中读取数据,包括Hive、JSON、Parquet、ORC等。通过Spark SQL,用户可以方便地使用SQL查询语言来分析和处理数据,大大降低了开发和组织数据流的难度。 Spark SQL主要有两种执行模式:SQL查询和DataFrame操作。其中SQL查询基于Hive的SQL语法解析器,支持HiveQL中的大多数语言特性(如UDF、窗口函数等)。在执行计划生成时,Spark SQL采用了Spark的计算引擎,支持各种Spark算子的优化,以便最大程度地提高查询性能。 另一种操作模式是使用DataFrame API,它可以灵活地进行数据转换和处理,并提供了类似于SQL的语法。与SQL查询不同,DataFrame API通过静态检查和编译器优化来避免由SQL查询引起的语法错误和潜在性能问题。 除了这两种基本的操作模式外,Spark SQL还提供了一些高级特性,如嵌套查询、表和视图、共享变量等。这些特性扩展了Spark SQL的功能,使得它可以更加灵活地进行数据处理和查询。 Spark SQL是Spark的重要组成部分,它在数据存储和处理方面提供了很多便利。通过最大程度地利用Spark引擎的优势,Spark SQL能够处理海量数据,并将其转换为有用的信息。这使得Spark SQL成为实现数据分析、机器学习和人工智能的重要工具之一。 ### 回答3: Spark SQL是一种基于Spark平台的数据处理引擎,它提供了高度优化的查询引擎和优秀的支持SQL语句的API。它允许用户使用SQL语句查询来处理大规模数据集,同时仍然支持复杂数据类型和计算。Spark SQL支持数据源,包括Parquet,Avro,JSON等一系列结构化的和半结构化的数据源。 Spark SQL在历史上是一个单独的模块,在Spark 2.0之后,它已经成为Spark的核心组件之一,可以直接在Spark核心API中使用,包括作为一个RDD库或DataFrame/DataSet的API。 Spark SQL的优点如下: 1. 它可以向受过传统SQL培训的用户展示更高级别,更强大的API。 2. 它提供数据集和RDD的良好互操作性。Spark SQL可以通过未被优化的RDD/DataSet API访问同一数据。 3. 它支持Spark的执行引擎以加速查询处理。 使用Spark SQL的时候,可以根据需要选择编程语言,如Scala,Java,Python,SQL等。在Spark核心API中,Spark SQL提供了两种API来处理结构化数据: 1. DataFrame API:DataFrame是具有许多操纵数据的功能的分布式数据集,类似于数据库中的表。 2. Dataset API:Dataset是Scala和Java API,它是类型安全的,并且提供与RDD API相同的API,但比RDD具有更好的性能和可读性。 Spark SQL是Spark生态系统中重要的组成部分之一。在处理大规模数据时,使用Spark SQL可以方便地利用Spark的强大功能,提高处理效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

(#`O′)凡

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值