笔者最近需要使用pyspark进行数据整理,于是乎给自己整理一份使用指南。pyspark.dataframe跟pandas的差别还是挺大的。 文章目录 1、-------- 查 -------- --- 1.1 行元素查询操作 --- **像SQL那样打印列表前20元素** **以树的形式打印概要** **获取头几行到本地:** **查询总行数:** 取别名 **查询某列为null的行:** **输出list类型,list中每个元素是Row类:** 查询概况 去重set操作 随机抽样 --- 1.2 列元素操作 --- **获取Row元素的所有列名:** **选择一列或多列:select** **重载的select方法:** **还可以用where按条件选择** --- 1.3 排序 --- --- 1.4 抽样 --- --- 1.5 按条件筛选when / between --- 2、-------- 增、改 -------- --- 2.1 新建数据 --- --- 2.2 新增数据列 withColumn---