Spark技术03直播笔记

本文介绍了如何安装和配置PySpark、Jupyter以及PyCharm,重点讲解了在PyCharm中通过SSH连接远程Hadoop集群执行Spark任务,包括词频统计案例。同时强调了系统化学习的重要性,欢迎IT从业者和新手加入技术交流社区共同成长。
摘要由CSDN通过智能技术生成
[root@hadoop141 spark-3.5.0]# ./bin/spark-submit --master yarn --deploy-mode cluster ./examples/src/main/python/pi.py

cluster的不太好看 succeeded表示成功了,然后点击ID那个点击进去
在这里插入图片描述
会有一个logs(日志),在日志里面就可以查看对应的结果了
在这里插入图片描述
在这里插入图片描述
它这个是根据你电脑性能来执行的,执行多次结果都是不会重复的

Anaconda安装以及Jupyter安装

具体操作请跳转到PySpark(超详细笔记)
往下找找 写的很详细
在这里插入图片描述
配完以后可以在xshell里去启动jupyter notebook
在这里插入图片描述
直接访问hadoop141:8888
在这里插入图片描述
密码是之前步骤里设置的
在这里插入图片描述
在这里插入图片描述
这里面就可以执行Python和pyspark
在这里插入图片描述
它的路径保存在设置的路径里
在这里插入图片描述
可以使用了
在这里插入图片描述
在这里插入图片描述
进入这个脚本

./bin/spark-shell

在这里插入图片描述
启动以后告诉你可以到4040去访问
在这里插入图片描述
后边提交的所有东西都会在这看得到
在这里插入图片描述
默认是本地模式执行
在这里插入图片描述
也可以别的模式操作
在这里插入图片描述
在这里插入图片描述
刷新以后再来看会发现有一个编译驱动的一个添加,证明是通过你这个东西来提交的了
在这里插入图片描述
spark session的有效值被起了一个别名叫spark 是spark session的一个对象 实例化后的一个对象
在这里插入图片描述
试着完成一个案例,通过spark的语法去创建一个0~1000之间的 列名是number的一个列表
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
回到上面来会发现有添加

然后dateframe 它是二维数组 尝试案例
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
出现stage已经在计算了
在这里插入图片描述
刷新可以看到正在运行的job
在这里插入图片描述
在这里插入图片描述
比如说在这个有向无环图里面 第一部是一个整体的一个构建
在这里插入图片描述
然后进行了一个统计计算
在这里插入图片描述
然后来到这个里面
在这里插入图片描述
首先第一步是切割你的数据,最后两个是不同的Map计算
在这里插入图片描述
往下翻可以看到记录的执行结果(18条)
这就是spark里面最简单的记录总数的一个计算
在这里插入图片描述

Pycharm

接下来需要安装Pycharm软件
在这里插入图片描述
示范 先随便创建个文件夹,然后在里面打开,对于Pycharm来说如果要访问远程集群,必须新建一个解释器
在这里插入图片描述
在main里面有一个编辑配置
在这里插入图片描述
在+号里面找到这个
在这里插入图片描述
在这里插入图片描述
如果没有的话在工具部署配置里面
在这里插入图片描述
按照这个
在这里插入图片描述
在这里插入图片描述
这个要取消掉
在这里插入图片描述
配置没有的话要配置一下
在这里插入图片描述
在这里插入图片描述
映射里本地路径不要动 部署路径更改
在这里插入图片描述
比如映射到这个里面,需要创建对应的文件
在这里插入图片描述
然后他就可以自动的映射了
在这里插入图片描述
web路径就这个不要动 然后就可以了 点击确定
在这里插入图片描述
文件设置里找到python解释器
在这里插入图片描述
在这里插入图片描述
就用刚才配好的那个通过SSH去连接
在这里插入图片描述
点击下一个
在这里插入图片描述
在这里插入图片描述
找到python3解释器的路径
在这里插入图片描述
直接点击完成
在这里插入图片描述
然后就连接上了
在这里插入图片描述
点击确定
在这里插入图片描述
他会自动完成上传
在这里插入图片描述
前面路径映射错了,可以重新修改

在这里插入图片描述
比如说在这里面新建文件wordcount
在这里插入图片描述
然后对应路径里会出现
在这里插入图片描述
接下来我们所执行的所有代码就相当于在集群里面去执行的
在这里插入图片描述
首先我们打包实现一个词频统计

import sys

在这里插入图片描述

需要先装包,这个路径下载快一点

pip3 install pyspark -i https://pypi.tuna.tsinghua.edu.cn/simple

在这里插入图片描述
安装好后,就能在这里面看到你安装的pyspark了,然后就可以写程序了
在这里插入图片描述

from pyspark.sql import SparkSession

在这里插入图片描述

spark = SparkSession.builder.master("local[\*]".appName('PycharmJob').getOrCreate()
print(spark)

右击运行
在这里插入图片描述
执行出来了
在这里插入图片描述
如果不对,可能是解释器映射不对,重新弄
在这里插入图片描述
调用方法获取文本路径

words = spark.sparkContext.textFile("/home/hadoop/word.txt")

在这里插入图片描述

print(words)

在这里插入图片描述
重新加一个file:就可以获取本地文件夹了
在这里插入图片描述
是通过MapPartitionsRDD去走的
在这里插入图片描述
这个可以做词频统计,pycharm进行远程提交
在这里插入图片描述

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 28
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值