Pyspark(下)

  1. 上传测试文件HDFS目录
    在这里插入图片描述

  2. 本地运行pyspark程序
    进入pysaprk
    在这里插入图片描述

  3. 查看当前运行模式
    在这里插入图片描述

  4. 读取本地文件并显示项数
    在这里插入图片描述

  5. 读取HDFS文件
    在这里插入图片描述

  6. 在Hadoop YARN运行pysaprk
    修改yarn文件yarn-site.xml
    在这里插入图片描述
    应该 放在最后

  7. 修改yarn-env.sh
    sudo gedit /usr/local/hadoop/etc/hadoop/yarn-env.sh

    ![在这里插入图片描述](https://img-blog.csdnimg.cn/20201004212743399.png#pic_center)
    

声明,由于版本问题,我把java1.8皇城java1了,其他配置不变

  1. HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop pyspark --master yarn --deploy-mode client 在这里插入图片描述

  2. 查看当前运行模式
    在这里插入图片描述

  3. 读取本地文件并显示项数
    在这里插入图片描述

  4. 读取HDFS文件
    在这里插入图片描述

  5. Spark伪分布版安装
    添加spark到系统环境变量
    在这里插入图片描述

    在这里插入图片描述

  6. 配置slaves
    在这里插入图片描述

       ![在这里插入图片描述](https://img-blog.csdnimg.cn/20201005141952948.png#pic_center)
    
  7. spark-shell
    在这里插入图片描述

  8. 进入Hadoop的sbin目录执行./start-all.sh启动
    使用jps看下进程信息
    进入spark的sbin目录下执行./start-all.sh启动spark,
    启动后,jps查看最新进程

       ![在这里插入图片描述](https://img-blog.csdnimg.cn/20201005142513318.png#pic_center)
    

    在这里插入图片描述
    在这里插入图片描述

  9. http://localhost:8080,进入spark的web控制台页面
    在这里插入图片描述

  10. 使用命令./bin/spark-shell启动SparkContex
    在这里插入图片描述在这里插入图片描述

  11. 通过访问http://localhost:4040进入spark-shell web控制台页面
    在这里插入图片描述

  12. 关闭Spark
    在这里插入图片描述

  13. 关闭Hadoop
    在这里插入图片描述

  14. 重命名
    为避免与Hadoop的命令冲突:
    进入/usr/local/spark/sbin
    start-all.sh文件改名为: start-all-spark.sh
    stop-all.sh文件改名为: stop-all-spark.sh

![在这里插入图片描述](https://img-blog.csdnimg.cn/20201005150426821.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NhbmR5bHg=,size_16,color_FFFFFF,t_70#pic_center)
  1. 在Spark Stand alone运行pyspark
    启动hadoop
    在这里插入图片描述

  2. 启动Spark Stand alone
    在这里插入图片描述

  3. 在Spark Standalone运行pyspark
    pyspark --master spark://master:7077在这里插入图片描述

  4. http://localhost:8080/在这里插入图片描述

  5. 查看当前运行模式
    在这里插入图片描述

  6. 读取本地文件并显示项数
    在这里插入图片描述

  7. 读取HDFS文件
    在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值