spark shell 执行命令

4.2.1 通过spark-shell --master local[N] 读取本地数据文件实现单词统计

--master local[N]

Local表示本地运行,跟集群没有任何关系,方便做一些测试和学习。

N表示一个正整数

Local[N]表示本地采用N个线程去运行任务

Spark-shell --master local[2] 它会产生一个spark submit 进程

Spark-shell --master local[2]

Sc.textFile(“file:///root/words.txt”).flatMap(x=>x.split(“ ”)).map(x=>(x,1)).reduceBykey((x,y)=>x+y).collect

Sc.textFile(“file:///root/words.txt”).flatMap(_.split(“ ”)).map((_.1)).reduceByKey(_+_).collect

4.2.2 通过spark-shell --master local[N] 读取HDFS上文件实现单词统计

Spark-shell --master local[2]

Sc.textFile(hdfs://node1:9000/words.txt).flatMap(_.split(“ ”)).map((_,1)).reducesByKey(_+_).collect

文件路径 简写方式

修改 vim spark-env.sh 文件,使其能够读取到hadoop目录下的配置文件

#spark整合hdfs

Exprot HADOOP_CONF_DIR=/export/servers/hadoop/etc/hadoop

 

Sc.textFile(“/words.txt”).flatMap(_.split(“ ”)).map((_,1)).reduceByKey(_+_).collect

4.2.3 通过spark-shell --master 指定master为集群中活着的master

需求:实现读取hdfs上的数据进行单词统计,最后把结果数据保存到hdfs上的目录中。

Spark-shell --master spark://node2:7077 --executor-memory 1g --total-executor-cores 4

Sc.textFile(“/words.txt”).flatMap(_.split(“”)).map((_,1)).reducesByKey(_+_).savesAsTextFile(/out)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值