spark读写seaweedfs

软件版本:

软件版本压缩包包名
seaweedfsseaweedfs-1.24linux_amd64.tar.gz
hadoop2.7.1
spark2.3.1
依赖jar包版本mvnrepository
seaweedfs-hadoop-client1.0.2https://mvnrepository.com/artifact/com.github.chrislusf/seaweedfs-hadoop-client

前置要求:

启动一个weed filer

配置Hadoop以使用SeaweedFS

向core-site.xml 添加几个属性:

fs.seaweedfs.impl:此属性定义SeaweedFS HDFS客户端JAR中包含的Seaweed HCFS实现类。这是必需的。

fs.defaultFS:此属性定义要使用的默认文件系统URI。如果路径始终具有前缀,则它是可选的seaweedfs://localhost:8888。

<configuration>
<property>
    <name>fs.seaweedfs.impl</name>
    <value>seaweed.hdfs.SeaweedFileSystem</value>
</property>
<property>
    <name>fs.defaultFS</name>
    <value>seaweedfs://localhost:8888</value>
</property>
</configuration>

部署SeaweedFS HDFS客户端jar

# 执行命令查看 hadoop 的 classpath
$ bin/hadoop classpath

# 复制jar 包到 任意一个文件夹下
$ cd ${HADOOP_HOME}
$ cp ./seaweedfs-hadoop-client-x.x.x.jar share/hadoop/common/lib/

确保spark配置了HADOOP_CONF_DIR

将$ SPARK_HOME/conf/spark-env.sh中的HADOOP_CONF_DIR设置为包含配置文件core-site.xml的位置

启动spark-shell

/usr/local/spark/bin/spark-shell --master spark://mgr1:7077 --jars /usr/local/hadoop/share/hadoop/common/lib/seaweedfs-hadoop-client-1.0.2.jar

#测试读写
scala> sc.textFile("seaweedfs://data1:8888/path/words.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).saveAsTextFile("seaweedfs://data1:8888/out-1.0.2")

使用spark-submit

$ /bin/spark-submit \ 
--name "My app" \ 
--master spark://mgr1:7077 \  
--conf spark.eventLog.enabled=false \ 
--conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" \ 
--conf spark.hadoop.fs.seaweedfs.impl=seaweed.hdfs.SeaweedFileSystem \ 
--conf spark.hadoop.fs.defaultFS=seaweedfs://data1:8888 \
myApp.jar

–jars 为diver和executor添加附加jar包,多个jar包以逗号分割。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值