windows idea中用scala操作本地spark,hadoop,及打包成jar 详细步骤

本文详细介绍了在Windows上的IntelliJ IDEA中使用Scala编写代码,操作本地Hadoop和Spark集群的过程。首先,创建项目并编写读取和处理文件的代码。接着,通过Hadoop集群运行程序并查看结果。然后,将项目打包成jar文件,并上传到Linux服务器执行。最后,提供了解决方案以确保在Spark集群上成功运行jar包。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目标:

在idea中用scala编写简单代码,从本地hdfs中(或本地目录)读取文件,通过spark处理后,结果输出到本地dhfs或本地目录。

然后修改代码,将项目打成jar包,上传到linux中,在spark集群上运行。

 

环境:hadoop2.7.2 +spark2.2.3 +scala 2.11.8 +idea2018

以上环境的具体安装配置和idea的基本操作分别见:

windows上 IntelliJ IDEA安装scala环境 : https://blog.csdn.net/csdn_dengfan/article/details/88363224

windows 安装 配置 hadoop2.7.2 spark2.2.3 :https://blog.csdn.net/csdn_dengfan/article/details/88375313

 

1.编写代码

目录结构:

Ts的代码:

val conf = new SparkConf().setAppName("Ts&#
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值