maven 项目+idea 使用相关

 

1、在idea创建maven 项目

2、如何创建多模块maven 项目

(1)、在父模块上右键如下图操作,创建一个模块,该模块即为子模块。

(2)建立子模块

       

 

3、如何创建.java 或者.scala 文件

(1)右键项目,选择maven--->Reimport,即可创建 .java 文件

(2)

a. 和java同目录下添加一个scala目录,用来存放scala源代码,把该目录标记为源代码目录
这里写图片描述
创建完成后,在各自目录下创建一个类,项目目录如图:
这里写图片描述

b. 对于需要支持scala 的maven 子项目, 右键Project,点击Add FrameWork Support,在打开的栏框中添加Scala支持,然后针对pom.xml执行reimport操作,重新拉依赖

 

 

 

3、maven项目打包成jar 到 maven 仓库

在idea中使用maven导入在本地的jar,容易爆出classNotFound等异常

处理方式:将jar包加入本地库中即可

命令:mvn install:install-file -Dfile=../src/lib/kafkaxxxx.jar -DgroupId=org.apache.kafka -DartifactId=kafka_2.11 -Dversion=0.1xxxx -Dpackaging=jar

 

 

 

4、参考文献:

1、https://blog.csdn.net/ZZY1078689276/article/details/78732183(maven 项目创建)

2、https://www.cnblogs.com/wangmingshun/p/6383576.html(多模块maven)

3、https://blog.csdn.net/qq_35799003/article/details/52684599(scala +maven 使用)

4、https://www.cnblogs.com/hd-zg/p/5951185.html(scala +maven 使用)

5、https://www.cnblogs.com/xdp-gacl/p/3498271.html (maven 环境变量配置)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是搭建idea+maven+spark+scala项目的步骤: 1. 安装JDK和Scala环境。 2. 安装Maven。 3. 在IDEA中创建Maven项目。 4. 在pom.xml文件中添加依赖,包括Spark和Scala相关依赖。 5. 在src/main/scala目录下创建Scala文件。 6. 编写Spark程序。 7. 运行程序。 具体步骤如下: 1. 安装JDK和Scala环境 首先需要安装Java开发工具包(JDK),并配置环境变量。然后安装Scala编程语言,同样也需要配置环境变量。可以参考官网的安装说明进行操作。 2. 安装Maven Maven是一个Java项目管理工具,可以自动下载所需的依赖库,并将项目打包成Jar包。可以从官网下载Maven,并配置环境变量。 3. 在IDEA中创建Maven项目IDEA中创建Maven项目,选择Scala模板,填写项目名称、groupId、artifactId等信息。IDEA会自动生成pom.xml文件。 4. 在pom.xml文件中添加依赖 在pom.xml文件中添加Spark和Scala相关依赖,例如: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-library</artifactId> <version>2.11.8</version> </dependency> </dependencies> ``` 5. 在src/main/scala目录下创建Scala文件 在src/main/scala目录下创建Scala文件,例如: ``` object Test { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Test").setMaster("local[*]") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) val df = sqlContext.read.json("data/people.json") df.show() } } ``` 6. 编写Spark程序 在Scala文件中编写Spark程序,例如读取JSON文件并显示数据。 7. 运行程序 在IDEA运行程序,即可看到Spark程序的输出结果。 以上就是搭建idea+maven+spark+scala项目的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值