1、IDEA -> File -> New -> Module 使用IDEA创建一个新的Module
2、从现有的结构中创建
3、设置Module名字、GroupId、SNAPSHOT版本
4、选择Maven版本
5、配置POM文件,添加依赖
注意:<!-- XX --> 备注的都是groupID、artifcatId是你创建Module的时候配置,可以不用动。
但如果你想在使用父module,则可以在artifactId前面加上父module的名字,如algorithms.toby-model
<!-- 这里添加的是XX依赖-->是你写工程代码的时候要配置的依赖,根据自己的需要选择性的去配置。
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>algorithms-parent</artifactId>
<!-- 这里是你自己的groupID-->
<groupId>${your-group-id}</groupId>
<version>2.6.5-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<!-- 这里是你自己的groupID-->
<groupId>com.toby.gao.toby-model</groupId>
<!-- 这里是你自己的artifcatId-->
<artifactId>toby-model</artifactId>
<!-- 如果有父model,如algorithms,
则改成 <artifactId>algorithms.toby-model</artifactId> -->
<properties>
<maven.compiler.source>8</maven.compiler.source>
<maven.compiler.target>8</maven.compiler.target>
</properties>
<dependencies>
<!-- 这里添加的是jackson依赖-->
<dependency>
<groupId>com.fasterxml.jackson.core</groupId>
<artifactId>jackson-databind</artifactId>
</dependency>
<!-- 这里添加的是spark-core依赖-->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_${spark.version.scala}</artifactId>
<scope>provided</scope>
</dependency>
<!-- 这里添加的是spark-streaming依赖-->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_${spark.version.scala}</artifactId>
<version>${spark.version}</version>
<scope>provided</scope>
</dependency>
<!-- 这里添加的是spark-sql依赖-->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_${spark.version.scala}</artifactId>
<scope>provided</scope>
</dependency>
<!-- 这里添加的是spark-hive依赖-->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_${spark.version.scala}</artifactId>
<version>${spark.version}</version>
<scope>provided</scope>
<exclusions>
<exclusion>
<groupId>org.apache.httpcomponents</groupId>
<artifactId>httpclient</artifactId>
</exclusion>
</exclusions>
</dependency>
<!-- 这里添加的是spark-mllib依赖-->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-mllib_${spark.version.scala}</artifactId>
<version>${spark.version}</version>
<scope>provided</scope>
</dependency>
<!-- 这里添加的是log4j依赖-->
<dependency>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
</dependency>
<!-- 这里添加的是hadoop依赖-->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-jfs</artifactId>
<exclusions>
<exclusion>
<groupId>org.apache.httpcomponents</groupId>
<artifactId>httpclient</artifactId>
</exclusion>
</exclusions>
</dependency>
<!-- 这里添加的是JODA依赖-->
<dependency>
<groupId>org.joda</groupId>
<artifactId>joda-convert</artifactId>
</dependency>
<!-- 这里添加的是ES依赖-->
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch-spark-20_2.11</artifactId>
<version>6.2.2-SNAPSHOT</version>
</dependency>
</dependencies>
</project>
6、删除.iml文件,重新生成源文件、更新文件,等待模块生成
删除创建module时自动生成的.iml文件
在maven中找到新创建的module,右键,选择 Generate Sources 生成源文件。它让你根据POM文件的配置重新生成源文件。
注:如果你发现maven中创建的模块是灰色的,大概可能是被ignore了。这时候你可以右键,选择unignore Projects 。
7、创建scala object/class开始写代码
注意:要将创建Module时自动生成的main下的APP.scala删掉;test可以保留,但同样的自动生成的APP.scala也要删掉,否则编译的时候因为里面有错误而失败。
然后自己创建新的.scala去进行代码开发就可以了。