详解Maven下载安装及IDEA配置Maven (2023最新)

一、Maven介绍

1.Maven翻译为“专家“, ”内行”的意思,是著名Apache公司下基于Java开发的开源项目。

2.Maven项目对象模型(POM)是一个项目管理工具软件,可以通过简短的中央信息描述来管理项目的搭建,报告和文档等步骤。

3.Maven是一个项目管理的工具,可以对项目进行构建、依赖的管理。

PS:通俗的讲maven就是专门用于构建和管理项目的工具,他可以帮助我们去下载我们所需要jar包,帮助我们去管理项目结构,帮助我们去实现项目的维护、打包等等…(Gradle的项目搭建方式,可能将在不久的未来取代Maven,发展历程: Make –> Ant –> Maven –> Gradle)

二、下载Maven

Maven下载官网:http://maven.apache.org/docs/3.3.1/release-notes.html

1、左侧或右上角点击 Download

在这里插入图片描述

2、下载第二个Binary zip archive对应的Link

在这里插入图片描述

3、下载其他版本,点击下面的 archives

在这里插入图片描述

4、再选择你想要下载的Maven版本(下面以maven3.6.3为例)

在这里插入图片描述

5、选择下载maven3.6.3后,点击 binaries/

在这里插入图片描述

在这里插入图片描述

7、选择 apache-maven-3.6.3-bin.zip ,完成之后得到安装包

在这里插入图片描述

三、配置Maven环境

1、将下载好的压缩包,解压至你想要安装的目录下,并复制Maven的根目录(以apache-maven-3.6.3为例)。
在这里插入图片描述

2、配置环境变量

此电脑>属性>高级系统设置>环境变量

新建添加如下:

2.1 变量名:
MAVEN_HOME

2.2 变量值:
E:\configurations\Maven\apache-maven-3.6.3 (自己Maven安装的根目录)

在这里插入图片描述

2.3 在Path中新建添加:

%MAVEN_HOME%\bin

在这里插入图片描述

3、启动CMD命令工具,输入:

mvn -v

在这里插入图片描述
出现上述界面,则表示成功安装Maven

4、修改仓库位置

在开发Maven项目过程中会下载非常多的jar包,而Maven默认的下载位置在C盘,导致C盘很容易撑爆,且C盘容易损毁。

1)默认的Maven仓库位置为:

C:\Users.m2\repository

2)在其他盘符再创建用于Maven仓库的文件夹(E:\Repositories\Mavan)
存放Maven下载的jar包(PS:仓库文件夹名字可随意设置)

打开Maven安装目录下的 conf/settings.xml 文件

在这里插入图片描述

找到 <localRepository> 标签,在标签下添加你刚创建的Maven仓库文件夹根目录,如:

<localRepository>E:\Repositories\Mavan</localRepository>

在这里插入图片描述

5、 修改Maven仓库下载镜像

如果直接以默认Maven的方式搭建Java项目时,下载所需的jar包需要的时间比较长。(PS:下载慢的原因是服务器在国外,要翻墙才能下载,大约速度在0.9K/s的下载速度),所以我们安装好Maven时,要及时的修改Maven下载的镜像地址,最好改为国内的下载镜像,例如阿里云中央仓库,华为云中央仓库。

1)再在setting.xml文件中找到 <mirrors> 标签,在标签下添加阿里云镜像仓库:

在这里插入图片描述

	<!-- 阿里云仓库 -->
	<mirror>
	  <id>aliyunmaven</id>
	  <mirrorOf>*</mirrorOf>
	  <name>阿里云公共仓库</name>
	  <url>https://maven.aliyun.com/repository/public</url>
	</mirror>

6、 指定Maven 的jdk 版本(如 jdk1.8)

在这里插入图片描述

<profile>     
		<id>JDK-1.8</id>       
		<activation>       
			<activeByDefault>true</activeByDefault>       
			<jdk>1.8</jdk>       
		</activation>       
		<properties>       
			<maven.compiler.source>1.8</maven.compiler.source>       
			<maven.compiler.target>1.8</maven.compiler.target>       
			<maven.compiler.compilerVersion>1.8</maven.compiler.compilerVersion>       
		</properties>       
</profile>

四、在Idea上配置Maven工具

打开我们的开发工具Idea,在setting中搜索maven

在这里插入图片描述

其他实用文章

1、详解Tomcat下载安装以及IDEA配置Tomcathttps://blog.csdn.net/m0_48170265/article/details/129073985

2、详解JDK1.8等版本安装及配置https://blog.csdn.net/m0_48170265/article/details/129070240

  • 19
    点赞
  • 106
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: 1. 首先,在IDE中创建一个新的Maven项目。 2. 在pom.xml文件中添加Spark依赖项。例如: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.0</version> </dependency> </dependencies> ``` 3. 创建一个Java类,并在其中编写Spark应用程序代码。例如: ``` import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; public class SparkApp { public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("SparkApp").setMaster("local[*]"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> lines = sc.textFile("input.txt"); JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator()); JavaRDD<String> filteredWords = words.filter(word -> !word.isEmpty()); filteredWords.saveAsTextFile("output.txt"); sc.stop(); } } ``` 4. 在IDE中运行Spark应用程序。您可以使用本地模式或分布式模式运行应用程序。 5. 您可以在输出目录中找到生成的输出文件。 ### 回答2: 理解Spark和Maven的基础知识是创建Maven的Spark项目的关键所在。在这个教程中,我们将详细介绍如何创建一个Maven的Spark项目,同时也会解释代码的每一个部分。 Spark和Maven介绍: Spark是一个开源的大数据处理框架,它提供了一个高速的、可扩展的基于内存的计算方法。而MavenJava应用程序的项目管理工具,它使得构建和管理项目变得更加容易。 步骤一:创建Maven项目 1.打开Eclipse IDE,选择"File"-> "New" -> "Project"。 2. 在弹出的对话框中,选择"Maven" -> "Maven Project"。 3. 点击"Next"按钮,选中"Create a simple project"选项,填写项目的GroupId,ArtifactId和Version信息。 4. 点击下一步,填写项目的名称和位置。 5. 选择"Maven archetype",选择"maven-archetype-quickstart"。 6. 最后,点击"Finish"按钮来完成项目的创建。 步骤二:添加Spark依赖 1. 打开pom.xml文件,在里面添加Spark的依赖。Spark有多个版本,所以选择正确的依赖非常重要。 2. 在pom.xml的dependencies标签中添加以下代码: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.0</version> </dependency> </dependencies> ``` 这里我们使用了Spark 2.4.0的核心版本。 步骤三:创建Java类 1. 右键点击src/main/java文件夹,新建一个Java类。 2. 在类中编写我们的Spark代码,这里我们编写Word Count示例。 ``` import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; public class WordCount { public static void main(String[] args) { String inputFile = args[0]; String outputFile = args[1]; // 创建SparkConf对象 SparkConf conf = new SparkConf() .setAppName("WordCount"); // 创建JavaSparkContext对象 JavaSparkContext sc = new JavaSparkContext(conf); // 读取文件 JavaRDD<String> input = sc.textFile(inputFile); // 对每个单词计数并排序 JavaRDD<String> words = input.flatMap(line -> Arrays.asList(line.split(" ")).iterator()); JavaPairRDD<String, Integer> counts = words.mapToPair(word -> new Tuple2<>(word, 1)) .reduceByKey((a, b) -> a + b); JavaPairRDD<Integer, String> countsSwap = counts.mapToPair(x -> x.swap()); JavaPairRDD<Integer, String> sortedCounts = countsSwap.sortByKey(false); JavaPairRDD<String, Integer> result = sortedCounts.mapToPair(x -> x.swap()); result.saveAsTextFile(outputFile); } } ``` 步骤四:打包和运行代码 1. 在终端中,使用以下命令来进入项目的根目录: ``` cd /path/to/project ``` 2. 在终端中,使用以下命令使用Maven来打包项目: ``` mvn package ``` 这将在项目的target目录中生成可执行的JAR文件。 3. 在终端中,使用以下命令来运行代码: ``` spark-submit --class WordCount /path/to/your-jar-file.jar input.txt output.txt ``` 其中,/path/to/your-jar-file.jar是你的项目生成的JAR文件的路径,input.txt和output.txt是输入和输出文件的路径。 完成这些步骤之后,你就可以成功的创建了一个Maven的Spark项目,并运行了一个简单的Spark应用程序。 ### 回答3: 首先,为了创建Maven的Spark项目,我们需要先安装Maven和Spark。在安装完成后,我们可以按照以下步骤创建Maven的Spark项目: 1. 在命令行中输入以下命令来创建一个基础项目: mvn archetype:generate -DgroupId=com.example -DartifactId=my-app -DarchetypeArtifactId=maven-archetype-quickstart -DinteractiveMode=false 2. 在创建完成之后,我们需要在pom.xml文件中添加Spark的依赖。可以在Maven官网上找到Spark的依赖信息,并将其复制到pom.xml文件中。 3. 接下来,我们需要在我们的代码中添加Spark相关的代码来运行Spark应用程序。Spark应用程序通常由SparkConf和SparkContext对象的创建和使用组成。 4. 创建SparkConf对象时,需要使用setAppName方法来设置应用程序的名称,并使用setMaster方法来设置Spark应用程序在哪个节点上运行。 5. 创建SparkContext对象时,需要向构造函数传递SparkConf对象,并且指定Spark应用程序所需的一些配置,例如worker节点的数量等。 6. 最后,我们可以在我们的代码中运行Spark应用程序,使用SparkContext对象来创建RDD对象并执行相关的操作。 以上就是创建Maven的Spark项目的详细步骤。需要注意的是,在完成Spark应用程序的编写之后,我们还需要使用Maven来构建和打包应用程序,以便在集群上运行。通过maven命令mvn package,我们可以将Spark应用程序打包成一个jar文件,并在Spark集群上运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值