使用maven构建的工程,使用mybatis向数据库添加数据,会出现重复的两条数据

问题描述
提示:这里描述项目中遇到的问题:

在使用maven构建工程中,使用mybatis进行数据的添加操作,影响行数是1但是数据库,出现了两条一模一样的数据,使用删除数据时删除一条,同时会新增一条数据

原因分析:
提示:这里填写问题的分析:

解决方案:
提示:这里填写该问题的具体解决方案:

在同样的位置,将skipTest选中,在测试中不会出现相同的问题了

测试效果:
提示:这里填写该问题的具体解决方案:

执行Test后:

 解决!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 使用Maven构建Spark项目是一种常见的方式,可以方便地管理依赖包和构建过程。通过使用Maven作为构建工具,可以快速地创建Spark应用程序,并进行大数据分析和实战应用。在这个过程中,需要配置好Spark相关的依赖和插件,并根据实际需求进行调整和优化。 ### 回答2: Spark是一个快速通用的和分布式计算引擎,能够处理大规模的数据。它提供了强大的API支持Java、Scala和Python编程语言,为企业应用提供了一致的数据处理和查询界面。而IDEA是一个常用的Java IDE开发工具,提供了许多实用的开发工具和插件,方便对Java项目进行开发和调试。本文将介绍如何使用Maven构建Spark项目,为spark大数据分析与实战提供基础的开发环境。 1. 安装Maven 首先需要在系统中安装Maven,可以参考Maven官网的安装教程或者各大搜索引擎上的资源,建议使用3.0及以上版本。 2. 创建新的Maven项目 在IDEA中创建一个Maven项目,选择File -> New -> Project -> Maven,填写项目信息,如Group ID、Artifact ID、Version等。 3. 配置pom.xml文件 pom.xml是Maven项目的配置文件,详细指定了项目的依赖关系和构建细节。在此处需要增加Spark和Hadoop的依赖,以及配置Scala和Java的版本号。具体代码如下: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <version>2.4.4</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.7.7</version> </dependency> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-library</artifactId> <version>2.10.6</version> </dependency> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-compiler</artifactId> <version>2.10.6</version> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.scala-tools</groupId> <artifactId>maven-scala-plugin</artifactId> <version>2.15.2</version> <executions> <execution> <goals> <goal>compile</goal> <goal>testCompile</goal> </goals> </execution> </executions> </plugin> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> <version>3.5.1</version> <configuration> <source>1.8</source> <target>1.8</target> </configuration> </plugin> </plugins> </build> ``` 4. 编写Spark代码 在src/main/scala目录下编写Spark应用程序代码,调用Spark API实现数据处理和分析功能。具体代码根据具体业务需求而定。 5. 打包和运行Spark应用程序 在IDEA中选择Maven Projects界面,选择package命令进行打包,生成jar包。在命令行进入jar包所在目录,运行Spark应用程序: ``` spark-submit --class com.example.Main --master yarn myapp.jar ``` 其中,com.example.Main为应用程序的入口类。 综上所述,使用Maven构建Spark项目可以提高开发效率、规范项目结构、方便维护和管理。此外,通过IDEA的强大功能,可以方便地进行代码编写、调试和优化。 提示:Maven和Spark的版本号需要慎重选择,不同版本之间可能有不兼容的情况。建议参考官方文档和相关社区论坛,确定合适的版本号组合。 ### 回答3: 随着大数据技术的快速发展,Spark作为一款分布式计算框架备受关注,越来越多的企业和开发者开始使用Spark进行大数据分析和处理,所以对于使用Spark的开发人员来说,掌握Spark的开发工具非常必要。本文主要介绍如何使用maven构建spark项目。 一、安装配置maven 首先,需要在本地电脑上安装maven,这里不再赘述,安装配置可以上官网下载相应版本并根据其文档进行配置。 二、创建Spark Maven项目 1.选择idea菜单栏上的“New Project”,选择Maven,然后点击“Next”。 2.在新建项目的配置页面,选项如下: Group Id:填写项目所属的组,也就是在包名中出现。 Artifact Id:这个是项目的名称,也成为项目的根目录名称。 Version:项目的版本号。 Packaging:项目的打包方式,这里选择jar。 3.配置完之后,点“Next”,选择项目存放路径,点“Finish”。 4.创建好了项目之后,就可以在src/main/java文件夹下创建一个java文件,命名为WordCount.java,然后在程序中添加相应的代码。 三、导入Spark依赖包 在pom.xml文件中加入Spark依赖包。 这里所需的依赖包为: <!-- Spark dependencies --> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.4.5</version> </dependency> 其中的版本号可根据需要进行修改。 四、运行WordCount程序 在WordCount.java中编写好代码后,可以右键点击Run运行程序。如果出现“Hello World”的输出,则表示程序已经成功运行。 五、使用maven打包程序 在idea中,可以选择maven projects工具栏,在其中选择当前项目,然后在lifecycle列表中选择package,双击打包即可。 至此,我们已经完成了maven构建spark项目的所有步骤,可以开始进行spark大数据分析和实战。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值