IntelliJ IDEA构建基于maven的spark+hbase工程(scala语言)

摘要

利用IDEA来编写基于maven的scala程序,主要功能用来支持从hbase中拉取数据供spark进行mapreduce运算。

软件准备

首先下载安装IntelliJ IDEA
https://www.jetbrains.com/idea/download/#section=windows

不需要javaee支持的话,直接选择Community版本就行了,毕竟免费,也足够支持maven,scala,git,spark,hbase了。

安装过程中选择scala支持

安装完成后,配置全局的maven,指定自己安装的maven也可以使用idea默认自带maven。

工程构建

新建maven project,类似eclipse的simple project,不需要其他附属,scala支持后续添加
新建maven

新工程删除java文件夹,新建scala文件夹。

配置pom,因为需要编译scala,所以plugin选择maven-scala-plugin

pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>com.test</groupId>
    <artifactId>LdSparkHbase</artifactId>
    <version>1.0-SNAPSHOT</version>
    <properties>
        <jdk.version>1.8</jdk.version>
        <logback.version>1.1.2</logback.version>
        <slf4j.version>1.7.7</slf4j.version>
        <junit.version>4.11</junit.version>
        <spark.version>2.1.0</spark.version>
        <hadoop.version>2.6.5</hadoop.version>
        <hbase.version>1.2.6</hbase.version>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>${spark.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>${hadoop.version}</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>${hadoop.version}</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>${hadoop.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>${hbase.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>${hbase.version}</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase</artifactId>
            <version>${hbase.version}</version>
            <type>pom</type>
        </dependency>
    </dependencies>

    <build>
        <sourceDirectory>src/main/scala</sourceDirectory>
        <plugins>
            <plugin>
                <groupId>org.scala-tools</groupId>
                <artifactId>maven-scala-plugin</artifactId>
                <version>2.15.2</version>
                <executions>
                    <execution>
                        <goals>
                            <goal>compile</goal>
                            <goal>testCompile</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-shade-plugin</artifactId>
                <version>3.1.0</version>
                <executions>
                    <execution>
                        <phase>package</phase>
                        <goals>
                            <goal>shade</goal>
                        </goals>
                        <configuration>
                            <createDependencyReducedPom>false</createDependencyReducedPom>
                            <filters>
                                <filter>
                                    <artifact>*:*</artifact>
                                    <excludes>
                                        <exclude>META-INF/*.SF</exclude>
                                        <exclude>META-INF/*.DSA</exclude>
                                        <exclude>META-INF/*.RSA</exclude>
                                    </excludes>
                                </filter>
                            </filters>
                            <transformers>
                                <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
                                    <mainClass>com.test.SparkCount</mainClass>
                                </transformer>
                            </transformers>

                        </configuration>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>

</project>

工程右键,选择add framwork support,在打开的选项中添加scala支持
这里写图片描述

先看看工程能不能用,建议新建一个hello work类,run一下,看看工程构建是否正常。

新建SparkCount类,这里遍历采用官方demo,mapreduce自己修改

SparkCount

package com.test

import org.apache.hadoop.hbase.{HBaseConfiguration, HTableDescriptor, TableName}
import org.apache.hadoop.hbase.client.HBaseAdmin
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.spark._
import org.apache.hadoop.hbase.client.HTable
import org.apache.hadoop.hbase.client.Put
import org.apache.hadoop.hbase.util.Bytes
import org.apache.hadoop.hbase.io.ImmutableBytesWritable
import org.apache.hadoop.hbase.mapreduce.TableOutputFormat
import org.apache.hadoop.mapred.JobConf
import org.apache.hadoop.io._

object SparkCount {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf().setMaster("spark://testserverip:7077")
      .setAppName("reduce")
    val sc = new SparkContext(sparkConf)

    val tablename = "apos_status"
    val conf = HBaseConfiguration.create()
    //设置zooKeeper集群地址,也可以通过将hbase-site.xml导入classpath,但是建议在程序里这样设置
    conf.set("hbase.zookeeper.quorum", "localhost")
    //设置zookeeper连接端口,默认2181
    conf.set("hbase.zookeeper.property.clientPort", "2181")
    conf.set(TableInputFormat.INPUT_TABLE, tablename)
    conf.set(TableInputFormat.SCAN_COLUMNS, "apos:type")


    //读取数据并转化成rdd
    val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat],
      classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],
      classOf[org.apache.hadoop.hbase.client.Result])

    val count = hBaseRDD.count()
    println(count)
    hBaseRDD.foreach { case (_, result) => {
      //获取行键
      val key = Bytes.toString(result.getRow)
      //通过列族和列名获取列
      val typenames = Bytes.toString(result.getValue("apos".getBytes, "type".getBytes))
      if (key != null && typenames != null) {
        println(key + ":" + typenames);
      }

    }
    }
    println("map begin");
    val result = hBaseRDD.map(tuple=>Bytes.toString(tuple._2.getValue("apos".getBytes, "type".getBytes))).map(s=>(s,1)).reduceByKey((a,b)=>a+b)
    println("map end");

//最终结果写入hdfs,也可以写入hbase   result.saveAsTextFile("hdfs://localhost:9070/user/root/aposStatus-out")

//也可以选择写入hbase,写入配置
    var resultConf = HBaseConfiguration.create()
    //设置zooKeeper集群地址,也可以通过将hbase-site.xml导入classpath,但是建议在程序里这样设置
    resultConf.set("hbase.zookeeper.quorum", "localhost")
    //设置zookeeper连接端口,默认2181
    resultConf.set("hbase.zookeeper.property.clientPort", "2181")
    //注意这里是output
    resultConf.set(TableOutputFormat.OUTPUT_TABLE, "count-result")
    var job = Job.getInstance(resultConf)
    job.setOutputKeyClass(classOf[ImmutableBytesWritable])
    job.setOutputValueClass(classOf[org.apache.hadoop.hbase.client.Result])
    job.setOutputFormatClass(classOf[TableOutputFormat[ImmutableBytesWritable]])
    val hbaseOut = result.map(tuple=>{
      val put = new Put(Bytes.toBytes(UUID.randomUUID().toString))
      put.addColumn(Bytes.toBytes("result"), Bytes.toBytes("type"), Bytes.toBytes(tuple._1))
      //直接写入整型会以十六进制存储
      put.addColumn(Bytes.toBytes("result"), Bytes.toBytes("count"), Bytes.toBytes(tuple._2+""))
      (new ImmutableBytesWritable, put)
    })
    hbaseOut.saveAsNewAPIHadoopDataset(job.getConfiguration)
    sc.stop()

  }

}

打包运行

打包工程

如果没有显示maven projects导航栏,可以直接搜索
这里写图片描述
双击构建,也可右键选择构建
这里写图片描述
构建成功,上传到服务器运行测试
这里写图片描述

运算结果

hdfs结果
count,foreach,mapreduce三个操作合计
操作用时

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在IntelliJ IDEA中快速新建Maven Spring Boot Web项目的步骤如下: 1. 打开IntelliJ IDEA,点击主菜单中的“File(文件)”选项,选择“New(新建)”,然后选择“Project(项目)”。 2. 在左侧的菜单栏中,选择“MavenMaven项目)”并点击“Next(下一步)”。 3. 在“GroupId”和“ArtifactId”字段中,输入您想要的项目名和包名,并选择合适的“Version”。 4. 在下方的“Project settings”中,选择您想要的项目位置,并勾选“Create from archetype(从原型创建)”复选框。 5. 在“Archetype”字段中,输入“spring-boot-web”,然后点击“Next”。 6. 在“New Project”窗口中,您可以设置项目的名称和位置,并设置其他项目设置,如项目类型、构建工具等。 7. 点击“Finish(完成)”,IntelliJ IDEA会为您创建一个默认的Maven Spring Boot Web项目。 8. 接下来,您可以开始编写代码和配置项目。可以在src/main/java目录下找到“Application.java”文件,它是Spring Boot应用程序的入口点。 9. 您还可以在“src/main/resources”目录下找到“application.properties”文件,您可以在其中配置您的应用程序的属性。 10. 当您完成项目的编写和配置后,可以使用IntelliJ IDEA的“Build”菜单,选择“Build Project(构建项目)”来构建项目并生成可执行的jar文件。 以上是在IntelliJ IDEA中快速新建Maven Spring Boot Web项目的简要步骤。您可以根据自己的实际需求和项目要求进行进一步的设置和配置。 ### 回答2: 要在IntelliJ IDEA中快速新建一个Maven Spring Boot Web项目,按照以下步骤进行操作: 1. 打开IntelliJ IDEA并选择“Create New Project”(创建新项目)。 2. 在左侧面板中选择“Spring Initializer”(Spring初始装置)选项,然后点击右侧面板中的“Next”(下一步)按钮。 3. 在“Project SDK”(项目SDK)下拉菜单中选择所需的Java版本,并点击“Next”(下一步)按钮。 4. 在“Project Metadata”(项目元数据)页面中,输入项目的相关信息,如项目名称、项目的GroupId和ArtifactId等。 5. 在“Spring Boot”选项卡中,选择所需的Spring Boot版本,并勾选“Web”(Web应用程序)选项。 6. 在“Project Settings”(项目设置)页面中,选择项目的存储位置,并点击“Finish”(完成)按钮。 7. 创建项目后,IntelliJ IDEA会自动下载所需的依赖项,并生成一个基本的Maven Spring Boot Web项目结构。 8. 如果需要运行该项目,可以通过点击工具栏上的绿色箭头按钮来启动应用程序。 通过以上步骤,您可以在IntelliJ IDEA中快速创建一个Maven Spring Boot Web项目,并进行开发和调试。 ### 回答3: 要在IntelliJ IDEA中快速新建一个Maven Spring Boot Web项目,可以按照以下步骤操作: 1. 打开IntelliJ IDEA,选择“新建项目”。 2. 在弹出的对话框中,选择“Maven”,然后点击“下一步”。 3. 在“GroupId”和“ArtifactId”字段中,分别输入您想要的项目组和项目名称,然后点击“下一步”。 4. 在“Java”页面上,选择您想要使用的Java版本,然后点击“下一步”。 5. 在“项目设置”页面上,选择您想要的项目文件夹位置,并设置其他项目相关配置,然后点击“下一步”。 6. 在“进一步设置”页面上,选择“Spring Initializr”作为项目的初始程序,然后点击“下一步”。 7. 在“Spring Initializr 服务 URL”字段中,输入Spring Initializr的URL,可以是https://start.spring.io或其他可用的URL,然后点击“下一步”。 8. 在“Spring Boot”页面上,选择您需要的Spring Boot版本,然后点击“下一步”。 9. 在“选择依赖”页面上,选择您需要的依赖,比如“Spring Web”,然后点击“下一步”。 10. 在“确认项目细节”页面上,确认您的项目细节,然后点击“完成”。 这样,IntelliJ IDEA就会自动为您创建一个Maven Spring Boot Web项目,并会下载所需的依赖项。您可以在项目结构中查看创建的项目,并开始编写您的代码。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值