让我来告诉你,学习大数据都是要安装哪些软件

文章更新于:2020-04-09
注:用于汇总大数据相关软件安装教程。

一、软件总览

软件名笔者博客下载链接备注
ssh安装 SSH使用 apt/yum 安装安装 SSH
jdk 1.8.0_241安装 JDK下载 JDK安装 JDK
hadoop 3.2.1安装 HADOOP下载 HADOOP安装 HADOOP
eclipse-Java
hbase 2.2.4安装 HBase下载 HBASE安装 HBASE
scala 2.12.11安装 SCALA下载 SCALA安装 SCALA
spark 2.4.5安装 SPARK下载 SPARK安装 SPARK
sbt 1.3.8安装 SBT下载 SBT更多版本安装 SBT
maven 3.6.3安装 MAVEN下载 MAVEN安装 MAVEN
eclipse-scala安装 SCALA-IDE下载 IDE安装 IDE

二、安装过程提纲

2.1、安装 ssh

稍后再写。。

2.2、hadoop

2.2.1、core-site.xml
<configuration>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>file:/usr/local/hadoop/tmp</value>
                <description>Abase for other temporary directories.</description>
        </property>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost:9000</value>
        </property>
</configuration>
2.2.2、hdfs-site.xml
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

2.3、hbase

2.3.1、hbase-env.sh
export HBASE_MANAGES_ZK=true
export JAVA_HOME=/usr/local/jdk1.8
2.3.2、hbase-site.xml
<configuration>
    <property>
        <name>hbase.wal.dir</name>
        <value>file:///tmp/wal.dir</value>
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://localhost:9000/hbase</value>
    </property>
    <property>
        <name>hbase.unsafe.stream.capability.enforce</name>
        <value>false</value>
    </property>
</configuration>

2.4、spark

2.4.1、spark-env.sh
# The below line added by myself.
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

# To test the WARN
LD_LIBRARY_PATH=$HADOOP_HOME/lib/native

# To test the WARN
SPARK_LOCAL_IP="192.168.11.136"
2.4.2、sbt 打包声明文件
name := "Simple Project"
version := "1.0"
scalaVersion := "2.11.12"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.5"
libraryDependencies += "org.apache.hbase" % "hbase-client" % "1.1.5"
libraryDependencies += "org.apache.hbase" % "hbase-common" % "1.1.5"
libraryDependencies += "org.apache.hbase" % "hbase-server" % "1.1.5"

2.5、sbt

安装 sbt 至少需要以下文件:

1、<安装路径>/sbt-launch.jar	# 启动 jar 包
2、<安装路径>/sbt	# 启动脚本
3、~/.sbt/repositories	#(可选,镜像站加速)
2.5.1、新建 sbt 文件
  1. /usr/local/sbt目录下新建下面文件 sbt
    并将 /usr/local/sbt/bin/ 目录下的 sbt-launch.jar 拷贝到上一级路径下。
#!/bin/bash
SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M"
java $SBT_OPTS -jar `dirname $0`/sbt-launch.jar "$@"
  1. 在<sbt安装目录>/conf/sbtconfig.txt文件中添加如下内容:
-Dsbt.override.build.repos=true
2.5.2、配置 sbt 国内镜像源(可选)

~/.sbt 路径下新建 repositories 文件,
如配置华为云镜像则写入以下内容。

[repositories]
  local
  huaweicloud-ivy: https://mirrors.huaweicloud.com/repository/ivy/, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]
  huaweicloud-maven: https://mirrors.huaweicloud.com/repository/maven/

三、Enjoy!

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值