linux安装hadoop生态圈之SBT安装

安装sbt

本文方法很简单 很简单

centos 6.5
sbt  1.3.3

Spark中没有自带sbt,需要手动安装sbt,我的方法是先安装sdk再安装sbt

$ curl -s "https://get.sdkman.io" | bash
$ source "$HOME/.sdkman/bin/sdkman-init.sh"
$ sdk version

在这里插入图片描述

Then

sdk install sbt
sbt sbtVersion #显示版本需要启动时候安装一些东西,所以需要等待一些时间,等下载完相关依赖

收工!!

你赞赞 ,我赞赞,世界是如此美好

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Linux安装Hadoop可以按照以下步骤进行: 1. 首先,确保你已经在Linux系统上安装了Java Development Kit(JDK)。Hadoop是用Java编写的,所以需要先安装Java环境。 2. 下载Hadoop的二进制文件。你可以从Hadoop官方网站(https://hadoop.apache.org/)下载最新版本的Hadoop。 3. 解压下载的Hadoop压缩包。使用以下命令解压: ``` tar -xzvf hadoop-x.x.x.tar.gz ``` 4. 将解压后的Hadoop文件夹移动到你想要安装的目录。例如,可以将其移动到`/usr/local`目录下: ``` sudo mv hadoop-x.x.x /usr/local/hadoop ``` 5. 配置Hadoop环境变量。编辑`~/.bashrc`文件,并添加以下内容: ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 6. 使环境变量生效: ``` source ~/.bashrc ``` 7. 配置Hadoop的核心文件。进入Hadoop安装目录,并编辑`etc/hadoop/hadoop-env.sh`文件,设置Java环境变量: ``` export JAVA_HOME=/path/to/java ``` 8. 配置Hadoop集群的相关文件。主要包括`core-site.xml`、`hdfs-site.xml`和`mapred-site.xml`。这些文件位于`etc/hadoop`目录下。你可以根据自己的需求进行配置,例如设置Hadoop的工作目录、数据存储目录、日志目录等。 9. 格式化Hadoop文件系统。使用以下命令格式化HDFS: ``` hdfs namenode -format ``` 10. 启动Hadoop集群。使用以下命令启动Hadoop: ``` start-all.sh ``` 至此,你已经成功在Linux安装并启动了Hadoop。你可以通过访问Hadoop的Web界面(默认为http://localhost:50070)来验证Hadoop是否正常运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值