Ubuntu安装搭建Hadoop spark 单机版本

1、查看当前Ubuntu的Java版本

Java -version

2、查看Java的安装路径

update-alternatives --display java

 

3、查看ubuntu的版本

uname -a

4、下载Hadoop 2.6.4 版本

wget https://archive.apache.org/dist/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz

5、将Hadoop下载完成之后解压缩

$ sudo tar -zxvf hadoop-2.6.4.tar.gz 

6、移动Hadoop

sudo mv hadoop-2.6.4 /usr/local/hadoop
查看Hadoop安装目录 /usr/local/hadoop

 

7、配置系统环境

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

注意:Java的路径需要跟自己的路径保持一致

source ~/.bashrc

8、修改配置文件

8.1 修改Hadoop-env.sh

sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh

修改Java的路径

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

8.2 修改core-site.xml

<configuration>
   <property>
             <name>fs.default.name</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

8.3 配置 yarn-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml
<configuration>
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
	<property>
		<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
		<value>org.apache.hadoop.mapred.ShuffleHandler</value>
	</property>

</configuration>

8.4 配置mapred-site.xml

复制一份模板,改名mapred-site.xml(需要切入到文件件)

sudo cp mapred-site.xml.template mapred-site.xml

<configuration>
<configuration>

        <property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
       </property>
</configuration>

8.5 修改hdfs-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode </value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
            <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
        </property>
</configuration>

8.6 创建并格式化HDFS目录

sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode
sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode

8.7 修改文件夹的所有者

sudo chown python:python -R /usr/local/hadoop
修改目录及其子目录或文件的所有者和用户组

chown -R 所有者:用户组 文件名或目录

修改目录及其子目录或文件的所有者

chown -R 所有者 文件名或目录

修改目录及其子目录或文件的用户组

chown -R 用户组 文件名或目录

注:-R表示修改目录及其子目录。

8.8 格式化HDFS

hadoop namenode -format
当前操作会删除HDFS的所有操作


9、开启hadoop

start-all.sh

10、查看hadoop resource -manager web界面

localhost:8088

11、显示Hadoop的HDFS web界面

localhost:50070

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值