3. CentOS 7 安装 hadoop

目录

准备阶段

1.JDK检查

安装阶段

1.JDK安装

2.hadoop 安装

3.hadoop 单机配置(非分布式)

4.hadoop 伪分布式配置

测试阶段

1.浏览器访问


准备阶段

1.JDK检查

判断是否已安装JDK,若无则安装,若有则进入正题。

# java -version

安装阶段

1.JDK安装

详解https://blog.csdn.net/qq_53715214/article/details/123890380?spm=1001.2014.3001.5502

2.hadoop 安装

进入设置好共享的文件夹下进行解压移动 hadoop

# vmhgfs-fuse .host:/ /mnt/hgfs                          挂载共享文件夹

# cd /mnt/hgfs/Downloads                                 进入共享文件夹

# sudo tar -zxf hadoop-3.1.3.tar.gz -C /usr/local        解压已经下载好的hadoop

# cd /usr/local                                          进入解压后的目录

# mv hadoop-3.1.3 hadoop                                 移动到指定目录

# ls                                                     查看是否有对应的目录

测试 hadoop 是否可用,hadoop 解压后即可使用,输入以下命令检查是否有版本信息。

# cd /usr/local/hadoop

# ./bin/hadoop version

3.hadoop 单机配置(非分布式)

 运行下面命令看见 hadoop 所有例子

# ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar  例子

# cd /usr/local/hadoop

#  mkdir ./input

# cp ./etc/hadoop/*.xml ./input

# ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep ./input ./output 'dfs[a-z.]+'

# cat ./output/* 

执行成功后如下显示:

4.hadoop 伪分布式配置

# gedit ./etc/hadoop/core-site.xml

修改配置文件

<configuration>
</configuration>

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
# gedit ./etc/hadoop/hdfs-site.xml
<configuration>
</configuration>

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

配置 hadoop 环境变量

# echo 'export HADOOP_HOME=/usr/local/hadoop/' >> /etc/profile

# echo 'export PATH=$PATH:$HADOOP_HOME/bin' >> /etc/profile

# echo 'export PATH=$PATH:$HADOOP_HOME/sbin' >> /etc/profile

# source /etc/profile   
# gedit /etc/profile
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
# source /etc/profile

配置完成后执行NameNode的格式化

# cd /usr/local/hadoop

# ./bin/hdfs namenode -format

如果出现

 Error: JAVA_HOME is not set and could not be found.

请到 hadoop 的安装目录修改配置文件"/usr/local/hadoop/etc/hadoop/hadoop/hadoop-env.sh"在里面找到

# export JAVA_HOME=

把它改为(自己的jdk路径),然后再执行NameNode的格式化

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162

能够出现以下结果表示配置完成

root登录,安装SSH,配置SSH 无密码登录,根据提示 y

# sudo yum install openssh-server

# ssh localhost

# exit 

# cd ~/.ssh/ 

# ssh-keygen -t rsa

以上部分根据提示回车即可

# cat ./id_rsa.pub >> ./authorized_keys                               加入授权

# ssh localhost                                                       无密登录

再次进入 Hadoop ,并启动

# cd /usr/local/hadoop

# ./sbin/start-dfs.sh 

输入 jps 查看进程

# jps

如果出现 jps未找到命令,输入以下进行更新后再输入 jps 查看进程

sudo yum install java-1.8.0-openjdk-devel.x86_64

          

 如上所示:

测试阶段

1.浏览器访问

在centOS 7 的浏览器上访问 localhost:9870 出现以下界面:               伪分布式安装成功


原文

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值