2.1 Hadoop环境搭建

本文详细介绍了如何配置Java JDK,包括下载、解压、移动及配置环境变量。接着讲解了Hadoop的下载、解压、配置环境、SSH免密登录以及相关配置文件的修改。然后创建必要文件夹并将Hadoop添加到环境变量。最后,通过一系列步骤验证了Hadoop的安装和启动,并在HDFS系统中进行文件操作,实现了文件的上传和查看。
摘要由CSDN通过智能技术生成

第一关 配置JavaJDK

  • 下载JDK

        下载网址:http://www.o\fracle.com/technetwork/java/javase/downloads/jdk8-download-2133151.html

        educoder中已经下载好,所以这一步忽略。        

  • 解压

        1.创建文件夹/app

mkdir /app

        2.切换到/opt目录,查看压缩包

cd /opt

ll

        3.解压JDK

tar -zxvf jdk-8u171-linux-x64.tar.gz

        4.等待解压完成,将JDK移动到/app目录下

mv jdk1.8.0_171/ /app

        可以切换到/app目录下查看解压好的文件夹

cd /app

ll

  • 配置环境变量

        1.输入下面的命令,编辑配置文件

vim /etc/profile

        2.在文件末尾输入:

#先按i进入编辑状态,再输入下面的代码

JAVA_HOME=/app/jdk1.8.0_171
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME CLASSPATH PATH

         3.保存并退出

#先按Esc退出编辑状态,再输入下面的代码

:wq

        4.输入下面的代码使刚才配置的文件生效

source /etc/profile

  • 测试

测试一下环境变量是否配置成功

java -version

出现如下界面代表配置成功


 第二关 Hadoop安装与伪分布式集群搭建

  • 下载Hadoop

        在官网下载http://hadoop.apache.org/

        educoder已经下载好,切换到目录/opt目录查看:

cd /opt

ll

        解压文件:

tar -zxvf hadoop-3.1.0.tar.gz -C /app

        切换到/app目录:

cd /app

        修改hadoop文件夹的名字

mv hadoop-3.1.0/ hadoop3.1

  • 配置Hadoop环境

        1.设置SSH免密登录

        首先输入下面的代码:

ssh-keygen -t rsa -P ''

         !!!接下来直接输入回车(生成密钥对:id_rsa和id_rsa.pub,默认存储在/home/hadoop/.ssh目录下)

         把id_rsa.pub追加到授权的key里面去:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

        然后修改权限:

chmod 600 ~/.ssh/authorized_keys

        启用RSA认证(如果提示权限不足在下面的语句前加上sudo):

vim /etc/ssh/sshd_config

        修改SSH配置:

RSAAuthentication yes # 启用 RSA 认证

PubkeyAuthentication yes # 启用公钥私钥配对认证方式

AuthorizedKeysFile %h/.ssh/authorized_keys # 公钥文件路径

        !!!先按esc,再输入:

:wq

        退出并保存。

        重启SSH(在自己的虚拟机中可以重启,在educoder中不用重启,重启就断开连接了)

service ssh restart

        2.Hadoop配置文件

        首先切换到Hadoop目录下:

cd /app/hadoop3.1/etc/hadoop

        hadoop-env.sh配置:

        首先进入文件:

vim hadoop-env.sh

        按i,光标滑到最底下,插入代码:

export JAVA_HOME=/app/jdk1.8.0_171

        按esc,输入:wq

        yarn-env.sh文件配置

        首先进入文件:

vim yarn-env.sh

        按i,光标滑到最底下,插入代码:

export JAVA_HOME=/app/jdk1.8.0_171

        按esc,输入:wq

        core-site.xml文件配置:

         首先进入文件:

vim core-site.xml

        按i,找到两个<configuration>,在里面插入代码:

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

<description>HDFS的URI,文件系统://namenode标识:端口号</description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/hadoop/tmp</value>

<description>namenode上本地的hadoop临时文件夹</description>

</property>

        按esc,输入:wq

        hdfs-site.xml文件配置

         首先进入文件:

vim hdfs-site.xml

        按i,找到两个<configuration>,在里面插入代码:

<property>

<name>dfs.name.dir</name>

<value>/usr/hadoop/hdfs/name</value>

<description>namenode上存储hdfs名字空间元数据 </description>

</property>

<property>

<name>dfs.data.dir</name>

<value>/usr/hadoop/hdfs/data</value>

<description>datanode上数据块的物理存储位置</description>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

        按esc,输入:wq

        mapred-site.xml文件配置

         首先进入文件:

vim mapred-site.xml

        按i,找到两个<configuration>,在里面插入代码:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

        按esc,输入:wq

        yarn-site.xml文件配置

        首先进入文件:

vim yarn-site.xml

        按i,找到两个<configuration>,在里面插入代码:

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>192.168.2.10:8099</value>

<description>这个地址是mr管理界面的</description>

</property>

        按esc,输入:wq

3.创建文件夹

        在/usr/hadoop/目录下建立tmphdfs/namehdfs/data目录:

mkdir /usr/hadoop

mkdir /usr/hadoop/tmp

mkdir /usr/hadoop/hdfs

mkdir /usr/hadoop/hdfs/data

mkdir /usr/hadoop/hdfs/name

4.将Hadoop添加到环境变量中:

vim /etc/profile

         在文件末尾插入下面的代码:

#set Hadoop Environment
export HADOOP_HOME=/app/hadoop3.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

        最后使修改生效:

source /etc/profile

  • 验证

        1.格式化

hadoop namenode -format

        出现如下界面代表成功:

          2. 启动Hadoop

        用户现在还不能启动Hadoop,需要设置一些东西

        切换到/hadoop3.1/sbin路径下:

cd /app/hadoop3.1/sbin

       编辑start-dfs.sh文件:

vim start-dfs.sh

        按i,在文件顶部添加以下参数:

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root 

        按Esc,输入:wq,保存并退出。

        编辑stop-dfs.sh文件:

vim stop-dfs.sh

        按i,在文件顶部添加以下参数:

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

        按Esc,输入:wq,保存并退出。

        编辑start-yarn.sh文件:

vim start-yarn.sh

        按i,在文件顶部添加以下参数:

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

        按Esc,输入:wq,保存并退出。

        编辑stop-yarn.sh文件:

vim stop-yarn.sh

        按i,​​​​​​​在文件顶部添加以下参数:

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

        按Esc,输入:wq,保存并退出。

        启动start-dfs.sh:

start-dfs.sh

        输入jps:

jps

出现以下界面表示启动成功:


第三关 HDFS系统初体验

  •  编程要求

        在HDFS系统的根目录下创建task文件夹,在本地创建一个名为task.txt的文件,输入:hello educoder至该文件中,最后将该文件上传至HDFS系统的/task目录。

tips:在本地操作正常输入命令即可,在HDFS系统中操作就在命令前加上hadoop fs -

  •  开始编程

1.启动Hadoop:

start-dfs.sh

2.在Hadoop系统中创建/task文件夹:

hadoop fs -mkdir /task

3.查看Hadoop系统中文件:

hadoop fs -ls /

4.在本地创建task.txt文件:

touch task.txt

5.编辑task.txt文件:

vim task.txt

6.按i开始编辑,输入下面的句子:

hello educoder

Esc,输入:wq保存并退出文件 

7.将task.txt上传至HDFS/task文件夹。

hadoop fs -put task.txt /task

8.查看HDFS /task文件夹中的task.txt文件

hadoop fs -cat /task/task.txt

显示hello educoder 表示成功。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值