HADOOP(3.3.2)安装

1、单机安装

(1)、下载

wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.2/hadoop-3.3.2.tar.gz

(2)、解压

tar -zvxf hadoop-3.3.2.tar.gz

(3)、创建用户hadoop

useradd hadoop

(4)、修改hadoop密码

passwd hadoop

(5)、创建目录/soft

mkdir /soft

(6)、移动hadoop-3.3.2到/soft目录

mv hadoop-3.3.2 /soft/

(7)、修改/soft目录属组

chown -R hadoop:hadoop /soft

(8)、使用hadoop用户登录

su – hadoop

(9)、设置java环境变量,修改/soft/hadoop-3.3.2/etc/hadoop/hadoop-env.sh文件

export JAVA_HOME=/usr/java

(10)、运行hadoop示例

cd /soft/ hadoop-3.3.2

mkdir input

cp etc/hadoop/*.xml input

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.2.jar grep input output 'dfs[a-z.]+'

cat output/*

2、伪分布式

Hadoop可以运行在一个单节点的伪分布模式,每个Hadoop守护进程运行在一个单独的Java进程。

(1)、修改etc/hadoop/core-site.xml文件

vi etc/hadoop/core-site.xml

<configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://localhost:9000</value>

    </property>

</configuration>

(2)、修改etc/hadoop/hdfs-site.xml文件

vi etc/hadoop/hdfs-site.xml

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

</configuration>

(3)、配置免密登录

ssh-keygen -t rsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

chmod 0600 ~/.ssh/authorized_keys

使用ssh localhost不用输入密码

(4)、格式化文件系统

bin/hdfs namenode -format

(5)、启动NameNode和DataNode

sbin/start-dfs.sh

(6)、浏览器访问NameNode

http://localhost:9870/

如果不是本机,把localhost修改成机器ip

(7)、创建hdfs文件系统目录/user/hadoop

bin/hdfs dfs -mkdir /user

bin/hdfs dfs -mkdir /user/hadoop

通过网页http://localhost:9870/查看

  

在文本框中输入/,点击Go按钮查看刚才创建的目录

(8)、创建文件目录input,拷贝文件到该目录

bin/hdfs dfs -mkdir input

bin/hdfs dfs -put etc/hadoop/*.xml input

(9)、运行hadoop示例

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.2.jar grep input output 'dfs[a-z.]+'

(10)、查看运行结果

A、拷贝hdfs文件到本地查看

bin/hdfs dfs -get output output

cat output/*

B、或直接在hdfs查看

bin/hdfs dfs -cat output/*

(11)、停止NameNode和DataNode

sbin/stop-dfs.sh

(12)、如果需要运行在YARN上

a、修改etc/hadoop/mapred-site.xml文件

vi etc/hadoop/mapred-site.xml

<configuration>

    <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

    </property>

    <property>

        <name>mapreduce.application.classpath</name>

        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>

    </property>

</configuration>

b、修改etc/hadoop/yarn-site.xml文件

vi etc/hadoop/yarn-site.xml

<configuration>

    <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

    <property>

        <name>yarn.nodemanager.env-whitelist</name>

        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>

    </property>

</configuration>

c、启动ResourceManager和NodeManager

sbin/start-yarn.sh

d、通过浏览器查看

http://localhost:8088/

e、运行一个MapReduce任务

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.2.jar grep input output 'dfs[a-z.]+'

注意:如果没有启动NameNode和DataNode参照前面启动,运行之前先删除输出目录,删除时,如果出现没有权限修改/etc/hadoop/core-site.xml文件添加如下属性

<property>

    <name>hadoop.http.staticuser.user</name>

    <value>hadoop</value>

</property>

然后再重新启动NameNode和DataNode

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

白杨树下O

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值