关于官网介绍hadoop-3.2.1安装

1.首先准备ssh安装

 机器的公钥: id_rsa.pub

机器的私钥:id_rsa

a、输入ssh-keygen,在本机/peiyajie/.ssh/目录下生成id_rsa(私钥)、id_ras.pub(公钥)两个文件

b、输入ssh-copy-id [user]@[host],远程主机上就会有/peiyajie/.ssh/authorized_keys文件,文件内容和第一个主机的公钥相同,(相当于下图的第一步)发送本机公钥给远程服务器,此操作可能需要时间。这一步是将公钥复制到机器中去

SSH密钥到目标主机,开启无密码SSH登录

ssh-copy-id user@host

完成即可

2.手动下载然后上传服务器 下载地址:https://hadoop.apache.org/releases.html

 

tar -zxvf hadoop-3.2.1.tar.gz

当然要完成jdk安装,之后才进行(自己进行百度)

2.1进入目录:cd /home/peiyajie/hadoop-3.2.1/etc/hadoop/
修改命令:vim hadoop-env.sh
修改jdk安装目录:export JAVA_HOME=/usr/java/jdk1.8.0_211-amd64

2.2创建一个hadoop运行时产生文件的存储路径文件夹

  修改core-site.xml文件,里面增加

<!-- 指定HDFS老大(namenode)的通信地址 -->
    <property>
            <name>fs.defaultFS</name>
            <value>hdfs://0.0.0.0:9000</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/peiyajie/hadoop-3.2.1/data</value>
    </property>
2.3修改文件:vim  /home/peiyajie/hadoop-3.2.1/etc/hadoop/hdfs-site.xml

增加

    <property>
        <name>dfs.replication</name>
        <value>2</value>
   </property>
   <property>
       <name>dfs.datanode.max.xcievers</name>
       <value>4096</value>
   </property>

然后启动hadoop

第一次启动需要格式话文件

格式化: /home/peiyajie/hadoop-3.2.1/bin/hdfs namenode -format
启动:/home/peiyajie/hadoop-3.2.1/sbin/start-dfs.sh
停止: /home/peiyajie/hadoop-3.2.1/sbin/stop-dfs.sh 

修改机器端口开放,这里面开放9870和8088端口

http://p43140v.hulk.shbt.qihoo.net:9870

3.开启yarn功能

3.1进入目录 cd /home/peiyajie/hadoop-3.2.1/etc/hadoop,修改文件 vim mapred-site.xml
 <!-- 通知框架MR使用YARN -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
<property>
  <name>yarn.app.mapreduce.am.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
注意在配置文件里面需要配置:

export HADOOP_HOME=/home/peiyajie/hadoop-3.2.1
export PATH=$PATH:$HADOOP_HOME/bin:$PATH

3.2进入目录 cd /home/peiyajie/hadoop-3.2.1/etc/hadoop  
修改文件vim yarn-site.xml
添加以下配置:
<!-- Site specific YARN configuration properties -->
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>

yarn启动和关闭:

/home/peiyajie/hadoop-3.2.1/sbin/start-yarn.sh
/home/peiyajie/hadoop-3.2.1/sbin/stop-yarn.sh

访问即可完成http://10.202.234.244:8088/cluster

4.执行自带的wordcount

4.1/home/peiyajie/hadoop-3.2.1

vi test.txt

创建如下文件夹:

home/peiyajie/hadoop-3.2.1/bin/hadoop fs -mkdir -p /data/wordcount

/home/peiyajie/hadoop-3.2.1/bin/hadoop fs -mkdir /output

将文件放入对应目录:

/home/peiyajie/hadoop-3.2.1/bin/hadoop fs -put test.txt /data/wordcount

查看列表:
/home/peiyajie/hadoop-3.2.1/bin/hadoop fs -ls / 
/home/peiyajie/hadoop-3.2.1/bin/hadoop fs -ls /data/wordcount 

产生统计结果:

/home/peiyajie/hadoop-3.2.1/bin/hadoop jar /home/peiyajie/hadoop-3.2.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /data/wordcount /output/wordcount 

查看产生的结果:

/home/peiyajie/hadoop-3.2.1/bin/hadoop fs -cat /output/wordcount/part-r-00000

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值